Académique Documents
Professionnel Documents
Culture Documents
Mars 2023
1
INTRODUCTION
Face aux différents défis de développement, l‟agriculture a une place essentielle à jouer. Un tel objectif
appelle à un renforcement des capacités nationales et internationales dans la collecte et l‟analyse
d‟informations fiables et actualisées portant sur le secteur agricole. Toutefois, améliorer la qualité des
données, s‟assurer de leur validité ou élaborer un cadre effectif pour leur collecte, analyse et diffusion
sont des difficultés quotidiennes et répétées pour de nombreux chercheurs. Le résultat des échanges et
discussions a montré que l‟organisation des données et leur valeur passent aussi par une meilleure
maîtrise des concepts et principes statistiques. La gestion de la qualité scientifique des activités de
recherche agricole (une des principales missions de l‟université via sa faculté d‟agronomie) passera par
l‟enseignement de la biométrie.
Afin d‟appuyer les étudiants dans la conception, la conduite, l‟exploitation et l‟analyse des résultats des
travaux de recherche et d‟améliorer ainsi la qualité de futures recherches. Ce cours intitulé « Biométrie,
Statistique et Principe d‟expérimentation » est dispensé aux finalistes préparant leurs travaux de fin de
cycle.
Cette formation se présente davantage comme une initiation à la rigueur que nécessite la manipulation
d‟ensembles de données afin d‟utiliser à bon escient les méthodes appropriées pour éviter de faire parler
faussement les chiffres. Les concepts et méthodes statistiques seront abordées au travers de nombreux
exemples que viendront ponctués des exercices à réaliser.
Le cours est maintenant orienté vers certains Logiciels pour encourager les apprenants à utiliser les
NTICs dans la collecte, le nettoyage et l‟analyse des données à la place de la méthode traditionnelle (à la
main i.e calculette analogique, papier et stylo).
0.1. Définition
La statistique est une méthode scientifique qui consiste à réunir des données chiffrées sur des ensembles
nombreux, puis à analyser, à commenter et à critiquer ces données. De plus en plus, beaucoup d‟auteurs
affirment que la statistique est une science ayant pour objet l'étude quantitative de grands ensembles
(Populations), à l'aide de données représentatives (échantillons), le plus souvent incomplètes, et
comportant généralement, de ce fait, un caractère d'incertitude.
Qu‟est-ce que la Biométrie? La biométrie est la mesure et l'analyse statistique des êtres vivants ou
biologiques. Elle est donc la science de la variabilité, des phénomènes qui s’y attachent et des problèmes
qui en découlent. Néanmoins, cette science n‟a pas pour objet la connaissance des éléments des
ensembles dans ce qui fait leur individualité, mais au contraire dans ce qu‟ils ont en commun : il s‟agit
d‟obtenir des résultats globaux. Ainsi, une enquête statistique portant sur des personnes n‟a pas besoin de
faire intervenir leurs noms, mais seulement les renseignements que l‟on désire étudier : elle permet de
connaître la répartition de ces personnes par âge, par sexe, groupe sanguin …
Comme dans toute autre branche de la science, la biométrie est basée sur une méthode scientifique
familièrement appelée approche induco-déductive. Toute méthode scientifique passe par la formulation
d‟hypothèses à partir de faits observés, puis par des cycles successifs de déduction et de vérification. Les
faits sont des observations qui sont considérées comme vraies, alors qu‟une hypothèse est une conjecture
provisoire concernant le phénomène à l‟examen. Des déductions sont faites à partir des hypothèses, au
2
moyen d‟arguments logiques qui sont eux-mêmes vérifiés par des méthodes objectives. Le processus de
vérification peut déboucher sur de nouvelles hypothèses, déductions et vérifications s‟enchaînant dans un
long processus au cours duquel émergent des théories, des principes et des lois scientifiques.
De quels éléments dispose-t-on pour répondre à ces différentes questions posées ? En pratique, on ne
dispose que d'un échantillon soumis aux fluctuations pour répondre à ces questions. Il faut donc
apprendre toute la rigueur du processus d‟échantillonnage pour mieux inférer. L‟inférence en biométrie
consiste à généraliser les conclusions de l‟étude statistique faite sur l‟échantillon à la toute la population
concernée par l‟étude (i.e. valider l‟hypothèse nulle ou alternative).
0.5. Pré-requis
3
Ce cours est destiné en priorité non seulement aux étudiants ayant déjà eu dans leur cursus académique un
cours de statistique descriptive, mais aussi à un public ayant une formation de base en statistique et
cependant confronté de façon récurrente à la manipulation et à l‟analyse de séries de données. Aucun
autre pré-requis n‟est exigé si ce n‟est la connaissance des opérations mathématiques de base. Pour mieux
conduire l‟initiation aux logiciels cités, la maîtrise de base du tableur Excel est supposée acquise. Après,
la Volonté, curiosité et ténacité des apprenants permettront de maîtriser sans encombre les notions
abordés qui, malgré leur complexité apparente, demeurent relativement simples.
0.6. Vocabulaire
Comme toute science, la statistique fait appel à un vocabulaire spécialisé. Ainsi, les ensembles sont
appelés populations. Comme un ensemble, une population statistique doit être clairement définie. Les
éléments de la population sont appelés individus ou unités statistiques, (que ce soient des hommes ou des
automobiles).
Population
Contrairement à ce qui se dit souvent comme quoi la population est un grand nombre de personnes
habitant une région, en statistique ce mot a une signification plus large. Une population est la totalité
des unités de n‟importe quel genre pris en considération par les statisticiens. Ex : Des arbres, des
hommes, des fermes, des comptes, des champignons, des étangs, des voitures…
Une population peut être finie ou infinie selon la détermination du nombre d‟unités qu‟elle renferme.
Ainsi par exemple, on peut considérer la population des insectes d‟une espèce donnée dans une région
donnée comme une population infinie non seulement parce que les individus en sont difficilement
dénombrable mais aussi parce que les mouvements de la population peuvent être beaucoup plus rapides.
La partie de la population qui est réellement observée constitue l’échantillon.
Échantillon
Sous-ensemble d‟une population sur laquelle on effectue une étude statistique
Son étude vise généralement à tirer des conclusions relatives à la population dont il est issu
Donc l‟échantillon est un sous ensemble de la population étudiée. On décrit un échantillon, autant qu‟une
population d‟ailleurs, à l‟aide des mesures comme l‟effectif (n), la moyenne (Ẍ), l‟écart- type, le
pourcentage,…
Les mesures qu‟on utilise pour décrire une population sont appelées paramètres tandis que celles
utilisées pour l‟échantillon s‟appellent statistiques. Sachant que l‟échantillon sert à estimer une
population, on peut par analogie dire que les statistiques servent d‟estimateurs d‟un paramètre.
Échantillon représentatif
S‟il possède les mêmes caractéristiques que la population que l‟on souhaite étudier.
Cette représentativité doit surtout se faire sur les caractéristiques pouvant influencer les réponses.
4
Faute de représentativité, les résultats obtenus sur un échantillon ne peuvent être généralisés à la
population étudiée.
Échantillonnage
Ensemble des opérations destinées à former l‟échantillon
Théorie de l’échantillonnage
Etude des liaisons existant entre une population et les échantillons de cette population, prélevés par
sondage.
Méthodes d’échantillonnage
Ensemble des techniques permettant de réaliser un sondage (de prélever un échantillon de données) au
sein d‟une population, de manière à reproduire un échantillon aussi représentatif que possible de cette
population.
Statistique descriptive :
Ensemble de procédures permettant de représenter les données traitées sous une forme utilisable et
significative
o Représentations graphiques
o Ensemble de descripteurs résumant (d'une certaine façon) les données de bases (moyenne,
écart type, coefficient de corrélation, etc.)
Ensemble de méthodes d'analyse des données
Statistique inférentielle :
Statistique inférentielle = statistique déductive
Complémentaire à la statistique descriptive
Permet d'estimer un certain nombre de paramètres caractérisant la population associée à partir de
l'échantillon étudié
Principe :
o Hypothèses formulées sur les paramètres d'une population
o Hypothèses ensuite testées sur la base d'observations faites sur un échantillon représentatif
de la population.
Inférence
L'inférence est un raisonnement par induction que l'on fait à partir d'informations récoltées sur un
échantillon afin de les généraliser à la population associée à cet échantillon
NB : La maitrise de cette notion de variable est nécessaire. Souvent la nature des variables donnent des indications
claires du choix des tests à utiliser.
Et qu‟est-ce qu‟un test statistique ? En Biométrie, un test statistique est une procédure de décision entre deux
hypothèses. Il s'agit d'une démarche consistant à rejeter ou à ne pas rejeter une hypothèse statistique, appelée
hypothèse nulle, en fonction d'un jeu de données (échantillon).
Population : « c‟est l‟ensemble de tous les individus, objets, unités statistiques qui composent cette
population ». Une population comprend tous les sujets ou objets d‟un groupe défini au départ par le
chercheur et qui ne se rapporte pas nécessairement à la totalité des sujets ou objets :
les sujets peuvent être des groupes ou des catégories sociales comme les personnes âgées à la
retraite, les ménages sous le seuil de la pauvreté, les exploitants agricoles, les groupes ethniques
etc.
les objets peuvent être des manufactures, des entreprises, des exploitations agricoles, des
habitations à loyer modique, etc.
les unités statistiques peuvent être des provinces congolaises, des municipalités, des districts, des
territoires, etc.
en géographie, on parle de population géographique : elle est un groupe de personnes ou d‟objets
ayant une ou plusieurs caractéristiques géographiques communes ; par exemple, on peut
considérer les provinces congolaises comme étant une population géographique dans laquelle il y
a un nombre fini d‟individus.
Échantillon : c’est un groupe relativement petit et choisi scientifiquement de manière à représenter le plus
fidèlement possible une population. Ainsi, au lieu d‟examiner l‟ensemble de la population, on étudie une
6
partie ou un sous-ensemble de cette population qui est représentatif et à partir duquel on peut tirer des
conclusions pour l‟ensemble de cette population.
La statistique inférentielle permet, à l’aide des probabilités, de généraliser les conclusions issues d’un
échantillon pour l’ensemble de la population avec un certain degré de certitude.
Deux types d‟échantillons peuvent être distingués : les échantillons non-probabilistes et les échantillons
probabilistes.
1. Les échantillons non-probabilistes : Les individus (sujets ou objets) sont choisis selon une
procédure pour laquelle la sélection n‟est pas aléatoire. Ce type d‟échantillon pose
plusieurs problèmes inférentiels comme nous le verrons un peu plus loin.
2. Les échantillons probabilistes : Dans ce cas, les individus (sujets ou objets) sont choisis selon
une procédure où la sélection est aléatoire.
la base d’échantillonnage doit inclure tous les individus (toutes les entités) i.e. les sujets ou les
objets ou les unités spatiales à partir desquels le choix des individus sera fait;
les individus doivent être sélectionnés par une procédure d’échantillonnage indépendante et
aléatoire à l‟aide par exemple d‟une table de nombres aléatoires.
1. 2.Types de données
Nous savons déjà que la source des données (expérimentation, enquête ou simulation). Pour ce qui est de
l‟enquête, il existe plusieurs façons de collecter les données, les chercheurs ont principalement recours à
trois grands types de méthodes: les recensements, les enquêtes-échantillon et les données administratives.
Chacun présente à la fois des avantages et des inconvénients qui seront présentés dans cette section.
Ensuite, d‟autres méthodes alternatives seront décrites.
a)Recensement
En général, un recensement fait référence à une collecte de données auprès de chaque unité d‟un groupe
ou d‟une population. Si vous aviez recueilli des données sur la taille de tous les élèves de votre classe, ce
serait un recensement de votre classe. Les recensements sont souvent utilisés non seulement pour
collecter des données à propos des unités d‟une population, mais également pour les lister et les
dénombrer. Si vous vouliez savoir combien de personnes habitent dans votre rue, vous auriez besoin de
faire une liste de tous les logements dans votre rue et ensuite la liste de toutes les personnes qui habitent
dans chacun des logements. Ce faisant, vous pourriez décider de collecter d‟autres informations comme
l‟âge, le sexe et la langue maternelle. Ceci vous permettrait de compter le nombre d‟hommes, de femmes
et d‟enfants qui habitent votre rue. Donc un recensement serait une manière directe de dénombrer le
nombre d‟unités et de produire des statistiques sur différentes caractéristiques.
Avantages :
-Pas de variabilité échantillonnale : Il n'y a pas de variabilité échantillonnale attribuée aux statistiques
issues d‟un recensement parce qu'elles sont calculées à partir de données sur la population entière.
-Fin niveau de détail : Avec un recensement, vous seriez capable de produire des statistiques pour des
petits sous-groupes de la population, pourvu que vous ayez collecté les bonnes variables de classification.
7
-Estimation directe des comptes : Le recensement permet une estimation directe des comptes de
population, bien que des ajustements puissent être considérés pour les unités qui n‟ont pas pu être
rejointes.
Inconvénients :
-Coût élevé : La tenue d'un recensement peut être dispendieuse si la population visée est grande.
-Actualité : Un recensement prend plus de temps à réaliser qu'une enquête-échantillon ce qui signifie un
plus grand délai entre la date référence et la diffusion des résultats.
-Fardeau de réponse élevé : Il faut avoir de l'information sur chacun des membres de la population
visée.
-Moins de contrôle sur la qualité : Si la taille de la population est beaucoup plus grande que celle d‟une
enquête-échantillon et que les ressources sont limitées, il se peut que des compromis soient nécessaires
sur le plan du contrôle de la qualité. Par exemple, peut-être qu‟une partie seulement des non-répondants
pourront être rejoints dans le cadre du suivi des cas pour la non-réponse.
-Information moins détaillée : Étant donné les coûts, le fardeau de réponse et l‟ampleur des activités
nécessaires pour conduire un recensement dans une grande population, les variables mesurées sont parfois
limitées à une courte liste de variables d‟identification et de classification.
b) Enquête-échantillon
Une enquête peut être n‟importe quelle activité de collecte d‟information organisée et méthodique à
propos des caractéristiques des unités d‟une population. À Statistique Canada, les enquêtes utilisent des
concepts bien définis ainsi que des méthodes éprouvées qui seront décrites dans la troisième section de ce
document. Un recensement peut être considéré comme un type d‟enquête, mais le mot enquête est le plus
souvent utilisé pour faire référence à une enquête-échantillon, c‟est-à-dire une enquête où les données
sont collectées seulement pour certaines unités d‟une population visée. Si vous obtenez la taille de 10
élèves d‟une classe de 30 élèves, vous aurez utilisé une enquête-échantillon de votre classe plutôt qu‟un
recensement.
Voici les avantages et désavantages d‟utiliser une enquête-échantillon au lieu d‟un recensement.
Avantages :
Coût plus bas : Une enquête-échantillon est moins coûteuse qu'un recensement puisque les données sont
recueillies auprès d'une partie seulement d'un groupe de la population.
Résultats plus rapides : On obtient des résultats bien plus rapidement que dans un recensement, car il y
a moins d‟unités à rejoindre et il y a moins de données à traiter.
Fardeau de réponse moins élevé : Moins de gens doivent répondre au questionnaire d'une enquête-
échantillon.
Plus de contrôle sur la qualité : La plus petite envergure des activités facilite la gestion et le contrôle de
la qualité.
Inconvénients :
8
Statistiques à un niveau moins détaillé : Il pourrait être impossible de produire des statistiques pour des
petites sous-populations ou régions géographiques si elles ne sont pas suffisamment représentées dans
l‟échantillon.
c) Données administratives
Les données administratives sont collectées par des organismes dans le cadre de leurs opérations
quotidiennes. Ces données portent, par exemple, sur les naissances, les décès, les impôts, les
immatriculations de véhicules automobiles ou les transactions. Ces données administratives peuvent être
utilisées plus tard à titre de substitut ou en soutien à une enquête-échantillon ou un recensement.
Voici les avantages et désavantages d‟utiliser des données administratives plutôt qu‟un recensement ou
une enquête-échantillon :
Avantages :
Coût plus bas : Les données administratives sont moins dispendieuses à utiliser, car il n‟y a pas
d‟opération de collecte.
Pas de variabilité échantillonnale : Il n'y a pas de variabilité échantillonnale attribuée aux statistiques
parce qu'elles sont calculées à partir de données sur des groupes entiers de la population.
Séries chronologiques : La collecte de données est continue, d'où la possibilité d'analyser les tendances.
Pas de fardeau de réponse : Il n'y a pas de fardeau additionnel pour les répondants puisque les données
sont déjà recueillies.
Fin niveau de détail : Avec les données administratives, vous seriez capable de produire des statistiques
pour de petits sous-groupes de la population ou des petites unités géographiques, tant que vous disposez
des bonnes variables de classification et que les sous-groupes ont une bonne couverture (c‟est-à-dire que
la plupart des unités appartenant à ces sous-groupes sont présentes dans le fichier).
Inconvénients :
Manque de souplesse : À la différence des données d'enquête, l‟utilisateur des données a peu de contrôle
sur le choix des variables qui sont collectées. Celles-ci peuvent dans certains cas se limiter à quelques
renseignements administratifs essentiels.
Manque d’exhaustivité : Les données se limitent à la population figurant dans les dossiers
administratifs. Cette population est souvent différente de la population cible. Plusieurs sources de
surdénombrement et de sous-dénombrement sont possibles.
Comparabilité au fil du temps : Les définitions sont conçues à des fins précises et elles évoluent au fil
du temps. Ceci peut nuire à la comparabilité si on souhaite étudier des tendances.
Concepts et définitions : Les définitions sont établies par ceux qui conçoivent et gèrent le dossier selon
leurs besoins et ces définitions peuvent ne pas être pertinentes dans un autre contexte.
9
Qualité des données : La qualité des données peut varier d‟un fournisseur de données à l‟autre, car ils
n‟accordent pas tous la même importance aux différentes dimensions de la qualité.
Éthique : Avec les recensements et les enquêtes-échantillon, les répondants sont conscients des données
qui sont collectées. Ils consentent à ce que ces données soient utilisées puisque la vaste majorité des
enquêtes sont faites sur une base volontaire. Avec les données administratives, il serait difficile
d‟informer chaque personne et d‟obtenir son consentement. Ceci implique que les individus et les
organisations qui utilisent les données administratives pour produire de l‟information statistique ont une
grande responsabilité de s‟assurer que les données sont utilisées d‟une manière bénéfique pour la société
et que l‟éthique des données a été considérée à toutes les étapes du processus.
Ces sources de données sont de plus en plus utilisées dans la production d‟information statistique pour
remplacer ou compléter les méthodes traditionnelles.
L’approche participative consiste à recueillir des renseignements provenant d‟une vaste communauté
d‟utilisateurs et repose sur le principe selon lequel chaque citoyen est un expert dans son milieu.
Importante lorsqu‟une information estt difficile à collecter par une enquête-échantillon traditionnelle.
Le moissonnage du web est un processus par lequel des renseignements sont recueillis et copiés à partir
du web aux fins d‟analyses ultérieures. Comme pour les données administratives, les utilisateurs des
données moissonnées ont une responsabilité accrue de s‟assurer de l‟éthique des données collectées et de
suivre les meilleures pratiques pour éviter de collecter des informations personnelles par inadvertance.
La télédétection est l‟acquisition à distance de renseignements à propos d‟un objet ou d‟un phénomène.
Un bon échantillon est un échantillon qui représente le plus fidèlement possible la population retenue.
Statistiquement, c‟est un échantillon ayant le niveau de confiance le plus élevé et l‟intervalle de confiance
le plus petit.
C‟est à l‟aide de techniques ou de procédures d‟échantillonnage que l‟on peut construire un échantillon. Il
existe différentes techniques d‟échantillonnage, mais toutes ne sont pas nécessairement efficaces et
précises.
• les procédures d’échantillonnage non-probabilistes : elles sont basées sur le principe d‟un choix non-
aléatoire. De ce fait, il n‟est pas possible de constituer un échantillon représentatif de la population car on
ne peut estimer la représentativité de l‟échantillon. Les techniques par quota, volontaires ou à
l‟aveuglette, en sont des exemples. Malgré ces limites, ces procédures peuvent être très utiles dans le cas
par exemple d‟une recherche de type exploratoire où le chercheur désire étudier :
les diverses dimensions d‟une question ou d‟un problème nouveau ;
ou bien interviewer des personnes-ressources (informateurs-clé) pour se documenter sur une
question ; celles-ci sont choisies en fonction de leurs connaissances, de leur expérience, de leur
statut social ou encore de leur rôle dans la communauté, etc. ;
10
ou bien interviewer quelques répondants afin d‟entreprendre un examen en profondeur d‟un sujet
défini précisément ;
ou bien choisir volontairement quelques unités statistiques pour des raisons techniques et
financières ;
• les procédures d’échantillonnage probabilistes : elles impliquent que tous les individus (sujets ou
objets) ont une chance d‟être choisis ou sélectionnés. On peut dans ce cas estimer la représentativité de
l‟échantillon i.e. mesurer l‟écart entre l‟échantillon et la population. Il existe plusieurs méthodes
d‟échantillonnage probabilistes dont les plus connues sont :
la méthode d‟échantillonnage aléatoire simple,
la méthode d‟échantillonnage aléatoire systématique,
la méthode d‟échantillonnage stratifié,
la méthode d‟échantillonnage aléatoire par groupes,
la méthode d‟échantillonnage aléatoire à plusieurs degrés.
Ces méthodes sont plus rigoureuses et plus fiables car elles permettent l‟inférence statistique.
Peu importe la méthode d‟échantillonnage choisie ; il faut préparer un plan d‟échantillonnage consistant à
décrire d‟une façon précise la population, la base de sondage, les unités d’enquête, la taille de
l’échantillon et la méthode d’échantillonnage.
a) La base de sondage : c‟est le support permettant le choix des entités de l‟échantillon. Elle contient la
liste des individus (sujets ou objets ou encore des unités spatiales) de la population à l‟étude. Cette base
rassemble donc une liste des éléments de la population étudiée inscrite sur bande magnétique, sur
disquette, sur CD, sur papier, sur des images satellitaires ou autres supports.
Le choix de la base de sondage mérite réflexion : il faut en trouver une qui soit adaptée et conforme à la
population étudiée (ou population-cible). En effet, le choix de la base de sondage peut poser quelques
problèmes dont :
le sous-dénombrement lorsqu‟il y a l‟absence d‟entités dans la liste à cause d‟omissions ou d‟une
mise à jour incomplète de cette liste, etc.
le sur-dénombrement lorsque la liste n‟est pas à jour du fait du double comptage ou de répétitions,
etc.
b) Les unités d‟enquête (individus ou unités statistiques): elles correspondent aux unités
d‟échantillonnage qui dépendent de la nature de l‟enquête. Il peut s‟agir des logements d‟une ville,
d‟exploitations agricoles, de magasins d‟un centre commercial, etc.
NB : Cependant, il faut distinguer l‟unité d‟échantillonnage de l‟unité d‟analyse car il n‟y a pas
nécessairement correspondance entre les deux :
On peut avoir recours à plusieurs méthodes d‟échantillonnage que l‟on regroupe en trois catégories :
les méthodes d‟échantillonnage non-probabilistes,
les méthodes d‟échantillonnage probabilistes,
les méthodes d‟échantillonnage spatial probabilistes.
Ce sont des méthodes où la sélection des entités est tout à fait subjective et motivée par des raisons
précises. À ce titre, on ne peut pas estimer ou calculer une marge d‟erreur sur les résultats car il est
impossible de mesurer la représentativité de l‟échantillon. Les entités sont choisies arbitrairement. C’est
l’enquêteur qui choisit les unités et non le hasard. En ce sens, il serait donc aventureux de généraliser les
résultats obtenus pour l’échantillon à toute la population.
« Because of the subjective nature of the selection process, non probability samples add uncertainty when
the sample is used to represent the population as a whole »
Elles sont souvent utiles et constituent même parfois les seules méthodes disponibles et applicables. Elles
le sont par exemple pour des études ou des recherches exploratoires, des études-pilotes.
Exemple : un chercheur pourrait interviewer des experts ou des personnes-ressources sur le terrain
plutôt que d‟entreprendre immédiatement une enquête auprès de répondants émanant d‟un
échantillon aléatoire. Elles sont également utiles pour des études comparatives, des études de cas
ou des recherches impliquant un nombre limité de sujets, d‟objets ou d‟unités spatiales.
De plus, il s’agit de méthodes pratiques quand le temps et les ressources sont limités. Cependant, elles
comportent plusieurs défauts dont la nature subjective de la démarche :
« The weakness of all nonprobability methods is that no such theoretical development is possible; as a
consequence, non probability samples can be assessed only by subjective evaluation »
– L’échantillonnage à l’aveuglette
Cette méthode non-probabiliste est tout à fait subjective : l‟enquêteur choisit ses répondants sur les lieux
de l‟enquête et cette sélection se poursuit jusqu‟à la taille de l‟échantillon prévue. Ainsi, les individus
sont-ils choisis sur la base de leur présence en un lieu et un temps donné. Tous les autres sont exclus de
l‟échantillon. Cette méthode comporte des biais importants car d‟une part une partie de la population-
cible est exclue si elle ne se trouve pas sur le lieu de l‟enquête et, d‟autre part, la probabilité de sélection
des cas est impossible à calculer. Cette méthode est efficace si la population étudiée est homogène.
– L’échantillonnage de volontaires
L‟échantillon est constitué de personnes volontaires suite à une sollicitation ou une invitation de la part du
chercheur.
– L’échantillonnage par quotas
Le principe de cette méthode est de reproduire le plus fidèlement la population étudiée. Le chercheur
choisit les individus en fonction de certaines caractéristiques de la population qu‟on appelle variables de
contrôle (par exemple, selon la composition démographique, les profils de revenus, etc.). Il faut d‟abord
choisir ces variables qui serviront pour la sélection ultérieure des individus de l‟échantillon. Cela suppose
qu‟un certain nombre de données statistiques de la population soient connues. Ces groupes sont constitués
en fonction du lieu géographique, de l‟âge, du sexe, du revenu, etc. :
« Les quotas sont souvent établis de façon à être sensiblement proportionnels à la fraction de la
population représentée par chaque groupe »
12
Reste ensuite à préparer un plan d‟échantillonnage au sein duquel le nombre de cas est prévu, conforme
ou correspondant aux variables de contrôle. Puis, chaque enquêteur est libre d‟interviewer les personnes à
la condition de répondre aux quotas fixés.
Bref : Lorsque le chercheur veut reproduire les caractéristiques d’une population (ex. âge, sexe, revenus, variétés, etc.)
dans son échantillon.
Par exemple, entreprendre une enquête auprès de personnes âgées demeurant à leur domicile dans un
quartier précis ne peut être menée à bien à partir de l‟annuaire téléphonique car les informations ne
figurent pas dans un tel document. Il faut plutôt passer par des associations de personnes âgées du quartier
pour retracer et localiser ces personnes âgées à leur domicile.
Bref : Utile dans le cas de la rareté des unités d’échantillonnage ou de l’absence d’un cadre
d’échantillonnage valide. On demande à un répondant de nous référer à un autre qui présente les mêmes
caractéristiques que les siennes, et ainsi de suite…
Dans les méthodes probabilistes, le choix des sujets, objets ou unités spatiales, s‟effectue souvent à partir
d‟une table de nombres aléatoires. Généralement, deux règles de base sont à respecter dans les procédures
d‟échantillonnage :
o la base d‟échantillonnage doit inclure toutes les entités à partir desquelles le choix des
individus, objets ou unités spatiales sera fait ;
o les entités devraient être sélectionnées à partir d‟une procédure d‟échantillonnage aléatoire
indépendant.
Un des avantages des méthodes probabilistes est que l‟on peut faire de l‟inférence statistique i.e.
généraliser les conclusions issues d‟un échantillon pour l‟ensemble de la population. Les méthodes non-
probabilistes ne sont pas dénuées d‟intérêt pour autant. Au contraire, elles sont utiles quand, d‟une part, la
représentativité de l‟échantillon n‟est pas importante et, d‟autre part, lorsque que le chercheur veut
explorer ou étudier une question peu documentée. Les méthodes non-probabilistes sont souvent
complémentaires des méthodes probabilistes, entre autre, dans la conception d‟une recherche. Mais d‟une
façon générale, le choix de la méthode se fait à partir des considérations suivantes :
« The cost of using a sampling method is a combination of the cost of collecting the measurements, and
of the frame; the time taken is similarly a combination of the time spent in the field and the time spent
before hand obtaining the frame and drawing the sample. It is these costs and the time limits, as well as
constraints at the analysis stage, which will largely determine the sample size and the methods which are
feasible ».
sujets ou les unités spatiales sont choisis d’une façon aléatoire souvent à l’aide d’une table de nombres
aléatoires. Plus souvent, il s‟agit d‟un échantillonnage sans remise i.e. qu‟un sujet ou un objet ne peut
être choisi qu‟une seule fois tandis que dans un échantillonnage avec remise le sujet ou l‟objet peut être
choisi plus d‟une fois. Le principal avantage réside dans le fait que chacune des entités a la même chance
d‟être choisie dans l‟échantillon :
« In a simple random sample (SRS), each sampling unit and every possible combination of sampling units
has an equal chance of selection ».
Il est souhaitable que la base de sondage soit complète, à jour et sans répétition (ou dédoublement).
Toutefois, le choix des entités peut, malgré toutes les précautions, amener certains biais entre autres à
cause de la base d‟échantillonnage elle-même. En revanche, on peut calculer l‟erreur d‟échantillonnage
(E) i.e. la différence entre les caractéristiques de l‟échantillon et celles de la population (p. ex. la
moyenne, l‟écart-type...).
Cette méthode est efficace pour s‟assurer d‟une bonne couverture de la base d‟échantillonnage.
L‟échantillonnage aléatoire systématique est simple et comporte les étapes suivantes :
L‟intervalle d‟échantillonnage est égal à l‟inverse de N/n : soit une entité sur 100 entités.
Puis, on choisit au hasard un nombre entre 1 et 100 i.e. un point de départ aléatoire afin de commencer
l‟échantillonnage. Ce nombre peut être choisi à l‟aide d‟une table de nombres aléatoires. Si le nombre est
le 72, alors c‟est l‟objet, le sujet ou l‟unité spatiale au 72 e rang qui sera choisi dans la liste
d‟échantillonnage. C‟est non seulement le point de départ aléatoire mais la première entité retenue pour
l‟échantillon.
14
Pour le choix des autres entités, on ajoute au point de départ aléatoire l‟inverse du taux de sondage (1/k)
soit dans notre exemple le chiffre 100 et ainsi de suite. On obtient les chiffres suivants pour un échantillon
de taille (n) 10.
1. 72
2. 72 + 100 = 172
3. 172 + 100 = 272
4. 272 + 100 = 372
5. 372 + 100 = 472
6. 472 + 100 = 572
7. 572 + 100 = 672
8. 672 + 100 = 772
9. 772 + 100 = 872
10. 872 + 100 = 972
Nous pouvons procéder différemment en choisissant plusieurs points de départ dispersés dans la liste ou
la base d‟échantillonnage puis estimer « k ». Par exemple, nous voulons échantillonner 100 entités d‟une
population de 1 000 entités. L‟intervalle d‟échantillonnage est égal à : 1 000/100 = k = 10
Puis, nous pouvons choisir 5 nombres au hasard entre 1 et 1000 : par exemple, 4, 26, 364, 505, 787.
Il y a d‟autres versions de la méthode dont celle de choisir un intervalle variable et aléatoire au lien d‟un
intervalle fixe comme dans l‟exemple plus haut.
En revanche, subsistent quelques lacunes dont celle de ne pas être strictement aléatoire ; la sélection des
entités ou éléments n‟est pas indépendante parce qu‟une fois la première entité choisie, toutes les autres
sont fixées.
NB : Ces variables de contrôle permettent de découper la population en strates. Elles sont choisies en
fonction de l‟enquête et peuvent même servir de variables explicatives dans l‟analyse (au sens statistique).
Évidemment, cette démarche suppose que le chercheur connaisse les caractéristiques de base de la
population à l‟étude ; de plus, elles doivent être disponibles dans la base de sondage. L‟échantillonnage
stratifié permet la représentation de l‟échantillon pour tous les éléments de la population. Ces strates
doivent couvrir la population-cible à l‟étude i.e. s‟assurer, d‟une part, que chaque catégorie de la
population est bien représentée dans l‟échantillon et, d‟autre part, que chaque sujet ou objet ou unité
spatiale soit bien représenté. Dans le cas d‟une population hétérogène, la stratification permet d‟obtenir
un portrait plus fidèle de la population.
« The benefits of stratification derive from the fact that the sample size in the strata are controlled by the
samples, rather than being randomly determined by the sampling process ».
Il est à noter que les strates doivent être mutuellement exclusives de manière à permettre les
comparaisons entre elles. Un des avantages de la méthode est de donner des estimations précises surtout
lorsque les groupes issus de la stratification sont homogènes. En effet, l‟erreur dans les estimés autour des
paramètres de la population diminue en raison de la stratification. Ainsi, on peut calculer des estimations
séparées pour chaque strate.
« The division of the total sample between the strata does not however have to be restricted to a
proportionate allocation: disproportionate stratification is also possible ».
Plusieurs procédures de stratification peuvent être retenues. Il y à le cas où l‟on peut utiliser une
procédure d‟échantillonnage différente pour chacune des strates de la population :
« Dans une étude à caractère social, il se peut qu’on veuille utiliser, pour échantillonner les habitants
des régions rurales peu peuplées, une méthode différente de celle utilisée pour des régions urbaines à
plus forte densité de population. Il peut aussi y avoir des différences entre les listes disponibles pour
diverses catégories de la population ».
Subsiste également la question de la répartition de l‟échantillon entre les strates. Elle peut être calculée
sur une base proportionnelle i.e. un nombre de sujets proportionnel à l‟effectif de la strate ou sur une base
non-proportionnelle. Le choix de la fraction d‟échantillonnage dépend en partie du degré d‟hétérogénéité
ou d‟homogénéité de la strate. En principe, on devrait choisir une fraction d‟échantillonnage plus petite
pour les strates homogènes et une fraction d‟échantillonnage plus grande pour les strates hétérogènes.
Bref : On suppose que la population soit stratifiée, constituée de sous-populations homogènes, les strates. (ex : stratification
par tranche d’age). Dans chaque strate, on fait un échantillonnage aléatoire simple, de taille proportionnelle à la taille de
strate dans la population (échantillon représentatif). Les individus de la population n’ont pas tous la même probabilité
d’être tirés. Nécessite une homogénéité des strates. Le chercheur divise la population en sous-groupes distincts et
homogènes (strates) à partir desquels il sélectionnera un échantillon aléatoire simple.
Étapes :
1. choisir une variable de stratification (ex : tranche d’age).
2. Sélectionner un échantillon aléatoire dans chaque strate.
16
Exemple : Supposons que 60% des étudiants de l’UCB sont des filles et 40% des garçons, pour former
un échantillon de 120 étudiants en respectant ces strates, on devrait choisir au hasard 60% x 120 = 72
filles et 40% x 120 = 48 garçons.
Trois étapes sont reconnaissables. La première étape réside dans la constitution de la liste des grappes à
partir de critères bien définis comme par exemple l‟îlot, l‟immeuble, etc. Puis, on choisit par
échantillonnage aléatoire simple un certain nombre de grappes où tous les individus de chaque grappe
sont enquêtés.
Les grappes devraient être les plus hétérogènes possibles i.e. que les sujets dans chaque grappe sont
différents les uns par rapport aux autres. L‟hétérogénéité peut être accrue en faisant une bonne division de
la base d‟échantillonnage. Par exemple, dans le cas de zones urbaines, l‟échantillon serait meilleur si le
géographe circonscrit des zones allongées plutôt que des zones compactes.
C‟est une méthode pouvant être pour certaines recherches moins coûteuses que les autres, et qui permet
de minimiser les déplacements. En revanche, les estimations statistiques sont moins précises que celles
fournies par l‟échantillonnage aléatoire simple.
Bref : On tire au hasard des grappes ou familles d’individus, et on examine tous les individus de la grappe (ex: on tire des
immeubles puis on interroge tous les habitants). La méthode est d’autant meilleure que les grappes se ressemblent et que les
individus d’une même grappe sont différents, contrairement aux strates. Le chercheur divise la population en sous-groupes
appelés « grappes ». Les grappes ont le même profil, la variance d’une grappe à l’autre étant faible. Il sélectionne par la suite
un échantillon aléatoire de grappes et non pas un échantillon aléatoire à l’intérieur de chaque grappe
17
Exemple : Les étudiants de G3 agro sont répartis en 11 groupes, les groupes sont numérotés de 1 à 11.
Supposons que l’on obtienne les nombres 2, 5, 7 et 10, tous les étudiants de ces 4 groupes feront partie de
l’échantillon.
Cette méthode comporte plusieurs étapes comportant plusieurs degrés d’échantillonnage. En effet, la
méthode part de la présomption qu‟il y a une hiérarchie d’espaces emboîtés où les unités spatiales du
premier degré peuvent être subdivisées en unités du deuxième degré et ainsi de suite.
Par exemple, une ville est composée d‟arrondissements, les arrondissements de quartiers, les quartiers
d‟îlots, etc. Pour chaque degré d‟échantillonnage, il existe une base de sondage correspondante. En
d‟autres mots, un découpage géographique correspondant à chaque échelle géographique et chaque unité
spatiale à l‟échelle du premier degré se subdivise en unités du deuxième degré :
« Les unités d’échantillonnage du premier degré sont appelées unités primaires d’échantillonnage, et les
unités d’échantillonnage du deuxième degré, unités secondaires d’échantillonnage ».
« In two-phase, or double, sampling, certain sterms of information are collected for an initial, or just-
phase, sample, their further items are collected at the second phase from a subsample of the initial
sample. The method may be extended to more phase (multipliasing sampling), but for most purpose two
phases suffice ».
o la procédure continue et s’arrête lorsque les sujets ou les objets de la population-cible ont
été sélectionnés aléatoirement.
Cette méthode consiste à recueillir de l‟information auprès d‟un échantillon puis de collecter des
informations supplémentaires auprès d’échantillons plus petits ou sous-échantillons. Ce sont des
enquêtes à plusieurs niveaux ou échelles. On peut utiliser cette méthode pour le recensement de la
population et des logements. En effet, un questionnaire « court » ou abrégé est distribué à la population et
un questionnaire « long » ou détaillé est distribué à un échantillon aléatoire de la population.
Le but de la méthode est de recueillir de l‟information sur plusieurs points, dans le temps. En effet, il
arrive souvent d‟interroger les répondants d‟un échantillon sur une certaine période de temps. Cela veut
dire que le chercheur doit solliciter les mêmes répondants pour une deuxième enquête et même plus
dans certains cas. Malgré les avantages indéniables, il faut savoir qu‟il est difficile de revoir tous les
répondants de l‟enquête initiale à cause de départs ou de déménagements voire, tout simplement, de
décès.
pour le premier point, on choisit un premier nombre pour l‟axe des « Y »: on obtient alors une
paire de coordonnées pour localiser le premier point ;
puis, on sélectionne aléatoirement autant de paires de coordonnées selon l‟échantillon désiré.
Un des désavantages de la méthode est qu‟elle peut donner une couverture spatiale de points plus ou
moins satisfaisante.
si n = 50 taille de l‟échantillon et
m = 25 nombre de cellules
19
alors, le nombre de points par cellule est égale à 50/25 soit 2 points par cellule. Dans ce cas, on choisit
aléatoirement deux points par cellule.
Par cette méthode de sondage, les échantillons sont stratifiés dans le but de couvrir les caractéristiques de
la région d‟étude. Cela constitue un avantage car les comparaisons entre les différentes strates sont
possibles. De plus, la précision des estimations est plus grande.
Ainsi, peut-on par exemple constituer des strates à partir des différents espaces d‟une région
métropolitaine et ensuite choisir au hasard les individus ou les objets dans chaque strate. La taille de
l‟échantillon de chaque strate peut être proportionnelle à la surface qu‟occupent la ville centrale, la
banlieue et les espaces périurbains par rapport à la surface totale. Par exemple, si la taille de l‟échantillon
est égale à 24 (n), alors :
Cette méthode cumule les avantages du tirage aléatoire, de la stratification et des sondages systématiques.
La première étape consiste à transposer sur la zone d‟étude une grille de cellules régulières de même
taille. Chaque cellule est numérotée de 0 à 9 sur l‟axe des « X » et l‟axe des « Y ». Ensuite, il faut
déterminer un point-origine dans la première cellule en choisissant deux nombres au hasard compris
entre 0 et 9 et qui composeront la première paire de coordonnées. Pour remplir la ligne inférieure, on
maintient la valeur « X » constante tout au long de la ligne horizontale mais celle de « Y » varie entre 0 et
9. La valeur en abscisse est égale à celle du point-origine : par exemple, si les coordonnées du point
origine sont 7,3, alors la séquence des coordonnées sur cette ligne pourrait être : 7,3 ; 7,8 ; 7,5 ; 7,4 ; 7,1 ;
7,6 ;...
Pour remplir la ligne verticale la procédure est similaire sauf que la valeur « Y » est constante et celle de
« X » varie. Par exemple, la séquence des coordonnées sur la ligne verticale pourrait être: 7,3 ; 3,3 ; 5,3 ;
2,3 ; 4,3 ; 6,3 ;...
NB : En principe, plus une population est dispersée, plus la taille de l’échantillon devrait être élevée. En
effet, une population dispersée aura tendance à résider dans un milieu plus hétérogène.
21
Le deuxième facteur est à la fois la précision souhaitée et l‟intervalle de confiance. Le niveau de précision
généralement recherché est de 95 %. Quel que soit le plan de sondage, la taille de l‟échantillon requis
pour estimer un paramètre à un niveau de confiance de 95 % sera plus élevée qu‟à un niveau de confiance
de 90 %.
L‟autre facteur est le coût, qui comprend des coûts fixes et les coûts variables. Les coûts fixes sont les
coûts requis pour la conception du questionnaire, la stratégie d‟échantillonnage, l‟analyse de données et la
rédaction du rapport : ces coûts ne varient pas en fonction de la taille de l‟échantillon. Les coûts variables
peuvent augmenter d‟une façon significative. Ces coûts couvrent l‟engagement d‟enquêteurs, les frais de
déplacement, les frais d‟hébergement et de subsistance, etc.
Ajoutons à cela le temps ou le calendrier de travail. Ce dernier facteur est d‟importance : quel est le temps
dont on dispose pour la réalisation de l‟enquête ? Quelles sont les périodes impératives imposées par le
contenu de l‟enquête (tourisme hivernal, enquêtes écologiques...) ?
Quelle est la taille de l'échantillon d‟individus, d‟objets ou d‟unités spatiales nécessaire dans un processus
d‟échantillonnage ? Cela dépend de plusieurs facteurs dont celui de la marge d‟erreur tolérée à un certain
niveau de confiance :
« La nécessité de fixer à l’avance une taille minimale d’échantillon est liée au besoin d’avoir une marge
d’erreur déterminée à un certain niveau de confiance ».
De plus, la détermination de la taille de l‟échantillon dépend aussi en grande partie du plan de sondage.
En effet, les plans de sondage offrent une grande diversité :
Pour calculer la taille idéale d'un échantillon, vous devrez définir un ensemble de valeurs et les remplacer
dans une formule appropriée.
A) Utilisation de la formule standard
Si la population en question est petite ou moyenne et que vous connaissez toutes les valeurs importantes,
vous devez utiliser la formule standard. L'équation standard pour calculer la taille de l'échantillon (n) est
la suivante :
[z2*p(1-p)] / e2
n= / 1 + [z2*p(1-p)] / e2*N]
o N = taille de la population
o z = z-score
o e = marge d'erreur
o p = écart-type
22
n = [z2*p(1-p)] / e2
o z = z-score
o e = marge d'erreur
o p = écart-type
Il est à noter que cette formule est en quelque sorte le numérateur de l'équation précédente.
c) formule de Slovin
La formule de Slovin est une équation très générale que l'on utilise lorsqu'on peut estimer la taille d'une
population, sans savoir comment elle se comporte. Cette formule est décrite comme suit :
n = N / (1 + N*e2)
o N = taille de la population
o e = marge d'erreur
Il est à noter qu'il s'agit de l'équation la moins précise et, par conséquent, la moins appropriée à
utiliser. Vous ne devriez l'utiliser que si les circonstances vous empêchent de déterminer un écart-
type ou un niveau de confiance approprié (sans lequel, vous ne pouvez pas définir un z-score).
Bref : Beaucoup de plan de sondage existent ; nous retiendrons ici le cas le plus simple, celui de la taille
de l‟échantillon à partir de proportions.
En principe, les erreurs d‟échantillonnage diminuent au fur et à mesure que s‟accroît la taille de
l‟échantillon i.e. que plus la taille d‟échantillon se rapproche de celle de la population plus les erreurs
diminuent. Au-delà d‟un certain seuil, la précision d‟un estimé on d‟un paramètre s‟accroît peu.
Généralement, les erreurs d‟échantillonnage diminuent de façon inversement proportionnelle à la taille de
l‟échantillon : E ≈ 1/n
où :
E = erreurs d‟échantillonnage
n = taille de l‟échantillon
Mais quelles sont les erreurs d‟échantillonnage ? Deux principaux types d‟erreurs peuvent être
mentionnés :
a. le premier type d‟erreur est attribuable aux fluctuations dans l‟estimation des paramètres. Ces
erreurs sont mesurables par l‟erreur-type i.e la différence entre les valeurs ou statistiques d‟un
échantillon et les paramètres de la population. On peut calculer une probabilité associée à cette
erreur ;
b. le deuxième type d‟erreur constitue des biais, cette fois-ci attribuables à plusieurs facteurs. Par
exemple, ces biais peuvent survenir au moment de la collecte des données et/ou à cause de
l‟instrument de mesure et/ou à l‟étape de la compilation des données et/ou dans le codage et/ou le
traitement des données, etc.
Dans la détermination de la taille de l‟échantillon, il faut tenir compte de la réalité du processus d‟enquête
ou de sondage. Il est normal d‟avoir des refus de la part de répondants potentiels ou de ne pouvoir
atteindre ou rejoindre certains répondants de la liste d‟échantillonnage. Pour ces raisons, il faut prévoir un
taux de réponse minimal afin de compenser cette « perte ». Ce taux de réponse minimal consiste à
augmenter la taille de l‟échantillon.
23
Pour compenser la perte anticipée, il faut multiplier la taille de l‟échantillon par l‟inverse des taux de
réponse :
N‟ ≥ (600) (100/75)
N‟ ≥ 800
Ainsi, il faudrait réajuster la taille de l‟échantillon à 800 répondants au lieu de 600 répondants
initialement prévus.
Dans les chapitres qui suivent, sur la statistique inférentielle, il sera question de la décision statistique.
Par exemple, comment tester une hypothèse sur le pourcentage d‟un échantillon de résidents qui achètent
des vêtements dans un centre d‟achats situé à la périphérie d‟une municipalité ? Pour ce faire, la décision
statistique passe par le test d‟hypothèse.
La démarche d‟un test d‟hypothèse suit les étapes suivantes :
En premier lieu, il y a la formulation de l‟hypothèse nulle (H0) qui est l‟hypothèse à rejeter. Si
l‟hypothèse nulle est rejetée, on accepte Hl, l‟hypothèse alternative. On teste HO contre H1. Si on pose
que deux échantillons sont différents (H1), on pourrait par exemple comparer la moyenne de chacun :
alors,
HO : u1 = µ2
H1 : u1 > µ2 ou H1 : u1< µ2
L‟étape suivante est le choix du test statistique, le niveau de signification et la taille de l‟échantillon. Il
faut choisir entre un test paramétrique ou un test non-paramétrique : cela dépend entre autres du type de
mesure et des présomptions du test paramétrique. Une fois cette décision prise, l‟objectif est de tester Ho.
Le test statistique donne une valeur dont la probabilité associée sous Ho est égale ou inférieure à une
probabilité « I ». Cette probabilité est le niveau de signification normalement fixé à 5 % ou à 1 %. Le
niveau de signification définit un événement rare sous HO quand l‟hypothèse nulle est vraie. Cependant,
rejeter par erreur HO, quand HO est vraie, est une erreur de type I et omettre de rejeter HO quand elle est
fausse est une erreur de type IL La probabilité de commettre une erreur de type I est donnée par « a » :
plus « a » est grand, plus il y a de chances de faire une erreur de type I. Si l‟erreur de type II est
représentée par « (3 », la puissance d‟un test est définie par la probabilité de rejeter HO quand elle
fausse :
La probabilité de commettre une erreur de type II diminue avec la taille de l‟échantillon (n) : l‟efficacité
d‟un test augmente avec la taille de l‟échantillon.
Ensuite, on doit choisir la distribution d‟échantillonnage i.e. une distribution théorique du paramètre
comparé. La distribution d‟échantillonnage est la distribution de toutes les valeurs possibles quand HO est
vrai, d‟une statistique comme, par exemple, la moyenne de l‟échantillon, calculée à partir de plusieurs
échantillons prélevés de la même population. Si on prend tous les échantillons possibles de taille « n » et
que l‟on calcule la moyenne de chaque échantillon, la distribution de ces moyennes va approcher une
courbe normale avec une moyenne « T » et un écart-type de [/√n quand « n » est grand. L‟étape de la
distribution d‟échantillonnage est suivie par la détermination de la zone de rejet (fig. 6.5). C‟est la région
de la distribution d‟échantillonnage qui regroupe toutes les valeurs extrêmes quand HO est vraie. La
probabilité est donc très petite. La zone de rejet est déterminée par Hl. Elle peut être unilatérale ou
bilatérale et la surface de rejet est définie par « a » (i.e. le niveau de signification).
La dernière étape consiste à calculer la valeur de la statistique une fois l‟échantillon constitué. Si la valeur
est dans la zone de rejet, il faut rejeter HO ; en revanche si la valeur est à l‟extérieur de la zone de rejet, il
faut accepter HO au niveau de signification « α ».
24
On peut reconnaître plusieurs tests d‟hypothèse. Des grandes catégories peuvent être distinguées :
Rigueur et transparence : telles sont les deux exigences impératives qui doivent être respectées en matière
d‟échantillonnage. Cet exercice ne souffre guère l‟improvisation ou l‟à peu près.
La statistique est la science de l‟incertitude qui tente de généraliser pour l‟ensemble d‟une population
donnée les conclusions tirées des résultats issus d‟un échantillon : c‟est ce qu‟on appelle l‟inférence
statistique. La statistique regroupe des méthodes à partir desquelles on recueille, organise, résume et
analyse des données qui permettent de tirer des conclusions et de prendre des décisions.
Pour certains auteurs, la statistique est d‟abord inductive dans le sens où les conclusions tirées excèdent
dans une certaine mesure les prémisses sur lesquelles elles sont basées.
Par exemple, un échantillon révèle que plus de 30 % des champs d‟une zone agricole produisent moins de
1t/ha. Pourrait-on en conclure que 30 % de tous les champs de ladite zone agricole produisent réellement
moins de 1t/ha ? Cette question est d‟importance car une partie seulement des résidents a été interviewée.
La statistique inférentielle permet de répondre à cette question en estimant, à partir de la fréquence
calculée pour l‟échantillon, un intervalle de confiance autour de cette fréquence, ayant une probabilité de
chances (que l‟on choisit) de contenir la fréquence sur toute la population.
Ainsi, comment tester une hypothèse sur le pourcentage d‟une population des champs de la zone agricole
produisant moins de 1t/ha? La décision statistique passe par le test d‟hypothèse.
On ne peut certes pas présenter toutes les techniques de la statistique inférentielle car elles sont trop
nombreuses. Toutefois, il faut dire qu‟elles sont « puissantes », surtout celles qui ont les présomptions les
plus « exigeantes » ; elles le sont d‟autant plus que la taille de l‟échantillon augmente. Toutefois, ces
méthodes dites « paramétriques » comportent des présomptions qui souvent gênent leur application.
En Agronomie, le chercheur est porté à prendre des décisions dans un univers aléatoire. Il n‟y a personne
qui peut prédire avec certitude que demain il va pleuvoir. Il n‟y a personne qui peut avancer sans risque
de se tromper qu‟en plantant 5 kg de maïs, le cultivateur récoltera 1500 kg. Il n‟y a personne qui peut
annoncer le passage des oiseaux migrateurs un jour fixe. Les phénomènes biologiques sont tributaires de
plusieurs aléas.
Il faut donc définir la règle de jeu pour prendre des décisions dans cet environnement.
25
Le processus qui consiste à estimer un paramètre d‟une population par une statistique est dit estimation
ponctuelle. Après la collecte des données, la statistique n‟est plus une variable aléatoire mais plutôt une
réalisation de l‟estimateur ponctuel.
Une fois que l‟on a défini l‟hypothèse nulle et l‟hypothèse alternative, et sélectionné le test statistique
approprié, l‟étape suivante consiste à spécifier le seuil de signification et à choisir la taille de l‟échantillon
(n). La procédure de prise de décision se résume à rejeter H0 au profit de H1, si le résultat du test
statistique est une valeur correspondant à une probabilité de réalisation, dans l‟hypothèse H0, égale ou
inférieure à une faible probabilité symbolisée par le signe α . Cette faible probabilité est appelée seuil de
signification. Le seuil de signification est symbolisé par α (alpha).
Le seuil de signification le plus souvent utilisé est celui de point 0.05. On adopte un niveau moins
sévère càd (10%) quand il y a des mesures imprécises et peu nombreuses. Par exemple des app non
fiables. On l’adopte aussi quand il s’agit d’un travail préparatoire suggérant une étude plus
approfondi ou enfin quand il s’agit de quelques mesures rapides pour confirmer une conclusion
solidement établie.
On adopte un niveau sévère par contre quand il y a des mesures précises et nombreuses ou s’il s’agit
d’une étude finale donnant une conclusion définitive ou encore quand on veut contredire une
opinion généralement admise.
Les valeurs les plus courantes de α sont 0.05 et 0.01. En d‟autres termes, si la probabilité associée à
l‟obtention, dans H0 (c‟est-à-dire quand l‟hypothèse nulle est vraie) de la valeur spécifique résultant d‟un
test statistique, est égale ou inférieure à α , nous rejetons H0 et nous acceptons H1, qui est la formulation
opérationnelle de l‟hypothèse de recherche. Il s‟ensuit que a indique la probabilité de rejeter par erreur
H0.
Certains tests supposent une loi ("distribution") théorique sous-jacente avec des paramétres. Ce sont les
tests paramétriques. D'autres n'imposent aucune hypothèse de distribution. On les nommes tests non-
paramétriques. Suivant qu'on compare une valeur calculée (comme par exemple une moyenne, une
proportion) à une valeur théorique ou qu'on compare deux ou plusieurs valeurs calculées entre elles, on
parle de test de conformité ou d'homogénéité. On utilise le même vocabulaire pour comparer la ou les
distributions calculées. Mais les choses se compliquent si les données sont appariées ou non, si les
effectifs des échantillons sont suffisants ou pas...
Il y a beaucoup de tests car il y a beaucoup de situations. On trouve dans ci-dessous une liste de divers
tests en fonction des variables et de la nature et/ou du nombre d'échantillons.
Autres tests
Un test intéressant à connaitre (sous hypothèse de normalité) est celui de la significativité de coefficient de
corrélation linéaire (cor.test). On peut aussi comparer deux coefficients de corrélation linéaire. Une autre série de
tests importants sont les tests dits post hoc. On les utilise, en cas de comparaisons multiples significatives, pour
savoir quels échantillons différent. Il y a par exemple le test de Tukey, le test de Newman-Keuls, le test de
Dunnett, le test de Scheffé.
Un test non paramétrique est un test dont le modèle ne précise pas les conditions que doivent
remplir les paramètres de la population dont a été extrait l'échantillon. Cependant certaines
conditions d'application doivent être vérifiées. Les échantillons considérées doivent être
aléatoires [lorsque tous les individus ont la même probabilité de faire partie de l'échantillon]
et simples [tous les individus qui doivent former l'échantillon sont prélevés indépendamment
les uns des autres] (7), et éventuellement indépendants les uns des autres [emploi de tables de
nombres aléatoires]. Les variables aléatoires prises en considération sont généralement
supposées continues.
28
On dispose d‟une variable quantitative. Elle peut bien être une mesure, une proportion ou même une
variance. Tu connais aussi une norme par la littérature, les rapports etc…
Ton problème est de tester la conformité de ta moyenne à cette norme. La question que tu te poses est la
suivante : est-ce qu‟il y a une différence significative entre la moyenne de ma variable calculée sur un
échantillon tiré de ma population et la norme ?
Hypothèses
Supposons que d‟un échantillon, tu veuilles tester si la moyenne est égale à la norme. L‟hypothèse nulle
est dans ce cas, Ho : μ= μo
Il existe trois hypothèses alternatives correspondant à cette hypothèse nulle.
- Un test bilatéral (two-tailed test) où tu n‟as pas besoin de spécifier si la moyenne est supérieure ou
inférieure à une norme. Tu ne t‟intéresses qu‟à la différence. Dans ce cas l‟hypothèse alternative s‟écrit:
H1 : μ≠ μo
- Un test unilatéral (one-tailed test) où tu précises ta préoccupation à savoir si la moyenne est supérieure
(ou inférieure) à la norme. Dans ce cas l‟hypothèse alternative s‟écrit:
H1 : μ<μo ou H1 : μ>μo
Z test
29
Soit x la variable en étude, x la moyenne de l‟échantillon, µola norme, δ l‟écart-type donné et δẌ l‟écart-
type des moyennes des échantillons.
Si l‟écart-type est connu, et si le nombre d‟observations est supérieur à 30, alors la distribution des
observations est normale. De ce fait, la distribution des moyennes des échantillons (si tu pouvais en tirer
plusieurs) est aussi normale. Dans ce cas, la statistique de décision est la statistique z. z s’écrit :
Find the appropriate critical values for the tests using the Z-table for test of one proportion.
test bilateral (Two-Tailed) test unilatéral à gauche ( Left-Tailed) test unilatéral à droite (Right-Tailed)
Reject H0 if |Z∗ |≥Zα/2 Reject H0 if Z∗ ≤Zα Reject H0 if Z∗ ≥Zα
NB : utilisation de la table Z ( normale centrée réduite): Z alpha est obtenu en faisant 1-alpha pour le test unilateral (ou 1-
alpha/2 pour un test bilatéral). La valeur trouvée est lue sur la table. Z tabulaire est obtenu en additionnant les valeurs de la
colonne et de la ligne correspondant à la prob cumulées trouvée.
Exemple :
1. Adoption de la variété de l'INERA: L‟INERA livre une variété de maïs et déclare que cette variété
accompagnée de tout son pacquet de technologie (arrosage, sarclage, engrais, buttage) produit 1500kg/ha
en moyenne. Un Administrateur de Territoire veut l'adopter pour son territoire. Il ordonne des expériences
préalables. Le vulgarisateur, vu la disponibilité des semences, propose des essais sur 36 parcelles en
milieu réel choisies chez des cultivateurs. Après l'essai, il trouve une moyenne 1450 kg/ha. Utilisant le
seuil de signification de α=0.01 et supposant qu‟un écart-type est de 120 kg/ha soit acceptable, quelle est
la conclusion du vulgarisateur ?
solution
z=(1450-1500)/(120/sqrt(36)) = -2.5
conclusion : En considérant que la distribution est normale de moyenne et connaissant qu’ici le test est bilatéral,
au seuil 0.01 et, puisque 𝑧𝑐𝑎𝑙𝑐𝑢𝑙é= −2.5 est compris entre -2.58 et 2.58 (Z tabulaire), alors on est dans la zone
d'acceptation de l'hypothèse nulle. On décide que l’hypothèse nulle ne peut pas être écartée au seuil 0.01. Noter
que ceci ne veut pas dire que la variété donne 1500 kg/ha mais que cette moyenne varie autour de 1500 kg/ha.
Le test-t de Student est un test statistique permettant de comparer les moyennes de deux groupes
d‟échantillons. Il s‟agit donc de savoir si les moyennes des deux groupes sont significativement
différentes au point de vue statistique.
Pour savoir si la différence est significative, il faut tout d‟abord lire dans la table t, la valeur critique
correspondant au risque alpha = 5% pour un degré de liberté : d.d.l=n− 1
Si la valeur absolue de t (|t|) est supérieure à la valeur critique, alors la différence est significative. Dans le
cas contraire, elle, ne l‟est pas. Le degré de siginificativité (ou p-value) correspond au risque indiqué par
la table de Student pour la valeur |t|.
Le test n‟est applicable que si seulement si la série de valeurs X suit une loi normale.
Pour savoir si la différence est significative, il faut tout d‟abord lire dans la table t, la valeur critique
correspondant au risque alpha = 5% pour un degré de liberté :
d.d.l=nA+nB− 2
Si la valeur absolue de t (|t|) est supérieure à la valeur critique, alors la différence est significative. Dans le
cas contraire, elle, ne l‟est pas. Le degré de siginificativité ou p-value correspond au risque indiqué par
la table de Student pour la valeur |t|
Le test est utilisable, si seulement si, A et B suivent des lois normales de mêmes variances. Lorsque
les variances des deux groupes à comparer sont différentes, le test t de Welch est préconisé.
Par exemple : 20 souris ont reçu un traitement X pendant 3 mois. On se pose la question à savoir si le
traitement X a un impact sur le poids des souris au bout des 3 mois. Le poids des 20 souris a donc été
mesuré avant et après traitement. Ce qui nous donne 20 séries de valeurs avant traitement et 20 autres
séries de valeurs après traitement provenant de la mesure du poids des mêmes souris.
Il s‟agit bien dans cet exemple, d‟un test de Student apparié car les deux séries de valeurs ont un lien
(les souris). Pour chaqu souris, on a deux mesures (l‟une avant et l‟autre après traitement).
Formule
Pour comparer les moyennes de deux séries appariées, on calcule tout d‟abord la différence des deux
mesures pour chaque paire.
Soit d la série des valeurs correspondant aux différences des mesures entre les paires de valeurs. La
moyenne de la différence d est comparée à la valeur 0. S‟il y a une différence significative entre les deux
séries appariées, la moyenne de d devrait être très éloignée de la valeur 0. La valeur t de Student est
donnée par la formule :
Pour savoir si la différence est significative, il faut tout d‟abord lire dans la table t, la valeur critique
correspondant au risque alpha = 5% pour un degré de liberté :
d.d.l=n− 1
Si la valeur absolue de t (|t|) est supérieure à la valeur critique, alors la différence est significative. Dans le
cas contraire, elle, ne l‟est pas. Le degré de siginificativité (ou p-value) correspond au risque indiqué par
la table de Student pour la valeur |t|.
Le test est utilisable, si seulement si, la différence de suit une loi normale.
D. prise de décision
test bilateral (Two-Tailed) test unilatéral à gauche ( Left-Tailed) test unilatéral à droite (Right-Tailed)
Rejet de H0 si |tc|≥tα/2 Rejet de H0 si tc≤tα Reject de H0 si tc≥tα
Exemples
Un test du Khi deux est un test d'hypothèse qui compare la loi de distribution observée de vos données à
une loi attendue. Le χ² (synonymes χ2, Chi2, Khi2, Chi², Khi²) permet de comparer des répartitions
d'effectifs.
*Test d’homogénéité :
Le khi2 d'homogénéité est un khi d'indépendance. Il est seulement réalisé dans un but différent. Le Khi2
d'homogénéité permet de vérifier que les répartitions de différents effectifs sont équivalentes.
- Interpréter les résultats du test en examinant le tableau d'origine (ou tableau des effectifs observés), le
tableau des effectifs théoriques et le tableau des écarts à l'indépendance
c)Types de χ²
a)Objectif:
Les observations faites sur un échantillon conduisent à une certaine distribution de fréquences. Peut-on
modéliser cette distribution par un modèle théorique connu ?
b) Hypothèses:
Ho = {la distribution observée n'est pas significativement différente de la distribution théorique}
contre H1 = {la distribution observée est significativement différente de la distribution théorique}
c) Statistique de test:
On utilise la statistique
d) Règle de décision:
d > h on rejette Ho
d < h on "accepte" Ho
Remarques:
1) Le choix et le nombre de classes est arbitraire. Cependant pour que l'approximation par la loi du
soit bonne, il est nécessaire que les effectifs théoriques dans chacune des classes soit au moins égal à
5. Si ce n'est pas le cas, il faut au préalable regrouper les classes contigües afin d'avoir un effectif
suffisant. La valeur de k intervenant dans le nombre de degrés de liberté de la loi du est celle obtenue
après les éventuels regroupements.
2) La probabilité de rejeter le modèle théorique à tort est connue ( ); par contre on ne peut calculer la
probabilité d'accepter le modèle théorique à tort. D'autre part, un test, faute de preuves expérimentales
suffisantes, se rabat sur l'hypothèse Ho. On se gardera d'utiliser les facilités des logiciels pour tester à
tort et à travers une multitude de modèles théoriques. Il faut au préalable avoir de bonnes raisons pour
soupçonner tel ou tel autre modèle théorique.
a) Objectif:
Les observations de deux variables qualitatives faites sur un échantillon permettent-elles de conclure à
l'indépendance de ces variables?
La méthode consiste à comparer les effectifs réels des croisements des modalités des deux variables
qualitatives avec les effectifs théoriques qu'on devrait obtenir dans le cas d'indépendance de ces deux
variables. Pour cela, on construit un indice d mesurant l'écart constaté entre les effectifs réels et les
effectifs théoriques.
où nij = effectif observé des individus possédant la modalité i de la 1° variable et la modalité j de la 2° variable
n = effectif total observé
pij = probabilité d'obtenir une observation possédant la modalité i de la 1° variable et la modalité j de la 2° variable
lorsqu'elles sont indépendantes
npij = effectif théorique des individus possédant la modalité i de la 1° variable et la modalité j de la 2° variable
b) Hypothèses:
Ho = {les deux variables qualitatives sont indépendantes}
contre H1 = {les deux variables qualitatives sont dépendantes}
c) Statistique de test:
On utilise la statistique
f) Décision:
Les valeurs nij ayant été observées sur l'échantillon, et les valeurs pij calculées, il ne reste plus qu'à
comparer d avec h pour prendre une décision en fonction de la règle de décision.
Remarques:
1)
où ni. est l'effectif des individus possédant la modalité i de la 1° variable et n.j l'effectif des individus possédant la
modalité j de la 2° variable.
2) Pour que l'approximation par la loi du soit valable, il est nécessaire que les effectifs
théoriques dans chacune des cellules soit au moins égal à 5. Si ce n'est pas le cas, il faut au
préalable regrouper les modalités d'une variable (ceci n'est pas forcément évident vu que les
variables sont qualitatives) afin d'avoir un effectif suffisant.
a)Objectif: Le khi2 d'homogénéité est un khi d'indépendance. Il est seulement réalisé dans un but
différent. Le Khi2 d'homogénéité permet de vérifier que les répartitions de différents effectifs sont
équivalentes.
La méthode consiste à comparer les effectifs réels de chaque modalité sur les différents échantillons, avec
les effectifs théoriques qu'on devrait obtenir dans le cas où ils seraient issus d'une même population. Pour
cela, on construit un indice d mesurant l'écart constaté entre les effectifs réels et les effectifs théoriques.
b)Hypothèses:
Ho = {les k échantillons sont issus d'une seule population}
contre H1 = {les k échantillons sont issus de deux populations différentes}
Plus précisément, ce test repose ainsi sur 2 hypothèses :
H0 : il n'y a pas de différence significative dans la répartition des groupes étudiés
H1 : il y a une différence - cette hypothèse est a affiné en fonction du cas étudié (cf. exemple ci-
dessous)
36
c)Statistique de test:
On utilise la statistique
d)Règle de décision:
d > h on rejette Ho
d < h on "accepte" Ho
f)Décision:
Les valeurs nij ayant été observées sur l'échantillon, et les valeurs pj calculées, il ne reste plus qu'à
comparer d avec h pour prendre une décision en fonction de la règle de décision.
Remarques:
1) Pour que l'approximation par la loi du soit valable, il est nécessaire que les effectifs théoriques dans
chacune des cellules soit au moins égal à 5. Si ce n'est pas le cas, il faut au préalable regrouper les
modalités de la variable (ceci n'est pas forcément évident vu que la variable est qualitative) afin d'avoir un
effectif suffisant.
Dans tous les cas une seule ligne de cette table nous intéresse. On doit donc d'abord identifier à quelle
ligne du tableau nous devons nous reporter pour ensuite trouver le seuil de probabilité d'acceptation ou de
rejet de l'hypothèse d'indépendance.
En ligne figurent les degrés de libertés (appelé , pour calculer le nombre de degrés de liberté d'un tableau,
c'est très simple, on effectue le calcul suivant :
En colonne figure ce que l'on peut considérer comme le seuil de probabilité d'acceptation ou de rejet de
l'hypothèse d'indépendance.
37
En général, les tests de khi deux, et les analyses descriptives en générale, ne permettent pas de répondre à
la question : pourquoi ? Il est nécessaire de confronter ces résultats a des éléments non statistiques comme
le contexte de réalisation de l'enquête, des entretiens, des observations pour comprendre le phénomène...
Exemple
La probabilité de rejeter l'hypothèse nulle lorsqu'elle est fausse est égale à 1 – β. Il s'agit de la puissance
du test.
On appelle PUISSANCE D’UN TEST P la probabilité de rejeter l‟hypothèse nulle, face à une hypothèse
alternative, alors qu‟elle est fausse. La valeur complémentaire à 1 de cette puissance, c‟est-à-dire la
probabilité de ne pas rejeter l‟hypothèse nulle alors que l‟hypothèse alternative est vraie, s‟appelle le
RISQUE DE DEUXIEME ESPECE et se note conventionnellement β : β = 1 - P.
Généralement, la puissance n'est pas un nombre mais une fonction. L‟hypothèse nulle est souvent de la
forme H0 : << mu = mu0 >> et l'hypothèse alternative de la forme H1: << mu différent de mu0 >>. La
puissance va dépendre de la valeur réelle de mu : si mu est proche de mu0, le risque d'erreur est grand et
la puissance faible, par contre, si mu et mu0 sont très différents, le risque d'erreur est plus faible et la
puissance plus élevée.
La puissance d'un test dépend de la nature du test choisi, du niveau de signification du test, de la taille
de l'échantillon, de la vraie valeur du paramètre ou mesure testée.
Comme un trop petit échantillon peut faire rater une différence importante, un trop grand échantillon peut
révéler une différence sans importance bien qu‟elle soit significative.
Ex : QI / taille des enfants corrélés (calculé a posteriori, r = 0,03 !) à p<0,001 avec un échantillon de
14000.
38
Réalité
H0 fausse H0 vraie
Rétention Type II OK
Décision
Rejet OK Type I
Domaine β Domaine α
La puissance intervient dans la conception d'une expérience. Imaginons que l'on veuille savoir si la
moyenne mu d'une certaine variable d'une population est bien égale à mu0. On veut pouvoir détecter une
différence égale à epsilon dans au moins 80% des cas, avec un risque d'erreur inférieur à 0.05 : quelle doit
être la taille de l'échantillon ? En d'autre termes, on veut que la puissance du test de H0 : << mu = mu0 >>
contre H1: << abs(mu - mu0) > epsilon >> soit au moins 0.80 (la tradition veut que l'on prenne 0.80 pour
la puissance des tests et 0.05 pour le risque)
Exemples
39
Dans le cas des données qui affichent la non-normalité manifeste, il existe des alternatives. La première
vient de la statistique non-paramétrique à savoir le test de Kruskal-Wallis que nous donnons dans les
fiches d'exercice. La deuxième vient du Modèle Linéaire Généralisé qui propose des possibilités de choix
de la distribution.
Le test de Shapiro-Wilk : Très populaire, le test de Shapiro-Wilk est basé sur la statistique W. En
comparaison des autres tests, il est particulièrement puissant pour les petits effectifs (n ≤ 50). La
statistique du test s'écrit :
Où
Ex4. Pour fixer les quotas laitiers, on souhaite réaliser une estimation de la production laitière annuelle du
cheptel de la au Sud kivu. Cette production varie évidemment d'un animal à l'autre, mais aussi,
vraisemblablement, d'un territoire à l'autre. L'expérimentateur décide de prospecter trois territoires: la
Uvira, Kalehe et Kabare. Dans chaque territoire, il recueille les statistiques de production de dix vaches,
prises au hasard dans différentes exploitations. Ci-dessous, voici ce qui est mis à votre disposition:
SCE dl CM Fobs
Totale 38539408,8 29
Factorielle 10413970,4 2 5206985,2 4,99
Résiduelle 28125438,4 27 1041682,904
b) La transformation en rangs
La théorie des tests se divisent en deux familles: les tests paramétriques et les tests non paramétriques.
Dans le premier cas , variable aléatoire continue, doit répondre à des hypothèses d‟utilisation sur sa
distribution tandis que dans le second cas nous en faisons abstraction. Ainsi, lorsque les hypothèses
d‟utilisation ne sont pas respectées, les alternatives non paramétriques sont souvent des choix pertinents.
Il est alors judicieux de se baser sur une transformation en vecteur de rangs associés aux
variables quantitatives continues . L‟algorithme ci-dessous permet d‟expliciter cette
transformation pour une variable aléatoire :
1) ranger les valeurs de par ordre croissant,
2) chaque correspond à l‟indice du rang de dans ce classement,
3) dans le cas où nous avons:
c) La normalisation
Normaliser les données revient à appliquer une fonction sur tel que suit une loi normale.
Plusieurs méthodes simples existent comme,
la transformation logarithmique:
l‟élévation au carré:
la mise sous racine carré:
la transformation arc-sinus:
la mise à l‟exponentielle:
la transformation inverse:
Néanmoins ces méthodes requièrent l‟absence de valeurs négatives (à l‟exception de la mise à
l‟exponentielle et de la transformation inverse), l‟absence de valeurs nulles (pour la transformation
logarithmique et la transformation inverse) ou d‟un intervalle spécifique dans lequel prend ses valeurs
(ainsi pour la transformation arc-sinus il faut que ).
Dans le cas de la présence de valeurs négatives, un paramètre de translation peut être appliqué afin de
déplacer la distribution sur un intervalle de valeurs positives tout en conservant la forme de la
distribution. Pour le cas des valeurs nulles, la méthode à suivre est souvent de « tricher » en supposant
qu‟il s‟agit d‟une valeur très faible arrondie et en lui attribuant une valeur décimale (par exemple:
) en fonction de l‟intervalle de valeurs prises par de manière à ce qu‟elle n‟influe pas la
distribution générale.
Deux autres outils de normalisation existent et sont plus performants: la transformation Box-Cox et la
transformation de Johnson.
La normalisation de Box-Cox
La transformation de Box-Cox consiste en réalité en l‟application d‟un algorithme qui va chercher à
maximiser la log-vraisemblance d‟une configuration de la variable en fonction du paramètre de
transformation noté . Il convient de fixer au préalable un intervalle de variation pour , sachant qu‟il n‟y
a pas de règle encore définie sur ce paramètrage.
L‟objectif est donc de maximiser la log-vraisemblance, dépendante de , et de formule:
Exercices
43
L‟ANOVA 1 est une technique de statistique inférentielle ou décisionnelle qui consiste à comparer les
moyennes d'un caractère de plusieurs populations. En d'autres termes, elle sert à tester un impact, à
réveler un effet ou à montrer l'influence ou une conséquence d'une technologie ou d'une procédure sur
ce caractère
L'hypothèse nulle H0 est l'égalité des moyennes des populations dont sont extraits les échantillons :
m1=m2=m3=...=mk
a.1) Principe
Notation : Le nombre d'échantillons est noté k, le nombre de mesures par échantillon est désigné par n et
le nombre total de mesures, kn.
L'analyse de variance à un facteur (one-way analysis of variance) va consister à chercher le rapport entre
la variance entre les groupes (V. inter-groupe) et la variance à l'intérieur des groupes (V. intra-groupe).
La valeur de ce rapport appelé F [attention : ce F n‟a rien a voir avec le F du test de vérification de
l‟homogénéité des variances] est comparée à celle d'une table de F de Snedecor, table à double entrée
avec pour numérateur le [nombre d'échantillons (k) moins un] soit (k-1) et pour dénominateur le
[nombre total de mesures - k] soit (kn-k).
a.2) Calcul
1. Manuellement, on calcule :
a) la variance totale par rapport à la moyenne globale des n mesures ;
b) la variance intra-groupes (celle qui n'est pas liée aux conditions expérimentales).
2. Par différence [a-b] on obtient la variance inter-groupes (qui est liée aux différences de conditions
expérimentales).
a = [a-b] + b
Variance totale = Variance inter-groupe + Variance intra-groupe
[SCE à la moyenne générale] = [SCE factorielle] + [SCE résiduelle]
=
3. On calcule le rapport :
F = variance inter-groupes/variance intra-groupes ou résidu.
[attention : ce F n‟a rien à voir avec le F du test de vérification de l‟homogénéité des variances]
a.3) Notation :
Le terme "groupe" peut être remplacé par "variable expérimentale" ou "condition expérimentale" ou quoi que ce
soit qui différencie les groupes (colonnes). De même, le terme "individu" peut concerner différentes entités : des
points de prise d'échantillons le long d'une rivière, des êtres vivants, etc (lignes) ...
44
Exemple 1
On veut savoir si la quantité d‟une substance polluante (nitrates) varie d'un village à l‟autre (station) le
long d'une rivière. Pour cela, on prélève en 10 points (n=10) chaque fois une certaine quantité d'eau dans
3 villages (stations) différentes (k=3).
Nitrates Station 1 Station 2 Station 3
50,00 162,00 120,00
52,00 350,00 120,00 n
123,00 125,00 122,00 10
100,00 320,00 221,00
200,00 112,00 253,00
250,00 200,00 141,00
220,00 40,00 182,00 k
220,00 162,00 175,00 3
300,00 160,00 160,00
220,00 250,00 214,00
45
T1 T2 T3 total : G
sommes 1735,00 1881,00 1708,00 5324,00
moyennes 173,50 188,10 170,80 177,47
(x2) 368033,00 +435257,00 +311560,00 = 1114850,00
Somme des carrés des écarts (SCE) entre traitements (inter-groupe) 1732,47
= ou =(moyjmoyXn
Sommes des carrés des écarts (SCE) expérimentales (erreur exp) ou résidu total
(intra-groupe) - ou = X-moyT)2)
erreur = 67010,50 81440,90 19833,60 168285,00
Somme totale des carrés des écarts = 170017,47
- ou (X-moyX)2
D‟où :
Variance inter-groupes = SCE inter-groupes/ddl = 1732,47/2 = 866,23
Variance intra-groupes = SCE intra-groupes/ddl = 168285/27 = 6232,78
Calcul de F = Variance inter-groupes / Variance intra-groupes = 0,14
Exemple2
On dispose de k=3 échantillons comprenant n=5 individus dont les valeurs sont données dans le tableau
ci-après : Il s‟agit du temps de début de germination après traitement des grains de 3 variétés :
Dans cet exemple, la valeur de F(2,12) est très supérieure au seuil de signification de 1% : 6,93. La
probabilité exacte calculée est de 0,0001.L‟hypothèse nulle est donc rejetée. On considère que les 3
échantillons diffèrent significativement (la probabilité de se tromper est de 0,0001). Ces trois variétés
réagissent donc de façon significativement différente au traitement de dormance.
NB : Lorsque l’analyse de variance montre qu’il existe de différences significatives entre les groupes
(rejet de Ho), il est recommandé de réaliser les tests post hoc de comparaison des moyennes
46
b.1) Le LSD de Fischer (Procédure de "least significant difference method" de Fisher) ou PPDS (plus
petite difference significative) est utilisé pour tester l‟hypothèse nulle que toutes les moyennes de la
population sont égales. C‟est une méthode pour contrôler les erreurs de type 1 lorsque l‟on compare
plusieurs paires de moyennes. Lorsque les résultats de l‟ANOVA sont significatifs, on peut comparer les
moyennes des groupes 2 à 2 en utilisant un test de t.
Where:
t = critical value from the t-distribution table
MSw = mean square within, obtained from the results of your ANOVA test
n = number of scores used to calculate the means
Calculate the Least Significant Difference for the difference between two means on Group 1 and Group 2 with the following
test results:
Le test PPDS est la procédure la plus simple pour comparer des paires. Cette procédure fournit une valeur
unique de la PPDS qui, à un niveau de signification déterminé, marque la limite entre la différence
significative et non significative entre une paire de moyennes de traitements quelconque. Deux
traitements présentent donc des différences significatives à un seuil de signification prescrit si leur
différence est supérieure à la valeur calculée de la PPDS. Dans le cas contraire, leurs différences sont
considérées comme non significatives.
Si le test PPDS est tout à fait approprié pour les plans de comparaisons appariées, il ne permet pas de
comparer toutes les paires de moyennes possibles, surtout si le nombre de traitements est grand. En effet,
le nombre de paires de moyennes de traitements possibles augmente rapidement avec le nombre de
traitements. La probabilité qu‟au moins une paire ait une différence supérieure à la valeur de la PPDS, et
uniquement due au hasard, augmente avec le nombre de traitements testés.
On évitera donc de recourir au test PPDS pour comparer toutes les paires de moyennes possibles. Dans
les cas où ce test s‟applique, on ne l‟utilisera que si le critère F relatif à l‟effet des traitements est
significatif et si le nombre de traitements n‟est pas trop élevé (inférieur à six).
La procédure d‟application du test PPDS pour comparer deux traitements quelconques – par exemple le
traitement i et le traitement j, se déroule en plusieurs étapes :
où est l‟erreur-type de la différence moyenne et est la valeur t de la distribution de Student, au seuil de signification
et pour v = degrés de liberté de l‟erreur.
*Etape 3. Comparer la différence moyenne calculée au cours de l‟étape 1 avec la valeur de la PPDS
calculée au cours de l‟étape 2. Si la valeur absolue de dij est supérieure à la valeur de la PPDS, conclure
que les différences entre les traitements i et j sont significatives au seuil de signification ,.
Lorsque l‟on applique cette procédure, il est important d‟identifier l‟erreur-type appropriée de la
différence moyenne ( ), applicable à la paire de traitements que l‟on veut comparer. La méthode varie
en fonction du plan d‟expérience utilisé, du nombre de répétitions des deux traitements soumis à la
comparaison et du type spécifique de moyennes que l‟on comparera. Dans le cas d‟un PER, lorsque les
deux traitements n‟ont pas le même nombre de répétitions, se calcule comme suit:
où ri et rj représentent le nombre de répétitions des traitements i et j, et s2 la moyenne des carrés des erreurs dans l‟analyse de
variance.
Exemple, à l‟aide des données du Tableau ci dessous. Le chercheur veut comparer les cinq isolats de R.
solani, en particulier la croissance de leur mycélium sur milieu PDA.
Tableau. Croissance du mycélium, en diamètre (mm), de la colonie d‟isolats de R. solani, sur milieu de
culture PDA, après 14 heures d‟incubation
MG 34.31
L‟anova donne :
où la valeur de s2 = 3.32 est dérivée du Tableau 4.3 et la valeur de la distribution de Student t (2.31), pour
8 degrés de liberté, au seuil de signification de 5% est extraite de l‟Annexe 2.
Pour comparer deux traitements répétés trois fois chacun, calculer la valeur de la PPDS, comme suit :
Pour comparer deux traitements dont un est répété deux fois et l‟autre trois fois, la valeur de la PPDS est
= 3.84 mm
*Etape 3. Comparer la différence entre chaque paire de traitements calculée à l‟Etape 1 aux valeurs
correspondantes de la PPDS calculées à l‟étape 2, et placer la notation appropriée (astérisque, ns ou
absence d‟indication). Par exemple, la différence moyenne entre le premier traitement (comportant trois
répétitions) et le deuxième traitement (trois répétitions) est de 2.66 mm. Etant donné que la différence
moyenne est inférieure à la valeur de la PPDS correspondante (3.44 mm), elle est non significative au
seuil de signification de 5%. Par ailleurs, la différence moyenne entre le premier traitement (trois
répétitions) et le deuxième (deux répétitions) est de 4.05 mm. Etant donné que la différence moyenne est
supérieure à la valeur de la PPDS correspondante (3.84), elle est significative au seuil de 5%, ce que l‟on
indiquera par un astérisque.
Les résultats du test, pour toutes les paires de traitements, sont indiqués ci-dessous. Comparaison entre le
diamètre moyen (en mm) de chaque paire de traitements, à l‟aide du test PPDS, avec des répétitions non uniformes.
49
Traitement RS 1 RS 2 RS 3 RS 4 RS 5
RS 4 0.00 15.28*
(3.84)
RS 5 0.00
* Significative au seuil de 5%
Note: Les valeurs indiquées entre parenthèses sont les valeurs de la PPDS
Avant de passer à la section suivante, nous mentionnerons un point qui peut être utile pour déterminer le
nombre de répétitions à pratiquer pour qu‟une expérience soit " raisonnablement " fiable. Le principe est
que le nombre de répétitions doit être tel que les degrés de liberté de l‟erreur soient de l‟ordre de 12. En
effet, les valeurs critiques dérivées de certaines distributions, notamment des lois de Student ou des
distributions de F, se stabilisent pratiquement après 12 degrés de liberté, ce qui confère une certaine
stabilité aux conclusions tirées de ces expériences. Par exemple, si l‟on planifie un essai dans lequel les
traitements t sont répétés un nombre de fois égal, on identifiera le df de l‟erreur de t(r-1) à 12 et on
calculera r pour des valeurs connues de t. Des stratégies similaires peuvent être suivies pour de nombreux
autres plans qui sont expliqués dans les sections suivantes.
b.2.) Pour comparer toutes les paires possibles, on peut utiliser le HSD de Tukey :
Le HSD (honestly significant difference) intervals de Tukey : La technique du HSD de Tukey permet de
comparer toutes les paires de moyennes et d'y montrer des différences avec un risque alpha. La technique
du HSD permet de spécifier un "family confidence level" pour les comparaisons que vous entreprenez, au
contraire de la méthode du LSD qui contrôle le niveau d‟erreur pour une seule comparaison. L'intervalle
du HSD est plus large que celui du LSD, ce qui rend plus difficile de déclarer qu'une paire de moyennes
diffère significativement. Le test HSD est de ce fait plus conservatif.
Le test de Dunnett est un test spécialisé pour la comparaison multiple. Le test de Dunnett est employé
quand les comparaisons ne sont faites qu‟avec le groupe témoin contre tous les autres groupes.
t= XAXtémoin est localisé dans une Table pour α, k (témoin inclus) et DLintra.
sintra( 1 1 )
2
nA n témoin
b.4) Le F de Scheffé permet de déterminer si, après une ANOVA significative, les moyennes de 2 des
groupes de la variable indépendante diffèrent. Le test de Scheffé ne demande pas que tous les échantillons
utilisés dans l‟ANOVA aient la même taille. Le test de Tukey, lui, nécessiterait des échantillons de même
taille. Ce test très conservatif ne devrait être utilisé que quand tous les échantillons de l‟ANOVA ont des
tailles différentes.
L'intervalle de Scheffé associe l'erreur d'estimation pour chaque moyenne en utilisant la méthode de F-
distribution. Cela permet de faire des comparaisons linéaires parmi les moyennes de l'échantillon tout en
contrôlant le taux d'erreur ("experiment wide error rate") à un niveau défini.
Les intervalles de Bonferroni : permettent de comparer plusieurs moyennes. Cette méthode s'applique
que la taille des groupes soit la même ou non. Utilisant la F-distribution, il génère des intervalles qui
permettent de faire un nombre défini de comparaisons linéaires parmi les moyennes de l‟échantillon
(sample means) tout en contrôlant le taux d‟erreur expérimental à un niveau défini (specified level). Dans
les procédures des STATLETS ANOVA, le nombre de comparaisons est défini pour vous permettre de
comparer les différences entre toutes les paires de moyennes.
Procédure de Duncan : c‟est une procédure de comparaisons multiples qui permet de comparer toutes
les paires de moyennes, en contrôlant le risque alpha général à un niveau défini. C‟est une procédure par
étape, reposant sur une Studentized range distribution. Bien qu‟elle ne fournisse pas d‟estimation
d‟intervalles pour la différence entre chaque palier de moyennes, cette procédure indique quelles
moyennes sont significativement différentes les unes des autres.
Cette situation correspond aux échantillons appariés des tests pour deux échantillons.
d.2. Exemple 1
Pour simplifier, on reprend les valeurs de l‟exemple précédent, en considérant qu'elles correspondent cette fois à la
quantité de nitrates mesurée aux mêmes points de prélèvements, au cours de 3 saisons, dans une station le long
d'une rivière.
X1 X2 X3 total
50,00 162,00 120,00 332,00
52,00 350,00 120,00 522,00
123,00 125,00 122,00 370,00
100,00 320,00 221,00 641,00
200,00 112,00 253,00 565,00
250,00 200,00 141,00 591,00 n
220,00 40,00 182,00 442,00 10
220,00 162,00 175,00 557,00 K
300,00 160,00 160,00 620,00 3,00
220,00 250,00 214,00 684,00 total=G
Total 1735,00 1881,00 1708,00 5324,00 5324,00
944832,53
(1)=
(2)= 1114850
1735^2/n+1881^2/n+1708^2/n 946565,00
(3)=
332^2/k+522^2/k+...684^2/k 985621,33
(4)=
Somme carrés totale ou =Xij-moyX)2
(2)-(1) 170017,47
se décompose en :
Somme carrés inter-individus ou = k*(Pi/k-moyX)2) (4)-(1) 40788,80
Conclusion du test statistique : La valeur de P étant largement supérieure au seuil de signification 0,05, on conserve
donc l‟hypothèse nulle (pas de différence significative entre les mesures répétées).
Exercices
1) Un éleveur qui souhaite acheter de nouvelles vaches pour sa production laitière. Il possède trois races
différentes de vaches et se pose donc la question de savoir si la race est importante pour son choix. Il
possède comme informations la race de chacune de ses bêtes (c'est la variable explicative discrète ou
facteur de variabilité, qui peut prendre 3 valeurs différentes) et leurs productions de lait journalières (c'est
la variable à expliquer continue, qui correspond au volume de lait en litre).
Supposons que les productions soient (litres par jour):race A : 20,1 ; 19,8 ; 21,3 et 20,7 ; race B : 22,6 ;
24,1 ; 23,8 ; 22,5 ; 23,4 ; 24,5 et 22,9 et ; race C : 31,2 ; 31,6 ; 31,0 ; 32,1 et 31,4
2) Le rendement céréalier a été mesuré pour quatre variétés différentes de blé. Les résultats obtenus sont
les suivants:
var I II III IV
50 52 57 53
54 56 60 47
53 57 59 47
51 60 62 49
49 56 64 48
52 55 58 52
51 53 63 50
55 54 61 46
Y a t‟il de différences significatives entre les rendements de ces 4 variétés?
e.1) Introduction
L‟analyse de la variance vue précédemment est l‟analyse à un facteur. Elle est ainsi appelée parce qu‟il
n‟y a qu‟une seule variable indépendante que nous avons appelée Facteur A. L‟analyse de la variance à
deux facteurs est une extension de l‟analyse de la variance à un facteur. Elle consiste à considérer deux
variables indépendantes dites aussi facteurs A et B. C‟est par exemple l‟étude qui consiste à voir l‟effet
simultané du type de fertilisant (avec comme modalités fertilisant A, B et C) et le niveau du fertilisant
(100, 105, 110 kg/ha).
D‟aucuns souhaiteraient utiliser l‟une après l‟autre, une analyse de la variance à un facteur sur le type de
fertilisant d‟abord et sur le niveau de fertilisant ensuite. Il y a des raisons qui militent en faveur de
l‟utilisation de la technique de l‟analyse à deux facteurs.
54
Premièrement, elle permet l‟étude de l‟interaction entre les deux facteur. En effet, deux niveaux différents
du fertilisant peuvent induire de effet différent selon le type de fertilisant. Ce type nouveau d‟effet ne peut
être pris en compte que si les deux facteurs sont étudiés simultanément.
Deuxièmement, la méthode permet une économie en temps. En étudiant les deux facteurs simultanément,
on prend un nombre d‟observation plu petit que si on le faisait séparément.
Troisièmement, l‟étude apporte d‟éléments nouveaux. Ceci puisque le comportement de chaque facteur
est étudié en conjonction avec les différents niveaux du deuxième. Les résultats sont plus riches que si
cela se passait avec les facteurs séparément.
Définition
Étude simultanée d‟un facteur A à p modalités et d‟un facteur B à q modalités.
Conclusion
Si est rejetée : il est théoriquement impossible de comparer des échantillons qui ne varient
pas de la même manière.
Si n‟est pas rejetée : par conséquent, il est possible de comparer les moyennes de tels
échantillons
e.2.Calculs
Tests possibles
Hypothèses
: le facteur A n‟a pas d‟influence sur la moyenne des populations.
: le facteur B n‟a pas d‟influence sur la moyenne des populations.
: il n‟y a pas d‟interaction entre les facteurs A et B.
: au moins une des moyennes est différentes des autres.
MéthodeVariances totale, factorielle, résiduelle
Pour chaque échantillon de taille , on calcule :
moyenne
variance expérimentale
Pour l'ensemble de l'expérience :
Taille totale
Moyenne générale
Variance totale
Variance factorielle (variance intergroupe) :
Dispersion des valeurs d‟un échantillon à l‟autre (influence du facteur) :
Variance résiduelle (variance intragroupe)
Dispersion des valeurs à l‟intérieur des échantillons (variabilité individuelle) :
Variance factorielle et variance résiduelle : estimation de la variance de la population ( )
e.3.Conclusion
Théorème d'analyse de la variance :
Sous l‟hypothèse H0 :
suit une loi de Snédécor à et ddl
suit une loi de Snédécor à et ddl
suit une loi de Snédécor à et ddl
56
Choix du risque
Risque de première espèce (erreur commise lorsqu‟on rejette à tort).
Décision
Figure : Zones de rejet de l'hypothèse nulle pour une distribution de Snédécor et un test unilatéral
Recherche du degré de signification p pour chaque test (recherche du risque le plus petit possible
pour conclure au rejet de )
Sinon rien ne permet de dire que les moyennes des populations ne sont pas égales => n‟est pas
rejetée.
- Cas particulier où n = 1 :
57
Exercices
59
En général, les modèles de régression sont construits dans le but d‟expliquer (ou prédire, selon la
perspective de l‟analyse) la variance d‟un phénomène (variable dépendante) à l‟aide d‟une combinaison
de facteurs explicatifs (variables indépendantes). Le coefficient de corrélation mesure le degré de la
relation entre deux variables qui varient de façon concomitante, avec des effets qui se renforcent
mutuellement. Dans certains cas, les changements relatifs à une variable sont provoqués par les variations
d‟une variable connexe, sans qu‟il y ait de dépendance mutuelle. En d‟autres termes, une variable est
considérée comme dépendante des variations de l‟autre variable, dans la mesure où elles dépendent de
facteurs externes. Une telle relation entre deux variables est appelée régression. Lorsque ces relations
sont exprimées sous forme mathématique, il est possible d’estimer la valeur d’une variable d’après la
valeur de l’autre. Par exemple, le rendement de conversion photosynthétique et le coefficient de
transpiration des cultures dépendent de conditions atmosphériques comme la température ou l‟humidité,
sans pour autant que l‟on s‟attende généralement à une relation inverse.
La variable dépendante est habituellement notée y et la variable indépendante x. Dans le cas où il n‟y a
que deux variables en jeu, la relation fonctionnelle est appelée régression simple. Si la relation entre les
deux variables est linéaire, on parle de régression linéaire simple ; dans le cas contraire, la régression est
dite non-linéaire. Lorsqu‟une variable dépend d‟au moins 2 variables indépendantes, la relation
fonctionnelle entre la variable dépendante et l‟ensemble des variables indépendantes est une régression
multiple. Dans un souci de simplification, on se limitera ici à examiner le cas d’une régression linéaire simple. Pour des cas plus
complexes, on se limitera à la construction du modèle et à l’interprétation.
où et sont des paramètres, appelés aussi coefficients de régression, et e est une déviation aléatoire pouvant dériver de la
relation attendue. Si la valeur moyenne de e est zéro, l‟équation représente une droite de pente b et d‟ordonnée à l‟origine a.
Autrement dit, a est la valeur présumée de y lorsque x prend la valeur zéro et b représente la variation attendue de y
correspondant à une variation unitaire de la variable x. La pente d‟une droite de régression linéaire peut être positive, négative
ou nulle, selon la relation entre y et x.
En pratique, les valeurs de a et b doivent être estimées à partir d‟observations des variables y et x
effectuées sur un échantillon.
En effet, les valeurs de a et b s‟obtiennent grâce à la formule,
L‟équation représente la droite de régression ajustée, qui peut être utilisée pour estimer la
valeur moyenne de la variable dépendante, y, associée à une valeur particulière de la variable
indépendante, x. En général, il est plus sûr de limiter ces estimations à la fourchette des valeurs de x dans
les données.
60
Tableau. Données sur le rendement photosynthétique en mol m-2s-1 (y) et mesure de la radiation en mol m-2s-1 (x), observées
sur une essence forestière
X y x2 xy
0.7619 7.58 0.58 5.78
0.7684 9.46 0.59 7.27
0.7961 10.76 0.63 8.57
0.8380 11.51 0.70 9.65
0.8381 11.68 0.70 9.79
0.8435 12.68 0.71 10.70
0.8599 12.76 0.74 10.97
0.9209 13.73 0.85 12.64
0.9993 13.89 1.00 13.88
1.0041 13.97 1.01 14.02
1.0089 14.05 1.02 14.17
1.0137 14.13 1.03 14.32
1.0184 14.20 1.04 14.47
1.0232 14.28 1.05 14.62
1.0280 14.36 1.06 14.77
Selon l‟usage, on définit l‟hypothèse nulle comme H0: b=0 en opposition à l‟hypothèse alternative, (H1: b
< 0 ou H1: b > 0, selon la nature présumée de la relation). Pour effectuer le test, on peut suivre la
procédure de l‟analyse de variance. Le concept de l‟analyse de la variance a déjà été expliqué, mais ses
applications dans le cadre de la régression sont indiquées ci dessous, à l‟aide des données du Tableau :
« Données sur le rendement photosynthétique en mol m-2s-1 (y) et mesure de la radiation en mol m-2s-1 (x), observées sur une
essence forestière ».
=
= 48.0062
Somme des carrés dus à l‟écart par rapport à la régression = SSE = SSTO - SSR
=58.3514 - 48.0062 = 10.3452
*Etape 3. Entrer, comme indiqué dans le Tableau 3.13, les valeurs des sommes des carrés dans la table
d‟analyse de variance et effectuer les calculs restants.
Total 14 58.3514
*Etape 4. Comparer la valeur calculée de F avec la valeur tabulaire correspondant à (1, n-2) degrés de
liberté. Dans notre exemple, la valeur calculée (60.3244) est supérieure à la valeur tabulaire de F (4.67)
correspondant à (1,13) degrés de liberté, au seuil de signification de 5%. La valeur de F est donc
significative. Si la valeur calculée de F est significative, le coefficient de régression b diffère de 0 de
manière significative.
Exprimée en proportion de la somme totale des carrés, la somme des carrés due à la régression est appelée
coefficient de détermination et mesure la quantité de variation de y imputable à la variation de x. En
d‟autres termes, le coefficient de détermination mesure la fraction de la variation de la variable
dépendante expliquée par le modèle. Dans notre exemple, le coefficient de détermination (R2) est
= 0.8255
62
Dans le cas de la régression linéaire multiple, la variable dépendante est toujours une variable continue
tandis que les variables indépendantes peuvent être continues ou catégorielles. La régression linéaire est
appelée multiple lorsque le modèle est composé d‟au moins deux variables indépendantes. À l‟inverse, un
modèle de régression linéaire simple ne contient qu‟une seule variable indépendante. Comme il est
excessivement rare, voire impossible, de prédire un phénomène à l‟aide d‟une seule variable, cette section
porte sur la régression linéaire multiple. Cependant, tout le contenu s‟applique également aux résultats
d‟une régression simple.
Nous allons donc voir maintenant comment il est possible d‟expliquer (ou de prédire) la variance d‟une
variable dépendante à l‟aide d‟une combinaison linéaire de variables indépendantes à partir de la
généralisation de l‟équation algébrique utilisée dans le module sur la régression simple.
Les questions auxquelles la régression linéaire multiple permet de répondre sont nombreuses. Par
exemple,
Quelles variables permettent de prédire les symptômes d’une carence minérale chez une plante ?
De combien le risque de chutes de rendement va diminuer chez les cultures lorsqu’elles sont
fertilisées, sont sarclées plusieurs fois et les agriculteurs changent leurs pratiques culturales
inadéquates ?
Est-ce que la satisfaction au travail varie en fonction de l’augmentation des défis à relever et de
l’esprit d’équipe ?
Quelle proportion de la variance du taux de brisure chez le riz est expliquée par la combinaison
des variables prédictives ?
63
* Les prémisses
1. Les types de variables à utiliser :
Indépendantes : continue ou catégorielle (ordinale ou dichotomique)
Dépendante : continue
2. Pas de variance égale à zéro : la distribution des prédicteurs doit comprendre une certaine variance,
donc ne doit pas être constante.
3. Aucune multicolinéarité parfaite : il ne doit pas y avoir de relation linéaire parfaite entre deux ou
plusieurs variables indépendantes. Par conséquent, les corrélations ne doivent pas être trop fortes entre
celles-ci. Cette prémisse peut être vérifiée avec le VIF (Variance Inflation Factor) indiquant si une
variable indépendante a une une relation linéaire forte avec les autres. La règle arbitraire souvent
appliquée veut qu‟une valeur de cet indice plus grande que 10 indique la présence d‟un tel problème.
4. Pas de corrélation entre les variables indépendantes et les variables externes : les variables
d‟influence doivent toutes être incluses dans le modèle.
5. Homoscédasticité (homogénéité des variances des résiduels) : la variance des valeurs résiduelles doit
être similaire à tous les niveaux de la variable indépendante.
6. Indépendance des erreurs : les valeurs résiduelles ne doivent pas être corrélées entre les individus.
Cette prémisse peut être vérifiée avec la statistique Durbin-Watson qui se situe entre 0 et 4, une valeur de
2 indiquant une absence de corrélation, moins de 2 une corrélation positive et plus de 2, une corrélation
négative. La règle arbitraire cette fois est que la valeur ne doit pas être plus petite que 1 ou plus grande
que 3.
7. Distribution normale des résiduels : bien que les variables indépendantes ne doivent pas
nécessairement suivre une distribution normale, il importe que les résiduels en suivent une. Ils doivent
donc avoir une moyenne de 0, la majorité des valeurs doivent s‟en rapprocher. Cette prémisse peut être
vérifiée en enregistrant les valeurs résiduelles dans la base de données et en effectuant le test de
Kolmogorov-Smirnov ou de Shapiro-Wilks, disponible dans les options de la commande Explorer. Vous
devez vous assurer que le test n‟est pas significatif pour conserver l‟hypothèse nulle de distribution
normale.
8. Indépendance de la variable prédite : toutes les observations formant la distribution des valeurs de la
variable dépendante sont indépendantes, viennent d‟un individu différent.
9. Relation linéaire entre les variables indépendantes et la variable dépendante : la variation de la
variable dépendante pour chaque augmentation d‟une unité d‟une variable indépendante suit une ligne
droite.
*Modèle
L‟équation de la régression linéaire multiple est en fait la généralisation du modèle de régression simple.
Yi : (b0 + b1X1 + b2X2 + … + bnXn) + εi
On observe que chaque variable indépendante (X) est multipliée par son propre coefficient bêta (b) qui
sous sa forme standardisée correspond à sa contribution relative dans le modèle. La constante (b 0)
correspond à la valeur de la variable dépendante lorsque toutes les variables indépendantes égalent 0. On
appelle aussi b0 l‟ordonnée à l‟origine. Associée de près à l‟évaluation du modèle, l‟indice de corrélation
multiple R2 représente le pourcentage de variance expliquée par le modèle (la combinaison des variables
indépendantes).
*La conception d’un modèle de régression
La conception d‟un modèle de régression ne devrait jamais être prise à la légère. Elle devrait faire l‟objet
d‟une réflexion préalable portant sur 1) le choix des variables indépendantes et 2) le choix de la méthode
de régression.
indépendantes. Cette liste n‟est pas exhaustive, mais souligne l‟importance des éléments à considérer lors
de cette étape.
1. La nature des objectifs ou des hypothèses de recherche : Les variables mises en cause dans
l‟énoncé d‟un objectif ou d‟une hypothèse doivent forcément se retrouver dans le modèle. L‟énoncé
peut également avoir un impact sur le choix de la méthode de régression.
2. La présence de variables confondantes : Il est possible que certaines variables n‟apparaissant pas
dans l‟énoncé de l‟objectif ou de l‟hypothèse soient importantes dans un modèle dans la mesure où
elles peuvent influencer les résultats. On appelle ces variables « confondantes » et leur inclusion
dans le modèle permet de contrôler statistiquement leur effet.
3. La présence de corrélation avec la variable dépendante : Dans certains contextes, il est possible
de choisir les variables indépendantes en fonction de leur degré d‟association avec la variable
dépendante. Des variables n‟ayant pas de lien assez fort avec celle-ci pourrait être exclues du
modèle.
4. La puissance statistique du devis : Cohen (1992) et Hair et al. (2005) ont bien démontré que le
nombre d‟observations détermine la quantité maximale de variables qu‟un modèle peut supporter.
Plus on a d‟observations, plus on peut inclure de variables dans le modèle.
*Formulation des hypothèses
L‟hypothèse nulle est qu‟il n‟y a pas de relation linéaire entre la combinaison des variables indépendantes
(X1, X2, X3… Xn) et la variable dépendante (Y). L‟hypothèse de recherche est l‟inverse, soit que la
combinaison des variables indépendantes est associée significativement à la variable dépendante.
*Exemple
Dans notre exemple, nous voulons savoir quelles variables influencent le salaire annuel d‟un
employé (SALAIRE). La théorie nous indique que le nombre d‟années de scolarité a une importante
influence (EDUC). Nous désirons savoir si le sexe des employés (SEXE) et le nombre de mois
d‟expérience dans l‟entreprise (DURÉE) exercent également une influence. Nous avons donc choisi un
modèle de régression hiérarchique (comprenant deux blocs de variables) avec la méthode entrée pour la
première étape (bloc 1 avec EDUC), mais la méthode ascendante pour la deuxième (bloc 2 avec SEXE et
DURÉE), dans le but d'illustrer les différentes possibilités de modélisation.
Resolution
Statistiques descriptives
Examinons d‟abord les statistiques descriptives. Nous voyons que l‟étude a été menée auprès de 474 employés qui gagnent en
moyenne actuellement près de 35 000 $. Ils travaillent depuis environ sept ans pour leur entreprise (81 mois) et ont en
moyenne 13 ans de scolarité. Bien entendu, la moyenne des hommes et des femmes n‟est pas une donnée pertinente, mais elle
indique que la variable a été codée 1-2. Idéalement, les variables dichotomiques doivent toujours être codées 0-1 pour en
faciliter l'interprétation.
Le deuxième tableau fourni concerne les corrélations entre les variables étudiées. Nous voyons qu‟il y a une corrélation très
élevée et significative entre le salaire et le nombre d‟années de scolarité, ainsi qu‟entre le sexe et le salaire. On doit porter
attention aux relations entre les variables indépendantes. Si la corrélation entre deux de ces variables se situait à 0,9 (ou – 0,9),
il y aurait un risque important de multicolinéarité. Nous aurions introduit deux variables qui mesurent sensiblement la même
chose pour prédire le salaire actuel. Nous voulons éviter cette situation.
65
Variables introduites/éliminées
Le tableau suivant présente les variables retenues dans les deux étapes du modèle. On constate que la variable EDUC est
forcément présente puisque nous avions choisi la méthode Entrée. Pour le deuxième bloc du modèle, SPSS a retenu la variable
SEXE avec notre critère de sélection (la probabilité F est significative à p < 0,05) et a exclu la variable DURÉE, car la valeur F
associée au coefficient b n'atteint pas le seuil de signification.
Analyse de variance
Le tableau d‟ANOVA nous donne cette information. Il nous permet de déterminer si nous rejettons l'hypothèse nulle (H 0) ou
non. Dans notre exemple, nous voulons savoir dans un premier temps si le nombre d'années de scolarité prédit mieux le
SALAIRE que ne le fait un modèle sans prédicteur (avec seulement la moyenne) et dans un deuxième temps, si le nombre
d‟années de scolarité et le sexe prédisent mieux le SALAIRE qu‟un modèle sans prédicteur. L'hypothèse nulle est donc que les
deux modèles sont équivalents à la moyenne du salaire.
On constate à la lecture du tableau que selon la valeur F obtenue pour les deux modèles, on peut rejeter l‟hypothèse nulle. En
effet, les valeurs de 365,38 et de 225,51 sont significatives à p < 0,001, ce qui indique que nous avons moins de 0,1 % de
chance de se tromper en affirmant que les modèles contribuent à mieux prédire le salaire que la simple moyenne.
66
Le tableau contient donc plusieurs informations utiles. Premièrement, la valeur de la corrélation multiple (R) correspond à
l'agglomération des points dans la régression simple. Elle représente la force de la relation entre la VD et la combinaison des
VI de chaque modèle. Des valeurs de 0,66 et 0,70 suggèrent que les données sont ajustées de manière satisfaisantes au modèle.
Ensuite, la signification du R2 est évaluée en fonction de l'apport de chaque étape. La variation de F associée au premier
modèle est significative (p < -.001). Ce modèle explique donc une proportion significative de la variance de la variable
SALAIRE. Nous sommes passés de R2 = 0 à R2 = 0,436. Le deuxième modèle fait passer le R2 de 0,436 à 0,489. Cette
variation de 0,053 apparait comme significative. En effet, la valeur de F est calculée à partir de la varaition du R 2 entre les
étapes. SPSS détermine donc si la différence (0,053) entre le R 2 du modèle 2 (0,489) et celui du modèle 1 (0,436) est
significative. Cette fois-ci, c'est le cas (p < 0,001). Chaque étape contribue donc significativement à l'amélioration de
l'explication de la variabilité de la VD.
La dernière colonne concerne le test de Durbin-Watson, il n'y a pas de seuil de signification associé, seulement la valeur de la
statistique qui est acceptable lorsqu'elle se situe entre 1 et 3. Il est convenu que plus la valeur est près de 2, moins il y a de
problème au niveau de l'indépendance des erreurs. Avec une valeur de 1,96, nous pouvons croire que nous respectons cette
prémisse.
Remplaçons maintenant les b par les coefficients fournis dans le tableau ci-dessous.
Pour un homme ayant complété 16 années de scolarité, nous obtiendrions un salaire prédit de...
Le signe du coefficient nous indique le sens de la relation. Dans notre cas, plus le nombre d‟années de scolarité augmente, plus
le salaire augmente. Nous voyons aussi que quand le sexe diminue (passant de 2 pour les femmes à 1 pour les hommes), le
salaire augmente. Le coefficient nous informe également sur le degré auquel chaque prédicteur influence la VD si tous les
autres prédicteurs sont constants. Par exemple, chaque année de scolarité de plus est associée à 3 391,68 $ de plus
annuellement.
L‟erreur standard nous renseigne sur la variabilité du coefficient dans la population. Elle permet également de calculer la
67
valeur de t. Cette dernière nous indique si le coefficient est significatif. Alors que le tableau sur le récapitulatif des modèles
confirmait si chaque modèle était significatif, la signification de t nous permet de répondre à la question « est-ce que le b du
prédicteur est différent de 0 ? », donc si chaque variable contribue significativement au modèle. Plus la valeur de t est élevée et
plus celle de p est petite, plus le prédicteur contribue au modèle. Nous constatons donc que les deux variables sont
significatives, mais que la variabilité expliquée par le nombre d‟années de scolarité est plus importante que celle expliquée par
le sexe.
La valeur du Beta standardisé (β) apporte aussi une information intéressante. Elle indique le changement en écart-type de la
VD pour chaque augmentation d‟un écart-type de la VI quand toutes les autres valeurs sont constantes. Par exemple, la valeur
d‟un écart-type du salaire est de 17 075,66 $ et celle d‟un écart-type de scolarité est de 2,89. Nous pouvons donc savoir que
l‟augmentation d‟un é.-t. de la scolarité (2,89) est associé à l‟augmentation de 0,57 é.-t. du salaire (0,57*17 075,66 = 9 733,13).
Par conséquent, chaque fois que l‟on étudie 2,89 années de plus, le salaire augmente de 9 733,13 $.
Pour les intervalles de confiance, nous voulons obtenir les valeurs les plus rapprochées pour que le modèle soit le plus près
possible des données réelles de la population. Il ne faut absolument pas que la valeur 0 se situe entre les deux intervalles, car
cela signifierait qu'une différence de 0 est une valeur possible. DAns ce cas, la valeur de t forcéme&²nt non significative.
Ce tableau présente également la valeur des corrélations et des corrélations partielles. Ce sont ces valeurs sur lesquelles se base
SPSS lorsqu‟il choisit d‟introduire des variables lorsque l‟on sélectionne une méthode d'entrée progressive. La première
variable est choisie à partir de la corrélation simple la plus forte (ici 0,661 pour EDUC). Le choix des variables suivantes est
par contre basé sur la corrélation partielle, c'est-à-dire la plus forte corrélation entre les variables toujours disponibles et la
partie de variance qui reste à expliquer une fois que l‟on a retiré ce qui est expliqué par le premier prédicteur.
Finalement, la valeur VIF (ou la tolérance, soit l‟inverse du VIF (1/VIF)) permet de vérifier la prémisse de multicolinéarité.
Nous cherchons à obtenir une valeur VIF près de 1. Si elle est de 10, c‟est problématique. Conséquemment, si la tolérance est
équivalente à 0,1, il y a un problème sérieux . Probablement que les corrélations entre 2 variables prédictrices ou plus sont trop
élevées.
coefficients b et sont mal prédites par le modèle, donc elles sont associées à une valeur résiduelle importante. Comme nous
avons vu précédemment dans le rappel théorique, nous ne voulons aucune valeur résiduelle standardisée de plus de 3,29 (ou de
moins de -3,29), pas plus de 1 % de l‟échantillon ayant une valeur de plus de 2,58 (ou de moins de -2,58) ainsi qu'un maximum
de 5 % des observations ayant une valeur de plus de 1,96 (ou de moins de – 1,96).
En observantt le diagnostic des observations, nous constatons que 7 individus ont des salaires de plus de 83 750 $. Ils
s‟écartent vraiment de la moyenne, la valeur résiduelle standardisée pour chacun est de plus de 3 écart-types. Les employés
gagnant plus de 100 000 $ annuellement présentent un problème majeur. Il serait probablement judicieux de refaire l‟analyse
en excluant ces hauts salariés et de vérifier la variation des coefficients.
D‟ailleurs, nous pouvons constater en regardant l‟histogramme de la distribution des valeurs résiduelles que nous ne respectons
pas la prémisse de normalité de distribution des erreurs. Nous souhaitons que la distribution suive une courbe normale, mais
nous observons un pic prononcé ainsi que des valeurs éloignées de la courbe. Cette distribution n‟est donc probablement pas
normale. Nous pourrions confirmer avec le test de normalité de Shapiro-Wilks ou de Kolmogorov-Smirnoff. Ces tests sont
disponbiles dans les options de la procédure Explorer. Cochez Graphes de répartition gaussiens avec tests. Cela nous confirme
encore qu'il pourrait être judicieux de retirer ces valeurs extrêmes de l'analyse.
Finalement, nous pouvons tout de même jeter un coup d‟œil aux prémisses d‟homéodasticité et de linéarité avec le graphique
de dispersion. Pour la première prémisse, les points doivent être répartis aléatoirement autour de 0 (ne pas former d‟entonnoir),
ce qui semble le cas ici, bien que les points soient répartis en colonnes. Pour la deuxième, nous voulons éviter que
l‟agglomération de points suive une courbe. Cette prémisse semble aussi respectée. Nous respectons donc la plupart des
prémisses, le modèle est donc probablement valide, mais gagnerait certainement en précision en éliminant les valeurs
extrêmes.
69
Type de Nombre de
variable catégories Caractéristiques Exemples
Binaire 2 Deux niveaux Succès/Echec
Oui/Non
Max/Min
Ordinale 3 ou plus Niveaux en ordre naturel Goût (Léger, Moyen, Fort)
Etat médical (Critique, Grave, Stable, Bon)
Résultats d'enquête (Pas d'accord, Neutre,
D'accord)
Nominale 3 ou plus Niveaux sans ordre naturel Goût (Amer, Sucré, Acide)
Couleur (Rouge, Bleu, Noir)
Matière scolaire (Maths, Sciences, Arts)
Poisson 3 ou plus La variable de réponse indique le 0, 1, 2, ...
nombre d'occurrences d'un
événement dans un espace
d'observation fini.
Où F est une fonction de répartition inversible donnée avecβ0,β1,...,βp inconnus. En pratique les
coefficientsβ0,β1,...,βp doivent être déterminés à partir des données.
71
Les logiciels de statistiques calculent la fonction LV(β) et cherchent les coefficients β0; β1; …βp que
maximisent cette fonction à l‟aide d‟un algorithme itérative. Dans ce cours on va juste utiliser et
interpréter les résultats donnés par le logiciel R (vous n‟avez pas besoin de connaitre les résultats
théoriques de la log-vraisemblance associée au modèle).
Exemple :
Lorsque la variable dépendante prend K (K >2) modalités, nous sommes dans le cadre de la régression
logistique polytomique. Dans cette partie, nous considérons qu'elle est nominale c.à.d, .il n'y a pas de
relation d'ordre entre les modalités, ou tout du moins nous souhaitons ne pas en tenir compte si elle existe.
On parle de régression logistique multinomiale. On p eut la voir comme une forme de généralisation de la
régression logistique binaire.
La régression logistique multinomiale est une extension de la régression logistique aux variables
qualitatives à trois modalités ou plus, la régression logistique ordinale aux variables qualitatives à trois
modalités ou plus qui sont ordonnées hiérarchiquement.
Exercices
Les agriculteurs sont confrontés à des choix dans leurs activités : choix de la culture, de la variété, de
l'engrais, des techniques culturales, etc. Pour prendre ces décisions, ils peuvent se baser sur leur
expérience personnelle, ou sur les traditions locales, ou encore sur des échanges d'informations avec des
spécialistes agricoles. Tout recueil d'informations est conçu en fonction d'un objectif, et cet objectif
conditionne la manière dont seront collectées les données et les questions auxquelles on tentera d'apporter
une réponse.
Les problèmes que rencontre l'agriculture d'une région et les connaissances que l'on peut avoir sur le sujet
concourent à la définition d'un objectif de recherche. Celui-ci se traduit par une hypothèse à tester dans
une expérience qui aboutit à une conclusion pouvant déboucher d'une part sur une proposition d'action sur
le terrain et d'autre part sur un enrichissement des connaissances, car les résultats peuvent être utilisés
pour résoudre des problèmes similaires.
En expérimentation, on cherche à comparer les effets de différents traitements sur une population
expérimentale. Les données doivent être "fabriquées" par l'expérimentateur de manière à respecter dans la
mesure du possible le principe : "les traitements sont comparés, toutes choses étant égales par ailleurs".
72
L'autre mode de recueil d'informations est l'enquête (appelée ainsi ou bien sondage lorsque les
observations portent sur des personnes et échantillonnage lorsque les observations portent sur des
animaux ou des objets). Dans une enquête, on cherche à collecter des informations sur une population, en
la représentant par une partie de celle-ci, l'échantillon. La notion de représentativité de la population par
l'échantillon est donc essentielle dans une enquête (cfr chap1).
Plan d’expérience
On appelle plan d’expérience l‟opération consistant à planifier une expérience pour obtenir des données
appropriées et en tirer des conclusions sur tout problème soumis à l‟examen. Cette opération peut partir
de la formulation, en termes clairs, des objectifs de l‟expérience et s‟achever par la rédaction des rapports
contenant les conclusions importantes de l‟étude. Elle comprend aussi une phase intermédiaire durant
laquelle sont définis les détails de l‟expérience, notamment la structuration des variables dépendantes et
indépendantes, leurs niveaux dans l‟expérience, le type de matériel expérimental qui sera utilisé, la
méthode de manipulation des variables du matériel expérimental, des techniques d‟inférence statistique
efficaces et rationnelles etc…
Traitement et facteur
On appelle facteur toute série d'éléments de même nature conditionnant le phénomène étudié, en
agriculture le comportement agronomique de la culture (par exemple la variété, la dose d'engrais, etc.).
Les facteurs qui sont l'objet même de l'expérience sont appelés facteurs étudiés. Ceux qui sont liés à la
variabilité du milieu et introduits de façon à ce que leurs effets puissent être éliminés sont appelés les
facteurs de contrôle (ou contrôlés, bien que ce dernier qualificatif puisse être à double sens).
Les différents éléments qui constituent un facteur sont appelés niveaux ou modalités. Le premier terme
étant plutôt employé pour un facteur quantitatif et le deuxième pour un facteur qualitatif.
Enfin, on appelle objet ou traitement toute combinaison de niveaux ou de modalités de tous les facteurs
étudiés. Si un seul facteur est étudié, il y a identité entre un traitement et un niveau.
L'unité expérimentale
L'unité expérimentale est l'unité élémentaire qui reçoit un traitement et sur laquelle est faite chaque
mesure. Par exemple, dans les essais au champ, cette unité est la parcelle expérimentale. Elle est
constituée d'une certaine étendue de terrain et d'un certain nombre de plants.
Un problème important est celui des effets de bordure : dans beaucoup d'essais au champ, il y a un risque
d'interférences entre parcelles voisines (par exemple, il peut y avoir ombrage d'une variété haute sur une
voisine plus basse, ou bien un engrais peut partiellement profiter aux parcelles voisines). Ceci peut
affecter sérieusement la comparaison entre les traitements. La solution est de ne réaliser les mesures que
sur la partie centrale de la parcelle expérimentale et pas sur les bordures. On distingue alors la parcelle
utile sur laquelle sont effectuées les mesures et la parcelle expérimentale (= parcelle utile + bordures) qui
reçoit le traitement.
Avant de réaliser une expérience, il convient de définir une unité expérimentale. Celle-ci peut aussi être
constituée d‟une feuille, d‟un arbre ou d‟un groupe d‟arbres adjacents.
73
Le Bloc
Un groupe de parcelles est appelé bloc. Les observations faites sur les unités expérimentales se
caractérisent par de grandes variations, en partie produites par la manipulation de certaines variables,
généralement appelées traitements, qui sont inhérentes à l‟expérience et manipulées à dessein pour
étudier leurs influences. Par exemple, les clones dans les tests clonaux, les doses et les types d‟engrais
dans les essais sur les engrais etc… peuvent être appelés traitements.
Les traitements sont contenus dans un bloc
Erreur expérimentale
En plus de ces variations de source connue, il en existe d‟autres dont on ignore l‟origine, ou la cause,
comme par exemple la variation non contrôlée de facteurs externes liés à l‟environnement, les variations
génétiques du matériel expérimental, autres que celles dues aux traitements, etc… Ces variations sont
inévitables et inhérentes au processus même de l‟expérimentation. En raison de leurs influences
indésirables, elles ont reçu le nom d‟erreurs expérimentales, ce qui signifie qu‟il ne s‟agit pas d‟erreurs
arithmétiques, mais de variations dues à une combinaison de facteurs sur lesquels l‟expérimentateur ne
peut pas agir.
De plus, il est intéressant de noter que ces erreurs introduites par des facteurs externes dans les
observations expérimentales peuvent avoir une incidence systématique ou aléatoire. Les erreurs
imputables à un équipement défectueux, comme un tendeur de chaîne qui aurait perdu son étalonnage à
force d‟être utilisé, ou l‟erreur due à la fatigue de l‟observateur sont des exemples d‟erreur systématique.
En revanche, la variation imprévisible de la quantité de feuilles ramassées dans un collecteur de litière,
dans le cadre d‟un traitement particulier d‟une expérience liée, est de caractère aléatoire, ou fortuit. Il est
clair que quel que soit le nombre de fois où l‟on répètera les mesures, l‟erreur systématique subsistera,
alors que les erreurs aléatoires finissent le plus souvent par disparaître à l‟issue de mesures répétées. Les
trois principes de base, à savoir randomisation, répétition et contrôle local, permettent d‟ éviter l‟erreur
systématique et de limiter l‟erreur aléatoire.
La majorité des expériences reposent sur trois principes fondamentaux, à savoir randomisation, répétition
et contrôle local. D‟une certaine façon, ces trois principes se complètent mutuellement, puisqu‟ils tentent
d‟augmenter la précision de l‟expérience et de garantir la validité du test de signification, tout en
conservant, dans toute l‟expérience les caractéristiques propres à leurs rôles.
4.3.1. Randomisation
On appelle randomisation la technique d‟attribution des traitements, ou des facteurs à tester, aux unités
expérimentales conformément à des lois ou probabilités définies. C‟est la randomisation dans son sens
technique strict, qui garantit l‟élimination des erreurs systématiques et le caractère purement aléatoire de
74
tout élément d‟erreur persistant dans les observations. A partir de là, on peut faire une estimation valable
des fluctuations aléatoires, indispensable pour tester la signification de différences réelles.
Grâce à la randomisation, chaque unité expérimentale aura une chance égale de recevoir un traitement
quelconque. Si, par exemple, cinq clones d‟eucalyptus doivent être testés dans 25 parcelles, la
randomisation garantit que certains clones ne seront pas favorisés ou pénalisés par des sources de
variation externes qui ne dépendent pas de l‟action, délibérée ou non, de l‟expérimentateur. Le processus
d‟allocation aléatoire peut se faire de plusieurs façons, par tirage au sort ou en tirant des nombres d‟une
page, choisie au hasard, de nombres aléatoires. La méthode est illustrée dans les sections qui suivent sur
les différents types de plans expérimentaux.
4.3.2. Répétition
Par répétition, on entend la répétition d‟une expérience dans des conditions identiques. Dans le contexte
des plans d‟expérience, en revanche, le terme se réfère au nombre d‟unités expérimentales distinctes
faisant l‟objet du même traitement. La répétition, conjuguée à la randomisation, fournira une base pour
estimer la variance des écarts. Sans la randomisation, un nombre quelconque de répétitions pourrait ne
pas déboucher sur une estimation réelle de l‟erreur. Plus le nombre de répétitions est grand, plus la
précision de l‟expérience est grande.
Le nombre de répétitions que doit comporter une expérience quelconque dépend de nombreux facteurs,
notamment de l‟homogénéité du matériel expérimental, du nombre de traitements, du degré de précision
requis etc… En règle général, on pourrait postuler que le nombre de répétitions dans un plan doit fournir
au moins dix à quinze degrés de liberté, pour calculer la variance de l‟erreur expérimentale.
On entend par contrôle local le contrôle de tous les facteurs autres que ceux sur lesquels portent les
recherches. Comme la répétition, le contrôle local est un dispositif visant à réduire ou à maîtriser la
variation due à des facteurs externes et à accroître la précision de l‟expérience. Si, par exemple, un champ
d‟essais est hétérogène, du point de vue de la fertilité du sol, il peut être divisé en blocs plus petits de
façon à ce que les parcelles se trouvant à l‟intérieur de chaque bloc tendent à être plus homogènes. Ce
type d‟homogénéité des parcelles (unités expérimentales) garantit une comparaison non biaisée des
moyennes des traitements. En effet, il serait difficile de dire que la différence moyenne entre deux
traitements provient uniquement de différences entre eux, s‟il restait aussi des différences entre les
parcelles. Ce type de contrôle local visant à rendre homogènes des unités expérimentales, augmentera la
précision de l‟expérience et aidera à tirer des conclusions valides.
Pour résumer, on peut dire qu‟alors que la randomisation vise à éliminer une erreur systématique (ou
biais) dans l‟allocation et, partant, à ne laisser qu‟un élément de variation d‟erreur aléatoire, les deux
autres méthodes, à savoir la répétition et le contrôle local, tentent de maintenir cette erreur aléatoire à un
niveau aussi faible que possible. Les trois principes sont cependant essentiels pour faire une estimation
valable de la variance de l‟erreur et garantir la validité du test de signification.
Il n'y a pas non plus de règle absolue pour la forme des parcelles : lorsque le terrain est assez homogène,
il y a intérêt à prendre des parcelles aussi carrées que possible, ce qui limite les effets de bordure. Mais
l'homogénéité est rare et, dans le cas où il y a un gradient de fertilité, il y a plutôt intérêt à prendre des
parcelles allongées dans le sens du gradient. De plus, le même auteur conseille de prendre des parcelles
allongées en cas d'hétérogénéités "en taches", ce qui permettrait de recouper les zones de fertilités
différentes.
La réalisation d'un essai à blanc est le moyen le plus utilisé pour avoir des informations sur la dimension
et la forme des parcelles expérimentales à prendre dans un lieu donné. Un tel essai permet en outre de
mesurer l'hétérogénéité des parcelles et de prévoir comment les regrouper en blocs homogènes, s'il y a
lieu.
Les dispositifs expérimentaux classiques ont été classés d'après le mode de contrôle de l'hétérogénéité :
pas de contrôle pour le plan en randomisation totale, un seul facteur de contrôle pour le plan en blocs et
deux facteurs de contrôle pour le carré latin.
NB :Seuls les plans analysables par le logiciel usuels sont vus dans un premier temps mais une autre partie sera consacrée aux
autres plans d'expériences classiques non analysables par ces logiciels en ingéniorat tout comme divers sujets intéressant
l'expérimentation : le calcul d'un nombre de répétitions, la gestion des données manquantes et le problème des écarts aux
hypothèses de l'analyse de variance.
Dans un plan expérimental entièrement randomisé (PER), les traitements sont attribués complètement au
hasard de sorte que chaque unité expérimentale a la même chance de recevoir un traitement donné quel
qu‟il soit. Dans un PER, toute différence entre les unités expérimentales soumises au même traitement est
considérée comme une erreur expérimentale. En conséquence, le PER n‟est approprié que pour les
expériences ayant des unités expérimentales homogènes, telles que les essais en laboratoire, dans
lesquelles il est relativement facile de maîtriser les effets dus à l‟environnement. Le PER est rarement
utilisé pour les essais en champs, où il existe une grande variation entre les parcelles expérimentales, par
exemple au niveau de facteurs comme les sols.
Nous allons maintenant présenter la procédure par étapes de la randomisation ainsi que le schéma d‟un
PER, pour un essai de culture en pots comportant quatre traitements A, B, C et D, répétés cinq fois.
*Etape 1. Déterminer le nombre total de parcelles expérimentales (n), comme produit du nombre de
traitements (t) et du nombre de répétitions (r); c‟est-à-dire, n = rt. Dans notre exemple, n = 5 x 4 = 20.
Dans ce cas, un pot contenant une seule plante sera considéré comme une parcelle. Si le nombre de
répétitions n‟est pas le même pour tous les traitements, on obtiendra le nombre total de pots
expérimentaux en faisant la somme des répétitions de chaque traitement :
*Etape 2. Attribuer un numéro à chaque parcelle expérimentale, selon une quelconque méthode
appropriée, par exemple, en utilisant des suites de chiffres de 1 à n.
*Etape 3. Allouer au hasard les traitements aux parcelles expérimentales, en utilisant une table de
nombres aléatoires.
76
Allouez les t traitements aux n parcelles expérimentales, en prenant le numéro du groupe comme numéro
de traitement et les rangs correspondants dans chaque groupe comme le nombre de parcelles auxquelles le
traitement correspondant sera alloué.
b) Analyse de la variance
Il existe deux sources de variation entre les n observations tirées d‟un essai de PER. L‟une est la variation
due aux traitements et l‟autre est l‟erreur expérimentale. Leur taille relative indique si la différence
observée entre les traitements est réelle ou si elle est due au hasard. La différence due au traitement est
" réelle " si elle dépasse dans une mesure significative l‟erreur expérimentale.
L‟un des avantages majeurs d‟un PER est que son analyse de variance se calcule facilement, surtout si le
nombre de répétitions n‟est pas uniforme pour tous les traitements. Pour la plupart des autres plans,
l‟analyse de variance se complique lorsque la perte de données dans certaines parcelles entraîne des
disparités dans les répétitions des traitements testés.
Nous allons voir ci-dessous les étapes de l‟analyse de variance des données provenant d‟une
expérimentation relative à un PER comportant un nombre de répétitions non uniforme. Les formules
peuvent être adaptées facilement en cas de répétitions égales, de sorte qu‟elles ne sont pas décrites à part.
Le plan expérimental en blocs aléatoires complets (PEBAC) est l‟un des dispositifs les plus largement
utilisés en recherche agronomique. Il se prête généralement à des expériences en champs dans lesquels le
nombre de traitements est peu important et où il existe un facteur évident pouvant servir de base pour
identifier des ensembles homogènes d‟unités expérimentales. Le PEBAC se caractérise principalement
par la présence de blocs de taille égale, dont chacun contient tous les traitements.
Cette technique a pour but de réduire l‟erreur expérimentale en éliminant la contribution de sources
connues de variation entre les unités expérimentales. Pour ce faire, on regroupe les unités expérimentales
en blocs de manière à minimiser la variabilité à l‟intérieur de chaque bloc et à maximiser la variabilité
entre les blocs. Etant donné que seule la variation à l‟intérieur d‟un bloc devient un élément de l‟erreur
expérimentale, le dispositif par blocs est particulièrement efficace lorsque le type de variabilité du secteur
d‟expérimentation est prévisible.
Dans un dispositif par blocs, l‟idéal est d‟utiliser une source de variation grande et hautement prévisible,
telle que l‟hétérogénéité du sol, dans un essai d‟engrais ou de provenance dans lequel le rendement est le
77
principal caractère sur lequel on cherche à obtenir des informations. Dans le cas d‟expériences de ce
genre, après avoir identifié la source spécifique de variabilité qui servira de critère pour les blocs, il faut
choisir la taille et la forme des blocs pour maximiser la variabilité entre ceux-ci. Les principes directeurs
de cette décision sont les suivants : i) si le gradient est unidirectionnel (c‟est-à-dire s‟il y a un seul
gradient), les blocs seront longs et étroits, et orientés de façon à ce que leur longueur soit perpendiculaire
à la direction du gradient ; ii) si le gradient de fertilité va dans deux directions, avec un gradient beaucoup
plus fort que l‟autre, on ignorera le plus faible et l‟on suivra les directives qui viennent d‟être données
pour le gradient unidirectionnel ; iii) si le gradient de fertilité va dans deux directions, et si les deux
gradients ont la même force et sont perpendiculaires l‟un par rapport à l‟autre, on choisira des blocs aussi
carrés que possible ou d‟autres types de plans comme le carré latin (Gomez et Gomez, 1980).
Si l‟on utilise cette technique, la définition des blocs et l‟objet de leur utilisation doivent être compatibles
tout au long de l‟expérience. Cela signifie que dans tous les cas où il existe une source de variation sur
laquelle le chercheur ne peut pas agir, on veillera à ce que cette variation se produise entre des blocs
plutôt qu‟à l‟intérieur d‟un même bloc. Par exemple, s‟il est impossible de mener à leur terme en un seul
jour certaines opérations comme l‟application d‟insecticides ou la collecte de données, pour toute
l‟expérience, celles-ci devront être achevées en une journée sur toutes les parcelles d‟un même bloc. De
cette manière, la variation entre les jours (qui peut être renforcée par des facteurs météorologiques)
devient un élément de la variation du bloc et se trouve par conséquent exclue de l‟erreur expérimentale.
Si, dans le cadre de l‟essai, plusieurs chercheurs doivent prendre des mesures, le même observateur sera
chargé de prendre des mesures sur toutes les parcelles d‟un même bloc. Ainsi, l‟éventuelle variation entre
les observateurs constituera un élément de la variation du bloc et non de l‟erreur expérimentale.
Le processus de randomisation d‟un PEBAC est appliqué à chaque bloc de manière séparée et
indépendante. Nous allons illustrer la marche à suivre pour une expérience en champ comportant six
traitements A, B, C, D, E, F et trois répétitions.
Gradient
b) Analyse de la variance
Tout PEBAC a trois sources de variabilité - le traitement, la répétition (ou bloc) et l‟erreur expérimentale
- soit une de plus qu‟un PER, en raison de l‟adjonction de la répétition qui correspond à la variabilité
entre les blocs.
(df) (SS)
Total rt - 1 SSTO
Dans toute expérience, une ou plusieurs variables de réponse peuvent être affectées par un certain nombre
de facteurs dans le système global, dont certains sont maîtrisés ou maintenus aux niveaux voulus dans
l‟expérience. Une expérience dans laquelle les traitements sont constitués de toutes les combinaisons
possibles de deux ou plusieurs facteurs, aux niveaux sélectionnés, est appelé plan d‟expérience factoriel.
Par exemple, une expérience sur l‟enracinement des boutures englobant deux facteurs, mesurés à deux
niveaux – par exemple deux hormones à deux dosages différents – est une expérience factorielle 2 x 2 ou
22. Les traitements sont constitués des quatre combinaisons possibles de chacun des deux facteurs, aux
deux niveaux considérés.
1 NAA 10
2 NAA 20
3 IBA 10
4 IBA 20
On utilise parfois l‟expression expérience factorielle complète lorsque les traitements comprennent toutes
les combinaisons des niveaux sélectionnés des facteurs, mais l‟expression expérience factorielle
fractionnée ne s‟applique que le test ne porte que sur une fraction de toutes les combinaisons. Toutefois,
pour simplifier, les expériences factorielles complètes seront, tout au long de ce manuel, appelées
simplement expériences factorielles. On notera que le terme factoriel se réfère au mode de constitution
spécifique des traitements et n‟a rien à voir avec le plan décrivant le dispositif expérimental. Par exemple,
si l‟expérience factorielle 22 dont nous avons parlé plus haut fait partie d‟un plan d‟expérience en blocs
aléatoires complets, l‟expérience devrait être définie par l‟expression expérience factorielle 22 dans un
plan en blocs aléatoires complets.
Dans un plan d‟expérience factoriel, le nombre total de traitements est égal au produit du nombre de
niveaux de chaque facteur; dans l‟exemple factoriel 22, le nombre de traitements est égal à 2 x 2 = 4, dans
une expérience factorielle 23, le nombre de traitements est 2 x 2 x 2 = 8.
79
Le nombre de traitements augmente rapidement avec le nombre de facteurs ou avec les niveaux de chaque
facteur. Pour une expérience factorielle comprenant 5 clones, 4 espacements et 3 méthodes de
désherbage, le nombre total de traitements sera 5 x 4 x 3 = 60. On évitera donc le recours inconsidéré aux
expériences factorielles en raison de leur ampleur, de leur complexité et de leur coût. De plus, il est peu
raisonnable de se lancer dans une expérience de grande ampleur au début d‟un travail de recherche, alors
qu‟il est possible, avec plusieurs petits essais préliminaires, d‟obtenir des résultats prometteurs.
Imaginons par exemple qu‟un généticien forestier ait fait venir 30 nouveaux clones d‟un pays voisin et
veuille voir comment ils réagissent à l‟environnement local. Etant donné que normalement les conditions
de l‟environnement varient en fonction de plusieurs facteurs, tels que la fertilité du sol, le degré
d‟humidité, etc. l‟idéal serait de tester les 30 clones dans le cadre d‟une expérience factorielle englobant
d‟autres variables, telles qu‟engrais, niveau d‟humidité et densité de population. Le problème est que
l‟expérience devient alors extrêmement vaste du fait de l‟adjonction d‟autres facteurs que les clones.
Même si l‟on incluait qu‟un seul facteur, comme l‟azote ou l‟engrais, à trois dosages différents, le nombre
de traitements passerait de 30 à 90. Une expérience de cette ampleur pose divers types de problèmes,
notamment pour obtenir des financements ou une surface expérimentale adéquate, ou pour contrôler
l‟hétérogénéité du sol etc. Pour faciliter les choses, il est donc préférable de commencer par tester les 30
clones dans une expérience à un facteur, puis de sélectionner sur la base des résultats obtenus un petit
nombre de clones à soumettre à un examen plus détaillé. Par exemple la première expérience à un facteur
peut montrer que seuls cinq clones ont des performances suffisamment remarquables pour justifier des
tests plus approfondis. Ces cinq clones pourraient ensuite être insérés dans une expérience factorielle avec
trois dosages d‟azote, ce qui donnerait un expérience à quinze traitements , alors qu‟il en faudrait 90 dans
une expérience factorielle avec 30 clones.
L‟effet d‟un facteur est la variation moyenne d‟une réponse dérivant d‟un changement du niveau du
facteur considéré. Cet effet est souvent appelé effet principal.
Facteur B
Niveau b1 b2
a1 20 30
Facteur A
a2 40 52
L‟effet principal du facteur A peut être considér é comme la différence entre la réponse moyenne au
premier niveau de A et la réponse moyenne au deuxième niveau de A.
Si les facteurs apparaissent à plus de deux niveaux, la procédure ci-dessus doit être modifiée car les
différences entre les réponses moyennes peuvent être exprimées de différentes manières.
Le principal avantage d‟une expérience factorielle est qu‟elle permet d‟obtenir plus d‟informations sur
l‟interaction entre les facteurs. Dans certaines expériences, on constate que la différence de réponse entre
les niveaux d‟un facteur n‟est pas la même à tous les niveaux des autres facteurs, ce qui signifie qu‟il
existe une interaction entre les facteurs. Prenons pour exemple les données du Tableau 4.13.
Facteur B
Niveaux b1 b2
a1 20 40
Facteur A
a2 50 12
Cette valeur étant très petite, nous sommes tentés de conclure à l‟absence d‟effets dus à A. Toutefois, si
l‟on examine les effets de A à différents niveaux du facteur B, on constate qu‟il n‟en est pas ainsi. Le
facteur A a un effet, mais il dépend du niveau du facteur B, ce qui veut dire qu‟une interaction
significative masque souvent la signification des effets principaux. En présence d'une interaction
significative, l'expérimentateur doit ordinairement examiner les niveaux d'un facteur, par exemple A,
alors que le niveau des autres facteurs reste fixe, pour tirer des conclusions sur l‟effet principal de A.
Dans la majorité des plans d‟expérience factoriels, les traitements sont trop nombreux pour qu‟un plan en
blocs aléatoires puisse être efficace. Certains types de plans ont cependant été spécifiquement mis au
point pour des expériences factorielles de grande envergure, (ex : plans factoriels avec confusion).
L‟utilisation de ces plans est décrite dans Das et Giri (1980).
a) Analyse de variance
Tout plan en blocs complets pour des expériences à un facteur est applicable à un plan d‟expérience
factoriel. Les procédures de randomisation et de représentation schématique de chaque plan peuvent être
appliquées directement, en ignorant simplement la composition factorielle des traitements et en faisant
comme s‟il n‟existait pas de relation entre les traitements. Pour l‟analyse de variance, les calculs
examinés pour chaque plan sont aussi directement applicables. Toutefois, des étapes de calcul doivent
être ajoutées pour répartir les sommes des carrés des traitements entre les composantes factorielles
correspondant aux effets principaux des facteurs individuels et à leurs interactions. Cette procédure de
fractionnement étant la même pour tous les plans en blocs complets, elle ne sera illustrée ici que pour le
cas du PEBAC.
Nous allons décrire les différentes étapes de la procédure d‟analyse de la variance d‟une expérience à
deux facteurs sur les bambous, avec deux niveaux d‟espacements (Facteur A) et trois niveaux d‟âge à la
plantation (facteur B), définis dans un PEBAC, à trois répétitions.
Tableau. Les combinaisons factorielles (2 x3) des traitements, avec deux niveaux d‟espacement et trois niveaux d‟âge.
(a1) (a2)
a2b3 a 2b 3 a 1b 2
a1b3 a 1b 2 a 1b 1
a1b2 a 1b 3 a 2b 2
a2b1 a 2b 1 a 1b 3
a1b1 a 2b 2 a 2b 1
a2b2 a 1b 1 a 2b 3
Tableau. Représentation schématique de l‟analyse de variance d‟une expérience factorielle avec deux niveaux du facteur A,
trois niveauxs du facteur B et trois répétitions, dans un PEBAC
A a- 1 SSA MSA
B b- 1 SSB MSB
Dans un plan d‟expérience factoriel, si le nombre de facteurs à tester est trop grand, il devient impossible
de tester tous les traitements factoriels à la fois dans le cadre d‟une seule expérience. Il est alors plus
logique de mettre au point un plan expérimental pour tester une fraction seulement du nombre total de
traitements. Le plan factoriel fractionné (PFF) est applicable, uniquement dans le cas d‟expériences
englobant un grand nombre de facteurs. Il permet de sélectionner et de tester systématiquement une
fraction seulement de l‟ensemble complet de combinaisons de traitements factoriels. Ceci entraîne
82
malheureusement une perte d‟informations sur certains effets sélectionnés au préalable. Alors que ces
pertes peuvent être importantes dans des expériences à un ou deux facteurs, elles sont plus tolérables si
les facteurs sont nombreux. Le nombre d‟effets d‟interaction augmente rapidement avec le nombre de
facteurs, ce qui permet une certaine flexibilité dans le choix des effets qui devront être sacrifiés. De fait,
lorsque l‟on sait avant de commencer que certains effets spécifiques sont faibles ou sans importance, la
perte d‟information dérivant de l‟adoption d‟un Plan d‟expérience factoriel fractionné est négligeable.
Dans la pratique, les effets qui sont le plus couramment sacrifiés du fait du recours au PFF sont des
interactions d‟ordre élevé – de quatre facteurs ou de cinq facteurs, voire interaction de trois facteurs. Dans
la majorité des cas, à moins de disposer d‟informations préalables en sens contraire, le chercheur a intérêt
à sélectionner un ensemble de traitements qui permet de tester tous les effets principaux et les interactions
de deux facteurs. En recherche forestière, le PFF sera utilisé dans des essais exploratoires ayant pour
principal objectif d‟examiner les interactions entre des facteurs. Pour ces essais, les PFF les plus
appropriés sont ceux qui ne sacrifient que les interactions concernant plus de deux facteurs.
Avec le PFF, le nombre d‟effets mesurables décroît rapidement avec la diminution du nombre de
traitements à tester. Ainsi, lorsque les effets à mesurer sont nombreux, le nombre de traitements à tester,
même dans le cadre d‟un PFF, peut être encore trop important. Il est alors possible de diminuer encore la
taille de l‟expérience en réduisant le nombre de répétitions. Bien que les PFF sans répétition soient
rarement employés dans les expériences forestières, lorsqu‟on les applique à des essais exploratoires, le
nombre de répétitions requis peut être réduit au minimum.
L‟autre avantage du PFF est qu‟il permet de réduire la taille des blocs puisque ceux-ci ne doivent plus
nécessairement contenir tous les traitements à soumettre au test. L‟homogénéité des unités expérimentales
appartenant à un même bloc peut ainsi être améliorée. La réduction de la taille des blocs s‟accompagne
toutefois d‟une perte d‟information qui s‟ajoute à celle dérivant de la diminution du nombre de
traitements. Ainsi, le PFF peut être conçu sur mesure et adapté à la majorité des plans d‟expérience
factoriels. Cependant, la procédure à employer à cette fin est complexe, c‟est pourquoi nous nous
limiterons ici à décrire une catégorie particulière de PFF, adaptée au cas d‟essais exploratoires dans le
domaine de la recherche forestière. Les principales caractéristiques de ces plans d‟expérience spécifiques
sont les suivantes : i) ils s‟appliquent uniquement aux expériences factorielles 2‟‟ où n, le nombre de
facteurs est de 5 au minimum, ii) ils comprennent seulement la moitié de l‟ensemble complet de
combinaisons de traitements factoriels, dénoté par 2n-1 ; iii) ils permettent d‟estimer la totalité des effets
principaux et des interactions à deux facteurs. Pour des plans plus complexes, le lecteur peut se référer à
Das et Giri (1980).
La procédure de définition du schéma et d‟analyse de variance d‟un PFF 25-1 , avec un essai en champ
comportant cinq facteurs A, B, C, D et E est illustrée dans la section suivante. Les différentes
combinaisons des traitements sont désignés par les lettres a, b, c,…, pour noter la présence (ou le niveau
élevé) des facteurs A, B, C,… Ainsi, la combinaison du traitement ab, dans une expérience factorielle 25
indique une combinaison de traitement caractérisée par un niveau élevé (ou par la présence) des facteurs
A et B et par un bas niveau (ou par l‟absence) des facteurs C, D et E. En revanche, dans une expérience
factorielle 26, cette même notation (ab) se référerait à une combinaison de traitement contenant un niveau
élevé des facteurs A et B et un bas niveau des facteurs C, D, E, et F. Dans tous les cas, le symbole (1)
indiquera la combinaison de traitement caractérisée par un bas niveau de tous les facteurs.
Il existe une méthode simple pour trouver la fraction voulue des combinaisons factorielles dans un PFF
25-1 , sachant que, dans un essai factoriel 25, l‟effet des facteurs ABCDE peut être estimé à partir du
développement du terme (a-1)(b-1)(c-1)(d-1)(e-1):
83
(a-1)(b-1)(c-1)(d-1)(e-1) = abcde - acde - bcde + cde - abde + ade + bde - de- abce + ace + bce - ce + abe
- ae - be + e- abcd + acd + bcd - cd + abd - ad - bd + d+ abc - ac - bc + c - ab + a + b - 1
Dans cette expression, les signes (positif ou négatif) associés aux traitements permettent de diviser
l‟ensemble factoriel complet en deux groupes de traitements. Si l‟on conserve uniquement un l‟un des
deux ensembles, positif ou négatif, on obtient une demie fraction de l‟expérience factorielle 25. Les deux
séries de traitements se présentent comme suit.
acde, bcde, abde, de, abce, ce, ae, be, abcde, bcde, abde, de, abce, ce, ae, be,
abcd, cd, ad, bd, ac, bc, ab, 1 abcd, cd, ad, bd, ac, bc, ab, 1
Par suite de la réduction du nombre de traitements inclus dans l‟expérience, il va être impossible
d‟estimer l‟effet ABCDE à partir de l‟ensemble fractionné. Tous les effets principaux et toutes les
interactions de deux facteurs peuvent être estimés dans l‟hypothèse où toutes les interactions de trois
facteurs et d‟ordre plus élevé sont négligeables. La procédure peut être généralisée puisque dans une
expérience 26, , il est possible d‟isoler une demie fraction en retenant les traitements accompagnés d‟un
signe positif ou négatif dans le développement de (a-1)(b-1)(c-1)(d-1)(e-1)(f-1).
Le PFF est simplement un dispositif qui permet de sélectionner des traitements ayant une structure
factorielle, et les combinaisons des facteurs qui en découlent peuvent être considérées comme un
ensemble de traitements applicables à l‟expérience physique qui sera définie dans un plan standard
quelconque tel que PER ou PEBAC. On trouvera à la Figure 4.8. un schéma randomisé type, pour un PFF
25-1 avec deux répétitions faisant partie d‟un PEBAC.
Figure . Schéma-type d‟un PFF 25-1 avec deux répétitions faisant partie d‟un PEBAC.
1 9 1 9
de ab abce acde
2 10 2 10
1 adde cd bd
3 11 3 11
acde ad be de
4 12 4 12
ae abce ad bcde
5 13 5 13
ce be ae ce
6 14 6 14
ac bc abcd 1
7 15 7 15
bcde bcd abce ac
8 16 8 16
bd cd bc be
Répétition I Répétition II
84
a) Analyse de variance
La procédure d‟analyse de variance applicable à un PFF 25-1 à deux répétitions, est illustrée à l‟aide de la
méthode de Yates pour le calcul de la somme des carrés, qui facilite le calcul manuel d‟expériences
factorielles de grande ampleur. On peut aussi appliquer les règles standards de calcul des sommes des
carrés dans l‟analyse de variance, en élaborant des tableaux à une entrée des totaux, pour calculer les
effets principaux, des tableaux à double entrée des totaux pour les interactions de deux facteurs, etc.
Tableau. Représentation schématique de l‟analyse de variance d‟un PFF 2 5-1 à deux répétitions, s‟inscrivant dans un PEBAC.
Source de Degré de Somme des Carré moyen
variation liberté carrés F calculé
(df) (SS)
A 1 SSA MSA
B 1 SSB MSB
C 1 SSC MSC
D 1 SSD MSD
E 1 SSE@ MSE@
AB 1 SSAB MSAB
AC 1 SSAC MSAC
AD 1 SSAD MSAD
AE 1 SSAE MSAE
BC 1 SSBC MSBC
BD 1 SSBD MSBD
BE 1 SSBE MSBE
CD 1 SSCD MSCD
CE 1 SSCE MSCE
DE 1 SSDE MSDE
L‟expérience avec parcelles divisées (ou dispositif en tiroir) convient très bien dans le cas d‟une
expérience à deux facteurs dans laquelle les niveaux d‟un des deux facteurs ne peuvent être testés que
dans des parcelles de grande taille et se caractérisent par des effets très différents. Dans une telle situation,
l‟expérience sera formée d‟un ensemble de " grandes parcelles " dans lesquelles des niveaux sont assignés
au facteur de grande parcelle. Chaque grande parcelle est divisée en petites parcelles auxquelles est
assigné le second facteur. Chaque grande parcelle devient ainsi un bloc pour les traitements des petites
parcelles (c‟est-à-dire les niveaux du facteur de petite parcelle). Le facteur de grande parcelle peut en
réalité être alloué suivant l‟un des systèmes existant ( plan entièrement randomisé, plan en blocs
aléatoires complets, ou carré latin) mais ici seul le plan entièrement randomisé est envisagé pour le
facteur de grande parcelle, car c‟est probablement le plan le plus approprié et le plus couramment
employé pour les expériences forestières.
Avec un dispositif en parcelles divisées, la précision de la mesure des effets du facteur de grande parcelle
est sacrifiée au profit de celle du facteur de la petite parcelle. La mesure de l‟effet principal du facteur de
petite parcelle et son interaction avec le facteur de grande parcelle sont plus précises que celles qui
peuvent être obtenues avec un plan en blocs aléatoires complets. En revanche, la mesure des effets des
traitements des grandes parcelles (les niveaux du facteur des grandes parcelles) est moins précise que
celle que l‟on obtiendrait avec un plan en blocs aléatoires complets.
a) Dispositif
Un dispositif en parcelles divisées comprend deux processus de randomisation distincts – un pour les
grandes parcelles et l‟autre pour les petites parcelles. Dans chaque répétition, on commence par allouer au
hasard les traitements des grandes parcelles, puis ceux des petites parcelles formées à l‟intérieur de
chaque grande parcelle.
Ceci sera illustré par une expérience à deux facteurs comprenant quatre niveaux d‟azote (traitements des
grandes parcelles) et trois clones d‟eucalyptus (traitement des petites parcelles), avec trois répétitions. Ici,
les doses d‟engrais ont été choisies pour les grandes parcelles, principalement en fonction de leur facilité
d‟application et de contrôle de l‟effet de lessivage et pour détecter la présence d‟une interaction entre les
engrais et les clones. Dans notre description des étapes de la randomisation et de la définition d‟un
dispositif en parcelles divisées, a est le nombre de traitements des grandes parcelles, b est le nombre de
traitements des petites parcelles et r est le nombre de répétitions.
*Etape 1. Diviser la surface expérimentale en r = 3 blocs, dont chacun sera divisé en a = 4 grandes
parcelles, comme dans la Figure 4.9.
1 2 3 4 1 2 3 4 1 2 3 4
Figure 4.10. Allocation aléatoire de quatre niveaux d‟azote (n , n , n et n ) aux quatre grandes parcelles, dans chacune des trois répétitions de la Figure 4.9.
0 1 2 3
n3 n1 n0 n2 n1 n0 n3 n2 n0 n1 n2 n3
Figure 4.11. Représentation type d‟une expérience en parcelles divisées avec trois clones d‟eucalyptus (v v et v ) (traitements des petites parcelles) et
1, 2 3
quatre niveaux d‟azote (n , n , n et n ) (traitements des grandes parcelles, dans trois répétitions).
0 1 2 3
n3 n1 n0 n2 n1 n0 n5 n2 n0 n1 n2 n3
v2 v1 v1 v2 v1 v3 v3 v1 v4 v3 v3 v1
v1 v3 v2 v3 v3 v1 v2 v2 v2 v4 v2 v3
v3 v2 v3 v1 v2 v2 v1 v3 v1 v1 v4 v2
Le schéma d‟un champ, dans une expérience en parcelles divisées (comme celle de la Figure 4.11) à
quelques caractéristiques importantes: i) La taille de la grande parcelle est b fois plus grande que celle de
la petite parcelle. Dans notre exemple, avec 3 variétés (b = 3) la grande parcelle est 3 fois plus grande que
la petite ; ii) Chaque traitement de grande parcelle est testé r fois, alors que chaque traitement de petite
parcelle est testé ar fois. Ainsi, les traitements des petites parcelles sont toujours testés un plus grand
nombre de fois que ceux des grandes parcelles, ce qui explique leur plus grande précision. Dans notre
exemple, chacun des 4 niveaux d‟azote est testé trois fois, mais chacun des 3 clones est testé douze fois.
b) Analyse de variance
87
L‟analyse de variance d‟une expérience en parcelles divisées se fait en deux temps: l’analyse des grandes
parcelles, et l’analyse des petites parcelles. Les calculs sont présentés à l‟aide des données issues d‟une
expérience à deux facteurs sur les eucalyptus, comportant deux traitements sylvicoles (taille de la fosse)
et 4 traitements d‟engrais. Les données sur la hauteur des plants un an après la plantation sont reportées
dans le Tableau 4.25.
Représentation schématique de l‟analyse de variance d‟un plan en parcelles divisées.
(SS)
La valeur de cv (a) indique le degré de précision associé au facteur des grandes parcelles. La valeur de
cv(b) indique le degré de précision du facteur des petites parcelles et de son interaction avec le facteur des
grandes parcelles. En principe, la valeur de cv(b) est inférieure à celle de cv(a) car, comme on l‟a déjà
indiqué, le facteur assigné aux grandes parcelles est généralement mesuré avec moins de précision que
celui assigné aux petites parcelles. Dans notre exemple, cv(b) est inférieur à cv(a), mais les deux valeurs
étaient suffisamment élevées pour masquer toute éventuelle différence des traitements, ce qui rend non
significatifs tous les effets des facteurs dans l‟analyse de la variance.