Vous êtes sur la page 1sur 63

Biostatistique

Table des matières

1 Statistique descriptive 1
1.1 Quelques dénitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Statistique à une variable . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Tableau statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Fréquences absolue, relative, et cumulée . . . . . . . . . . . . . . . 4
1.2.3 Représentations graphiques des données-Variable discète . . . . . . 4
1.2.4 Représentations graphiques des données-Variable continue . . . . . 5
1.3 Paramètres de position . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1 La moyenne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.2 Le mode : Mo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.3 La médiane : Me . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.4 Les fractiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Paramètres de dispersion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.1 Les mesures de dispersion absolue . . . . . . . . . . . . . . . . . . . 8
1.4.2 Mesures de dispersion relative . . . . . . . . . . . . . . . . . . . . . 9
1.5 Mesures de forme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5.1 Coecients d'asymétrie. . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5.2 Coecients d'applatissement . . . . . . . . . . . . . . . . . . . . . . 10
1.6 Exercices d'application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.7 Statistique bivariée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.7.1 Objectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.7.2 Variables qualitatives . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.7.2.1 Données observées-Tableau de contingence . . . . . . . . . 13
1.7.2.2 Tableau des fréquences . . . . . . . . . . . . . . . . . . . . 14
1.7.3 Variables quantitatives . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.7.3.1 Paramètres de position et de dispersion . . . . . . . . . . . 17
1.7.3.2 Paramètres de position et de dispersion . . . . . . . . . . . 17
1.7.3.3 Corrélation linéaire . . . . . . . . . . . . . . . . . . . . . . 19
1.7.3.4 Ajustement linéaire . . . . . . . . . . . . . . . . . . . . . . 19
1.7.3.5 Ajustement linéaire au sens des moindres carrés . . . . . . 20

i
2 Notions de Probabilité 24
2.1 Notions de base de la théorie des probabilités . . . . . . . . . . . . . . . . 24
2.1.1 Dénitions et notations . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 Variables aléatoires réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3 Quelques lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3.1 Lois discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3.2 Lois continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.3 Théorème de la limite centrale . . . . . . . . . . . . . . . . . . . . . 31

3 Estimation 35
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Généralités sur les estimateurs . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3 Estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.3.1 Estimation d'une proportion . . . . . . . . . . . . . . . . . . . . . . 37
3.4 Estimation par intervalle de conance . . . . . . . . . . . . . . . . . . . . . 38
3.5 Estimation par intervalle de conance . . . . . . . . . . . . . . . . . . . . . 38
3.5.1 Intervalle de conance (Ic ) pour une moyenne . . . . . . . . . . . . 38
3.5.2 Intervalle de conance (Ic ) pour une variance . . . . . . . . . . . . 39
3.5.3 Intervalle de conance (Ic ) pour une proportion . . . . . . . . . . . 39

4 Tests statistiques 43
4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2 Tests d'hypothèse à un échantillon . . . . . . . . . . . . . . . . . . . . . . 45
4.2.1 Test sur une moyenne . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2.2 Test sur une variance d'une variable gaussienne . . . . . . . . . . . 47
4.2.3 Test sur une proportion . . . . . . . . . . . . . . . . . . . . . . . . 47
4.3 Comparaison de deux échantillons . . . . . . . . . . . . . . . . . . . . . . . 48
4.3.1 Test de comparaison de deux moyennes : populations indépendantes 48
4.3.2 Test de comparaison de deux moyennes : populations appariées . . . 50
4.3.3 Test de comparaison de deux variances : populations indépendantes 51
4.3.4 Test de comparaison de deux proportions : populations indépendantes 52
4.4 Test du Khi-deux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.4.1 Comparaison de deux distributions statistiques . . . . . . . . . . . . 52

ii
Chapitre 1
Statistique descriptive

1.1 Quelques dénitions


Dénition 1.1.1 La statistique.
La statistique est un ensemble de méthodes (ou de techniques) permettant d'analyser des
ensembles d'observations (des données).
Dénition 1.1.2 Population (P ) & unité statistique ou individu.
L'ensemble sur lequel porte une étude statistique est appelé "population". Chaque élément
de cet ensemble est appelé "individu" ou "unité statistique".

Exemple 1.1.1 Population :


 L'ensemble des étudiants de la faculté SNV.
 Ensemble des patients recevant un traitement à l'hôpital.
 Ensemble de cellules.
Unité statistique :
 un patient recevant un traitement à l'hôpital
 un étudiant de la deuxième année sciences biologiques.
 une cellule en culture.
Remarque 1.1.1 − L'eectif total d'une population est noté N.
Dénition 1.1.3 Echantillon (E ).
On appelle échantillon le sous-ensemble de la population. Car, il est souvent dicile de
mener une étude statistique sur une population toute entière. On choisit alors de travailler
sur une partie de cette population.

1
Dénition 1.1.4 Le caractère ou la variable.
C'est une caractéristique, dénie sur la population et observée sur l'échantillon.
Exemple 1.1.2  âge des patients recevant un traitement à l'hôpital.
 sexe des patients recevant un traitement à l'hôpital.
 maladie des patients reçus à l'hôpital.
 traitement des patients reçus à l'hôpital.
 réussite du traitement des patients reçus à l'hôpital.
 couleur, poids, taille, marque, prix, surface, etc.
Une ou plusieurs variables peuvent être associées sur un individu et les variables peuvent
être de nature variée :
 Variables qualitatives et quantitatives.
 Variables indépendantes et variables dépendantes.
 Variables contrôlées et non contrôlées.

Dénition 1.1.5 Variable qualitative. Une variable statistique est dite de nature qua-
litative si ses modalités ne sont pas mesurables. Aurement dit c'est une variable statistique
dont les valeurs s'expriment de façon littérale (ou par un codage) sur lequel les opérations
arithmétiques comme le calcul de la moyenne n'ont pas de sens.
Exemple 1.1.3  mortalité dans une population de cellules, par la coloration au
bleu trypan.
 sexe des patients recevant un traitement à l'hôpital.
 la couleur, la profession, l'état matrimonial....
Remarque 1.1.2 La qualité de la variable peut être exprimée par un codage.
Exemple 1.1.4 1. cellule morte : M cellule vivante : V
2. cellule morte : 1 cellule vivante : 0
− Un codage chiré en transforme pas une variable qualitative en variable quantitative.
− Un chire n'est pas forcément un nombre. ex : sudoku

Dénition 1.1.6 Variable quantitative. Une variable statistique est dite de nature
quantitative si ses modalités sont mesurables. Les modalités d'une variable quantitative
sont des nombres liés à l'unité choisie, qui doit toujours être précisée.
Il existe deux types de variables quantitatives : variables discrètes et variables conti-
nues.
Exemple 1.1.5  concentration calcique cytosolique d'une cellule
 âge des patients recevant un traitement à l'hôpital
 dose d'un traitement administré à des patients
2
Dénition 1.1.7 Variable quantitative discrète. Lorsque les modalités sont des va-
leurs numériques isolées.
Exemple 1.1.6 Nombre d'enfants par ménage.
Dénition 1.1.8 Variable quantitative continue.
On parle de variable continue lorsque la variable peut prendre toutes les valeurs d'un
intervalle, ces valeurs peuvent alors être regroupées en classes.
Exemple 1.1.7  Concentration calcique cytosolique d'une cellule
 Age, salaire, poids, taux, taille, etc.
Remarque 1.1.3 On peut transformer une variable quantitative en variable qualitative,
avec une perte d'information. Ex. une dose d'un traitement administré à des patients en
fonction de la dose, classement en catégories : très faible dose, faible dose, dose normale,
forte dose, très forte dose.
Dénition 1.1.9 Variable indépendante.
C'est une variable statistique dont les valeurs sont indépendantes des autres variables
étudiées.
Dénition 1.1.10 Variable dépendante.
C'est une variable statistique dont les valeurs sont dépendantes des autres variables étu-
diées.
Exemple 1.1.8 Nous étudions l'eet de deux substances potentiellement cytotoxiques sur
des cellules cancéreuses en culture, et on mesure la survie des cellules en fonction de la
substance administrée.
 variable dépendante : survie de la cellule
 variable indépendante : substances cytotoxiques
Dénition 1.1.11 Variable contrôlée.
C'est une variable statistique dont les valeurs sont imposées par l'expérimentateur. Dans
les études d'expérimentation, les variables indépendantes sont contrôlées.
Exemple 1.1.9 L'eet de l'adrénaline sur la fréquence cardiaque.
Dénition 1.1.12 Variable non contrôlée.
C'est une variable statistique dont les valeurs dépendent pas de l'expérimentateur.Dans
les études d'observations, les variables indépendantes ne sont pas contrôlées.
Exemple 1.1.10 La fréquence des cancers de la thyroïde après l'accident de Tchernobyl,
dans une zone géographique donnée.
3
1.2 Statistique à une variable
1.2.1 Tableau statistique
On regroupe toutes les données de la série statistique dans un tableau indiquant la
répartition des individus selon le caractère étudié.
 Si le caractère est qualitatif ou discontinu, un groupe contient tous les individus
ayant la même modalitée (nombre ou catégorie) du caractère, il est symbolisé par
son modalitée.
 Si le caractère est continu, un groupe contient tous les individus ayant les modali-
tées dans un intervalle, cet intervalle s'appelle une classe.
Pour construire ces intervalles, on doit avoir :
1. Le nombre de classes (de préférence compris entre 6 et 12).
2. Les amplitudes des classes doivent être égales.
3. Chaque classe (sauf la dernière) contient sa borne inférieure mais pas sa borne
supérieure.
Une classe sera représentée par son centre, qui est le milieu de l'intervalle. Une fois la
classe constituée, on considère les individus répartis uniformément entre les deux bornes.
La répartition en classes des données nécessite de dénir a priori le nombre de classes
J et donc l'amplitude de chaque classe. Cependant, il existent des formules qui nous
permettent d'établir le nombre de classes et l'intervalle de classe (l'amplitude) pour une
série statistique de N observations :
 La règle de Sturge : J = 1√+ (3.33 log10 (N )).
 La règlede Yule : J = 2.5 4 N .
L'intervalle de classe est obtenu de la manière suivante : longueur de l'intervalle
xmax − xmin
L= ,
J
où xmax (resp. xmin ) est la plus grande (resp. la plus petite) valeur observée.

1.2.2 Fréquences absolue, relative, et cumulée


A chaque modalité de variable X, peut correspondre un ou plusieurs individus dans
l'échantillon de taille N.
− On appelle fréquence absolue (eectif) de la modalité xi , le nombre ni , avec ki=1 ni =
P
N.
− La fréquence relative est le nombre fi tel que fi = nNi , avec ki=1 fi = 1, 0 ≤ fi ≤ 1.
P

− La fréquence cumulée croissante est le nombre Fi tel que Fi = ik=1 fk .


P

1.2.3 Représentations graphiques des données-Variable discète


1. Diagramme en bâtons : On l'utilise pour représenter les eectifs ni et les fréquences
relatives fi .

4
2. Le polygone : Dans le cas du graphe des fréquences relatives (resp. fréquences ab-
solues ou eectifs), en joignant les sommets des bâtons, nous obtenons le polygône
des fréquences relatives (resp. fréquences absolues ou eectifs).
3. La courbe cumulative : La courbe cumulative est la représentation graphique des
fréquences absolues et relatives cumulées. C'est une courbe en escalier, dont les
paliers horizontaux ont pour coordonnées (xi , Fi ).

1.2.4 Représentations graphiques des données-Variable continue


1. Histogramme : Dans le cas d'une variable statistique continue on utilise l'histo-
gramme pour représenter les eectifs ni et les fréquences relatives fi . A chaque
classe de valeurs de la variable portée en abscisse, on fait correspondre un rec-
tangle basé sur cette classe.
Remarque importante : Dans ce cas les classes ont des amplitudes diérentes,
il faut eectuer des corrections pour tenir compte des diérences d'amplitude.
Il convient de diviser les fréquences par leurs amplitudes correspondantes et on
obtient ainsi, l'amplitude corrigée (hi ).
2. Le polygône des eectifs (resp. polygone des fréquences relatives) est obtenu en
reliant les milieux des bases supérieures des rectangles.
3. La courbe cumulative est obtenue en portant les points dont les abscisses repré-
sentent la borne supérieure de chaque classe et les ordonnées les fréquences cumu-
lées correspondantes, puis en reliant ces points par des segments de droite, c-à-d la
courbe de la fonction de repartition F tel que F (x) = Fi + fi+1
h
(x−ai ), x ∈ [ai ; ai+1 [.

1.3 Paramètres de position


Les paramètres de position sont des grandeurs susceptibles de représenter au mieux
un ensemble de données. On distingue trois mesures de position :
− La moyenne ;
− Le mode ;
− La médiane.

1.3.1 La moyenne
La moyenne arithmétique :
La moyenne arithmétique est la somme de toutes les données observées divisées par le
nombre des individus de l'échantillon :
N
1 X
X̄ = xi .
N i=1

5
Si les données sont présentées dans un tableau statistique dans le quel chaque modalité est
associée à fréquence absolue ou relative alors on calcule la moyenne arithmétique pondérée
ainsi :
k
1 X
X̄ = n i xi .
N i=1
La moyenne géométrique :
La moyenne géométrique d'une série statistique brute est dénie ainsi :
v
uN
uY
N
Ḡ = t xi .
i=1

Pour des données groupées la moyenne géométrique pondérée est calculée ainsi :
v
u k
uY
N
Ḡ = t xni i .
i=1

La moyenne harmonique :
La moyenne harmonique est la moyenne de l'inverse de la variable X, ou bien l'inverse de
la moyenne arithmétique, elle est calculée ainsi pour des données brutes :
v
uN
uY 1
N
H̄ = t .
i=1
x i

Pour des données groupées la moyenne harmonique est égale à :


v
u k
uY ni
N
H̄ = t .
i=1
x i

La moyenne quadratique :
La moyenne quadratique permet de calculer la moyenne des carrés des caractères, pour
une série de données brute elle est calculée ainsi :
N
1 X 2
Q̄ = x.
N i=1 i

Lorsque les données sont présentées dans un tableau statistique alors :


N
1X
Q̄ = ni x2i .
k i=1

Remarque : Pour une serie en classes, on remplace xi par ci , où ci est le centre de la


classe [ei , ei+1 [.

6
1.3.2 Le mode : Mo
Le mode d'une série statistique est la valeur qui a la fréquence (absolue ou relative) la
plus élevée. Lorsque la distribution a plus d'un mode, on parle d'une distribution 'multi-
modale' (bimodale, trimodale,....). Par contre, si l'on est en présence de données groupées
en classes, le mode se rapportera à la classe comportant le plus grand nombre d'individus :
on parlera alors de classe modale. Cependant, il peut y arriver que l'on s'intéresse à avoir
la valeur approchée ou exacte de ce mode. Par conséquent, il est recommandé d'appliquer
la démarche suivante :
- Pour avoir une valeur approximative du mode, on calcule la moyenne de la classe qui
a la fréquence la plus élevée ;
- Pour avoir une valeur exacte, le mode se calcule de la manière suivante
α1
Mo = ei + ai ,
α1 + α2
avec ei : la borneinférieure de la classe modale ;
ai : l'amplitude de la classe modale ;
α1 : écart d'eectif entre la classe modale et la classe précédente.
α1 : écart d'eectif entre la classe modale et la classe suivante.

1.3.3 La médiane : Me
On distingue deux cas :
Cas d'une variable discrète :
On désigne par n le nombre d'observations.
− Si la série possède un nombre pair de valeurs, soit 2n valeurs, la médiane sera donnée
comme suit :

nième observation + (n + 1)ième observation


Me = .
2
Exemple : Soit la série :
5, 6, 8, 9, 11, 12, 14, 20.
On a 2n = 8 ⇒ n = 4. Ceci implique que

4ième observation + 5ième observation 9 + 11


Me = = = 10.
2 2
− Si la série possède un nombre impair de valeurs, soit (2n + 1) valeurs, la médiane
sera la (n + 1)ième valeurs.
Exemple : Soit la série : 5,6,8,9,10,11,14. On a 2n + 1 = 7 ⇒ Me = 9.
− Si la variable est continue et qu'elle est groupée en classe : la médiane se calcule de
la façon suivante par interpolation linéaire :

7
− Lorsque la série est à valeurs répétivies, la valeur de la médiane est la valeur de la
variable statistique qui correspond à N2 des eectifs cumulés croissants ou décroissants,
ou 0.5 des fréquences relatives cumulées croissantes ou décroissantes.
!
N
− N i %
Me = ei + ai 2 ,
ni
ei : la borne inférieure de la classe médiane ;
ai : l'amplitude de la classe médiane ;
ni : eectif de la classe médiane ;
Ni : eectif cumulé croissant ;
N : Nombre total d'observation taille.
La médiane peut s'écrire aussi sous la forme :
 
0.5 − Fi %
Me = ei + ai ,
fi
fi : fréquence relative de la classe médiane ;
Fi : fréquence relative cumulée croissante ;

1.3.4 Les fractiles


Il existe plusieurs fractiles à savoir : les quartiles, déciles, les centiles, etc. Les quartiles
sont respectivement Q1 , Q2 et Q3 . Ils représentent respectivement 25%, 50% et 75% des
eectifs de la population.

1.4 Paramètres de dispersion


1.4.1 Les mesures de dispersion absolue
Etendue :l'étendue (appelée aussi Intervalle de Variation (IV)) d'une série statistique
est la diérence entre la plus grande et la plus petite valeur de la série.
L'écart moyen : L'écart moyen EM est la moyenne pondérée des valeurs absolues
des écarts à la moyenne :
k k
1 X X
EM = ni |xi − x| = fi |xi − x|.
N i=1 i=1

Intervalle interquartile-IQ : C'est la diérence entre le troisième quartile Q3 et le


premier quartile Q1 :
IQ = Q3 − Q1 .
La variance :
N N
1X 1 X
V (X) = σ 2 = (ni xi − x̄)2 = ni x2i − x̄2 .
n 1 N n=1

8
L'écart-type : p
σ= V (X).

1.4.2 Mesures de dispersion relative


Le coecient de variation : Le coecient de variation CV d'une variable statistique
est le ratio entre l'écart-type et la moyenne exprimé sous la forme d'un pourcentage :
σ
CV = .

Le coecient de variation est un indicateur de l'homogénéité de la population. On consi-
dère qu'un coecient de variation inférieur à 15% indique que la population est homogène,
tandis qu'un coecient supérieur à 15% indique que les valeurs sont relativement disper-
sées. Le coecient de variation est une mesure sans unité et indépendante de l'ordre de
grandeur. On peut donc l'utiliser pour comparer la dispersion de variables statistiques
avec des ordres de grandeur et des unités diérentes.

1.5 Mesures de forme


1.5.1 Coecients d'asymétrie.
− Le coecient de Yule (statisticien écossais, 1871-1951) : Il est calculé à partir de la
position des quartiles Q1 , Q2 et Q3 . Il s'écrit :

(Q3 − Q2 ) − (Q2 − Q1 ) Q1 + Q3 − 2Q2


s= = .
(Q3 − Q2 ) + (Q2 − Q1 ) Q3 − Q1

 Si s = 0, il y a symétrie ;
 Si s > 0, il y a étalement à droite (oblique à gauche) ;
 Si s < 0, il y a étalement à gauche (oblique à droite).
Le choix de la lettre s vient de skewness qui est le terme anglais pour désigner l'asymétrie.
Rappelons que Q2 n'est autre que la médiane.
− Le coecient de Pearson (mathématicien britannique, 1857-1936) s'écrit :

x̄ − Me
Ap = ,
σ
avec −1 ≤ Ap ≤ −1.
 Si Ap = 0, il y a symétrie ;
 Si Ap > 0, il y a étalement à droite (oblique à gauche) ;
 Si Ap < 0, il y a étalement à gauche (oblique à droite).

9
1.5.2 Coecients d'applatissement
Une distribution est plus ou moins aplatie selon que les fréquences des valeurs voisines
des valeurs centrales dièrent peu ou beaucoup les une par rapport aux autres.
Le coecient est mesuré par le coecient d'aplatissement de Pearson
µ4
a = 4,
σ
n
X
avec µ4 = 1
n
(xi − x̄)4 ou le coecient d'aplatissement de Fisher
i=1
µ4
b=a−3= − 3.
σ4
 b = 0 (a = 3) pour une distribution qui suit une loi normale centrée réduite.
 Si b > 0 (a > 3), la concentration des valeurs de la série autour de la moyenne est
forte : la distribution n'est pas aplatie
 Si b < 0 (b < 3), la concentration des valeurs autour de la moyenne est faible : la
distribution est aplatie

1.6 Exercices d'application


Exercice 1 Pour étudier la résistance de la truite d'élevage à une dose déterminée de
détergent, on compte le nombre de morts survenus chaque jour dans une expérience portant
sur 190 individus. On obtient les résultats suivants.
Nombre de jours de l'expérience 2 3 4 5 6 7 8 9
Nombre de morts 3 3 5 38 39 75 26 1
1. Déterminer la population statistique, la variable X, et le caractère étudié.
2. Déterminer le mode, la moyenne, la variance et l'écart-type.
3. Représenter graphiquement les fréquences relatives.
4. Représenter graphiquement les fréquences relatives cumulées croissantes.
Solution 1.6.1 Population : Les truites.
Variable statistique : le nombre de jours de survie.
La nature de la variable : quantitative discrète.
Le mode : 7.
La moyenne :
n
1X 3 × 2 + 3 × 3 + ... + 1 × 9 1201
x̄ = n i xi = = = 6.32
n i=1 90 50

La variance :
n
1X 3 × 32 + 3 × 32 + ... + 1 × 92
V (X) = ni x2i − x̄2 = − 6.322 = 1.59
n i=1 90

10
L'écart-type : p
σX = V (X) = 1.26

Exercice 2 Le tableau ci-dessous présente la répartition de donneurs de sang selon leurs


âges
[15,25[ [25,30[ [30,35[ [35,40[ [40,45[ [45,50]
14 32 43 53 27 19
1. Déterminer le caractère de la variable étudiée.
2. Tracer l'histogramme représentant cette série statistique.
3. Déterminer par le calcul la médiane et le mode.
4. Représenter graphiquement la médiane et le mode.
5. Déterminer la moyenne de la série statistique.
6. Calculer l'écart-type de la série statistique.
Solution 1.6.2 1. Le caractère de la variable étudiée : quantitative continue (l'âge des
donneurs de sang).
2. L'histogramme représentant cette série statistique, le mode graphiquement :
3. Le mode :
α1 53 − 43
Mo = ei + ai = 35 + 5 = 36.38
α1 + α2 (53 − 43) + (53 − 27)

La médiane :
!
N
− N (ei ) %
 
2 94 − 89
Me = ei + ai = 35 + 5 = 35.47
ni 53

4. La médiane graphiquement :
11
5. La moyenne :
ans
n
1X 14 × 20 + 32 × 27.5 + ... + 19 × 47.5 6595
x̄ = n i ci = = = 35.07
n i=1 188 188

6. La variance :
n
1X 2 14 × 202 + 32 × 27.52 + ... + 19 × 47.52
V (X) = ni ci − x̄2 = − 35.072 = 54.07
n i=1 188

L'écart-type : p
σX = V (X) = 7.35

1.7 Statistique bivariée


1.7.1 Objectif
L'objectif du cours est d'étudier sur une popolution de N individus, deux variables
diérentes et de chercher s'il y a un lien ou une corrélation entre ces deux caractères.
Chacune des deux variables peut être, soit quantitative, soit qualitative. On étudie
deux cas :

12
• Les deux variables sont qualitatives.
• Les deux variables sont quantitatives.
Exemples de relations possibles entre deux charactères : Taille et poids des individus,
Eet et dosage, tabagisme et cancers du poumon, rendement et quantité d'engrais utilisée,
......

1.7.2 Variables qualitatives


1.7.2.1 Données observées-Tableau de contingence
On considère une population statistique décrite selon deux caractères X et Y. Leurs
valeurs distinctes sont notées respectivement
X : x1 , ..., xi , ..., xk
et
Y : y1 , ..., yj , ..., yp .
Les données observées peuvent être regroupées sous la forme d'un tableau de contin-
gence :
y1 y2 ... yj ... yp ni·
x1 n11 n12 ... n1j ... n1p n1·
x2 n21 n22 ... n2j ... n2p n2·
..
.
xi ni1 ni2 ... nij ... nip ni·
..
.
xk nk1 nk2 ... nkj ... nkp nk·
n·j n·1 n·2 ... n·j ... n·p N = n··
− nij représente le nombre de fois que les modalités xi et yj apparaissent ensemble.
− N est l'eectif total de la population :
p
k X
X
N = n·· = nij .
i=1 j=1

− Les ni· et n·j sont appelés les eectifs marginaux.


− ni· représente le nombre de fois que la modalité xi apparaît,
p
X
nij = ni1 + ni2 + .... + nip = ni· , pour tou i = 1, ..., k
j=1

− n·j représente le nombre de fois que la modalité yj apparaît,


k
X
nij = n1j + n2j + .... + nkj = n·j pour tou j = 1, ..., p
i=1

13
k p
X X
ni· = n·j = N = n·· .
i=1 j=1

1.7.2.2 Tableau des fréquences


Fréquences partielles :
La fréquence partielle s'obtient en divisant l'eectif partiel par l'eectif total :
nij
fij = , i = 1, ...k, j = 1, ..., p,
n··
Fréquences marginales : La fréquence marginale de la variable X est donnée par :
ni·
fi· = , i = 1, ...k,
n··
Tableau de fréquences :

y1 y2 ... yj ... yp fi·


x1 f11 f12 ... f1j ... f1p f1·
x2 f21 f22 ... f2j ... f2p f2·
..
.
xi fi1 fi2 ... fij ... fip fi·
..
.
xk fk1 fk2 ... fkj ... fkp fk·
f·j f·1 f·2 ... f·j ... f·p 1

La fréquence marginale de la variable Y est donnée par :


n·j
f·j = , j = 1, ...p,
n··
avec
p
k X k p
X X X
fij = 1, fi· = 1, f·j = 1.
i=1 j=1 i=1 j=1

Fréquences conditionnelles :
La fréquence conditionnelle de la variable X par rapport à Yj , j = 1, ..., p est donnée
par :
nij
fij = , j = 1, ...p,
n·j
La fréquence conditionnelle de la variable Y par rapport à Xi , i = 1, ..., k est donnée par :
nij
fji = , i = 1, ...k,
ni·

14
Relations entre fréquences marginales et fréquences conditionnelles :

fij = fi· × fji = f·j × fij .


Exemple. On s'intéresse à une éventuelle relation entre les caractères : "être fumeur"
(plus de 20 cigarettes par jour, pendant 10 ans) et "avoir un cancer de la gorge", sur
une population de 1000 personnes, dont 500 sont atteintes d'un cancer de la gorge. Les
résultats observés sont présentés dans le tableau suivant :
Observé cancer non cancer
fumeur 342 258
non fumeur 158 242
On calcule l'eectif total :
Observé cancer non cancer Total
fumeur 342 258 600
non fumeur 158 242 400
Total 500 500 200

En utilisant les relations précédentes, on obtient le tableau des fréquences (fréquences


marginales) :
Observé cancer non cancer Total
fumeur 0.342 0.258 0.6
non fumeur 0.158 0.242 0.4
Total 0.5 0.5 1
Quelques exemples :
Fréquences marginales :
n11 342 n1· 600
f11 = n··
= 1000
= 0.342, f1· = n··
= 1000
= 0.6
Fréquences conditionnelles de X sachant Y :
n12 258 n22 242
f12 = n·2
= 500
= 0.516, f22 = n·2
= 500
= 0.484
Fréquences conditionnelles de Y sachant X :
n12 258 n22 242
f21 = n1·
= 600
= 0.43, f22 = n2·
= 400
= 0.605

Exercice 3 On considère une population de 10000 individus pour lesquels on étudie les
groupes sanguins, A, B, AB, O et le rhésus (Rh+) et (Rh-). Les résultats observés sont
présentés dans le tableau suivant :
A B AB O Total
Rh+ 3380 710 315 3700 8105
Rh- 620 290 85 900 1895
Total 4000 1000 400 4600 10000
15
1. Donner la fréquence marginale des personnes dont le sang est de rhésus positif
(resp. rhésus négatif).
2. Donner la fréquence marginale des personnes des personnes du groupe sanguin A
(resp. B).
3. Donner la fréquence conditionnelle des personnes dont le sang est de rhésus positif
parmi les personnes du groupe sanguin A.
4. Donner la fréquence conditionnelle des personnes dont le sang est de rhésus négatif
parmi les personnes du groupe sanguin O.
5. Donner la fréquence conditionnelle des personnes du groupe sanguin A parmi les
personnes dont le sang est de rhésus +.
6. Donner la fréquence conditionnelle des personnes du groupe sanguin AB parmi les
personnes dont le sang est de rhésus -.
Solution 1.7.1 1. La fréquence marginale des personnes dont le sang est de rhésus posi-
tif : n 8105

f1· = = = 0.8105.
n·· 10000
2. La fréquence marginale des personnes dont le sang est de rhésus - :
n2· 1895
f2· = = = 0.185.
n·· 10000
3. La fréquence marginale des personnes du groupe sanguin A :
n·1 4000
f·1 = = = 0.4
n·· 10000
(40% des personnes intérogées sont de groupe sanguin A).
4. La fréquence marginale des personnes du groupe sanguin B :
n·2 1000
f·2 = = = 0.1
n·· 10000
(10% des personnes intérogées sont de groupe sanguin B).
5. La fréquence conditionnelle des personnes dont le sang est de rhésus positif parmi
les personnes du groupe sanguin A :
3380
f11 = = 0.845.
4000
6. La fréquence conditionnelle des personnes dont le sang est de rhésus négatif parmi
les personnes du groupe sanguin O :
900
f23 = = 0.19.
4600

16
7. La fréquence conditionnelle des personnes du groupe sanguin A parmi les personnes
dont le sang est de rhésus + : 3380
f11 = = 0.41.
8. La fréquence conditionnelle des personnes du groupe sanguin AB parmi les personnes
8105

dont le sang est de rhésus - : 85


f24 = = 0.044.
1895

1.7.3 Variables quantitatives


1.7.3.1 Paramètres de position et de dispersion
Dans le cas où X et Y sont des variables quantitatives, on peut associer à chacune des
séries marginales dénies par le tableau de contingence des caractéristiques de tendance
centrale et de dispersion. On considère un tableau de contingence comme celui déni
précédemment.
Moyenne marginale de X. La moyenne marginale de X, notée x̄¯ :
k k
1 X X
x̄¯ = ni· xi = fi· xi .
N i=1 i=1

Moyenne marginale de Y. La moyenne marginale de Y, notée ȳ¯ :


p p
1 X X
ȳ¯ = n·j yi = f·j yj .
N j=1 j=1

1.7.3.2 Paramètres de position et de dispersion


Variance marginale de X. La variance marginale de X, notée V (X) :
k k
1 X 1 X
V (X) = ni· (xi − x̄¯) = ni· x2i − x̄¯2 .
N i=1 N i=1

L'écart type marginale de X : σX = V (X).


p

Varaince marginale de Y. La moyenne marginale de Y, notée V (Y ) :


p p
1 X 1 X
V (Y ) = ¯
n·j (yj − ȳ ) = n·j yj2 − ȳ¯2 .
N j=1 N j=1

L'écart type marginale de Y : σY = V (Y )


p

Covariance. La covriance est la mesure de la variation simultanée de deux variables


X et Y.
k p k p
1 XX 1 XX
Cov(X, Y ) = ¯ ¯
nij (xi − x̄)(yj − ȳ ) = nij xi yj − x̄¯ȳ¯.
N i=1 j=1 N i=1 j=1

17
Propriétés :
• Une covariance peut être positive, négative ou nulle.
• Cov(X, Y ) = Cov(Y, X)
• Cov(aX, Y ) = aCov(X, Y ) = acov(Y, X)
• Cov(X, X) = V ar(X)
• V ar(X + Y ) = V ar(X) + V ar(Y ) + 2cov(X, Y ).
Exemple. Le Tableau suivant présente la répartition d'un ensemble de consommateurs
selon leurs revenus et leurs dépenses :
X/ Y 25 30 35 40 Total
20 4 2 1 0 7
25 5 1 0 0 6
30 3 2 1 1 7
Total 12 5 2 1 20
X représente les revenus, et Y, les dépenses de consommation.
Les revenus moyens :
7 × 20 + 6 × 25 + 7 × 30
x̄¯ = = 25.
20
La variance des revenus :
1
V (X) = (7 × 202 + 6 × 252 + 7 × 302 ) − 252 = 17.5.
20
Les dépenses de consommation qu'eectuent en moyenne chacun des consommateurs :
12 × 25 + 5 × 30 + 2 × 35 + 1 × 40
ȳ¯ = = 28.
20
La variance des dépenses de consommation :
1
V (Y ) = (12 × 252 + 5 × 302 + 2 × 352 + 1 × 402 ) − 282 = 18.5.
20
La covariance de X et Y.
p
k X
X
X/ Y 25 30 35 40 Total nij xi yj
i=1 j=1
20 4 2 1 0 7 3900
25 5 1 0 0 6 3875
30 3 2 1 1 7 6300
Total 12 5 2 1 20 14075
14075
Cov(X, Y ) = − 25 × 28 = 3.75.
20
18
1.7.3.3 Corrélation linéaire
En statistique, le terme de corrélation est utilisé an de désigner la laison entre deux
variables quantitatives (le plus souvent continues).
Coecient de corrélation :
Le coecient de corrélation permet de mesurer la dépendance linéaire entre deux
variables quantitatives X et Y.

Cov(X, Y )
ρXY = ∈ [−1, 1].
σX σY
Coecient de détermination : Le coecient de détermination est le carré du co-
ecient de corrélation :
Cov 2 (X, Y )
ρ2XY = .
V (X)V (Y )
Remarques :
• X et Y sont indépendantes, alors ρ = 0. La réciproque est fausse, sauf cas particulier ;
si X et Y sont distribuées normalement.

• Si ρ > 0, les valeurs prises par Y ont tendance à croître quand les valeurs de X
augmentent.

• Si ρ < 0, les valeurs prises par Y ont tendance à décroître quand les valeurs de X
augmentent.

• Si |ρ| = 1, alors il existe une relation linéaire parfaite entre X et Y.

• Un coecient de corrélation nul ne signie pas l'absence de toute relation entre les
deux variables. Il peut exister une relation non linéaire entre elles.
Quelques exemples de corrélation

1.7.3.4 Ajustement linéaire


On considère n individus sur lesquels on mesure X et Y deux variables quantitatives.
Pour chaque individu i (1 ≤ i ≤ n), on dispose d'un couple d'observations (xi , yi ) qui
représente les valeurs prises par X et Y pour l'individu i.

Les données (xi , yi ), i = 1, ..., n peuvent être représentées par un nuage de n points
dans le plan (x, y).

19
1.7.3.5 Ajustement linéaire au sens des moindres carrés
Selon l'allure du nuage, on a envie de remplacer ce nuage par le graphe d'une fonction
f. Cette opération s'appelle un ajustement. La nature de l'ajustement dépend de la forme
du nuage de points.
Nous étudions l'ajustement linéaire par la méthode des moindres carrés.
On considère les données {y1 , y2 , ..., yn } comme étant des réalisations d'une variable
aléatoire Y et les données {x1 , x2 , ..., xn } les réalisations d'une variable aléatoire X.
• La variable X est une variable, aléatoire ou contrôlée, dite explicative.
• Y est une variable aléatoire dite à expliquer.

20
− Le problème de l'ajustement linéaire par la méthode des moindres carrés consiste à
rechercher une relation ane entre les variables X et Y, ceci revient à trouver une droite
qui s'ajuste le mieux possible à ce nuage de points.
Parmi toutes les droites possibles, on retient celle qui rend minimale la somme des
carrés des écarts des valeurs observées yi à la droite yi0 = axi + b.
Si les coecients a et b étaient connus, on pourrait calculer les résidus de la régression
dénis par :
ei = yi − axi − b.
Le résidu ei est l'erreur que l'on commet en utilisant la droite de régression pour prédire
yi à partir de xi . Les résidus peuvent être positifs ou négatifs.

Droite de régression au sens des moindres carrés. An de déterminer la valeur


des coecients a et b nous utilisons le principe des moindres carrés qui consiste à chercher
la droite qui minimise la somme des carrés des résidus :
n
X n
X
ε(a, b) = e2i = (yi − axi − b)2 .
i=1 i=1

Calculons les coecients a et b qui minimisent le critère des moindres carrés :


∂ε ∂ε
Pour déterminer le minimum la fonction ε, on doit avoir : = 0 et = 0.
∂a ∂b

21
On a n
X
∂ε
∂b
=0⇔ (−2)(yi − axi − b) = 0
i=1
n
X
⇔ (yi − axi − b) = 0
i=1
n
X n
X
⇔ yi − a xi − nb = 0
i=1 i=1

⇔ ny − anx − nb = 0

⇔ y − ax − b = 0

⇔ b = y − ax.
Et n
X
∂ε
∂a
=0⇔ (−2xi )(yi − axi − b) = 0
i=1
n
X
⇔ xi (yi − axi − b) = 0
i=1
Xn n
X n
X
⇔ xi y i − a x2i − bxi = 0
i=1 i=1 i=1
⇔ nxy − anx2 − bnx = 0

⇔ xy − ax2 − (y − ax)x = 0

⇔ xy − ax2 − yx + ax2 = 0

⇔ xy − yx = a(x2 − x2 )

xy − yx
⇔a=
(x2 − x2 )
Cov(X,Y )
⇔a= V (X)
.
D'où la droite de régression de Y par rapport à X, est :

y = ax + b,

avec Pn
Cov(X, Y ) (x − x)(yi − y)
a= = Pn i
i=1
2
,
V (X) i=1 (xi − x)
et
b = y − ax.

22
Remarque La droite de régression de X par rapport à Y est :
x = a0 y + b 0 ,

avec
Cov(X, Y )
a0 = et b0 = x̄ − a0 ȳ.
V (Y )
En pratique, on estime que la régression est acceptable lorsque |ρXY | ≥ 0.85.

Exercice 4 On s'intéresse à la corrélation entre la taille X et le poids Y de quatre indi-


vidus : Individus Taille(cm) Poids(kg)
1 180 79
2 170 75
3 175 85
4 160 59
1. Calculer le coecient de corrélation.
2. Trouver la droite de régression.
1. Les moyennes des variables X et Y.
x = 14 (180 + 170 + 175 + 160) = 171.25; y = 14 (79 + 75 + 85 + 59) = 74.5
2. Les variances des variables X et Y.
X4 4
X
V (X) = n1 x2i − x2 = 54.68; V (Y ) = n1 yi2 − y 2 = 92.75,
i=1 i=1
3. La covariance de X et Y :
4
X
Cov(X, Y ) = xi yi − xy = xy − xy = 63.12.
i=1

4. Le coecient de corrélation :
Cov(X, Y )
ρXY = p = 0.88.
V ar(X)V ar(Y )

5. La droite de régression de Y en X :

Cov(X, Y )
a= = 1.15
V (X)

b = y − ax = −122.43.
D'où
y = ax + b = 1.15x − 122.43

23
Chapitre 2
Notions de Probabilité

La théorie des probabilités permet de modéliser des phénomènes dont il n'est pas
en général possible de prédire avec certitude leur évolution ou les conséquences qu'ils
peuvent engendrer ; elle décrit le comportement de phénomènes dont le résulat est soumis
au hasard.
Exemples : l'enfant à naître sera une lle, le dé va faire un nombre pair,...

2.1 Notions de base de la théorie des probabilités


2.1.1 Dénitions et notations
− Expérience aléatoire E : une expérience dont le résultat ne peut pas être déterminé
avec certitude.

− L'univers de E , (L'espace échantillonnal), notée Ω est un ensemble de tous résultats


possibles de l'expérience aléatoire E .

− Le résultat élémentaire de E , notée ω et un résultat possible de Ω.


− Ensemble P (Ω) des parties de Ω : ensemble constitué de tous les sous-ensembles
(parties) de Ω.
− Evènement aléatoire : une partie ( un sous-ensemble) de Ω.
− Réalisation d'un évènement : Soit A un évènement de Ω, et soit ω le résultat de
l'expérience ;
A se réalise ⇔ ω ∈ A.
− Complémentaire de A, notée Ā ou Ac : évènement constitué des résultats élémen-
taires de Ω qui ne sont pas dans A. Soit ω le résultat de l'expérience :

Ā = {ω ∈ Ω, ω ∈
/ A}

Réunion de deux évènements − Réunion de A et B : évènement constitué des


résultats élémentaires de Ω qui appartiennent à A ou à B ou aux deux. Soit ω le résultat

24
de l'expérience :
A ∪ B = {ω ∈ Ω, ω ∈ A ou ω ∈ B}.
Intersection de deux évènements − Intersection de A et B : évènement constitué
des résultats élémentaires de Ω qui appartiennent à la fois à A et à B. Soit ω le résultat
de l'expérience :
A ∩ B = {ω ∈ Ω, ω ∈ A et ω ∈ B}.
Système complet d'évènements Soient A1 , A2 , ..., An n évènements. On dit que
(A1 , A2 , ..., An ) constituent un système complet d'évènements s'ils forment une partition
de Ω :
1. ∀i ∈ {1, ..., n}; Ai 6= ∅,
2. Ils sont deux à deux disjoints : ∀i 6= j; Ai ∩ Aj = ∅,
3. Leur réunion est l'évènement certain Ω : A1 ∪ A2 ∪ ... ∪ An = Ω
Tribu d'évènements de Ω, espace probabilisable − Soit A une famille de parties
de Ω. On dit que A est une tribu ou σ− algèbre sur Ω si elle vérie :
1. ∅ ∈ A , Ω ∈ A ,
2. A est stable par union dénombrable, c'est-à-dire que pour toute famille dénombrable
(An )n∈N d'éléments de Ω, on a ∪n∈N An ∈ Ω.
3. A est stable par intersection dénombrable, c'est-à-dire que pour toute famille dé-
nombrable (An )n∈N d'éléments de Ω, on a ∩n∈N An ∈ Ω.
4. A est stable par passage au complémentaire, c'est-à-dire que pour tout A ∈ A , on
a Ā ∈ A .
− (Ω, A ) est dit un espace probabilisable.
Probabilité. Soit (Ω, A ) est dit un espace probabilisable. Une probabilité sur (Ω, A )
est une application P : A → [0, 1] telle que :
0 ≤ P(A) ≤ 1, ∀A ∈ A ;
P(Ω) = 1; P
P(∪i∈N Ai ) = i∈N P(Ai ), ∀(Ai )i∈N ensemble d'énombrable d'évènements disjoints.
Propriétés élémentaires d'une probabilité. 1. 0 ≤ P(Ai ) ≤ 1, P(Ā) = 1 − P(A),
2. P(∅) = 0,
3. A ⊂ B ⇒ P(A) ≤ P(B),
4. P(A ∪ B)P= P(A) + P(B) − P(A ∩ B),
P(∩i Ai ) ≤ i P(Ai ).
Univers équiprobable. Univers équiprobable est un ensembe Ω dont tous les évène-
ments élémentaires ont la même probabilité.
Si Ω contient N éléments, alors :
1
p1 = p2 = ... = pN = .
N
Si A ⊂ Ω et si A contient n éventualités, alors :

n nombre de cas favorables


P(A) = = .
N nombre de cas possibles

25
Probabilité conditionnelle. Soit A et B deux événements tels que P(B) 6= 0. La
probabilité conditionnelle de A par rapport à B, est donnée par :
P(A ∩ B)
P(A|B) = .
P(B)
Formule des probabilités totales Si les événements B1 , B2 , ..., Bn forment une partition
de Ω
P(A) = P(B1 )P(A|B1 ) + P(B2 )P(A|B2 ) + ... + P(Bn )P(A|Bn )
Xn
= P(Bi )P(A|Bi )
i=1

Formule de Bayes.Si P(A) 6= 0 et P(B) 6= 0 alors


P (A)P (B|A)
P (A|B) = .
P (B)
− Si les événements A1 , A2 , ..., An forment une partition de Ω alors

P(Ai )P(B|Ai )
P(Ai |B) = Pn .
i=1 P(Ai )P(B|Ai )
Indépendance de A et B. Deux événements A et B sont dits indépendants (A q B)
si et seulement si
P(A ∩ B) = P(A)P(B).

2.2 Variables aléatoires réelles


Dénition 2.2.1 Une variable aléatoire réelle X est une application qui à tout élément
ω de ω associe un nombre réel x X : Ω −→ R
ω 7→ x
Dénition 2.2.2 − Une variable aléatoire discrète est une variable aléatoire dont le do-
maine de variation contient un nombre ni ou une innité dénombrable de valeurs.
− Une variable aléatoire continue est une variable aléatoire dont le domaine de varia-
tion contient une innité non dénombrable de valeurs.
Dénition 2.2.3 Soit X une variable aléatoire discrète telle que Ω = x , ..., x . La
loi de probabilité de X est caractérisée par sa fonction de probabilité qui donne, pour
X 1 N

touti ∈ 1, ..., N
pi = P(X = xi ).
N
Propriétés.
X
pi = 1.
i=1
X
∀A ⊂ Ω, P(A) = pi .
i,xi ∈A

26
Dénition 2.2.4 Soit X une variable aléatoire continue. On appelle densité de probabilité
la fonction f (x) dénie par :
P(X ∈ [x; x + ])
f (x) = lim .
→0 
Propriétés. f (x) ≥ 0, ∀x ∈ R
Z +∞
f (x) = 1
−∞

Dénition 2.2.5 Fonction de répartition.On appelle fonction de répartition la fonction


F dénie par :
F : DX → [0, 1]
xi 7→ P(X ≤ xi ).

Propriétés 1. F (x) ∈ [0, 1].


2. F est une fonction croissante.
3. lim F (x) = 0.
x→−∞
4. lim F (x) = 1.
x→+∞
5. Pour une variable aléatoire discrète, F est une fonction en escaliers. Pour une variable
aléatoire continue, F est une fonction continue.

Dénition 2.2.6 1. L'espérance E(X) d'une variable aléatoire X est dénie par :
a. Cas discret
X N
:
E(X) = xi p i .

b. Cas continu
Z
i=1
:
+∞
E(X) = xf (x)dx.
2. La variance V ar(X) d'une variable aléatoire X est dénie par :
−∞

V ar(X) = E(X − E(X))2 = E(X 2 ) − E(X)2 .

3. L'écart-type est déni par :


p
σX = V ar(X)

4. La covariance de X et Y est dénie par :


Cov(X, Y ) = E((X − E(X))(Y − E(Y ))) = E(XY ) − E(X)E(Y ).

27
2.3 Quelques lois usuelles
2.3.1 Lois discrètes
Loi de Bernoulli. La loi de Bernoulli est la loi d'une variable aléatoire discrète X
qui prend la valeur 1 avec probabilité p et la valeur 0 avec probabilité 1 − p. Elle est notée
par B (p).
La fonction de probabilité est donnée par

x=1 ;

 p,
P(X = x) = 1 − p, x=0 ;
0, sinon.

L'espérance de la variable de Bernoulli :


2
X
E(X) = pi xi = p × 1 + (1 − p) × 0 = p.
i=1

La variance de la variable de Bernoulli


1
X
V (X) = x2i pi − E(X)2 = 1 − p.
i=

Loi Binomiale La loi binomiale est une loi de probabilité discrète qui décrit le nombre de
réussites parmi un ensemble d'expériences aléatoires et indépendantes. Elle est notée par
B (n, p) avec n le nombre d'expériences et p la probabilité de réussite à chaque expérience.

La fonction de probabilité est donnée par :


 
n k
P(X = k) = p (1 − p)n−k , k = 1, ...n,
k

où nk = Cnk = k!(n−k)!
k!

.
L'espérance de la loi Binomiale :

E(X) = np.

La varaince de la loi Binomiale :

V ar(X) = np(1 − p).

loi de Poisson La loi de Poisson (introduite en 1838 par Siméon Denis Poisson, 1781-
1840) est une loi de probabilité discrète qui décrit le comportement du nombre d'éve-
nements aléatoires et indépendants se produisant dans le même intervalle de temps ou
d'espace. Elle est notée par P (λ) avec λ l'espérance et la variance de la loi. Si le nombre

28
moyen d'occurrences dans un intervalle de temps xé est λ, alors la probabilité qu'il existe
exactement k occurrences (k étant un entier naturel, k = 0,1,2,...) est

λk −λ
P(X = k) = e , k = 1, ...n.
k!
L'espérance de la loi de Poisson :
E(X) = np.
La variance de la loi de Poisson :

V ar(X) = np(1 − p).

2.3.2 Lois continues


Loi normale. La loi normale (ou loi de Gauss-Laplace) est la loi de probabilité des
variables aléatoires continues dépendantes d'un grand nombre de causes indépendantes et
additives. Elle est notée par N (µ; σ 2 ) avec µ l'espérance de la loi et σ 2 la variance. La
densité de probabilité de la loi normale est donnée par :
1 1 x−µ 2
f (x) = √ e− 2 ( σ ) .
σ 2π
La courbe de cette densité est appelée courbe de Gauss.
La fonction de répartition est comme suit :
Z x
1 1 x−µ 2
F (x) = √ e− 2 ( σ ) dx.
−∞ σ 2π

L'espérance de la loi normale :


E(X) = µ.
La variance de la loi normale :
V ar(X) = σ 2 .
Loi normale centrée réduite.
La loi normale de moyenne nulle et d'écart type égale à 1 est appelée loi normale
centrée réduite (N (0, 1)). La densité de probabilité est donnée par :

1 1 2
f (t) = √ e− 2 t .

Propriété :

• Si X N (µ, σ 2 ), alors T = X−µ



σ2
N (0, 1).
• f est une fonction paire ; f (−t) = f (t).

29
Figure 2.1  Allure de la densité normale
• P(X = a) = 0.
• P(X < a) = P (X ≤ a).
• P(X > a) = 1 − P (X ≤ a).
• P(X ≤ −a) = P (X ≥ a) = 1 − P(X < a).
• P(−a ≤ X ≤ a) = P(|X| ≤ a) = 2P(X ≤ a) − 1.
Allure de la densité normale centrée réduite.

Figure 2.2  Allure de la densité normale centrée réduite


Table de la loi N (0, 1). Soit Z une variable aléatoire normale centrée réduite. An
de calculer des probabilités du type P(X > t), P(X < t), P(|X| > t), et P(t1 < X < t2 )
quand X suit une loi normale N (µ, σ 2 ), on doit suivre les étapes suivantes :

Etape 1 :Reexprimer les probabilités qu'on veut calculer avec la v.a. centrée réduite
Z = X−µ
σ
.

30
Etape 2 :En utilisant les propriétés citées ci-dessus, on se ramene à des probabilités
du type P(Z ≤ z) pour certains z ≥ 0.

Etape 3 :Utiliser la table de la loi normale standard N (0, 1).

Exercice 5 Si X N (3, 0.25), calculer P(X > 3.5).


Pour calculer cette probabilité, on doit d'abord centrer et réduire, an d'obtenir une v.a.
Z N (0, 1), d'où
X −2
Z=√ .
0.25
Par conséquent,

P(X > 3.5) = P( √X−2


0.25
3.5−3
>√ 0.25
)
= P(Z > 1)
= 1 − P(Z < 1)
= 1 − 0.8413 (via la table de la loi N (0, 1)).
= 0.1587.

2.3.3 Théorème de la limite centrale

31
Théorème 2.3.1 Théorème central limite.Soit X , ..., X n variables aléatoires indépen-
dantes et identiquement distribuées d'espérance µ et de variance σ :
1 n
2

n
X
1
n n
Xi − µ
X L i=1 L
Y = Xi N (nµ, nσ 2 ) ⇔ p N (0, 1).
i=1 σ 2 /n

Loi du Chi-deux
Dénition 2.3.1 Soient X , ..., X n variables aléatoires indépendantes et identiquement
distribuées de loi normale centrée réduite. La variable aléatoire Y = X + ... + X suit la
1 n
2 2

du loi χ à n degrés de liberté :


2
1 n

n
X
Y := Xi2 χ2n .
i=1

Quelques propriétés Y ≥ 0, Y n'est pas donc symétrique.


Y admet une densité.
L'espérance de Y : E(Y)=n.
La variance de Y : V(Y)=2n.
Si Y1 χ2n1 et Y1 χ2n2 avec Y1 indépendante de Y2 , alors Y = Y1 + Y1 χ2n1 +n2 .

Figure 2.3  Allure de la densité de la loi du Chi-deux


Loi de student
Dénition 2.3.2 Soient X et Y deux variables aléatoires indépendantes telles que X
N (0, 1) et Y χ2n La variable aléatoire
X
T =p
Y /n

32
suit une loi continue dite loi de Student à n degrés de liberté, notée T .n

L'espérance de la loi de student : E(T ) = 0.


La varaince de la loi de student : V (T ) = , n > 2.
n
n−2

Figure 2.4  Allure de la densité de Student


Loi de Fisher-Snédécor
Dénition 2.3.3 Soient Y et Y deux variables aléatoires indépendantes telles que Y
et Y . La variable aléatoire
1 2 1
χ2n1 2 χ2n2

Y1 /n1
Z=
Y2 /n2

suit la loi de Fisher-Snédécor à n et n degrés de liberté, notée F (n ; n ).


1 2 1 2

L'epérance de la variable de Fisher-Snédécor Z : E(Z) = , n > 2.


n2
n2 −1 2

33
La variance de la variable de Fisher-Snédécor Z : V (Z) =
 2
n2 2(n1 +n2 −2)
n2 −2 n1 (n2 −4)
, n2 > 4.

Remarque : Si Z1 F (n2 ; n1 ) alors Z2 = 1/Z1 F (n1 ; n2 ).

Figure 2.5  Allure de la densité de Fisher-Snédécor

34
Chapitre 3
Estimation

3.1 Introduction
L'estimation statistique a pour but d'évaluer certaines caractéristiques associées à une
population à partir d'observations faites sur un échantillon. Bien souvent, ces caractéris-
tiques sont des moyennes, des variances et des proportions.
Exemple :
• Quelle est la glycémie moyenne d'un patient ?
Deux types de réponses sont apportées à cette question.
A partir d'un échantillon :
1. On cherche une valeur qui semble être la meilleure possible : Estimation ponctuelle.
2. On cherche un intervalle de valeurs possibles : Estimation par intervalle de conance.

3.2 Généralités sur les estimateurs


Dénition 3.2.1 − Un échantillon aléatoire ou n-échantillon est l'ensemble {X1 , ..., Xn }
de n variables aléatoires indépendantes et identiquement distribuées (i.i.d.) de même loi
que X.
Dénition 3.2.2 On appelle statistique toute fonction du n-échantillon X , ..., X :
1 n

T : Rn → R
(X1 , ..., Xn ) 7→ T (X1 , ..., Xn )

Remarque. t = T (x1 , ..., xn ) est une réalisation de la variable aléatoire T.


Dénition 3.2.3 − Soit X une variable aléatoire dont la loi dépond d'un paramètre
inconnu θ.
35
− Un estimateur de θ sera la statistique T = f (X , ..., X ).
On appelle erreur d'estimation :
1 n

T − θ = T − E(T ) + E(t) − θ.

− On appelle biais d'un estimateur la quantité :


E(T ) − θ.

− Un estimateur T de θ est dit sans biais si


E(T ) = θ.

Un estimateur est dit asymptotiquement sans biais si


lim E(T ) = θ
n→∞

On appelle erreur quadratique moyenne la quantité :


E((T − θ)2 ) = V ar(T ) + (E(T ) − θ)2

Dénition 3.2.4 Pour qu'un estimateur asymptotiquement sans biais soit convergent il
sut que
lim V ar(T ) = 0.
n→∞

Propriétés d'un bon estimateur. Un estimateur est dit ecace s'il est convergent,
sans biais et de variance minimale.
Remarque. Si deux estimateurs T1 et T2 d'un paramètre θ sont convergents et sans
biais, on choisira l'estimateur qui a la variance la plus petite.
Généralités sur les estimateurs.
Quelques estimateurs usuels :
• La moyenne empirique :
n
1X
X̄ = Xi
n i=1
• La variance empirique :
n n
2 1X 1X 2
S = (Xi − X̄)2 = X − X̄ 2
n i=1 n i=1 i

• La variance empirique corrigée :


n
021 X n
S = (Xi − X̄)2 = S2
n − 1 i=1 n−1

36
3.3 Estimation ponctuelle
Soit X une variable aléatoire telle que E[X] = µ et V ar(X) = σ 2 .
Estimation d'une moyenne. La variable aléatoire X̄ dénie par
n
1X
X̄ = Xi
n i=1

est un estimateur convergent et sans biais de µ

σ2
E(X̄) = µ, V ar(X̄) = .
n
Estimation d'une variance : µ connue : La variable aléatoire T 2 dénie par
n
2 1X
T = (Xi − µ)2
n i=1

est un estimateur convergent et sans biais de σ 2 .


Estimation d'une variance : µ inconnue. La variable aléatoire S 2 dénie par
n
2 1X
S = (Xi − X̄)2
n i=1

est un estimateur biaisé et convergent de σ 2 . Il est asymptotiquement sans biais.


0
La variable aléatoire S 2 dénie par
n
02 1 X n
S = (Xi − X̄)2 = S2
n − 1 i=1 n−1

est un estimateur convergent et sans biais de σ 2 .

3.3.1 Estimation d'une proportion


Soit π une proportion d'une certaine caractéristique dans une population qu' on veut
estimer. Soit K une variable aléatoire discrète distribuée selon une loi binomiale B (n, π).
La fréquence observèe dans un échantillon de taille n est le meilleur estimateur de π.

K
F = .
n
Il est convergent et sans biais.

37
3.4 Estimation par intervalle de conance
Dénition 3.4.1 L'estimation par intervalle de conance de θ consiste à associer à un
éechantillon un intervalle aléatoire [I , I ] qui contient la valeur de θ avec une certaine
probabilité. Cet intervalle est appelé intervalle de conance de θ.
1 2

Dénition 3.4.2 On appelle risque d'erreur la probabilité α que l'intervalle de conance


ne contienne pas la vraie valeur de θ.
On appelle niveau de conance la probabilité 1 − α que l'intervalle de conance contienne
la vraie valeur de θ.
P(I1 < θ < I2 ) = 1 − α.

3.5 Estimation par intervalle de conance


3.5.1 Intervalle de conance (Ic) pour une moyenne
1. n < 30. Soit (X1 , ..., Xn ) un n-échantillon de variables aléatoires réelles de loi
N (µ, σ 2 ).
1.1. σ 2 connue :
 
σ σ
Ic = x̄ − z1− α2 √ , x̄ + z1− α2 √ ,
n n
où z1− α2 est le quantile d'ordre 1 − α
2
de la loi normale centrée et réduite.
1.2. σ 2 inconnue :
α s0 α s0
 
Ic = x̄ − tn−1 (1 − ) √ , x̄ + tn−1 (1 − ) √ .
2 n 2 n

où x̄ et s0 sont les réalisations respectives de X̄ et S 0 sur l'échantillon, tn−1 (1 − α2 ) est


le quantile d'ordre 1 − α2 de la loi de Student à (n − 1) degrés de liberté.
2. n ≥ 30.
2.1. σ 2 connue :
 
σ σ
Ic = x̄ − z1− α2 √ , x̄ + z1− α2 √ .
n n

2.2. σ 2 inconnue :

s0 s0
 
Ic = x̄ − z1− α2 √ , x̄ + z1− α2 √ .
n n

38
3.5.2 Intervalle de conance (Ic) pour une variance
Soit (X1 , ..., Xn ) un n-échantillon de variables aléatoires réelles de loi N (µ, σ 2 ).
1. µ connue :
n
X
T 2 = n1 (Xi − µ)2 est le meilleur estimateur de la variance σ 2 lorsque la moyenne µ
i=1
est connue.
nT 2
σ2
suit une loi du Khi-deux à n degrés de liberté :

nt2 nt2
 
Ic = , ,
χ2n (1 − α2 ) χ2n ( α2 )
où t2 est la réalisation de T 2 sur l'échantillon et χ2n (1 − α2 ) et χ2n ( α2 ) sont des quantiles
d'ordres 1 − α2 et α2 de la loi du χ2 à n dergrès de liberté.
2. µ inconnue :
X n
S 02 = n−1
1
(Xi − X̄)2 est le meilleur estimateur de la variance σ 2 lorsque la moyenne
i=1
µ est inconnue.
(n−1)S 02
σ2
suit une loi du Khi-deux à (n-1) degrés de liberté :

(n − 1)s02 (n − 1)s02
 
Ic = , ,
χ2n−1 (1 − α2 ) χ2n−1 ( α2 )

où s02 est la réalisation de S 02 sur l'échantillon et χ2n−1 (1− α2 ) et χ2n−1 ( α2 ) sont des quantiles
d'ordres 1 − α2 et α2 de la loi du χ2 à n-1 dergrès de liberté.

3.5.3 Intervalle de conance (Ic) pour une proportion


Soit π la proportion d'un certain caractère dans une population.
" r r #
f (1 − f ) f (1 − f )
Ic = f − z1− α2 , f + z1− α2 ,
n n
où f = k/n est la proportion observée sur un échantillon de taille n.
Conditions requises pour l'estimation : n ≥ 30, nf ≥ 5, et n(1 − f ) ≥ 5.

Exercice 6 (Exercice : Les plantes marines [8]) Un biologiste étudie un type d'algue
qui attaque les plantes marines. La toxine contenue dans cette algue est obtenue sous
forme d'une solution organique. Il mesure la quantité de toxine par gramme de solution.
Il a obtenu les neuf mesures suivantes, exprimées en milligrammes :
1.2; 0.8; 0.6; 1.1; 1.2; 0.9; 1.5; 0.9; 1.0

Nous supposons que ces mesures sont les réalisations de variables aléatoires indépendantes
et identiquement distribuées suivant une loi N (µ, σ ). 2

39
1. Donner une estimation ponctuelle de la moyenne de la quantité de toxine par
gramme de solution.
2. Donner une estimation ponctuelle de la variance de la quantité de toxine par gramme
de solution.
3. Donner un intervalle de conance à 95% pour la moyenne de la quantité de toxine
par gramme de solution.
4. Donner un intervalle de conance à 95% pour la variance de la quantité de toxine
par gramme de solution.
Solution 3.5.1 1. L'estimation ponctuelle de la moyenne :
X n
1
x̄ = n
xi
i=1
= 19 (1.2 + 0.8 + 0.6 + 1.1 + 1.2 + 0.9 + 1.5 + 0.9 + 1.0) = 1.022 mg.
2. L'estimation ponctuelle de la variance :
s02 = n
n−1
s2 !
n
X
= n
n−1
1
n
x2i − x̄2
9 1
i=1 
(1.22 + 0.82 + ... + 1.02 ) − 1.0222 = 0.06995 mg .
2

3. Intervalle de conance à 95% pour la moyenne :


= 8 9

σ étant inconnue :
2

s0 s0
 
Ic = x̄ − t8 (0.975) √ , x̄ + t8 (0.975) √ .
n n

(le niveau de conance; 1 − α = 0.95 ⇒ α = 0.05 et n − 1 = ν = 8).


On cherche t (0.975) dans la table de la loi de Student; on trouve t (0.975) = 2.306.
8 8

D'où, l'intervalle de conance s'écrit :


40
 
0.2644 0.2644
Ic = 1.022 − 2.306 √ , 1.022 + 2.306 √ = [0.2032, 1.2252] .
9 9
4. Intervalle de conance à 95% pour la variance :
2. µ étant inconnue :
8s02 8s02
 
Ic = , .
χ28 (0.975) χ28 (0.025)
On cherche χ (0.975) et χ (0.025) dans la loi du χ à 8 dergrès de liberté (n−1 = ν = 8);
2 2 2

on trouve χ (0.975) = 17.535 et χ (0.025) = 2.180.


2
8 8
2

D'où, l'intervalle de conance s'écrit :


8 8

 
8 × 0.06995 8 × 0.06995
Ic = , = [0.0319, 0.2566].
17.535 2.180

Exercice 7 (La bactérie Brucella abortus [8]) . Dans le cas d'une contamination
d'un grand cheptel bovin par la bactérie Brucella abortus, un vétérinaire observe 53 avor-
tements pour 134 vaches gestantes.
1. Donner l'estimation ponctuelle de la proportion d'avortements.
2. Donner l'intervalle de conance asymptotique à 95% pour la proportion d'avorte-
ments
Solution 3.5.2 1. L'estimation ponctuelle de la proportion d'avortements :
53
f= = 0.3955.
134

41
2. L'intervalle de conance asymptotique à 95% pour la proportion d'avortements
s'écrit : " r r #
f (1 − f ) f (1 − f )
Ic = f − z0.975 , f + z0.975 .
n n
On cherche z dans la table de la loi N (0, 1); on trouve z (
= 1.96. 1 − α = 0.95 ⇒
α = 0.05).
0.975 0.975

D'où
 q q 
0.3955(1−0.3955) 0.3955(1−0.3955)
Ic = 0.3955 − 1.96 134
, 0.3955 + 1.96 134

= [0.3128, 0.47828].

42
Chapitre 4
Tests statistiques

4.1 Généralités
Dénition 4.1.1 Un test statistique a pour but d'eectuer un choix entre deux hypo-
thèses statistiques concernant une ou plusieurs populations, à partir d'un ou plusieurs
échantillons.
Dénition 4.1.2 Hypothèses.
− L'hypothèse nulle, notée H est celle qui est supposée vraie à priori.
− L'hypothèse alternative, notée H est l'hypothèse complémentaire de H .
0
1 0

Dénition 4.1.3 Risques d'erreurs.


Deux types d'erreurs de décision sont considérées; soient α et β erreurs de première
et de deuxième espèce : α = P(accepter H |H vraie) et β = P(accepter H |H vraie).
1 0 0 1

Résultat du test H0 est vraie H1 est vraie


Accepter H0 1 − α : conance du test β : erreur de deuxième espèce
Accepter H1 α : seul du test 1 − β : puissance du test

Dénition 4.1.4 Statistique


La statistique de test, noté S est une fonction qui résume l'information sur l'échan-
tillon qu'on veut tester. On la choisit de façon à pouvoir calculer sa loi sous H .
T
0

Dénition 4.1.5 Test bilatéral-Test unilatéral − Test bilatéral : il s'applique quand on


cherche une diérence entre deux estimations ou entre une estimation et une valeur donnée
sans prendre en considération le signe de la diérence.
− Test unilatéral : il s'applique quand on cherche à savoir si une estimation est supé-
rieure ou inférieure à une autre estimation ou à une valeur donnée.
Soit X une variable aléatoire dont la loi dépend d'un paramètre inconnu θ.
H0 : θ = θ0 , θ0 étant une valeur numérique.
H1 peut être de trois types :

43
H1 : θ 6= θ0 , test bilatéral.
H1 : θ > θ0 , test unilatéral à droite.
H1 : θ < θ0 , test unilatéral à gauche.

Dénition 4.1.6 Région de rejet


La région de rejet ou région critique est le sous-ensemble W de R des valeurs pour
lesquelles l'hypothèse nulle est rejetée. On appelle W région d'acceptation.
Dénition 4.1.7 La forme de la région de rejet
− Test bilatéral : W =] − ∞; a] ∪ [b; +∞[.

− Test unilatéral à droite : W = [a; +∞[.

− Test unilatéral à gauche : W =] − ∞; b].

Dénition 4.1.8 Probabilité critique


La probabilité critique (ou p-valeur) est la probabilité, sous H , d'obtenir une valeur
de la statistique de test au moins aussi extrême que celle observée.
0

− En pratique, on rejette H lorsque p < α.


0

Exemple : On considère que ST N (0, 1) sous H0 avec α = 5%


1. Pour un test bilatéral, la région de rejet :

W =] − ∞, −z0.975 ] ∪ [z0.975 , +∞[.

Pour un test unilatéral à droite, la région de rejet :

W = [z0.975 , +∞[.

Pour un test unilatéral à gauche, la région de rejet :

W =] − ∞, −z0.975 ].

44
Démarche générale d'un test 1. Choisir les hypothèses à tester H0 et de H1 .
2. Fixer le risque α.
3. Déterminer la statistique (la variable de décision) de test.
4. Calculer la région de rejet en fonction de α et H0 .
5. Calculer la valeur observée de la statistique de test.
6. Conclure : rejet ou acceptation de H0 .

4.2 Tests d'hypothèse à un échantillon


4.2.1 Test sur une moyenne
Soit X une variable aléatoire quantitative. µ : la moyenne de X dans la population.
On veut savoir si la moyenne théorique égale à une certaine valeur µ0 .
On désire faire le test d'hypothèse suivant :

H0 : µ = µ0 ;


H1 : µ 6= µ0 .

1. n < 30. On suppose que X N (µ, σ 2 ).


1.1. σ connue : Sous H0 , la variable de décision (la statistique)
2

45
X̄ − µ0
Z= √ N (0, 1).
σ/ n
L'intervalle d'acceptation (région d'acceptation) est de la forme

W = [−z1− α2 , z1− α2 ].
L'intervalle de rejet est de la forme :
W =] − ∞, −z1− α2 [∪]z1− α2 , +∞[,
où z1− α2 est le quantile d'ordre 1 − α
2
de la loi normale centrée et réduite.
Si z ∈ W , on ne rejette pas H0 , où z est la valeur observée de la variable aléatoire Z
(valeur calculée).
1.2. σ 2 inconnue : Sous H0 , la variable de décision (la statistique)

X̄ − µ0
T = √ Tn−1 .
S 0/ n
L'intervalle d'acceptation est de la forme
h α α i
W = −tn−1 (1 − ), tn−1 (1 − ) .
2 2
L'intervalle de rejet est de la forme :
i α h i α h
W = −∞, −tn−1 (1 − ) ∪ tn−1 (1 − ), +∞ ,
2 2
où tn−1 (1 − 2 ) est le quantile d'ordre 1 − 2 de la loi de Student à (n − 1) degrés de liberté.
α α

Si t ∈ W , on ne rejette pas H0 .
2. On suppose qu'on est en présence d'un échantillon non gaussien de grande taille
(n ≥ 30) :
2.1. σ 2 connue : Sous H0 , la variable de décision

X̄ − µ0
Z= √ N (0, 1).
σ/ n
L'intervalle d'acceptation est de la forme
W = [−z1− α2 , z1− α2 ].
2.2. σ 2 inconnue : Sous H0 , la variable de décision

X̄ − µ0
Z= √ N (0, 1).
S 0/ n
L'intervalle d'acceptation est de la forme
W = [−z1− α2 , z1− α2 ].
Pour les deux cas ; σ 2 connue ou σ 2 inconnue, si z ∈ W , on ne rejette pas H0 ,

46
4.2.2 Test sur une variance d'une variable gaussienne
On suppose que X N (µ, σ 2 ). On désire faire le test d'hypothèse suivant :
H0 : σ 2 = σ02 ;


H1 : σ 2 6= σ02 .

1. µ connue : Sous H0 , la variable de décision :

nT 2
V = χ2n .
σ02
L'intervalle de rejet est de la forme :
h α h i α h
W = 0, χ2n ( ) ∪ χ2n (1 − ), +∞ ,
2 2
où χ2n ( α2 ) et χ2n (1 − α2 ) sont les quantiles d'ordre α2 et 1 − α
2
de la loi du Khi-deux à n
degrés de liberté.
Si v ∈ W , on rejette H0 .
2. µ inconnue : Sous H0 , la variable de décision :

(n − 1)S 02
V = χ2n−1 .
σ02
L'intervalle de rejet est de la forme :
h α h i α h
W = 0, χ2n−1 ( ) ∪ χ2n−1 (1 − ), +∞ ,
2 2
où χ2n−1 ( α2 ) et χ2n−1 ( 1−α
2
) sont les quantiles d'ordre α
2
et 1 − α
2
de la loi du Khi-deux à
n − 1 degrés de liberté.
Si v ∈ W, on rejette H0 .

4.2.3 Test sur une proportion


Soit π la proportion théorique d'individus possédant une certaine caractéristique, dans
une population donnée. On veut la comparer à une proportion π0 de référence. On a
X1 , ..., Xn iid avec Xi B (π), π inconnue. Le meilleur estimateur de π est F = Kn . Si
n ≥ 30, nπ0 ≥ 5, et nπ0 (1 − π0 ) ≥ 5, on peut considerer le test d'hypothèse suivant :

H0 : π = π0 ;


H1 : π 6= π0 .

Sous H0 , la variable de décision (la statistique)

F − π0
Z=q N (0, 1).
π0 (1−π0 )
n

47
L'intervalle d'acceptation est de la forme

W = [−z1− α2 , z1− α2 ].
L'intervalle de rejet est de la forme :

W =] − ∞, −z1− α2 [∪]z1− α2 , +∞[,


où z1− α2 est le quantile d'ordre 1 − α
2
de la loi normale centrée et réduite.
Si z ∈ W , on ne rejette pas H0 .

4.3 Comparaison de deux échantillons


4.3.1 Test de comparaison de deux moyennes : populations indé-
pendantes
On considère deux populations P1 et P2 et deux variables aléatoires X1 et X2 dénies
respectivement sur P1 et P2 avec X1 qX2 . On pose µ1 = E(X1 ), µ2 = E(X2 ), σ12 = σ12 (X1 ),
et σ22 = σ22 (X1 ).
− On dispose d'un n1 -échantillon de X1 dont la moyenne est x̄1 et la variance corrigée
s02
1 .
− On dispose d'un n2 -échantillon de X1 dont la moyenne est x̄2 et la variance corrigée
02
s2 .
On souhaite tester s'il y a une diérence signicative entre les moyennes des deux
populations :
H0 : µ1 = µ2 ;


H1 : µ1 6= µ2 .
1. n1 et/ou n2 < 30 et X1 N (µ1 , σ12 ), X2 N (µ2 , σ22 ).
1.1. σ12 , σ22 connues :
Sous H0 , la variable de décision

X̄1 − X̄2
Z=q 2 N (0, 1).
σ1 σ2
n1
+ n22
L'intervalle d'acceptation est de la forme

W = [−z1− α2 , z1− α2 ],
où z1− α2 est le quantile d'ordre 1 − α
2
de la loi normale centrée et réduite.
Si z ∈ W , on ne rejette pas H0 .
1.2. σ12 , σ22 inconnues et σ12 = σ22 .
Sous H0 , la variable de décision

48
X̄1 − X̄2
T = q T (n1 + n2 − 2),
σ̂ n11 + n12
avec
s
(n1 − 1)Ś12 + (n2 − 1)Ś22
σ̂ =
n1 + n2 − 2
L'intervalle d'acceptation est de la forme
α α
W = [−tn1 +n2 −1 (1 − ), tn1 +n2 −1 (1 − )],
2 2
où tn1 +n2 −1 (1 − α2 ) est le quantile d'ordre 1 − α2 de la loi de Student à (n1 + n2 − 1) degrés
de liberté.
Si t ∈ W , on ne rejette pas H0 .
Remarque : Ce test est connu sous le nom de test T ou test de Student.
1.3. σ12 , σ22 inconnues et σ12 6= σ22 .
Sous H0 , la variable de décision

X̄1 − X̄2
T =q 2 T (m),
Ś1 Ś 2
n1
+ n22
est l'entier le plus proche de
 2
ś21 ś22
n21
+ n22
ś41 ś42
.
n21 (n1 −1)
+ n22 (n2 −1)

L'intervalle d'acceptation est de la forme


α α
W = [−tm (1 − ), tm (1 − )],
2 2
où tm (1 − α2 ) est le quantile d'ordre 1 − α
2
de la loi de Student à m degrés de liberté.
Si t ∈ W , on ne rejette pas H0 .
2. n1 et n2 > 30
2.1. σ12 , σ22 inconnues :
Sous H0 , la variable de décision

X̄1 − X̄2
Z=q 2 N (0, 1).
Ś1 Ś 2
n1
+ n22
L'intervalle d'acceptation est de la forme

W = [−z1− α2 , z1− α2 ],

49
où z1− α2 est le quantile d'ordre 1 − α
2
de la loi normale centrée et réduite.
Si z ∈ W , on ne rejette pas H0 .
2.2. σ12 , σ22 connues :
Sous H0 , la variable de décision

X̄1 − X̄2
Z=q 2 N (0, 1).
σ1 σ2
n1
+ n22
L'intervalle d'acceptation est de la forme

W = [−z1− α2 , z1− α2 ],

Si z ∈ W , on ne rejette pas H0 .

4.3.2 Test de comparaison de deux moyennes : populations ap-


pariées
On dispose d'un échantillon de n observations. Chaque observation étant constituée
d'une paire de valeurs. On considère une nouvelle variable aléatoire D dont les valeurs di
sont obtenues par diérences des paires de valeurs ; di = xi1 − xi2 .
X étant gaussienne, D l'est également dont la moyenne est µD (µD = µ1 − µ2 ) et la
variance σD 2
.
On souhaite tester :

H0 : µD = 0 ;


H1 : µD 6= 0.
Soit D̄ la moyenne empirique de D : D̄ =Pn1 ni=1 Di .
P
n
Soit SD 2
La variance de D : SD
2 1
= n−1 2
i=1 (Di − D̄ ).
1. Pour n < 30, Sous H0 , la variable de décision


T = √ T (n − 1)
SD / n
avec n
1 X
D̄ = X̄1 − X̄2 et 2
SD = (Di − D̄2 ).
n − 1 i=1
L'intervalle d'acceptation est de la forme
α α
W = [−tn−1 (1 − ), tn−1 (1 − )],
2 2
où tn−1 (1 − α2 ) est le quantile d'ordre 1 − α2 de la loi de Student à (n − 1) degrés de liberté.
Si t ∈ W , on ne rejette pas H0 .
2. Pour n ≥ 30, et loi quelconque (X non gaussienne), sous H0 , la variable de décision

50

Z= √ N (0, 1).
SD / n
L'intervalle d'acceptation est de la forme

W = [−z1− α2 , z1− α2 ],
où z1− α2 est le quantile d'ordre 1 − α
2
de la loi normale centrée et réduite.
Si z ∈ W , on ne rejette pas H0 .

4.3.3 Test de comparaison de deux variances : populations indé-


pendantes
On considère deux populations P1 et P2 et deux variables aléatoires X1 et X2 dénies
respectivement sur P1 et P2 avec X1 q X2 . On pose µ1 = E(X1 ), µ2 = E(X2 ).
− On dispose d'un n1 -échantillon de X1 dont la moyenne est x̄1 et la variance corrigée
s02
1 .
− On dispose d'un n2 -échantillon de X1 dont la moyenne est x̄2 et la variance corrigée
02
s2 .
Soient X1 N (µ1 , σ12 ) et X2 N (µ2 , σ22 ), n1 ≤ 30 et/ou n2 ≤ 30.
On souhaite tester s'il y a une diérence signicative entre les variances des deux
populations :
H0 : σ12 = σ22 ;


H1 : σ12 6= σ22 .
Sous H0 , la variable de décision :

Ś12
Z= Fn1 −1,n2 −1 ,
Ś22
L'intervalle d'acceptation est de la forme
α α
W = [fn1 −1,n2 −1 ( ), fn1 −1,n2 −1 (1 − )],
2 2
où fn1 −1,n2 −1 ( α2 ) et fn1 −1,n2 −1 (1 − α2 ) sont les quantile d'ordre α
2
et 1 − α
2
de la loi de
Fisher Snédécor à (n1 − 1, n2 − 1) ddl.
Si z ∈ W on conserve H0 .
Remarque importantes :
ś2
− En calculant le rapport z = ś21 , on doit mettre la plus grande variance au numérateur.
2
− Le test de comparaison étant bilatéral, on rejette H0 au seuil de risque α dans les
deux cas suivants :
α α
z ≤ fn1 −1,n2 −1 ( ) ou z ≥ fn1 −1,n2 −1 (1 − ).
2 2

51
4.3.4 Test de comparaison de deux proportions : populations in-
dépendantes
On désire comparer deux proportions inconnues π1 et π2 :

H0 : π1 = π2 ;


H1 : π1 6= π2 .

On dispose de deux échantillons de taille n1 pour π1 qu'on estime par F1 et de taille n2


qu'on estime par F2 . Conditions d'application : n1 , n2 ≥ 30, n1 f1 ≥ 5, n1 (1 − f1 ) ≥ 5, et
n2 f2 ≥ 5, n2 (1 − f2 ) ≥ 5, où f1 et f2 sont les fréquences observées respectivement pour
l'échantillon 1 et pour l'échantillon 2.
Sous H0 , la variable de décision

F1 − F2
Z=q N (0, 1),
F̂ (1 − F̂ )( n11 + 1
n2
)

n1 F1 + n2 F2
F̂ = .
n1 + n2
L'intervalle d'acceptation est de la forme

W = [−z1− α2 , z1− α2 ],
où z1− α2 est le quantile d'ordre 1 − α
2
de la loi normale centrée et réduite.
Si z ∈ W , on ne rejette pas H0 .

4.4 Test du Khi-deux


4.4.1 Comparaison de deux distributions statistiques
On considère un caractère à k valeurs (modalités). La répartition théorique des fré-
quences de ces valeurs : p1 , ..., pk . Sur un échantillon de taille N, les eectifs observés :
o1 , ..., ok . Les eectifs théoriques : thi = N pi . On souhaite tester :
H0 : les deux répartitions théoriques et observées coïncident.
Sous H0 , si les eectifs théoriques vérient thi ≥ 5, la variable de décision est :
k
X (Oi − thi )2
Z= ∼ χ2k−1 ,
i=1
thi
où les Oi sont les variables aléatoires prenant les valeurs (oi sur un échantillon donné.
Pour un risque de première espèce α, l'intervalle de rejet :

W = [χ2k−1 (1 − α), +∞[,

52
où χ2k−1 (1 − α) correspond au quantile d'ordre (1 − α) de la loi du χ2 à (k-1) degrés de
liberté.
− Si z ≤ χ2k−1 (1 − α), alors on conserve (H0 ).
− Si z > χ2k−1 (1 − α) alors on rejette (H0 ).
− La valeur seuil χ2k−1 (1 − α) est lue sur la table du χ2 pour k − 1 ddl et pour un
risque d'erreur α xé.
On souahite tester l'indépendance de deux caractères statistiques X1 et X2 d'une
population. On pose :
H0 : les deux caractères sont indépendants.
Sous H0 , la variable de décision :
k1 Xk2
X (Oij − thij )2
Z= ∼ χ2(k1 −1)(k2 −1) ,
i=1 j=1
thij

où oij , i = 1, ..., k1 , j = 1, ..., k2 des eectifs observés sur un échantillon.


n ×n
thij = i· N ·j : eectifs théoriques, ni· et n·j eectifs marginaux observés.
Pour un risque de première espèce α, la région de rejet :

W = [χ2(k1 −1)(k2 −1) (1 − α), +∞[,


où χ2(k1 −1)(k2 −1) (1−α) correspond au quantile d'ordre (1−α) de la loi du χ2 à (k1 −1)(k2 −1)
degrés de liberté.
− Si z est inférieure à la valeur seuil χ2(k1 −1)(k2 −1) (1 − α), lue sur la table du χ2 pour
(k1 − 1)(k2 − 1) ddl et pour un risque d'erreur α xé alors on conserve (H0 ).
− Si z est supérieure à la valeur seuil χ2(k1 −1)(k2 −1) (1 − α) alors on rejette (H0 ).

53
Annexe

54
55
56
57
58
59
Bibliographie

[1] N. Akakpo, Tests statistiques, notes de cours issues du module 4M018 statistique
appliquée, 2017
[2] K. Balar, Statistique bivariée, Université Hassan II, Casablanca, 2019
[3] M. Bailly-Bechet, Biostatistiques  Licence 2 BIO2006L, Université Claude Bernard
Lyon I  France
[4] I. Gannaz, Introduction à la statistique, INSA de Lyon.
[5] M. Genin, Corrélation-Régression linéaire, Université de Lille 2, 2015
[6] M. Genin, Théorie de l'estimation, Université de Lille 2 EA 2694- Santé Publique :
Epidémiologie et Qualité des soins.
[7] M. Genin, Tests statistiques, Université de Lille 2
[8] M. Maumy-Bertrand, Statistique : étude de cas. Intervalles de conance, IRMA,
UMR 7501, Université de Strasbourg, 2017
[9] R. Rakotomalala, Comparaison de populations Tests paramétriques Version 1.2, Uni-
versité Lumière Lyon 2, 2013.
[10] S. A. Some, Statistique, les distributions à deux caractères, Série Documents De
Travail Dt-Capes N 2005-26, 2005
[11] Y. Tillé, Résumé du cours de statistique descriptive, 2005
[12] Axiomes du calcul des probabilités, L2 Eco-Gestion, option AEM.

60

Vous aimerez peut-être aussi