Vous êtes sur la page 1sur 23

École de technologie supérieure

Service des enseignements généraux


Local B-2500 514-396-8938
Site internet : http://www.seg.etsmtl.ca

MAT350

Probabilités et statistiques

Résumé de la matière

Par Sylvie gervais

Rédigé en août 2011


Révisé en décembre 2019

Ce document est mis à disposition selon les termes de la licence Creative Commons
Attribution - Pas d’utilisation commerciale - Pas de modification 4.0 International.
Table des matières

1 PREMIÈRE PARTIE 1
1.1 Statistiques descriptives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.1 Variables aléatoires dicrètes . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.2 Variables aléatoires continues . . . . . . . . . . . . . . . . . . . . . . . . . 14

2 DEUXIÈME PARTIE 19
2.1 Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 Tests d’hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3 Régression linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

Index 39

iii
Partie 1

PREMIÈRE PARTIE

1.1 Statistiques descriptives

Définition 1.1 Une unité statistique est une unité d’observation ou de mesure pour
laquelle des données sont recueillies ou dérivées. Par exemple, lorsqu’on fait un sondage
dans une certaine population, les unités statistiques sont les invididus qui forment cette
population.

Définition 1.2 Une variable est une caractéristique d’une unité statistique qui peut
prendre différentes valeurs pour différentes unités statistiques.

Définition 1.3 Les modalités sont les différentes valeurs qu’une variable peut prendre.

Définition 1.4 La nature d’une variable dépend de la façon dont elle est observée. Les
différentes possibilités sont :
1. Variable qualitative : lorsqu’elle classe les unités statistiques dans un groupe ou une
catégorie
• Nominale : les groupes ne sont pas ordonnés
• Ordinale : les groupes sont ordonnés
2. Variable quantitative : lorsque les modalités de la variable sont numériques et qu’elles
correspondent à des quantités (pas uniquement un code numérique arbitraire)
• Discrète : les modalités sont dénombrables
• Continue : les modalités sont définies sur un intervalle continu

1
2 PARTIE 1. PREMIÈRE PARTIE

En résumé :

Nature d’une variable

Variable

Qualitative Quantitative

Nominale Ordinale Discrète Continue

Démarche pour construire les classes d’un tableau de fréquences

1. Fixer temporairement le nombre de classes à partir de règle de Sturge :

k = 1 + log2 n

où log2 est le logarithme en base 2.


2. Calculer l’étendue de la série : E = maximum − minimum.
3. Obtenir l’amplitude calculée des classes : étendue / nombre de classes.
4. À partir de l’amplitude calculée, choisir une amplitude avec laquelle il sera
pratique de travailler, de présenter les données et de les interpréter (par exemple
un multiple de 2, 5, 10, 100, etc. dépendamment de l’ordre de grandeur des
valeurs observées).
5. Choisir la limite inférieure de la première classe.
Tableau 1.1 Résumé pour les tableaux et graphiques à produire lors de l’analyse descriptive d’une variable

1.1. STATISTIQUES DESCRIPTIVES


Représentation des données Mesures échantillonnales

Nature de Tableaux
Graphiques Tendance Dispersion
la variable de Autres mesures
centrale
fréquences

Qualitative Données Diagramme circulaire


nominale groupées Diagramme à bandes Mode Aucune Aucune
par valeurs horizontales ou
verticales

Qualitative Données Diagramme circulaire


groupées Mode Étendue Aucune
ordinale Diagramme à bandes
par valeurs Médiane
horizontales ou
verticales

Quantitative
Données Diagramme à bâtons
discrète
groupées Courbe de fréquences
avec
par valeurs cumulées
k < 15*
Boîte à moustaches Cote Z
Étendue Quantiles
Mode Variance Coefficient de variation
Quantitative Médiane Écart-type Coefficient d’asymétrie
Données Histogramme
discrète Moyenne IQR (skewness)
groupées en Polygone de fréquences
avec Coefficient d’aplatissement
classes Courbe de fréquences
k ≥ 15* (kurtosis)
cumulées
Boîte à moustaches
Données Histogramme
Quantitative
groupées en Polygone de fréquences
continue
classes Courbe de fréquences
cumulées

3
Boîte à moustaches

* Où k = nombre de valeurs différentes observées pour la variable. Il ne s’agit que d’une valeur suggérée. D’autres choix peuvent
être tout-à-fait acceptables selon le contexte.
Tableau 1.2 Résumé pour le calcul des mesures échantillonnales de tendance centrale, de dispersion et de position

4
Calcul des mesures échantillonnales
Données en vrac Données groupées par valeur Données groupées en classes

Mesures de tendance centrale


!k !k
Moyenne !n xi x̄ = vi ·ni
x̄ # mi ·ni
x̄ = i=1 n
i=1 n i=1 n

Valeur qui revient le plus souvent On parle plutôt de classe modale


Mode

Cas particulier : quantile avec i = 50


Médiane Cas particulier : quantile avec i = 50 (voir calcul quantile)
(voir calcul quantile)
Mesures de dispersion

(vi −x̄)2 ni (mi −x̄)2 ni


Variance
!k !k
!n (xi −x̄)2 s2 = s2 #
s =
2
i=1 n−1
i=1 n−1 i=1 n−1

Écart- "!
k (vi −x̄)2 ni
"!
k (mi −x̄)2 ni
s= s#
"!
type s=
n (xi−x̄)2 i=1 n−1 i=1 n−1
i=1 n−1

PARTIE 1. PREMIÈRE PARTIE


E = valeur maximale - valeur minimale E # limite maximale - limite minimale
Étendue

Mesures de position

On ramène le quantile à son centile correspondant Ci . On ramène le quantile à son centile correspondant Ci .
Méthode graphique :
Si (i% · n) est un entier, le quantile est la moyenne on utilise la courbe des fréquences cumulées
Quantiles
entre la (i% · n)e observation et la suivante. Méthode analytique :

Ci # Ai + (i%·n−F ni
)
· (Bi − Ai )
Si (i% · n) n’est pas un entier, le quantile est

l’observation dont le rang est l’entier qui suit (i% · n).
[Ai , Bi ] : bornes de la classe qui contient le quantile
ni : l’effectif de la classe [Ai , Bi ]
F ∗ : somme des effectifs des classes prédédant la classe [Ai , Bi ]
n : nombre total d’observations

x−x̄ x−x̄
Cote Z z= s
z# s
1.1. STATISTIQUES DESCRIPTIVES
Tableau 1.3 Résumé pour le calcul des autres mesures échantillonnales et la boîte à moustaches

Calcul des mesures échantillonnales (suite)


Données en vrac Données groupées par valeur Données groupées en classes

Autres mesures
Coefficient !n !k !k
n i=1 (xi −x̄)3 n (vi −x̄)3 ni n (mi −x̄)3 ni
d’asymétrie s3 = s3 = i=1
s3 # i=1
(n−1)(n−2)s3 (n−1)(n−2)s3 (n−1)(n−2)s3
(skewness)
Coefficient
d’aplatis-
!n !k !k
n(n+1) i=1 (xi −x̄)4 3(n−1)2 n(n+1) i=1 (vi −x̄)4 ni 2
3(n−1) n(n+1) i=1 (mi −x̄)4 ni 2
3(n−1)
sement s4 = (n−1)(n−2)(n−3)s4
− (n−2)(n−3) s4 = (n−1)(n−2)(n−3)s4
− (n−2)(n−3) s4 # (n−1)(n−2)(n−3)s4
− (n−2)(n−3)
(kurtosis)

Coefficient s s
· 100%
cv = · 100% cv # x̄
de variation x̄

Vérification de la normalité

On calcule d’abord les coefficients d’asymétrie et d’aplatissement standardisés : s3(sd) = √s3 et s4(sd) = √ s4
6/n 24/n

On peut considérer que les données se distribuent selon une loi normale si s3(sd) ∈ [−2, 2] et s4(sd) ∈ [−2, 2].

Boîte à moustaches (Boxplot)

Li = max{x(1) , Q1 − 1.5 · IQR} Li Q1 Md Q3 Ls


Ls = min{x(n) , Q3 + 1.5 · IQR}
+

+
Toute donnée à l’extérieur de l’intervalle [Li , Ls ]
est considérée comme extravagante. Données extravagantes

5
6 PARTIE 1. PREMIÈRE PARTIE

1.2 Probabilités

Soit A et B deux sous-ensembles de l’espace fondamental Ω. On a alors

A∪B Ω A∩B AC A−B


Ω Ω Ω
A B A B A B A B

Formules de dénombrement

1. Le nombre de permutations de n objets distincts représente le nombre de


façons différentes de disposer ces n objets et se calcule de la façon suivante :

n! = n(n − 1)(n − 2) · · · 2 · 1

2. Le nombre de combinaisons de k objets parmi n, noté Ckn , représente le nombre


de façons de choisir k objets parmi n objets distincts en ne tenant pas compte
de l’ordre. On calcule Ckn de la façon suivante :

n!
Ckn =
k! · (n − k)!

3. Le nombre d’arrangements de k objets parmi n, noté Ank , représente le nombre


de façons de choisir k objets parmi n objets distincts en tenant compte de
l’ordre. On calcule Ank de la façon suivante :

n!
Ank =
(n − k)!
1.2. PROBABILITÉS 7

Tableau 1.4 Résumé des propriétés pour les probabilités

Quelques propriétés des probabilités

Axiomes de P (Ω) = 1
base
P (∅) = 0

Probabilité du
P (AC ) = 1 − P (A)
complément

Probabilité de
P (A − B) = P (A ∩ B C ) = P (A) − P (A ∩ B)
la différence

Probabilité de •P (A ∪ B) = P (A) + P (B) − P (A ∩ B)


l’union
•P (A ∪ B ∪ C) =
P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C)

•Si A1 , A2 , . . . , An sont des événements mutuellement exclusifs


(disjoints deux à deux) alors

P (A1 ∪ A2 ∪ · · · ∪ An ) = P (A1 ) + P A2 ) + · · · + P (An )

Probabilité de •P (A ∩ B) = P (A|B) · P (B) = P (B|A) · P (A) (toujours vrai)


l’intersection et
indépendance •P (A ∩ B) = P (A) · P (B) si et seulement si A et B sont indépendants.

•Si A1 , A2 , . . . , An sont des événements mutuellement indépendants alors

P (A1 ∩ A2 ∩ · · · ∩ An ) = P (A1 ) · P (A2 ) · · · P (An )

Probabilité P (A∩B)
conditionnelle P (A|B) = P (B)

Règles de Bayes !n !n
•P (B) = i=1 P (B ∩ Ai ) = i=1 P (Ai ) · P (B|Ai )
(diagramme en
arbre) P (Ak ∩B)
•P (Ak |B) = P (B) = !nP (APk(A
)·P (B|Ak )
)·P (B|A
i i)
i=1

où A1 , A2 , . . . , An est une partition de Ω et B un sous-ensemble de Ω.

Règles de De •P [(A ∪ B)C ] = P (AC ∩ B C )


Morgan
•P [(A ∩ B)C ] = P (AC ∪ B C )
8 PARTIE 1. PREMIÈRE PARTIE

Supposons des composants d’un système indépendants les uns des autres. Le tableau
suivant présente les deux principales structures qu’on retrouve dans un système ainsi que les
formules pour en calculer la fiabilité.

Structure des composants


Calcul de la fiabilité
indépendants

Composants en série

Fiabilité = P (A ∩ B) = P (A) · P (B)


A B
puisque A et B sont indépendants

Composants en parallèle

A Fiabilité = P (A ∪ B)
= P (A) + P (B) − P (A) · P (B)

puisque A et B sont indépendants


B
1.3. VARIABLES ALÉATOIRES 9

1.3 Variables aléatoires

1.3.1 Variables aléatoires dicrètes

Définition 1.5 Soit X une variable aléatoire discrète, son support DX , et sa fonction de
masse pX (x). La fonction de répartition de X est donnée par :
#
FX (x) = P (X ≤ x) = P (X = t)
t≤x

Application utile :
P (a < X ≤ b) = FX (b) − FX (a)

Définition 1.6 Soit X et Y deux variables aléatoires discrètes avec supports respectifs DX
et DY . La fonction de masse conjointe de X et Y est donnée par :

pX,Y (x, y) = P (X = x, Y = y) ∀ x ∈ DX et ∀ y ∈ DY .

Définition 1.7 Soit X et Y deux variables aléatoires discrètes avec supports respectifs DX
et DY et leur fonction de masse conjointe, pX,Y (x, y).On a alors
1. la fonction de masse marginale de X est donnée par :
#
pX (x) = pX,Y (x, y)
DY

2. la fonction de masse marginale de Y est donnée par :


#
pY (y) = pX,Y (x, y).
DX

Définition 1.8 Soit X et Y deux variables aléatoires discrètes et leur fonction de masse
conjointe, pX,Y (x, y). La fonction de masse conditionnelle de X étant donné Y est
alors donnée par
pX,Y (x, y)
pX|Y (x|y) = P (X = x|Y = y) = .
pY (y)
10 PARTIE 1. PREMIÈRE PARTIE

Définition 1.9 Soit X et Y deux variables aléatoires discrètes avec leurs supports DX et
DY , leurs fonctions de masse marginales pX (x) et pY (y) et leur fonction de masse conjointe,
pX,Y (x, y). Les variables aléatoires X et Y sont indépendantes si et seulement si

pX,Y (x, y) = pX (x) · pY (y) ∀ x ∈ DX et ∀ y ∈ DY

ou de façon équivalente si et seulement si

pX|Y (x|y) = pX (x).

Définition 1.10 Soit X une variable aléatoire discrète, son support DX et sa fonction de
masse pX (x). Alors
1. L’espérance de X est donnée par
#
µ = E(X) = x · pX (x) (1.1)
x∈DX

De façon générale, on peut calculer l’espérance de f (X), une fonction de X, de la


façon suivante : #
E(f (X)) = f (x) · pX (x) (1.2)
x∈DX

2. La variance de X est donnée par

σ 2 = V ar(X) = (x − µ)2 · pX (x)


#
(1.3)
x∈DX

ou de façon équivalente

σ 2 = V ar(X) = x2 · pX (x) − µ2 = E(X 2 ) − µ2


#
(1.4)
x∈DX
1.3. VARIABLES ALÉATOIRES 11

Propriétés de l’espérance

1. Linéarité : soit a et b ∈ R et X une variable aléatoire. On a alors

E(aX + b) = aE(X) + b (1.5)

2. Additivité : soit deux variables aléatoires X et Y (indépendantes ou non). On


a toujours
E(X ± Y ) = E(X) ± E(Y ) (1.6)
On peut d’ailleurs généraliser ce résultat à une suite de variables aléatoires
X1 , X2 , . . . , Xn et deux suites de constantes a1 , a2 , . . . , an et b1 , b2 , . . . , bn :
n
# n
# n
#
E( ai Xi + bi ) = ai E(Xi ) + bi (1.7)
i=1 i=1 i=1

Propriétés de la variance

1. Linéarité : soit a et b ∈ R et X une variable aléatoire. On a alors

V ar(aX + b) = a2 V ar(X) (1.8)

2. Additivité : soit deux variables aléatoires X et Y indépendantes 1 . On a alors

V ar(X ± Y ) = V ar(X) + V ar(Y ) (1.9)

On peut d’ailleurs généraliser ces résultats à une suite de variables aléatoires


X1 , X2 , . . . , Xn mutuellement indépendantes et deux suites de constantes
a1 , a2 , . . . , an et b1 , b2 , . . . , bn :
$ n % n
a2i V ar(Xi )
# #
V ar ai Xi + bi = (1.10)
i=1 i=1

1. Si les variables sont dépendantes, on doit alors introduire une composante de covariance dans le calcul.
On obtient alors V ar(X + Y ) = V ar(X) + V ar(Y ) + 2Cov(X, Y ) où Cov(X, Y ) = E[(X − E(X))(Y − E(Y ))].
12 PARTIE 1. PREMIÈRE PARTIE

Théorème 1.1 Deux cas particuliers très importants découlent des propriétés 1.5 à 1.10 :
1. Soit une variable aléatoire X telle que E(X) = µ et V ar(X) = σ 2 . Si on considère la
transformation linéaire Z = X−µ
σ (la cote Z de X), on a alors

E(Z) = 0 et V ar(Z) = 1

2. Soit une suite de variables aléatoires X1 , X2 , . . . , Xn indépendantes, de mêmes


moyennes et de mêmes variances, autrement dit : E(Xi ) = µ et V ar(Xi ) = σ 2 pour
i = 1, . . . , n. Si on considère la variable X̄ = n1 ni=1 Xi , on a alors
!

σ2
E(X̄) = µ et V ar(X̄) =
n
Tableau 1.5 Principales caractéristiques des modèles discrets

1.3. VARIABLES ALÉATOIRES


Quelques modèles discrets
Loi Notation DX pX (x) = P (X = x) E(X) V ar(X)

1−p si x = 0
&
Bernoulli X~Bernoulli(p) {0, 1} pX (x) =
p p(1 − p)
p si x = 1

Binomiale X~B(n, p) {0, 1, . . . , n} pX (x) = Cxn px (1 − p)n−x np np(1 − p)

e−λ λx
Poisson X~P (λ) {0, 1, . . .} pX (x) = λ λ
x!

N2
CxN1 Cn−x np np(1 − p) (N −n)
Hypergéométrique X~Hpg(n, N1 , N2 ) {max(0, n − N2 ), . . . , pX (x) = (N −1)
min(n, N1 )} CnN
N1
où p = N où p = N1
N

pX (x) = p(1 − p)x−1

Géométrique X~Geom(p) {1, 2, . . .} Note :


1
p
1−p
p2

P (X ≥ x) = (1 − p)x−1

13
14 PARTIE 1. PREMIÈRE PARTIE

1.3.2 Variables aléatoires continues

Définition 1.11 Soit X une variable aléatoire continue, CX son support et a et b ∈ CX . La


densité de X est la fonction qui permet de calculer des probabilités associées à la variable
X. On la note fX (x). On l’utilise de la façon suivante :
' b
P (a ≤ X ≤ b) = fX (x)dx
a

Autrement dit, P (a ≤ X ≤ b) est l’aire sous la densité entre a et b. Voici une illustration :
fX (x)

a b x

Définition 1.12 Soit X une variable aléatoire continue, son support CX , et sa densité
fX (x). La fonction de répartition de X est donnée par :
' x
FX (x) = P (X ≤ x) = fX (t)dt
−∞

Définition 1.13 Soit X et Y deux variables aléatoires continues avec supports respectifs
CX et CY . La fonction de répartition conjointe de X et Y est donnée par :

FX,Y (x, y) = P (X ≤ x, Y ≤ y) ∀ x ∈ CX et ∀ y ∈ CY .

Définition 1.14 Soit X et Y deux variables aléatoires continues avec supports respectifs
CX et CY . La fonction de densité conjointe de X et Y est donnée par a :

∂2
fX,Y (x, y) = FX,Y (x, y).
∂x∂y
dFX (x)
a. C’est la généralisation au cas de deux variables du fait que fX (x) = dx
.
1.3. VARIABLES ALÉATOIRES 15

Définition 1.15 Soit X et Y deux variables aléatoires continues avec supports respectifs
CX et CY et leur fonction de densité conjointe, fX,Y (x, y). On a alors
1. la fonction de densité marginale de X est donnée par :
'
fX (x) = fX,Y (x, y)dy
CY

2. la fonction de densité marginale de Y est donnée par :


'
fY (y) = fX,Y (x, y)dx.
CX

Définition 1.16 Soit X et Y deux variables aléatoires continues et leur fonction de densité
conjointe, fX,Y (x, y). La fonction de densité conditionnelle de X étant donné Y est
alors donnée par
fX,Y (x, y)
fX|Y (x|y) = avec fY (y) > 0.
fY (y)

Définition 1.17 Soit X et Y deux variables aléatoires continue avec leurs supports CX et
CY , leurs fonctions de densité marginales fX (x) et fY (y) et leur fonction de densité conjointe,
fX,Y (x, y). Les variables aléatoires X et Y sont indépendantes si et seulement si

fX,Y (x, y) = fX (x) · fY (y) ∀ x ∈ CX et ∀ y ∈ CY

ou de façon équivalente si et seulement si

fX|Y (x|y) = fX (x).


16 PARTIE 1. PREMIÈRE PARTIE

Définition 1.18 Soit X une variable aléatoire continue, son support CX et sa densité
fX (x). Alors
1. l’espérance de X est donnée par
'
µ = E(X) = x · fX (x)dx (1.11)
CX

De façon générale, on peut calculer l’espérance de g(X), une fonction de X, de la


façon suivante : '
E(g(X)) = g(x) · fX (x)dx (1.12)
CX

2. la variance de X est donnée par


'
2
σ = V ar(X) = (x − µ)2 · fX (x)dx (1.13)
CX

ou de façon équivalente
'
σ 2 = V ar(X) = x2 · fX (x)dx − µ2 = E(X 2 ) − µ2 (1.14)
CX

Propriétés et théorèmes entourant la loi normale

Linéarité et additivité de la loi normale

1. Linéarité : soit X ∼ N (µ, σ 2 ) et deux constantes a et b ∈ R. On a alors

aX ± b ∼ N (aµ ± b , a2 σ 2 ) (1.15)

2. Additivité : soit X1 ∼ N (µ1 , σ12 ) et X2 ∼ N (µ2 , σ22 ) indépendantes. On a


alors
X1 ± X2 ∼ N (µ1 ± µ2 , σ12 + σ22 ) (1.16)
On peut d’ailleurs généraliser ce résultat à une suite de variables aléatoires
indépendantes X1 , X2 , . . . , Xn telles que Xi ∼ N (µi , σi2 ) pour i = 1, . . . , n et
deux suites de constantes a1 , a2 , . . . , an et b1 , b2 , . . . , bn :
n
$ n n
%
a2i σi2
# # #
(ai Xi + bi ) ∼ N (ai µi + bi ) , (1.17)
i=1 i=1 i=1
1.3. VARIABLES ALÉATOIRES 17

Théorème 1.2 La loi normale centrée réduite (la cote Z)

X −µ
Si X ∼ N (µ, σ 2 ) alors Z = ∼ N (0, 1)
σ

Théorème 1.3 La loi de X̄ pour des variables de loi normale

Soit une suite de variables aléatoires indépendantes X1 , X2 , . . . , Xn de loi normale


telles que E(Xi ) = µ et V ar(Xi ) = σ 2 pour i = 1, . . . , n. Autrement dit, Xi ∼ N (µ, σ 2 )
pour i = 1, . . . , n. Soit la variable aléatoire X̄ = n1 ni=1 Xi , on a alors
!

σ2
X̄ ∼ N (µ, )
n

Théorème 1.4 Le théorème limite central

Soit un échantillon aléatoire X1 , X2 , . . . , Xn constitué de n variables aléatoires indépendantes


sélectionnées à partir d’une certaine population (infinie ou avec remise). On a donc E(Xi ) = µ
et V ar(Xi ) = σ 2 pour i = 1, . . . , n. Si n est suffisamment grand (si n ≥ 30), on a

σ2
X̄ ≈ N (µ , )
n

Lien entre la loi exponentielle et la loi de Poisson

Si des événements se produisent selon une loi de Poisson, X ∼ P (λ), alors le temps qui
s’écoule entre 2 réalisations de ces événements est distribué selon une loi exponentielle
de moyenne θ = λ1 , Y ∼ Exp( λ1 ).

Attention : θ et λ doivent être exprimés dans les mêmes unités de temps.


18
Tableau 1.6 Principales caractéristiques des modèles continus

Quelques modèles continus


Loi Notation CX fX (x) E(X) V ar(X)

1
si a ≤ x ≤ b
&
[a, b] (b−a)2
Uniforme X~U (a, b) fX (x) = b−a
a+b
2 12
0 sinon

& 1 −x
θe
θ si x > 0
fX (x) =
Exponentielle X~Exp(θ) ]0, ∞[ 0 sinon θ θ2
−x
FX (x) = P (X ≤ x) = 1 − e θ

1
√ e− 2 ( σ )
1 x−µ 2
Normale X~N (µ, σ 2 ) ] − ∞, ∞[ fX (x) = µ σ2
σ 2π

Lois continues qui seront utilisée dans le cadre de l’inférence statistique (2e partie du cours)
( ν+1 )
Γ 2
ν
Student X~tν ] − ∞, ∞[ fX (x) = √ ( x2 ) ν+1 0 ν−2

πν Γ( ν2 ) +1 2

PARTIE 1. PREMIÈRE PARTIE


ν où ν > 2

(ν ) * ν + ν21 ν1
ν2
1 +ν2
Γ 2 x 2 −1 1
ν2 ν2 −2 2ν22 (ν1 +ν2 −2)
Fisher X~Fν1 ,ν2 ]0, ∞[ fX (x) = * + ν1 +ν2 ν1 (ν2 −2)2 (ν2 −4)
2
ν1 ν2 ν1
Γ( 2 )Γ( 2 ) ν2 x + 1 où ν2 > 2

ν −x
x 2 −1 e 2
Khi-deux X~χ2ν ]0, ∞[ fX (x) = ν ν ν 2ν
2 2 Γ( 2 )
Partie 2

DEUXIÈME PARTIE

2.1 Estimation

Distribution de X̄
CAS 1 : σ connu

Soit un échantillon aléatoire X1 , X2 , . . . , Xn constitué de n variables aléatoires sélec-


tionnées à partir d’une certaine population dont la moyenne est de µ et la variance,
σ 2 . On s’intéresse à la distribution de la moyenne de ces n variables aléatoires, soit
X̄ = n1 ni=1 Xi . Si n est suffisamment grand (en pratique, n ≥ 30), on a
!

2
X̄ ≈ N (µX̄ , σX̄ )

µX̄ = µ
et

Si population infinie (si N ≥ 20 · n)



√σ


n ou tirage avec remise




σX̄ =
Si population finie (si N < 20 · n)

 "
√σ N −n


·
et tirage sans remise

 n N −1

Remarque sur le calcul de l’erreur-type, σX̄ dans le cas 1


Puisqu’en pratique, il est vraiment très rare que σ 2 soit connue, on est pratiquement toujours
dans le cas 2. Pour cette raison, et pour simplifier les choses, il arrive que certains enseignants
n
utilisent toujours le facteur de correction modifié 1 − N peu importe la situation. Informez-vous
auprès de votre enseignant pour savoir comment il ou elle entend procéder pendant le cours.

19

Vous aimerez peut-être aussi