Académique Documents
Professionnel Documents
Culture Documents
Méthodes Statistiques
2 Vocabulaire de la statistique 7
1 Rappels de probabilités
Fonction de répartition / densité de probabilité
Définition 1.1. La fonction de répartition FX d’une variable aléatoire réelle
continue X est la fonction de R dans [0, 1] définie par :
FX (t) = P (X ≤ t)
Définition 1.2. Une densité de probabilité fX d’une variable aléatoire réelle
continue X est une fonction de R dans R définie par :
0
fX (t) = FX (t)
La figure 1 illustre graphiquement la relation entre densité de probabilité et
fonction de répartition.
Fonction quantile
Définition 1.3. Étant donné une variable aléatoire réelle X de fonction de
répartition FX , on appelle fonction quantile de X, que l’on notera QX , la
fonction définie sur ]0, 1[ par la relation :
QX (β) = t ⇐⇒ FX (t) = β
La fonction quantile est donc réciproque de la fonction de répartition.
Fonction quantile
La figure 2 illustre graphiquement la relation entre fonction de répartition
et fonction quantile.
1
Densité de X
FX(t)
Densité de X
FX(t) = β
QX(β) = t
2
Version centrée réduite
Définition 1.4. Étant donnée une variable aléatoire réelle X d’espérance E(X) =
µ et de variance Var(X) = σ 2 . On appelle la variable aléatoire réelle Z définie
par
X −µ
Z=
σ
p
la version centrée réduite de X où σ = Var(X) est l’écart-type.
Loi normale
Définition 1.5. Une variable X d’espérance µ et de variance σ 2 est dite dis-
tribuée selon la loi normale si sa densité de probabilité est :
(x − µ)2
1
fX (x) = √ exp −
2π σ 2σ 2
On écrit alors
X ∼ N (µ, σ 2 )
que l’on lit «X suit une loi normale de moyenne µ et de variance σ 2 ».
E(X) = µ Var(X) = σ 2
• Exemple : µ = 0, σ 2 = 1
2
1 x
fX (x) = √ exp −
2π 2
On dit que X est distribuée selon une loi normale «centrée réduite».
Théorème 1.2. Étant donnée une variable aléatoire réelle X distribuée selon
une loi normale d’espérance µ et de variance σ 2 , alors la version centrée réduite
de X suit une loi normale d’espérance 0 et de variance 1 :
X −µ
X ∼ N (µ, σ 2 ) ⇐⇒ Z= ∼ N (0, 1)
σ
3
0.4
0.3
0.2
0.1
0.0
−3 −2 −1 0 1 2 3
N(0, 1.5)
0.4
N(1, 1)
0.2
N(0, 0.5)
0.0
−3 −2 −1 0 1 2 3
4
Théorème 1.3 (Symétrie de la loi normale).
X ∼ N (µ, σ 2 ) 2µ − X ∼ N (µ, σ 2 )
Théorème 1.4.
P (X ≤ t) = P (X ≥ 2µ − t)
Théorème 1.5.
QX (β) = 2µ − QX (1 − β)
Un cas particulier : µ = 0, σ 2 = 1
X ∼ N (0, 1) =⇒ −X ∼ N (0, 1)
P (X ≤ t) = P (X ≥ −t)
QX (β) = −QX (1 − β)
Loi de student
Définition 1.6. Étant donné un entier ` > 1, une variable aléatoire aléatoire
X est dite distribuée selon une loi de Student à ` degrés de liberté si sa densité
de probabilité est
− `+1
x2
2
fX (x) = C` 1 + 2
`
Ici C` est une constante de normalisation pour faire en sorte que la proba-
1 Γ `+12
bilité totale soit égale à 1. Elle vaut C` = √ où Γ désigne la fonction
π` Γ 2`
Gamma d’Euler.
On écrit X ∼ T` .
Pour tout entier `, la variable T est centrée : E(X) = 0 .
−X ∼ T`
5
0.4
0.3
0.2
0.1
0.0
−3 −2 −1 0 1 2 3
Loi du χ2
Définition 1.7. Étant donné un entier ` > 1, une variable aléatoire aléatoire
X est dite distribuée selon une loi du χ2 ( khi-deux) à ` degrés de liberté si sa
densité de probabilité est
`
x
fX (x) = C` x 2 −1 exp −
2
Ici C` est une constante de normalisation pour faire en sorte que la prob-
1
abilité totale soit égale à 1. Elle vaut C` = ` où Γ désigne la fonction
2 2 Γ 2`
Gamma d’Euler.
On écrit X ∼ χ2 (`).
L’espérance de X est E(X) = ` et la variance Var(X) = 2`.
Théorème 1.8. 1. si X suit une loi normale N (0, 1) alors X 2 suit une loi
2
du χ à 1 degré de liberté :
X 2 ∼ χ2 (1)
6
0.20
0.15
0.10
0.05
0.00
0 5 10 15 20 25 30
2
Figure 6: Plusieurs lois du χ
2 Vocabulaire de la statistique
Vocabulaire
Population
Ensemble d’objets de même nature.
Individu
Élément de cette population.
Effectif total
Nombre d’individus de la population.
Variable
Caractéristique étudiée sur la population.
Exemples
Population : Étudiants de l’université de Paris Ouest.
Individu : Un étudiant de l’université de Paris Ouest.
Variables :
• Série du baccalauréat
• Âge
• Nombre de frères et soeurs
• Durée du trajet domicile-université
7
Types de variables
On distingue les variables selon qu’elles prennent des valeurs numériques ou
non. On dit qu’une variable est
• qualitative si on ne peut pas la représenter par une mesure numérique.
• quantitative si on peut la mesurer et la représenter numériquement.
• Remarque
Les valeurs d’une variable sont aussi appelées ses “modalités”
Exemples
• Exemple
8
Modélisation probabiliste
La variable considérée dans l’exemple précédent est une variable qualitative
à deux modalités.
Modélisation probabiliste
On associe à chacune des modalités de la variable précédente une des deux
valeurs numériques {0, 1} :
• 1 = jugement «Très ou plutôt favorable»,
• 0 = jugement «Très ou plutôt défavorable»
La réponse d’un individu choisi au hasard est vue comme la valeur d’une
variable aléatoire de Bernoulli X de paramètre p : autrement dit, on a P (X =
1) = p et P (X = 0) = 1 − p. On a alors E(X) = p et Var(X) = p(1 − p).
• Exemple
Tirage au sort avec remise de 1000 électeurs français = 1000 tirages au hasard
d’un électeur dans l’ensemble des électeurs français.
Modélisation probabiliste
Rappel (vu en probabilités)
On appelle échantillon d’une loi X toute suite de variables aléatoires X1 , . . . ,
Xn telles que :
• La distribution de chacune des variables Xi est identique à celle de X. On
dit que les variables X1 , . . . , Xn sont identiquement distribuées.
• Exemple
Dans l’exemple précédent, on suppose que les réponses successives d’individus
choisis au hasard avec remise est la suite des valeurs d’un échantillon X1 , . . . ,
Xn d’une variable de Bernoulli de paramètre p.
9
Inférence statistique
Objectif de l’inférence statistique
Induire la valeur d’une caractéristique inconnue d’une population (proportion
d’une catégorie, moyenne, variance, etc) à partir d’un échantillon issu de la
population.
• Exemple
À partir des réponses collectées sur l’échantillon des 1000 électeurs, que
peut-on induire sur la valeur de p ?
• Remarque
En inférence statistique, «induire»= «probabilité que ...».
Les conclusions seront donc exprimées par des probabilités !
10