Vous êtes sur la page 1sur 10

UNIVERSITÉ PARIS OUEST NANTERRE LA DÉFENSE

U.F.R. SEGMI Année universitaire 2019 – 2020


L2 Économie Cours de B. Desgraupes

Méthodes Statistiques

Séance 01: Généralités

Table des matières


1 Rappels de probabilités 1

2 Vocabulaire de la statistique 7

3 Inférence statistique, modélisation probabiliste 8

1 Rappels de probabilités
Fonction de répartition / densité de probabilité
Définition 1.1. La fonction de répartition FX d’une variable aléatoire réelle
continue X est la fonction de R dans [0, 1] définie par :
FX (t) = P (X ≤ t)
Définition 1.2. Une densité de probabilité fX d’une variable aléatoire réelle
continue X est une fonction de R dans R définie par :
0
fX (t) = FX (t)
La figure 1 illustre graphiquement la relation entre densité de probabilité et
fonction de répartition.

Fonction quantile
Définition 1.3. Étant donné une variable aléatoire réelle X de fonction de
répartition FX , on appelle fonction quantile de X, que l’on notera QX , la
fonction définie sur ]0, 1[ par la relation :
QX (β) = t ⇐⇒ FX (t) = β
La fonction quantile est donc réciproque de la fonction de répartition.

Fonction quantile
La figure 2 illustre graphiquement la relation entre fonction de répartition
et fonction quantile.

1
Densité de X

FX(t)

Figure 1: Relation densité / fonction de répartition

Densité de X

FX(t) = β

QX(β) = t

Figure 2: Relation fonction de répartition / fonction quantile

2
Version centrée réduite
Définition 1.4. Étant donnée une variable aléatoire réelle X d’espérance E(X) =
µ et de variance Var(X) = σ 2 . On appelle la variable aléatoire réelle Z définie
par
X −µ
Z=
σ
p
la version centrée réduite de X où σ = Var(X) est l’écart-type.

Une propriété importante


Les fonctions de répartition et les fonctions quantile d’une variable aléatoire
réelle et de sa version centrée réduite sont liées par les relations suivantes.
Théorème 1.1. Étant donnée une variable aléatoire réelle X d’espérance µ et
de variance σ 2 . Alors
 
t−µ
FX (t) = FZ et QX (β) = σQZ (β) + µ
σ
X −µ
avec Z=
σ

Loi normale
Définition 1.5. Une variable X d’espérance µ et de variance σ 2 est dite dis-
tribuée selon la loi normale si sa densité de probabilité est :

(x − µ)2
 
1
fX (x) = √ exp −
2π σ 2σ 2
On écrit alors
X ∼ N (µ, σ 2 )
que l’on lit «X suit une loi normale de moyenne µ et de variance σ 2 ».

E(X) = µ Var(X) = σ 2

• Exemple : µ = 0, σ 2 = 1
 2
1 x
fX (x) = √ exp −
2π 2
On dit que X est distribuée selon une loi normale «centrée réduite».
Théorème 1.2. Étant donnée une variable aléatoire réelle X distribuée selon
une loi normale d’espérance µ et de variance σ 2 , alors la version centrée réduite
de X suit une loi normale d’espérance 0 et de variance 1 :
X −µ
X ∼ N (µ, σ 2 ) ⇐⇒ Z= ∼ N (0, 1)
σ

3
0.4
0.3
0.2
0.1
0.0

−3 −2 −1 0 1 2 3

Figure 3: Loi normale de paramètres 0 et 1 : N (0, 1)


0.8
0.6

N(0, 1.5)
0.4

N(1, 1)
0.2

N(0, 0.5)
0.0

−3 −2 −1 0 1 2 3

Figure 4: Plusieurs lois normales

4
Théorème 1.3 (Symétrie de la loi normale).

X ∼ N (µ, σ 2 ) 2µ − X ∼ N (µ, σ 2 )

On déduit de cette propriété fondamentale les deux résultats suivants :

Théorème 1.4.
P (X ≤ t) = P (X ≥ 2µ − t)
Théorème 1.5.
QX (β) = 2µ − QX (1 − β)
Un cas particulier : µ = 0, σ 2 = 1

X ∼ N (0, 1) =⇒ −X ∼ N (0, 1)

P (X ≤ t) = P (X ≥ −t)

QX (β) = −QX (1 − β)

Loi de student
Définition 1.6. Étant donné un entier ` > 1, une variable aléatoire aléatoire
X est dite distribuée selon une loi de Student à ` degrés de liberté si sa densité
de probabilité est
− `+1
x2
 2

fX (x) = C` 1 + 2
`
Ici C` est une constante de normalisation pour faire en sorte que la proba-
1 Γ `+12
bilité totale soit égale à 1. Elle vaut C` = √  où Γ désigne la fonction
π` Γ 2`
Gamma d’Euler.
On écrit X ∼ T` .
Pour tout entier `, la variable T est centrée : E(X) = 0 .

Théorème 1.6 (Symétrie de la loi de Student). Soit X une variable aléatoire


réelle continue distribuée selon une loi de Student à ` degrés de liberté. Alors

−X ∼ T`

À l’instar de la loi normale centrée réduite, on a donc

Théorème 1.7. Pour tout β ∈]0, 1[,

QX (β) = −QX (1 − β).

5
0.4
0.3
0.2
0.1
0.0

−3 −2 −1 0 1 2 3

Figure 5: Plusieurs lois de student (en pointillés, loi N (0, 1))

Loi du χ2

Définition 1.7. Étant donné un entier ` > 1, une variable aléatoire aléatoire
X est dite distribuée selon une loi du χ2 ( khi-deux) à ` degrés de liberté si sa
densité de probabilité est
`
 x
fX (x) = C` x 2 −1 exp −
2
Ici C` est une constante de normalisation pour faire en sorte que la prob-
1
abilité totale soit égale à 1. Elle vaut C` = `  où Γ désigne la fonction
2 2 Γ 2`
Gamma d’Euler.
On écrit X ∼ χ2 (`).
L’espérance de X est E(X) = ` et la variance Var(X) = 2`.

Théorème 1.8. 1. si X suit une loi normale N (0, 1) alors X 2 suit une loi
2
du χ à 1 degré de liberté :

X 2 ∼ χ2 (1)

2. si X1 , X2 ,. . . , Xn sont des variables aléatoires indépendantes distribuées


selon la loi normale N (0, 1) alors la somme des carrés suit une loi du χ2
à n degrés de liberté :

X12 + X22 + · · · + Xn2 ∼ χ2 (n)

6
0.20
0.15
0.10
0.05
0.00

0 5 10 15 20 25 30

2
Figure 6: Plusieurs lois du χ

2 Vocabulaire de la statistique
Vocabulaire
Population
Ensemble d’objets de même nature.

Individu
Élément de cette population.

Effectif total
Nombre d’individus de la population.

Variable
Caractéristique étudiée sur la population.

Exemples
Population : Étudiants de l’université de Paris Ouest.
Individu : Un étudiant de l’université de Paris Ouest.
Variables :

• Série du baccalauréat
• Âge
• Nombre de frères et soeurs
• Durée du trajet domicile-université

7
Types de variables
On distingue les variables selon qu’elles prennent des valeurs numériques ou
non. On dit qu’une variable est
• qualitative si on ne peut pas la représenter par une mesure numérique.
• quantitative si on peut la mesurer et la représenter numériquement.

• Remarque
Les valeurs d’une variable sont aussi appelées ses “modalités”

Exemples
• Exemple

• Réponse à la question «Avez-vous une activité sportive ?»: «Pas du tout»,


«Un peu», «Beaucoup». Variable qualitative.
• Série du baccalauréat : L, ES, S, etc. Variable qualitative.
• Mention au baccalauréat : TB, B, AB, etc. Variable qualitative ordinale.
• Nombre de frères et soeurs. Variable quantitative.
• Durée du trajet domicile-université. Variable quantitative.
• Âge. Variable quantitative.

3 Inférence statistique, modélisation probabiliste


Sondage d’opinion : un exemple
Un ministre français souhaiterait connaître sa cote de popularité. Pour
répondre à sa demande, on sélectionne au hasard 1000 électeurs auxquels on
pose la question
«Quel jugement portez-vous sur l’action de Monsieur ... en tant que
ministre ? »
en demandant à chaque personne interrogée de répondre «Très ou plutôt favor-
able» ou «très ou plutôt défavorable».

Population / Variable / Objectif


• Population : électeurs français.
• Effectif total : ??
• Objectif : évaluer p = proportion d’électeurs ayant un jugement «Très ou
plutôt favorable»!

8
Modélisation probabiliste
La variable considérée dans l’exemple précédent est une variable qualitative
à deux modalités.

Modélisation probabiliste
On associe à chacune des modalités de la variable précédente une des deux
valeurs numériques {0, 1} :
• 1 = jugement «Très ou plutôt favorable»,
• 0 = jugement «Très ou plutôt défavorable»

La réponse d’un individu choisi au hasard est vue comme la valeur d’une
variable aléatoire de Bernoulli X de paramètre p : autrement dit, on a P (X =
1) = p et P (X = 0) = 1 − p. On a alors E(X) = p et Var(X) = p(1 − p).

Tirage au hasard sans remise

Définition 3.1. On appelle tirage au hasard avec remise de n individus


dans un population l’opération consistant à choisir au hasard n individus de la
population en considérant à chaque tirage l’ensemble des individus de la popu-
lation (un individu peut être choisi au hasard plusieurs fois).

• Exemple
Tirage au sort avec remise de 1000 électeurs français = 1000 tirages au hasard
d’un électeur dans l’ensemble des électeurs français.

Modélisation probabiliste
Rappel (vu en probabilités)
On appelle échantillon d’une loi X toute suite de variables aléatoires X1 , . . . ,
Xn telles que :
• La distribution de chacune des variables Xi est identique à celle de X. On
dit que les variables X1 , . . . , Xn sont identiquement distribuées.

• Les variables X1 , . . . , Xn sont mutuellement indépendantes.

• Exemple
Dans l’exemple précédent, on suppose que les réponses successives d’individus
choisis au hasard avec remise est la suite des valeurs d’un échantillon X1 , . . . ,
Xn d’une variable de Bernoulli de paramètre p.

9
Inférence statistique
Objectif de l’inférence statistique
Induire la valeur d’une caractéristique inconnue d’une population (proportion
d’une catégorie, moyenne, variance, etc) à partir d’un échantillon issu de la
population.

• Exemple
À partir des réponses collectées sur l’échantillon des 1000 électeurs, que
peut-on induire sur la valeur de p ?
• Remarque
En inférence statistique, «induire»= «probabilité que ...».
Les conclusions seront donc exprimées par des probabilités !

10

Vous aimerez peut-être aussi