Vous êtes sur la page 1sur 53

COURS DE PROBABILITE

2ième année d’économie et de gestion,


semestre 2

Laurence GRAMMONT
Laurence.Grammont@univ-st-etienne.fr

April 2, 2004
2
Contents

1 Lois discrètes usuelles 5


1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Schéma de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Schéma Binomial . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Schéma hypergéométrique . . . . . . . . . . . . . . . . . . . . 10
1.5 Loi géométrique et loi de Pascal . . . . . . . . . . . . . . . . . 12
1.6 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2 Couple de variables aléatoires discrètes 19


2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.1 Loi de probabilité conjointe
Lois de probabilité marginales . . . . . . . . . . . . . . 20
2.2 Fonction de répartition d’un couple
Fonctions de répartition marginales . . . . . . . . . . . . . . . 21
2.3 Loi de probabilité conditionnelle
Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . 22
2.3.1 Corrélation linéaire . . . . . . . . . . . . . . . . . . . . 23
2.4 Indépendance stochastique . . . . . . . . . . . . . . . . . . . . 23
2.5 Equation d’analyse de la variance . . . . . . . . . . . . . . . . 25
2.6 Fonction de 2 variables aléatoires discrètes . . . . . . . . . . . 26
2.6.1 Espérance-Variance . . . . . . . . . . . . . . . . . . . . 26
2.6.2 Calcul de la covariance . . . . . . . . . . . . . . . . . . 26

3 Couple de variables aléatoires


continues 29
3.1 Fonction de répartition du couple (X, Y )
Fonction de répartition marginale . . . . . . . . . . . . . . . . 29

3
4 CONTENTS

3.2 Fonction densité conjointe


Fonctions densité marginales . . . . . . . . . . . . . . . . . . . 30
3.3 Variables conditionnelles . . . . . . . . . . . . . . . . . . . . . 34
3.3.1 Indépendance en probabilité
covariance-coéfficient de corrélation . . . . . . . . . . . 36
3.3.2 Fonction de 2 variables aléatoires . . . . . . . . . . . . 38

4 Loi Normale ou loi de Laplace - Gauss - Généralités 39


4.1 Définition mathématique . . . . . . . . . . . . . . . . . . . . . 39
4.2 Calculs de probabilité . . . . . . . . . . . . . . . . . . . . . . . 41
4.2.1 Calculs à partir de N (0, 1) : U . . . . . . . . . . . . . . 41
4.2.2 Loi Normale qq N (µ, σ) . . . . . . . . . . . . . . . . . 43

5 Condition d’application de la loi normale 47


5.1 Convergence des variables aléatoires . . . . . . . . . . . . . . . 47
5.1.1 Convergence en loi . . . . . . . . . . . . . . . . . . . . 47
5.1.2 Convergence en probabilité . . . . . . . . . . . . . . . . 48
5.2 Loi faible des grands nombres . . . . . . . . . . . . . . . . . . 49
5.3 Théorème central-limit . . . . . . . . . . . . . . . . . . . . . . 50
5.4 Approximation d’une loi B(n, p) . . . . . . . . . . . . . . . . . 50
5.5 Approximation d’une loi de Poisson . . . . . . . . . . . . . . . 52
5.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
Chapter 1

Lois discrètes usuelles

1.1 Introduction
On a un phénomène aléatoire que l’on veut comprendre. Ce phénomène
aléatoire est a priori complexe et on ne peut calculer directement les proba-
bilités de ses éventualités.
ex : comprendre la dépense annuelle des ménages français pour les loisirs.
Par exemple, calculer la probabilité qu’ils dépensent 5 000 F par an. On
dispose
d’une population pour laquelle le modèle est destiné,
d’un individu et
d’un caractère étudié (représenté par une variable aléatoire X).

Que fait-on ?

1 - Pour avoir une première idée du phénomène représenté par une vari-
able aléatoire X, on peut faire plusieurs observations de X.

ex : X = dépense annuelle pour les loisirs d’un ménage (variable aléatoire


attachée à un individu). On demande à un certain nombre de ménages ses
dépenses annuelles en loisirs. On a donc la valeur de Xi . Xi étant la dépense
annuelle pour le ménage i.

Cette suite d’observation débouche sur la définition d’une variable statistique

5
6 CHAPTER 1. LOIS DISCRÈTES USUELLES

x souvent décrite de la manière suivante :

valeurs de x fréquences
xi ni
On étudie cette variable statistique à l’aide des techniques des statistiques
descriptives (1ere année)

2 - Il y a quelques lois de probabilité ou lois théoriques qui décrivent as-


sez bien un grand nombre de phénomènes aléatoires. On veut représenter le
phénomène aléatoire par une loi de probabilité théorique. Cette modélisation
est évidemment plus riche que la représentation par une variable statistique
: ici on peut calculer la probabilité de tout événementassocié au phénomène
aléatoire. Dans ce chapitre, nous allons fournir un catalogue de lois de prob-
abilité discrètes (description, étude) souvent utiles en pratique.
Le statisticien plus chevroné construira ses propres modèles théoriques.

3 - Après le choix d’un modèle théorique se pose la question suivante : peut-on


quantifier l’approximation du phénomène aléatoire par le modèle théorique.

1.2 Schéma de Bernoulli


Toute épreuve n’ayant que 2 résultats possibles peut-être considérée comme
une situation d’alternative.
En d’autres termes, les 2 résultats possibles sont complémentaires l’un de
l’autre.

Il s’agit d’une situation fréquente dans la pratique dès que l’on cherche à
mettre en évidence un caractère particulier au sein d’une population :
tout individu de cette population peut être décrit selon une alternative : soit
il présente ce caractère, soit il ne le présente pas.

Exemple : Etude de l’impact d’une campagne publicitaire pour un nouveau


produit.
Q1 : Est-ce que l’individu possédait ce produit auparavant ?
Q2 : L’individu a-t-il été touché par la campagne ?
Q3 : La campagne a-t-elle induit l’achat ?
1.3. SCHÉMA BINOMIAL 7

Souvent les résultats possibles sont des objets qualitatifs. Pour les quan-
tifier, il faut leur trouver un codage.
On définit ainsi une v.a. X dites de Bernoulli (savant suisse 1654-1705) par
0 1
1−p p
Définition
On réalise une expérience aléatoire qui a 2 résultats possibles : le succès S, de probabilité. p,
et l’Echec
 E de probabilité 1 − p. La v.a
1 si succès est une v.a. de Bernoulli
X:
0 si échec

Mode
p>q M ode = 1
p<q M ode = 0

Médiane
p > q ⇒ q < 1/2 Me = 1
p < q ⇒ q > 1/2 Me = 0

Propriété
E(X) = p
V (X) = p(1 − p)
Remarque :
La v.a. de Bernoulli est une v.a. indicatrice : elle indique la réalisation
éventuelle de l’événementde probabilité p. Le shéma de Bernoulli est le plus
simple des modèles probabilistes.

1.3 Schéma Binomial


C’est une succession d’épreuves de Bernoulli (n) indépendantes.

Définition :
8 CHAPTER 1. LOIS DISCRÈTES USUELLES

On réalise n fois successivement et d’une manière indépendante une expérience aléatoire


qui a 2 résultats possibles, S (succès) de probabilité p et E (échec) de probabilité 1 − p
X = nombre de succès obtenus est une v.a. binomiale de paramètre n et p.

Notation B(n, p).


Remarque :
On peut également la définir comme une somme de v.a. de Bernoulli.
A chaque épreuve i, on associe la v.a. de Bernoulli Xi
n
X
X= Xi .
i=1

Loi de probabilité X ∼ B(n, p)


X(Ω) = {0, . . . , n}
P (X = k) = Cnk pk (1 − p)n−k ∀k ∈ X(Ω)
n : nb d’épreuves,
k : nb de S (succès),
p : probabilité du succès.

Propriétés

E(X) = np

V (X) = np(1 − p)

Propriété

SiX1 ∼ B(n1 , p) et X2 ∼ B(n2 , p)


avecX1 , X2 indépendantes, alors
X1 + X2 ∼ B(n1 + n2 , p)
Preuve : somme de v.a Benouilli.

Il y a des tables pour éviter de calculer les probabilités d’ événements liés à


la loi binomiale. On peut également, dans certains cas, approximer B(n, p)
par une autre loi.

Exercice :
Une machine à embouteiller peut tomber en panne. La probabilité d’une
panne à chaque emploi est de 0,01. La machine doit être utilisée 100 fois.
1.3. SCHÉMA BINOMIAL 9

Soit X= nb de pannes obtenues après 100 utilisations.


1) Quelle est la loi de X ?
Calculer P (X = 0) ; P (X = 1) ; P (X ≥ 4).
2) On estime le coût d’une réparation à 500 F.
Y : dépense pour les réparations après 100 utilisations.
Exprimer Y en fonction de X et calculer E(Y ) V (Y ).

Solution :
0
1) X ∼ B(100, 0, 01) ; P (X = 0) = C100 (0, 01)0 0, 99100 = 0, 366
1
P (X = 1) = C100 0, 01 0, 9999 = 100 × 0, 01 × 0, 9999 = 0, 377
P (X ≥ 4) = 1 − (. . .) = 0, 061
2) Y = 500X
E(Y ) = 500 E(X) = 500 × 100 × 0, 01 = 500
V (Y ) = 5002 V (X) = 5002 0, 99 = 247500
Exercice :
Dans une pépinière 95% des scions (jeunes arbres greffés) sont supposés sans
virus. Par commodité les scions sont rangés par paquets de 2. Un paquet est
dit sain si les 2 scions le sont.
1) Proba d’avoir un paquet sain ?
2) X = nb de paquets sains sur un lot de 10
Quelle est la loi de X ?
3) Un lot de 10 est accepté par l’acheteur si 9 au moins des paquets sont
sains. Proba qu’un lot soit accepté ?

Solution :
1) p = 0, 95 × 0, 95 = 0, 9025
2) X ∼ B(10, p)
3) P (X ≥ 9) = P (X = 9) + P (X = 10)
= 0, 7361
Remarque
Le schéma binomial correspond au processus de tirage d’un échantillon aléatoire
avec remise :
N1 : nb d’individus ayant la propriété S
N2 : nb d’individus n’ayant pas la propriété S
N = N1 + N2 : nb total d’individus
On fait n tirages avec remise
Soit X = nb d’individus ayant la propriété S
10 CHAPTER 1. LOIS DISCRÈTES USUELLES

N1
X ∼ B(n, p) avec p =
N
Propriété
Calcul en chaine des probalités de la loi binomiale.
Si X ∼ B(n, p) alors

(n − k + 1)p
P (X = k) = P (X = k − 1)
k(1 − p)
P (X = k) n−k+1 p
Preuve : =
P (X = k − 1) k 1−p

1.4 Schéma hypergéométrique

Exemple : En pratique lorsque l’on tire un échantillon de taille n parmi une


population de taille N , le bon sens veut que l’on ne prenne pas 2 fois le
même individu. Cela signifie que le tirage se fait sans remise. Les v.a de
Bernoulli associées aux différents éléments de l’échantillon et indicatrices de
la présence ou absence d’un caractère donné, sont alors dépendantes. Le
schéma binomiale n’est plus adapté.

Le schéma hypergéométrique est une succession d’épreuves de Bernoulli non


indépendantes.

DéfinitionSi dans une population de taille N ,on a 2 types de populations


N1
N1 individus type 1 en proportion p = et
N

N2 individus type 2 : N2

On fait n tirages sans remise dans la population et la v.a


X = nb individus de type 1 dans l’échantillon
X obéit au schéma hypergéométrique H(N, n, p)
X
X= Xi , avec Xi des v.a de Bernoulli non indépendantes.
i

Loi de probabilité
1.4. SCHÉMA HYPERGÉOMÉTRIQUE 11

Si X ∼ H(N, n, p), alors 


n < N2
Les valeurs de X sont les entiers compris entre 0 et n si et
n < N1
CNk 1 × CNn−k
2
P (X = k) = (dénombrement classique)
CNn
Propriétés
E(X) = np
N −n
V (X) = np(1 − p)
N −1
Théorème :

Quand N → +∞ avec n, p fixes, alors


la loi hypergéométrique H(N, n, p) tend vers la loi binomiale B(n, p).
Que signifie une loi qui tend vers une autre loi ? (cf chap. condition
d’application)
n
Dans la pratique, on utilise l’approximation dès que < 0, 1
N
preuve :

(N p)!(N q)! n!(N − n)!


P (X = k) =
k!(N p − k)!(n − k)!(N q − n + k)! N!
(N p)k (N q)n−k n! n!
∼ ∼ pk q n−k = Cnk pk q n−k 
k!(n − k)!N n k!(n − k)!
Exemple 1
A un guichet SNCF se présentent 2 femmes et 3 hommes. On choisit au
hasard 2 personnes 6= pour une enquête.
Soit X = nb de femmes.
a) Probabilité de choisir une femme au moins.
b) Calculer E(X) et σ(X).

2
a) X ∼ H 5, 2,
5
C 1C 1 C 2C 0 7
P (X ≥ 1) = P (X = 1) + P (X = 2) = 2 2 3 + 2 2 3 = = 0, 7
C5 C5 10
3 4
b) E(X) = np = 2 × = = 0, 8
5 5
12 CHAPTER 1. LOIS DISCRÈTES USUELLES

N −n 2 3 3 9
V (X) = npq =2× × × = = 0, 36
N −1 5 5 4 25
σ(X) = 0, 6

Exemple 2
On choisit au hasard 10 étudiants de DEUG 6= pour un entretien : 304
étudiants sont inscrits en 1ère année, 233 en 2ème .
X = nb d’étudiants de 1ère année parmi les 10.
Calculer la probabilité d’avoir 5 étudiants de 1ère année et déterminer E(X)
et σ(X).
304
X ∼ H(537, 10, )
537
5 5
C C
P (X = 5) = 30410 233 ' 0, 227
C537
Mais on peut utiliser l’approximation    
n 10 304 304
Comme = < 0, 1, on peut approximer H 537, 10, par B 10,
N 537 537 537
 5  5
5 304 233
P (X = 5) = C10 ' 0, 225.
537 537
304
E(X) = np = 10 × = 5, 661
537
N −n 304 233 527
V (X) = npq = 10 × × × ' 2, 415
N −1 537 537 536
σ(X) = 1, 554

avec l’approximation σ(X) = npq = 1, 567.

1.5 Loi géométrique et loi de Pascal


On se place dans une optique différente.
A la base, il y a toujours l’épreuve de Bernoulli qui a 2 résultats possibles :
un événementde probabilité p et l’autre. Mais cette fois, on ne connait pas
le nombre d’épreuves.

Définition
X suit la loi géométrique de paramètre p, G(p), si elle est égale au nombre d’épreuves de
Bernoulli indépendantes qu’il faut réaliser pour obtenir pour la 1ère fois l’événementde
probabilité p.
1.5. LOI GÉOMÉTRIQUE ET LOI DE PASCAL 13

Loi de probabilité
X(Ω) = N∗ , (l’ensemble des valeurs est ∞ dénombrable)

P (X = k) = q k−1 p k ∈ N∗

fonction de répartition
n n−1
X
k−1
X 1 − qn
P (X ≤ n) = q p=p qk = p = 1 − qn
k=1 K=0
1 − q
FX (n) = 1 − q n

caractéristiques
1
E(X) =
p
1−p
V (X) =
p2

La loi de Pascal est la généralisation de la loi géométrique lorsque l’on


s’intéresse à l’obtention pour la k ième fois de l’événementde probabilité p
Définition
X suit la loi de Pascal G(k, p), si elle est égale au nombre d’épreuves de Bernoulli
indépendantes qu’il faut réaliser pour obtenir pour la k èm fois l’événementde
probabilité p.
Loi de probabilité
X(Ω) = {k, . . . , ∞}
k−1 k−1 j−k
P (X = j) = Cj−1 p q p j≥k

Caractéristiques

k
E(X) =
p
k(1 − p)
V (X) =
p2
Remarque : la ressemblance avec la loi binomiale n’est qu’apparente. La
grande différence est que le nombre de répétitions de l’épreuve élémentaire
de Bernoulli n’est pas connu, et c’est lui qui représente l’aléatoire du problème
14 CHAPTER 1. LOIS DISCRÈTES USUELLES

• Application
Ces 2 lois interviennent particulièrement en contrôle de qualité mais aussi
dans la surveillance des événements dont une certaine fréquence de survenue
est interprétée en terme de signal d’alarme.

• Remarque de modélisation
La probabilité de l’événement qui nous intéresse est toujours p, elle est
constante au cours du temps. Cette propriété de stationnarité n’est pas
systématique dans les situations réelles que l’on doit modéliser.

Exemple
Supposons que 5 % des pièces en sortie d’une chaine de production soient
défectueuses. On souhaite connaitre la probabilité qu’un échantillon de 20
pièces issu de cette chaine ne contienne aucune pièce défectueuse.
On peut traiter cet exemple en utilisant soit la loi Binomiale,

soit la loi géométrique.

- chaque pièce est indentifiée par un caractère à 2 modalités :


défectueuse
non défectueuse
La modélisation de base est donc le schéma de Bernoulli avec p = 0, 05. On
peut faire l’hypothèse de l’indépendance des épreuves de Bernoulli (grande
taille de la population). Soit la v.a X = nb de défectueux après la réalisation
de 20 épreuves de Bernoulli. On a
X ∼ B(20, 0, 05)
P (X = 0) = 0, 9520 = 0, 3585.

- On garde la modélisation des pièces par les aléas de Bernoulli. On fait


l’hypothèse d’indépendance (gd nb de pièces). Mais le nombre de pièces
n’est plus donné : c’est un aléa.
Soit la v.a Y = nombre de pièces observées jusqu’à l’obtention d’une pièce
défectueuse.
Y ∼ G(0, 05)
1.6. LOI DE POISSON 15


X 1 − 0, 95∞
P (Y ≥ 21) = 0, 95k−1 0, 05 = 0, 9520 × 0, 05
k=21
1 − 0, 95
0, 05
= 0, 9520 = 0, 3585
0, 05

1.6 Loi de Poisson


Siméon-Denis Poisson(1781-1840)est un probabiliste, mathématicien et physi-
cien français à qui l’on doit d’importants développements sur la loi des grands
nombres, les suites d’épreuves de Bernoulli mais aussi sur les applications des
probabilités dans le domaine du droit.

définition
X est une v.a. de Poisson de paramètre m si et seulement si
X(Ω) = N et
mk −m
P (X = k) = e
k!
Notation : P(m)
On est dans la situation X(Ω) infini dénombrable.
On peut maintenant poser la loi de Poisson comme modèle d’une épreuve
aléatoire :

Théorème d’approximation
Soit X ∼ B(n, p)
quand n → +∞ etp → 0 tq np → m,
L
alors X → P(m)
Modélisation
Lorsqu’un événement a une faible probabilité p d’apparition lors d’une épreuve
de Bernoulli et si l’on répète un grand nombre de fois cette épreuve (n) le
nombre total de réalisations de l’événement considéré suit à peu près une loi
de Poisson de paramètre m = np.

n > 50
Dans la pratique :
p < 0, 1
16 CHAPTER 1. LOIS DISCRÈTES USUELLES

Rmq : plus p est petit, meilleure est l’approximation. Pour cette raison
la loi de Poisson a été appelée loi des phénomènes rares.

Les processus de Poisson sont fréquents dans les problèmes de gestion :


- nb de pièces défectueuses dans un échantillon de grande taille prélevé dans
une production où la proportion des défectueuses est faible.
- nb de quadruplés, quintuplés par an dans un pays donné.
- nb d’appels intercontinentaux sur une ligne pendant une durée donnée.
- nb d’erreurs commises au cours d’une longue suite d’opérations (inventaire).
- pannes de machine.
- émission de particules radio-actives.

caractéristiques Si X ∼ P(m),

E(X) = m
alors
V (X) = m
X mk
Il faut savoir que = em
k≥0
k!
X mk −m X mk−1
E(X) = k e = e−m m =m
k≥0
k! k≥1
(k − 1)!
k
X m X mk X mk
V (X) = k2 e−m − m2 = k(k − 1) e−m + k e−m − m2
k≥0
k! K≥1
k! k≥1
k!
X mk−2 X mk−1
= m2 e−m + m e−m − m2
k≥2
(k − 2)! k≥1
(k − 1)!
=m
Propriété : somme de v.a de Poisson
Si X1 et X2 sont 2 variables de Poisson P(m1 ), P(m2 ) indépendantes alors
X1 + X2 ∼ P(m1 + m2 )
(ceci est vrai pour une somme finie quelconque de v.a de Poisson indépendantes)
Preuve :
1.6. LOI DE POISSON 17
" k
#
[
P (Y = k) = P (X1 + X2 = k) = P {X1 = i} ∩ {X2 = k − i}
i=0
k
X
= P (X1 = i).P (X2 = k − i)
i=0
K
X mi1 −m1 mk−i
= e 2
e−m2
i=0
i! (k − i)!
K
X e−(m1 +m2 )
= Cki mi1 mk−i
2
i=0
k!
(m1 + m2 )k −(m1 +m2 )
= e .
k!
Propriété
Si X ∼ P(m)
P (X = k) m
=
P (X = k − 1) k

Conséquence statistique
On peut envisager une loi de Poisson comme modèle représentatif de données statistiques
discrètes pour lesquelles la variable ne prend que des valeurs entières, posi-
tives ou nulles et pour lesquelles
- la moyenne ' la variance et
fk 1
- est proportionnel à fk étant les fréquences.
fk−1 k
Exemple 1

Lors d’un sondage portant sur un grand nombre de personnes, on sait que 2%
des personnes interrogées acceptent de ne pas rester anonymes. Sachant que
l’un des sondeurs a interrogé 250 personnes (en les choisissant de manière
indépendante), calculer la probabilité
a) que ces 250 personnes souhaitent rester anonymes
b) 3 personnes acceptent de ne pas rester anonymes
c) plus de 10 personnes acceptent de ne pas rester anonymes

X = nb de personnes ne souhaitant pas rester anonymes.


X ∼ B(250, 0, 02) h P(5).
0
P (X = 0) = e−5 50! = e−5 = 0, 0067,
18 CHAPTER 1. LOIS DISCRÈTES USUELLES

3
P (X = 3) = e−5 53! = 0, 14,
P (X ≥ 10) = 1 − P (X < 10) = 1 − P (X ≤ 9).

Exemple 2
Dans un hôpital parisien, il arrive en moyenne 1,25 personnes à la minute
aux urgences entre 9 h et 12 h.
X : nb de personnes observées à la minute à l’entrée de ce service.
On admet X ∼ P(m) avec m = 1, 25
Déterminer les probabilités suivantes
a) En 1mn il arrive 2 personnes b) 4 personnes au plus c) 3 personnes au
moins.

a) P (X = 2) = 0, 2238
b) P (X ≤ 4) = 0, 9909
c) P (X ≥ 3) = 1 − P (X ≤ 2)
= 1 − 0, 8685
= 0, 1315.
Chapter 2

Couple de variables aléatoires


discrètes

2.1 Généralités

On se consacre à l’étude simultanée de 2 variables aléatoires X, Y discrètes.


(X, Y ) est appelé couple aléatoire ou variable aléatoire à 2 dimensions ou
vecteur aléatoire de dimension 2.

Exemples :
Expérience aléatoire : choisir un individu dans une population P,
X : taille d’un individu, Y : poids d’un individu.

Expérience aléatoire : 2 jets successifs d’un dé,


X = nb de points du 1er jet,
Y = somme des points.

Soient X, Y deux v.a. discrètes. Dans la suite, on utilisera les notations


suivantes:
X(Ω) = {x1 , . . . , xn }
Y (Ω) = {y1 , . . . , yp }

19
20 CHAPTER 2. COUPLE DE VARIABLES ALÉATOIRES DISCRÈTES

2.1.1 Loi de probabilité conjointe


Lois de probabilité marginales
Définition
La loi de probabilité conjointe de X et Y ou loi du couple (X, Y ) est définie par
1) les valeurs de (X, Y ) {(xi , yi ) i ∈ {1, . . . , n} j ∈ {1, . . . , p}}
2) les probabilités correspondantes

pij = P ((X, Y ) = (xi , yi ))


= P (X = xi , Y = yj )
= P ((X = xi ) ∩ (Y = yj ))
Présentation : dans un tableau :

valeurs de Y y1 y2 ... yp
valeurs de X
x1 p11 p12 + + p1p
x2 p21 p22 p2p
..
.
xn pn1 pn2 pnp
Question 1 :
Si on a la loi de probabilité du couple (X, Y ), peut-on en déduire la loi de
probabilité de X et la loi de probabilité de Y ?

réponse : oui mais l’inverse n’est pas vrai.

Définition
Si on donne la loi du couple (X, Y ), la loi de probabilité de X et celle de Y sont appelées
lois de probabilité marginales.
Propriété
p
X
pour X : P (X = xi ) = pij (somme d’une ligne du tableau)
j=1
n
X
pour Y : P (Y = yj ) = pij (somme d’une colonne)
i=1
preuve : TVA
2.2. FONCTION DE RÉPARTITION D’UN COUPLEFONCTIONS DE RÉPARTITION MARGIN

Notations
p
X
pi• = P (X = xi ) = pij
j=1
n
X
p•j = P (Y = yj ) = pij
i=1

Propriété
p
n X
X
pij = 1
i=1 j=1

2.2 Fonction de répartition d’un couple


Fonctions de répartition marginales

Définition
La fonction de répartition du couple (X, Y ) est définie par
FX,Y (x, y) = P [(X ≤ x) ∩ (Y ≤ y)]
Propriété
X X
F(X,Y ) (x, y) = pij
i tq j tq
xi ≤x yj ≤y

Question 2 : Si on a F(X,Y ) (x, y) peut-on en déduire FX (x) et FY (y) les


fonctions de répartition marginales.

réponse : oui

FX (x) = lim F(X,Y ) (x, y)


y→+∞
FY (y) = lim F(X,Y ) (x, y)
x→+∞
22 CHAPTER 2. COUPLE DE VARIABLES ALÉATOIRES DISCRÈTES

2.3 Loi de probabilité conditionnelle


Espérance conditionnelle

Définition
On appelle variable aléatoire conditionnelle X sachant Y = yj , notée X|Y = yj
la v.a. discrète de valeurs {xi , i = 1, . . . , n}
et dont les probabilités sont

pij
P (X = xi |Y = yj ) =
p•j
Propriétés
n
X
P (X = xi |Y = yj ) = 1 ∀yj
i=1
p
X
P (Y = yj |X = xi ) = 1 ∀xi
j=1

Définition
On appelle espérance conditionnelle de X sachant Y = yj la quantité
n
X
E(X|Y = yj ) = xi P (X = xi |Y = yj ).
i=1

Théorème de l’espérance conditionnelle


p
X
E(X) = E(X|Y = yj )P (Y = yj )
j=1
p p n n P
X X X pij X X
preuve : E(X|Y = yj ) P (Y = yj ) = xi × p•j = xi pij
j=1 j=1 i=1
p•j i=1 j=1
Xn
= pi• xi = E(X)
i=1
2.4. INDÉPENDANCE STOCHASTIQUE 23

2.3.1 Corrélation linéaire


Définition
On appelle covariance du couple (X, Y ) la quantité
cov(X, Y ) = E(XY ) − E(X)E(Y )

On appelle corrélation linéaire entre X et Y


cov(X, Y )
ρ(X, Y ) = p
V (X)V (Y )
Propriétés
−1 ≤ ρ(X, Y ) ≤ 1 (1)
V (X + Y ) = V (X) + V (Y ) + 2cov(X, Y ) (2)
cov(a X, Y ) = a cov(X, Y ) (3)

2.4 Indépendance stochastique


Définition
2 v.a.d. X et Y sont indépendantes en probabilité (ou stochastiquement) si l’une de ces
propriétés équivalentes est vérifiée (si elle a un sens) :

∀i ∈ {1, . . . , n}
(i) P (X = xi |Y = yi ) = P (X = xi ).
∀j ∈ {1, . . . , p}

(ii) ∀i, ∀j P (Y = yj |X = xi ) = P (Y = yj ).

(iii) ∀i, ∀j P (X = xi ∩ Y = yj ) = P (X = xi ) × P (Y = yj ).

Propriétés
(1) Si X et Y sont indépendantes en probabilité alors ρ(X, Y ) = 0
(2) Si ρ(X, Y ) 6= 0 alors X et Y ne sont pas indépendantes en probabilité
(3) Si ρ(X, Y ) = 0 alors X et Y ne sont pas forcément indépendantes en probabilité.
Exemple
Une urne contient b boules blanches (B) et r boules rouges (R).
On tire une boule au hasard
B→0
Soit X :
R→1
Si la boule tirée est B on la remet accompagnée de n autres boules blanches.
24 CHAPTER 2. COUPLE DE VARIABLES ALÉATOIRES DISCRÈTES

Si elle est R, on la remet avec n autres rouges.


On tire alors une boule.
B→0
Soit Y :
R→1
a) Donner la loi de probabilité de (X, Y ).
b) Lois marginales.
c) indépendance stochastique ?

solution
X prend les valeurs 0 et 1 et
Y prend les valeurs 0 et 1. On a

P (X = 0 ; Y = 0) = P (X = 0 ∩ Y = 0)
= P (Y = 0|X = 0) × P (X = 0)

la v.a. Y est conditionnée à la valeur de X
b
P (X = 0) = P (B) =
b+r
P (Y = 0|X = 0) = proba de tirer une blanche sachant qu’on a tiré une B au 1er tirage
= proba de tirer une blanche dans une urne qui comprend r rouges et
b + n blanches
b+n
= .
b+r+n
b b+n
⇒ P (X = 0, Y = 0) =
b+r b+r+n
P (X = 1 ∩ Y = 1) = P (Y = 1|X = 1) × P (X = 1)
r+n r .
=
b+r+n b+r
X\Y 0 1 Loi de X
b(b + n) rb b
0
(b + r)(b + r + n) (b + r)(b + r + n) b+r
br (r + n)r r
1
(b + r)(b + r + n) (b + r)(b + r + n) b+r
b r
Loi de Y 1
b+r b+r
Si X et Y étaient indépendantes on aurait par exemple
2.5. EQUATION D’ANALYSE DE LA VARIANCE 25

 
b b b(b + n) b b+n
× = ⇔ =
b+n b+r b + r(b + n + r) b+r b+n+r
⇔ b(b + n + r) = (b + n)(b + r)
⇔ b2 + bn + br = b2 + nb + nr + br
⇔ nr = 0 (impossible)

2.5 Equation d’analyse de la variance

Définition
On appelle variance conditionnelle de X|Y = yj la variance de la variable aléatoire
conditionnelle X sachant Y = yj soit :
Xn
V (X|Y = yj ) = x2i P (X = xi |Y = yj ) − E 2 (X|Y = yj )
i=1

Propriété
Equation d’analyse de la variance.
V (X) = Vinter (X) + Vintra (X)
où
p
X
Vinter (X) = E(X|Y = yj )2 P (Y = yj ) − E(X)2
j=1
p
X
Vintra (X) = V (X|Y = yj )P (Y = yj )
j=1

Preuve :
26 CHAPTER 2. COUPLE DE VARIABLES ALÉATOIRES DISCRÈTES

n p
X X
V (X) = x2i P (X = xi ) − E 2 (X) or P (X = xi ) = P (X = xi ∩ Y = yj )
i=1 j=1
p
n
!
X X
= x2i P (X = xi |Y = yj )P (Y = yj ) − E 2 (X)
i=1 j=1
p n
!
X X
= x2i P (X = xi |Y = yj ) P (Y = yj ) − E 2 (X)
j=1 i=1
p
X
V (X|Y = yj ) + E 2 (X|Y = yj ) P (Y = yj ) − E 2 (X)

=
j=1
p p
X X
= V (X|Y = yj )P (Y = yj ) + E 2 (X|Y = yj )P (Y = yj ) − E 2 (X)
j=1 j=1
| {z } | {z }
Vintra (X) Vinter (X)

2.6 Fonction de 2 variables aléatoires discrètes


2.6.1 Espérance-Variance
Soit Z = ϕ(X, Y ) avec ϕ : R2 → R, une v.a
de valeurs zij = ϕ(xi , yj )
P (Z = zij ) = P (ϕ(X, Y ) = ϕ(xi , yj )).
On peut calculer E(Z) et V (Z) sans avoir à calculer la loi de Z :

Propriété
X
E(Z) = pij ϕ(xi , yi )
Xi,j
V (Z) = pij ϕ2 (xi , yi ) − E(Z)2
i,j

2.6.2 Calcul de la covariance


XE(XY ) − E(X)E(Y ),
cov(X, Y ) =
E(XY ) = xi yi pij . Propriété
i,j
2.6. FONCTION DE 2 VARIABLES ALÉATOIRES DISCRÈTES 27

n
X
E(XY ) = xi E(Y |X = xi )P (X = xi )
i=1
Xn
= yj E(X|Y = yj )P (Y = yj )
j=1

Preuve :
Xn X X
xi E(Y |X = xi )P (X = xi ) = xi yj P (Y = yj |X = xi )P (X = xi )
i=1 Xi j
= xi yj P (Y = yj ∩ X = xi )
i,j
X
= xi yj pij .
i,j
28 CHAPTER 2. COUPLE DE VARIABLES ALÉATOIRES DISCRÈTES
Chapter 3

Couple de variables aléatoires


continues

Soient (X, Y ) deux variables aléatoires continues.


exemple : Pour décrire la position d’un point aléatoire M dans un repère
cartésien, on utilise le couple de variables aléatoires (X, Y ) où X désigne
l’abscisse et Y l’ordonnée.

Remarque : si on est dans l’espace, on repère un point à l’aide d’un triplet de


variables aléatoires (X, Y, Z). On peut ainsi généraliser à un vecteur aléatoire
à n composantes : par exemple un circuit électrique composé de n com-
posantes en série. Si Xi : durée de vie de la composante i alors la durée de
vie du circuit se décrit à l’aide du vecteur aléatoire (X1 , . . . , Xn ).

3.1 Fonction de répartition du couple (X, Y )


Fonction de répartition marginale

Définition
La fonction de répartition du couple (X, Y ) (ou fonction de répartition conjointe)
est une fonction de R2 dans [0, 1] définie par FX,Y (x, y) = P (X ≤ x ∩ Y ≤ y)
Propriétés

29
30CHAPTER 3. COUPLE DE VARIABLES ALÉATOIRESCONTINUES

lim FX,Y (x, y) = 1


x→+∞
y→+∞
lim FX,Y (x, y) = 0
y→−∞
lim FX,Y (x, y) = 0
x→−∞

Propriétés
Si FX est la fonction de répartition de X et

FX (x) = lim FX,Y (x, y)


y→+∞
FY la fonction de répartition de Y ,
FY (y) = lim FX,Y (x, y)
x→+∞

Dans le cas d’une variable continue, on pouvait calculer la probabilité des


événements {a < X ≤ b} avec la fonction de répartition : P (a < X ≤ b) =
F (b) − F (a).
Est-ce le cas ici ?

Question : que vaut P [a < X ≤ b, c < Y ≤ d] ?

FX,Y (b, d) = P [] − ∞, b]∩] − ∞, d]] = P ((] − ∞, a]∪]a, b]∩] − ∞, d]))


= P (] − ∞, a]∩] − ∞, d]) + P (]a, b]∩] − ∞, d])
= F (a, d) + P (]a, b]∩] − ∞, c]) + P (]a, b]∩]c, d])
or F (b, c) = P (] − ∞, b]∩] − ∞, c]) = P (] − ∞, a]∩] − ∞, c]) + P (]a, b]∩] −
∞, c])
d’où P (]a, b]∩] − ∞, c]) = F (b, c) − F (a, c)

Ainsi P (a < X ≤ b, c ≤ Y ≤ d) = F (b, d) − F (b, c) + F (a, c) − F (a, d).

Mais c’est une formule difficile à retrouver.


C’est pourquoi on préfèrera passer par la fonction densité conjointe pour
calculer les probabilités.

3.2 Fonction densité conjointe


Fonctions densité marginales
Définition
3.2. FONCTION DENSITÉ CONJOINTEFONCTIONS DENSITÉ MARGINALES31

fonction densité du couple (X, Y ) est définie , si elle existe, par pour presque tout x ety,
d2 FX,Y (x, y)
fX,Y (x, y) = .
dx dy
On peut également donner la fonction de répartition conjointe en fonction
de la fonction densité:
Z x Z y
FX,Y (x, y) = fX,Y (u, v)du dv ∀(x, y) ∈ R2 .
−∞ −∞

On a alors
Z bZ d
P (a < X ≤ b ∩ c ≤ Y ≤ d) = fX,Y (x, y)dx dy
a c

que l’on peut également écrire


Z bZ d
P ((X, Y ) ∈]a, b]×]c, d]) = fX,Y (x, y)dx dy.
a c

Question : peut-on calculer la probabilité P ((X, Y ) ∈ D) où D est un do-


maine de R2 différent d’un rectangle ?

Propriété
Z Z
P ((X, Y ) ∈ D) = fX,Y (x, y)dx dy
D

Exemple 1 aiguille de Buffon

Exemple 2 Soit (X, Y ) un couple dont la loi conjointe est une loi uniforme
sur [0, 1] ×[0, 1]
1 (x, y) ∈ [0, 1] × [0, 1]
f (x, y) =
0 ailleurs
Soit D = {(x, y) ∈ R2 : x > 0 y > 0 et x + y < 1}
Calculer P ((X, Y ) ∈ D).
32CHAPTER 3. COUPLE DE VARIABLES ALÉATOIRESCONTINUES
Z Z
P ((X, Y ) ∈ D) = 1dx dy
DZ
Z 1  1−x 
= dy dx
Z0 1 0 1
x2

1
= 1 − x dx = x − = .
0 2 0 2

A partir de la fonction densité conjointe, peut-on retrouver les fonctions den-


sité marginales de X et Y ?
Z +∞
fX (x) = fX,Y (x, y)dy
−∞
Z +∞
fY (y) = fX,Y (x, y)dx
−∞

Propriété
Z +∞ Z +∞
fX,Y (x, y)dx dy = 1
−∞ −∞

Exemple :

kx2 + y 2 − xy x ∈ [−1, 1] et y ∈ [−1, 0]
f (x, y) =
0 sinon
a) déterminer k pour que f soit effectivement une fonction densité d’un cou-
ple (X, Y ).
b) calculer P [{0 < X < 1} ∩ {−1/2 < Y < 0}]
c) fonctions densité marginales.
d) fonction de répartition conjointe.
3.2. FONCTION DENSITÉ CONJOINTEFONCTIONS DENSITÉ MARGINALES33
Z Z
sol : a) f (x, y)dx dy = 1
ZR2Z
⇔ kx2 + y 2 − xy dy dx = 1
Z 1 DZ
0 
2 2
⇔ kx + y − xy dy dx = 1
Z−11 −1
1 x
⇔ (kx2 + + ) dx = 1
−1 3 2
 3 1  2 1
x 1 1 x 2 2
⇔k + [x]−1 + =1 ⇔ k+ =1
3 −1 3 4 −1 3 3
1
⇔k= .
Z 1Z 0 2
1 2
x2
Z
x 1 x
b) + y 2 − xy dy dx = + + dx
0 −1/2 2 0 4 24 8
 1  1
1 x3 1 1 x2
= + +
4 3 0 24 8 2 0
1 1 1 3 1 1 1 3
= + + = + = + = .
12 24 16 24 16 8 16 16
Z +∞
c)On a fX (x) = f (x, y)dy.
−∞
Si x ∈
/ [−1, 1], fX (x) = Z
0.
0
x2 x2 1 x
Si x ∈ [−1, 1], fX (x) = + y 2 − xy dy = + + .
−1 2 2 3 2
Z +∞
On a fY (y) = f (x, y)dx.
−∞
Si y ∈
/ [−1, 0], fy (y) = 0.
Z 1  1  2 1
1 2 2 1 x3 2 1 x
y ∈ [−1, 0], fy (y) = x + y − xy dx = + y [x]−1 − y
−1 2 2 3 −1 2 −1
1
= + 2y 2 .
Z x Z y 3
d) FX,Y (x, y) = f (u, v)dv du.
−∞ −∞

• Si x < −1 ou y < −1, FX,Y (x, y) = 0


• Si (x, y) ∈ [−1, 1] × [−1, 0],
34CHAPTER 3. COUPLE DE VARIABLES ALÉATOIRESCONTINUES
Z x Z y
F (x, y) = (ku2 + v 2 − uv) dv du
Z−1x −1  3 y  2 y
2 y v v
= ku [v]−1 + −u du
Z−1x 3 −1 2 −1
y3 + 1 y2 − 1
= (y + 1)ku2 + −u du
−1  x 3 2
y + 1 u3 y3 + 1 y 2 − 1  2 x
= + (x + 1) − u /2 −1
2 3 −1 3 2
y + 1 x3 + 1 y 3 + 1 y 2 − 1 x2 − 1
FX,Y (x, y) = + (x + 1) − .
2 3 3 2 2
• Si y > 0 et x ∈ [−1, 1],
x3 + 1 x + 1 1 2
FX,Y (x, y) = + + (x − 1).
6 3 4
• Si y ∈ [−1, 0] et x > 1,
y+1 2 3
F (x, y) = + (y + 1).
3 3
• Si y > 0 et x > 1,
F (x, y) = 1.

3.3 Variables conditionnelles

On veut définir la loi de probabilité de la variable conditionnelle Y |X = x


avec X, Y deux variables aléatoires de fonction densité conjointe fX,Y .

• fonction de répartition conditionnelle de Y |X = x


P (Y ≤ y|X = x) a priori n’est pas défini car P (X = x) = 0, X étant une
variable continue.
On note FX=x cette fonction de répartition conditionnelle, que l’on définit
de la manière
suivante:
3.3. VARIABLES CONDITIONNELLES 35

P (Y ≤ y ∩ x −  ≤ X ≤ x + η)
FX=x (y) = lim P (Y ≤ y|x −  ≤ X ≤ x + η) = lim
→0 →0 FX (x + η) − FX (x − )
η→0 η→0
P (Y ≤ y ∩ X ∈ [x − , x + η])
= lim
→0 FX (x + η) − FX (x − )
η→0
FX,Y (x + η, y) − FX,Y (x − , y)
= lim
→0 FX (x + η) − FX (x − )
η→0
dF dFX,Y
(x, y) (x, y)
= dx = dx .
fX (x) fX (x)
Définition
La fonction de répartition de la variable conditionnelle Y |X = x, si elle existe, est égale à

dFX,Y
(x, y)
FX=x (y) = dxfX (x) .

• Fonction densité de la variable conditionnelle Y |X = x

Notation : fX=x (y) ou f (y|X = x)

d f (x, y)
On a fX=x (y) = FX=x (y) = .
dy fX (x)
Définition
La fonction densité de la variable conditionnelle Y |X = x est

f (x, y)
fX=x (y) =
fX (x)
Y |X = x est une variable aléatoire définie par sa fonction densité ; on peut
calculer E(Y |X = x) , V (Y |X = x) et des probabilités associées à cette
variable :
Z b Z +∞
P (a < Y < b|X = x) = fX=x (y) dy, E(Y |X = x) = y fX=x (y) dy
a −∞
36CHAPTER 3. COUPLE DE VARIABLES ALÉATOIRESCONTINUES

Exemple : reprendre f (x, y) = kx2 + y 2 − xy.

e) Donner la fonction densité conditionnelle de X|Y = 0.


f ) Calculer P (0 < X < 1|Y = 0).
g) Calculer l’espérance de X|Y = 0.

f (x, 0) x2 /2 3x2
sol : e) fY =0 (x) = = = six ∈ [−1, 1]. Ainsi
 fY (0) 1/3 2
 3x2
fY =0 (x) = x ∈ [−1, 1]
 0 2 sinon
Z 1 2  1
3x 3 x3 1
f) P (0 < X < 1|Y = 0) = dx = = .
0 2 2 3 2
Z +∞ Z 1 30  1
3x 3 x4
g) E(X|Y = 0) = x fY =0 (x)dx = dx = = 0.
−∞ −1 2 2 4 −1

Théorème de l’espérance conditionnelle


Z +∞
E(X) = E(X|Y = y)fY (y) dy
−∞

Preuve : Z +∞ +∞
Z
f (x, y)
E(X|Y = y) = x fY =y (x)dx = x dx.
f (y)
Z +∞ −∞ Z +∞ Z−∞+∞ Y
E(X|Y = y)fY (y)dy = x f (x, y)dy dx
−∞ −∞ −∞
Z +∞ Z +∞
= x( f (x, y)dy)dx .
−∞ −∞
| {z }
fX (x)

3.3.1 Indépendance en probabilité


covariance-coéfficient de corrélation
Comme dans le cas des variables discrètes, intuitivement on peut penser que
X et Y sont indépendantes si et seulement si tout événement lié à X est
indépendant de tout événement lié à Y .
3.3. VARIABLES CONDITIONNELLES 37

i.e. {X ≤ x} et {Y ≤ y} sont indépendants ∀x, y


i.e. P ({X ≤ x} ∩ {Y ≤ y}) = P (X ≤ x)P (Y ≤ y).

Définition-propriété
2 v.a. X, Y continues sont indépendantes en probabilité si et seulement si
l’une des
propriétés suivantes équivalentes sont vérifiées (si elles ont un sens)
(1) fX,Y (x, y) = fX (x) × fY (y) ∀x, y
(2) FX,Y (x, y) = FX (x) × FY (y) ∀x, y
(3) fX=x (y) = fY (y) partout où cela a un sens
(4) fY =y (x) = fX (x) partout où cela a un sens.

preuve :
d2
(2) ⇒ (1)
dxdy
Z Zx y Z x Z y
(1) ⇒ (2) f (u, v)du dv = fX (u)du fY (v)dv
−∞ −∞ −∞ −∞
f (x, y)
(1) ⇒ (3) fX=x (y) = = fY (y) ∀x, y tq fX (x) 6= 0
fX (x)
(3) ⇒ (1) on a f (x, y) = fX (x) × fY (y) ∀x, y tq fX (x) 6= 0
(4) ⇔ (1) pareil.

Théorème
Si X et Y sont indépendants alors

(1) cov(X, Y ) = 0
(2) ρ(X, Y ) = 0
(3) E(XY ) = E(X)E(Y )
(4) V (X + Y ) = V (X) + V (Y ).

Comme dans la chapitre précédent, la covariance est :

cov(X, Y ) = E(XY ) − E(X)E(Y ).

Ici, cela se traduit par


R
R2
xy fX,Y (x, y) dxdy − E(X)E(Y ).
38CHAPTER 3. COUPLE DE VARIABLES ALÉATOIRESCONTINUES

On peut également exprimer la covariance à l’aide de l’espérance condi-


tionnelle: Z
cov(X, Y ) = x E(Y |X = x)fX (x)dx − E(X)E(Y ).
R

3.3.2 Fonction de 2 variables aléatoires


Soit Z = ϕ(X, Y ) avec (X, Y ) couple aléatoire de densité f (x, y).
Z n’est pas forcément une variable aléatoire. Si cela en est une, on a les
formules
ZZ
E(ϕ(X, Y )) = ϕ(x, y) f (x, y) dxdy
ZZ
V (ϕ(X, Y )) = ϕ2 (x, y) f (x, y) dx dy − E 2 (ϕ(X, Y ))
Chapter 4

Loi Normale ou loi de Laplace -


Gauss - Généralités

La loi Normale est une des distributions que l’on rencontre le plus souvent
en pratique.
C’est la loi qui s’applique en général à une variable qui est la résultante d’un
grand nombre de causes indépendantes dont les effets s’additionnent et dont
aucune n’est prépondérante.

Exemple :
Diamètres et poids de pièces fabriquées en série.
Fluctuations accidentelles d’une grandeur économique autour de sa tendance.

Historiquement elle apparaı̂t vers 1773 comme limite de la loi binomiale.


Gauss en 1809 et Laplace en 1812 lui donnèrent sa forme définitive.

4.1 Définition mathématique


• La variable Normale X est une v.a absolument continue pouvant prendre
n’importe quelle valeur dans ] − ∞, +∞[ avec la densité de probabilité
 2
1 x−µ

1
f (x) = √ e 2 σ
2πσ

39
40CHAPTER 4. LOI NORMALE OU LOI DE LAPLACE - GAUSS - GÉNÉRALITÉS

Cette v.a dépend donc de 2 paramètres µ et σ.


notation : X ∼ N (µ, σ).

• représentation graphique
la courbe en cloche. (cf T.D)
→ La valeur de µ détermine la position de la courbe, x = µ est axe de
symétrie pour la courbe (f (µ + x) = f (µ − x) ∀x)
→ σ détermine la dispersion de la courbe.

• Fonction de répartition
 2
1 t−µ
Z x Z x −
1
F (x) = f (t)dt = √ e 2 σ dt
−∞ −∞ σ 2π
• caractéristiques

E(X) = µ
V (X) = σ 2
preuve :(T.D)

Propriété 1
X −µ
X suit la loi N (µ, σ) si et seulement si suit la loi N (0, 1)
σ
preuve : T.D.
x2
1 −
La loi N (0, 1) s’appelle loi Normale centrée réduite. f (x) = √ e 2 .

Elle est importante car la propriété signifie que tout calcul de probabilité
associé à la loi N (µ, σ) se ramène à un calcul de probabilité associé à la loi
N (0, 1) en faisant un changement de variable.

Propriété 2
X1 ∼ N (µ1 , σ1 ), X2 ∼ N (µp
2 , σ2 ), X1 , X2 indépendantes,
2 2
alors X1 + X2 ∼ N (µ1 + µ2 , σ1 + σ2 )
preuve : (T.D.)

généralisation
4.2. CALCULS DE PROBABILITÉ 41

Xi ∼ N (µi , σi ), Xi sont indépendantes alors


Xn Xn X n
2
Xi ∼ N (µ, σ) avec µ = µi et σ = σi2 .
i=1 i=1 i=1

4.2 Calculs de probabilité


4.2.1 Calculs à partir de N (0, 1) : U
Le problème vient du fait qu’il n’existe pas de fonction analytiquement ex-
x2
1 −
primable qui corresponde à une primitive de f (x) = √ e 2 .
Rb 2π
Comment calculer P (a < U < b) = a f (t)dt = F (b)−F (a) si l’on ne connait
pas d’expression de F ?
La seule possibilité est d’utiliser des méthodes numériques permettant de
faire le calcul approché de l’intégrale.
Ainsi des spécialistes ont établi des tables permettant de faire les calculs de
probabilité.

On a à notre disposition 2 tables :


La fonction de répartition (table 1) et les fractiles(table 2):

La table 1

On lit les valeurs de la fonction de répartition F de N (0, 1).


C’est une table à double entrée qui donne P (U ≤ u) pour u donné.

N (0,1)

→ on cherche la ligne correspondant à la partie entière et au 1er chiffre


décimal de u.
→ la colonne correspondant au 2eme chiffre décimal de u.
puis à l’intersection, on lit la probabilité cherchée.
ex : P (U ≤ 0, 38) = 0, 6480
P (U ≤ 1, 29) = 0, 9015
Que fait-on pour calculer P (U < −1) si U ∼ N (0, 1) ?

Propriété 1
42CHAPTER 4. LOI NORMALE OU LOI DE LAPLACE - GAUSS - GÉNÉRALITÉS

U ∼ N (0, 1) u > 0
P (U < −u) = F (−u) = 1 − F (u)
P (U < −1) = 1 − P (U < 1) = 0, 1587

Propriété 2 u>0
P (U > u) = 1 − P (U < u) = 1 − F (u)

Propriété 3
P (u1 ≤ U ≤ u2 ) = F (u2 ) − F (u1 )

Propriété 4
F (u) ≥ 1/2 ⇔ u ≥ 0
F (u) ≤ 1/2 ⇔ u ≤ 0
Remarque 1 : pour les probabilités d’intervalles, il est indifférent de con-
sidérer des intervalles fermés, ouverts ou mixtes puisque la probabilité d’un
point est nulle.

Remarque 2 : Si on a à calculer P (U ≤ u)avec U ∼ N (0, 1) avec 3 décimales :


(ex P (U < 1, 645)) on fait une interpolation linéaire :
Supposons que figurent dans la table 1 u1 et u2 tq u1 < u < u2 on considère
F (u) − F (u1 ) F (u) − F (u2 )
que ' ce qui donnera
u − u1 u − u2
1
F (u) = [(u − u2 )F (u1 ) + (u1 − u)F (u2 )].
u1 − u 2

Pour l’exemple: 1, 64 < u < 1, 65


F (u) − F (1, 64) F (u) − F (1, 65) F (1, 65) + F (1, 64)
' ⇒ F (u) ' =
0, 05 −0, 05 2
0, 095

Propriété 5 U ∼ N (0, 1)
P (|U| < u) = 2F (u) − 1

ex : P (|U| < 1.96) = 2F (1, 96) − 1 = 2.0, 9750 − 1 = 0, 95

Propriété 6 U ∼ N (0, 1)
P (|U| > u) = 2[1 − F (u)]
4.2. CALCULS DE PROBABILITÉ 43

C’est la probabilité pour qu’une loi Normale centrée réduite s’écarte de sa


moyenne de plus de u fois son écart type.

Remarque : pour les grandes valeurs de u, on dispose d’une ligne supplémentaire


mais détaillée. Pour u > 3, les valeurs de F (u) varient peu et sont proches
de 1.

La table 2
Elle donne les fractiles de la loi N (0, 1).
Définition : on appelle fractile d’ordre α (0 ≤ α ≤ 1),
pour une fonction de répartition F , la valeur uα tq F (uα ) = α i.e P (U ≤ uα ) = α.

Exemple
P (U < t) = 0, 01 ⇒ u0,01 = −2, 3263
P (U < t) = 0, 96 ⇒ u0,96 = 1, 7507 
P (U < t) = 0, 975 ⇒ u0,975 = 1, 96
(fractile très important en statis-
P (U < t) = 0, 95 ⇒ u0,95 = 1, 6449
tique inférentielle)

Ces calculs de fractiles seront particulièrement utiles pour l’obtention des


intervalles de confiance et réalisation des tests.

4.2.2 Loi Normale qq N (µ, σ)


X ∼ N (µ, σ)
1er étape : se ramener à la loi N (0, 1) : on sait que si X ∼ N (µ, σ) alors
X −µ
∼ N (0, 1).
e
σ
2 étape : Utiliser les tables 1 et 2.
3e étape : Donner le résultat.

• X ∼ N (3, 2) Calculer
 P (X < 6, 24) 
X −3 6, 24 − 3
P (X < 6, 24) = P < = P (U < 1, 62) = F (1, 62) =
2 2
0, 9474
44CHAPTER 4. LOI NORMALE OU LOI DE LAPLACE - GAUSS - GÉNÉRALITÉS

• X ∼ N (−4, 5) Calculer P (X < 1, 65) 


er X +4
1 étape : P (X < 1, 65) = P < 1, 13
5
X +4
2e étape : = U ∼ N (0, 1) P (U < 1, 13) = F (1, 13) = 0, 8708
e
5
3 étape : P (X < 1, 65) = 0, 8708

• P (X > 4, 94) X ∼ N (−2,  4) 


er X +2
1 étape : P (X > 4.94) = P > 1, 735
4
2e étape : P (U > 1, 735) = 1 − F (1, 735)
F (1, 73) = 0, 9582
or 1, 73 < 1, 735 < 1, 74 Par interpolation
F (1, 74) = 0, 9591
F (u) − F (1, 73) F (u) − F (1, 74) F (1, 74) + F (1, 73)
' ⇒ F (u) = = 0, 9586
0, 05 −0, 05 2
3e étape : P (X > 4, 94) = 1 − 0, 95865 = 0, 04135

• X ∼ N (−3, 2) P (4 < X < 0)


1 étape : P (−4 < X < 0) = P (−0, 5 < X+3
er
2
< 1, 5)
e
2 étape : P (−0, 5 < U < 1, 5) = F (1, 5) − F (−0, 5)
= F (1, 5) − [1 − F (0, 5)]
= F (1, 5) + F (0, 5) − 1 = 0, 9332 + 0, 6915 − 1 = 0, 6247
3e étape : P (−4 < X < 0) = 0, 6247

P (0 < X < 2)
• X ∼ N (1, 3) P (0 < X < 2|X > −2) =
P (X > −2)
e X−1
1 étape : P (0 < X < 2) = P [1/3 < 3 < 1/3] = P (|U| < 1/3)
P (X > −2) = P X−1 3
> −1 = P (U > −1)
2e étape : P (|U| < 1/3) = 2F (1/3) − 1
P (U > −1) = P (U < 1)
e
3 étape : Proba ' 0, 31

• X ∼ N (2, 0, 5) calculer le fractile d’ordre 0,675 de X


P (X ≤ u0,675 ) = 0, 675  
er X −2 x0,675 − 2
1 étape : P (X ≤ x0,675 ) = 0, 675 ⇔ P ≤ = 0, 675.
0, 5 0, 5
2e étape : P (U < u0,675 ) = 0, 675 ⇒ u0,675 = 0, 4538
4.2. CALCULS DE PROBABILITÉ 45

3e étape : 2[x0,675 − 2] = u0,675 = 0, 4538 ⇒ x0,675 = 2, 2269


46CHAPTER 4. LOI NORMALE OU LOI DE LAPLACE - GAUSS - GÉNÉRALITÉS
Chapter 5

Condition d’application de la
loi normale

5.1 Convergence des variables aléatoires


Les variables aléatoires sont des applications de Ω dans R, Ω étant l’univers
défini par l’expérience aléatoire.
On peut concevoir une suite d’épreuves aléatoires définissant des univers Ωn
et donc des v.a. aléatoires Xn .
On peut se demander quel est le comportement limite de ces v.a. quand
n → +∞.
Il existe plusieurs notions de convergence.

5.1.1 Convergence en loi


Définition
(Xn )n∈N converge en loi vers une v.a. X ssi

lim Fn (x) = F (x) ∀x tq F (x) est continue.


n→+∞
Fn : fonction de repartition de Xn
L
F : fonction de repartition de X (notation : Xn −→ X)
Propriétés
L
Pour les v.a. discrètes Xn −→ X ⇔ P (Xn = x) −→ P (X = x) ∀x.
n→∞
L
Pour les v.a continues Xn −→ X ⇔ ∀(a, b) ∈ R2 P (a ≤ Xn < b) −→ P (a ≤ X < b).
n→+∞

47
48CHAPTER 5. CONDITION D’APPLICATION DE LA LOI NORMALE

5.1.2 Convergence en probabilité


• Définition
(Xn ) converge en probabilité vers X si et seulement si
∀ > 0, P (|Xn − X| > ) −→ 0
n→∞
P
(notation : Xn −→ X)
Propriété
la convergence en probabilité ⇒ convergence en loi

La réciproque est fausse.

Théorème

P
 E(Xn ) −→ µ alors Xn −→ µ
Si n→+∞
 V (Xn ) −→ 0
n→+∞

Preuve : il s’agit de démontrer que P (|Xn − µ| > ) −→ 0. Pour sim-


n→+∞
plifier on supposera que E(Xn ) = µ ∀n.
Pour cela, on a besoin du résultat suivant :

Inégalité de Bienaymé-Tchebychev

Soit la v.a Z telle que E(Z) = µ, σ(Z) = σ,
1

alors P (|Z − µ| > kσ) ≤ 2 ∀k ∈ R+∗ .

k
preuve de l’inégalité de B.J admise

Fin de la preuve du théorème : soit σn = σ(Xn ), soit kn ∈ R tq kn σn =


1 σn
. On a = , d’où
kn 
P (|Xn − µ| > ) = P (|Xn − µ| > kn σn ).
D’après l’inégalité B.T, on a

1 σn2 1
0 < P (|Xn − µ| > kn σn ) ≤ 2 = = V (Xn ) .
| {z } kn  | {z }
↓ n → +∞ ↓ n → +∞
0 0
5.2. LOI FAIBLE DES GRANDS NOMBRES 49

5.2 Loi faible des grands nombres


Théorème Loi faible des grands nombres
E(Xi ) = µi
Soient (Xi )i=1,...,n n v.a indépendantes telles que
V (Xi ) = σi2
i=n n
1X 1 X 2
Si µi −→ µ et σ −→ 0,
n i=1 n→+∞ n2 i=1 i n→+∞
i=n
1X P
alors Xi −→ µ.
n i=1
preuve :
n 
1X
on a E(S ) = µi → µ

n

n
n i=1

1X 
P
Soit Sn = Xi . n ⇒ Sn → µ
n i=1 1 X 2 
V (Sn ) = 2 σ →0 
n i=1 i

Application du théorème du paragraphe précédent.




Corollaire : Théorème de Moivre-Laplace


Soit ξ une expérience aléatoire qui a
2 résultats possibles S et E et
P (S) = p.
On répète n fois ξ de façon indépendante.
Soit Fn : proportion de S.
P
Alors Fn −→ p.
preuve :
n
1X
Fn = Xi Xi : variables de Bernoulli indépendantes.
n i=1
1X 1
E(Fn ) = E(Xi ) = np = p
n X n
1 1 1
V (Fn ) = 2 V (Xi ) = 2 np(1 − p) = p(1 − p) → 0
n n n
Donc d’après la loi faible des grands nombres

P
Fn −→ p 
50CHAPTER 5. CONDITION D’APPLICATION DE LA LOI NORMALE

Fn sont appelées fréquences empiriques.


A partir de ce résultat, toute l’approche fréquentiste des probabilités s’est
développée sur l’évaluation de la probabilité d’un événement(p) par la limite
de la fréquence relative d’apparition de ce phénomène (valeur des Fn ).
Ce résultat sera essentiel dans la théorie de l’estimation.

5.3 Théorème central-limit


Théorème
Soient Xi i = 1, . . . , n n v.a indépendantes, de même loi,
d’espérance µ et d’écart type σ,
i=n
1X
alors si on pose X = Xi , on a
n i=1

n(X − µ) L
−→ N (0, 1).
σ
Remarque
On avait montré que ce résultat était vrai pour Xi ∼ N (µ, σ) mais le
théorème central limit est beaucoup plus fort puisque cela est vrai pour
n’importe quelle loi : il n’est pas nécessaire de connaitre la loi de Xi pour
i=n
X
connaitre celle Xi pour n grand!!
i=1
Le résultat joue un rôle essentiel dans toute la statistique classique. Sa
démonstration est en dehors du cadre de ce cours.

5.4 Approximation d’une loi B(n, p)


Théorème
Soit X ∼ B(n, p),
X − np L
alors p −→ N (0, 1).
np(1 − p)
Xn
Preuve : X = Xi avec Xi ∼ B(1, p) la loi de Bernoulli.
i=1
Or E(Xi ) = p, V (Xi ) = p(1 − p), donc d’après le théorème central- limit
X − np L
p −→ N (0, 1).
np(1 − p)
5.4. APPROXIMATION D’UNE LOI B(N, P ) 51

n > 30
En pratique : npq > 18 ou
p ∈ [0, 1 ; 0, 9]
Comment procède t-on pour approcher une loi discrète par une loi continue ?
En effet pour les lois discrètes, les probabilités sont concentrées en des points
et pour les lois continues tout point a une probabilité nulle !
Exemple : soit X ∼ B(100, 0, 4) alors X ≈ N (40, 4, 9)
Comment approche-t-on P (X = 50) ?
On fait ce qu’on appelle une correction de continuité

Proposition : correction de continuité


Soit X une v.a.d telle que E(X) = µ, σ(X) = σ et X(Ω) ⊂ N
que l’on approche par Y une
loi N (µ, σ) alors 
1
P (X < k) = P Y ≤ k −
 2
1
P (X ≤ k) = P Y ≤ k +
 2 
1 1
P (X = k) = P k − ≤ Y ≤ k +
2 2 
1 1
P (k1 ≤ X ≤ k2 ) = P k1 − ≤ Y ≤ k1 +
2 2
Exemple : Dans une population bovine, on admet que la robe d’un animal se
caractérise par la présence d’un gène dominant S (robe unie) ou d’un gène
récessif s (robe tachetée bleue).
Selon la théorie de Mendel un croisement d’animaux hétérozygotes (S, s) ×
(S, s) donne 3/4 robes unies et 1/4 robes tachetées bleues.
Sur un échantillon de 160 bovins issus de croisements (S, s) × (S, s) on note
X = nombre d’animaux ayant une robe tachetée bleue.
a) Déterminer la loi de X (X ∼ B(160, 1/4)) √
b) Par quelle loi peut-on approximer X (par N (40, 30) car n > 30 p ∈
[0, 1, 0, 9] ou npq = 30 > 18)
c) Probabilité que parmi 160 bovins le nombre de tachetées de bleues soit en-
tre 35 et 50:
52CHAPTER 5. CONDITION D’APPLICATION DE LA LOI NORMALE

P (35 ≤ X ≤ 50) ≈ P (35 − 1/2 ≤ Y ≤ 50 + 1/2)


 5 ≤ Y ≤ 50, 5)
= P (34, 
−5,5 10,5
=P √
30 
≤U ≤ √
  30
=F 10,5

30
− F −5,5

30 
  h i
10,5 5,5
=F √
30
− 1 − F √
30

5.5 Approximation d’une loi de Poisson


Théorème √
Si m ≥ 20 alors la loi de Poisson P(m) peut être approximée par N (m, m).
X −m L
La formulation mathématique est: si X ∼ P(m) alors √ −→ N (0, 1).
m
La preuve rigoureuse peut se faire mais demande des connaissances en anal-
yse mathématique.
On admettra le théorème.

Remarque : comme précédemment on fait la correction de continuité.

5.6 Exercices
Exemple 1
Les gains mensuels en francs G d’un représentant sont supposés suivre une
loi Normale. Il a pu constater, sur un grand nombre de mois, la répartition
suivante des gains en F :
P (gain > 18000) = 4, 46%
P (15800 < gain ≤ 18000) = 93, 26%
P (gain ≤ 15800) = 2, 28%
1 - Calculer la moyenne et l’écart type de G qui suit N (µ, σ).
2 - Si on suppose que les gains du représentant sont indépendants d’un mois
à l’autre, quelle est la loi de proba de X = gain durant 3 mois ?
3 - P (X ≥ 53000) ?

Exercice 2
Un vigneron commercialise 2 types de vin :
5.6. EXERCICES 53

les vins ”du terroir” et les vins ”grand cru” et vendus à 30 F la bouteille. Il
subsiste des erreurs d’étiquetage et on admet qu’un acheteur de vin ”grand
cru” aura une probabilité p = 0, 12 d’avoir en fait une bouteille de vin ”du
terroir”.
1) Un restaurateur achète 200 bouteilles ”grand cru”
X : nb de bouteille de vin du terroir parmi ces bouteilles
Quelle est la loi de probabilité de X ? Calculer E(X) V (X)
Par quelle loi peut-on approcher X ?
2) Calculer P (X > 20) et P (X < 30|X > 20)
3) Au fur et à mesure de la consommation des 200 bouteilles, le restaurateur
a pu détecter chacune des bouteilles ”du terroir”. Il décide alors de ne payer
que les bouteilles ”grand cru” et de refuser de payer les bouteilles du terroir.
Calculer, avec cette hypothèse, la probabilité d’un bénéfice néanmoins positif
pour le vigneron ”sachant que” chaque bouteille de grand cru lui revient à 18
F et terroir 8 F.

Vous aimerez peut-être aussi