Vous êtes sur la page 1sur 58

COURS DE PROBABILITE

2ième année d’économie et de gestion


Semestre 1

Laurence GRAMMONT
Laurence.Grammont@univ-st-etienne.fr
Les solutions des exercices posés dans ce polycopié
ne sont pas rédigées.

October 3, 2003
2
Contents

1 Prérequis
Dénombrements
Théorie des ensembles 5
1.1 Dénombrement. Analyse combinatoire . . . . . . . . . . . . . 5
1.1.1 Principe multiplicatif . . . . . . . . . . . . . . . . . . . 5
1.1.2 Permutations sans répétitions . . . . . . . . . . . . . . 6
1.1.3 Les arrangements sans répétition . . . . . . . . . . . . 7
1.1.4 Combinaisons sans répétitions . . . . . . . . . . . . . . 8
1.2 Théorie sommaire des ensembles . . . . . . . . . . . . . . . . . 9
1.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.3 Notion de cardinal . . . . . . . . . . . . . . . . . . . . 10

2 Introduction au calcul des probabilités 11


2.1 Du langage ensembliste à celui des évènements . . . . . . . . . 11
2.2 Définition des probabilités dans le cas Ω fini . . . . . . . . . . 12
2.3 Probabilités : Définition axiomatique . . . . . . . . . . . . . . 14
2.4 Probabilités conditionnelles.
Notion d’indépendance . . . . . . . . . . . . . . . . . . . . . . 15
2.5 Exercices d’application . . . . . . . . . . . . . . . . . . . . . . 22

3 Variables aléatoires et lois de probabilités 25


3.1 Espace probabilisé et loi de probabilité . . . . . . . . . . . . . 25
3.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.1.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.1.3 Lois discrètes et lois continues . . . . . . . . . . . . . . 26
3.2 Notion de variable aléatoire et loi de probabilité d’une variable
aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

3
4 CONTENTS

3.2.1 Exemple introductif . . . . . . . . . . . . . . . . . . . . 26


3.2.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.2.4 Fonction de répartition d’une loi de probabilité d’une
v.a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3 Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . 29
3.3.1 Rappel de statistique descriptive univariée . . . . . . . 29
3.3.2 Définitions d’une v.a.d. et de sa loi de probabilité . . . 29
3.3.3 Fonction de répartition . . . . . . . . . . . . . . . . . . 30
3.3.4 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.4 Variables aléatoires continues (v.a.c) . . . . . . . . . . . . . . 32
3.4.1 Définition - Fonction de répartition . . . . . . . . . . . 32
3.4.2 Fonction densité . . . . . . . . . . . . . . . . . . . . . . 33
3.4.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.5 Caractéristiques d’une variable aléatoire . . . . . . . . . . . . 34
3.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 34
3.5.2 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.5.3 Variances . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.5.4 Moments . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.5.5 Médiane et Mode . . . . . . . . . . . . . . . . . . . . . 40
3.5.6 Fonction d’une variable aléatoire . . . . . . . . . . . . 41

4 Lois discrètes usuelles 45


4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2 Schéma de Bernouilli . . . . . . . . . . . . . . . . . . . . . . . 46
4.3 Le shéma Binomial . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4 Le schéma hypergéométrique . . . . . . . . . . . . . . . . . . . 50
4.5 Loi géométrique et loi de Pascal . . . . . . . . . . . . . . . . . 52
4.6 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
Chapter 1

Prérequis
Dénombrements
Théorie des ensembles

1.1 Dénombrement. Analyse combinatoire


Elle a pour but de dénombrer les différentes dispositions que l’on peut former
à partir d’un ensemble d’éléments.
dispositions : sous ensembles ordonnés ou non d’un ensemble.

1.1.1 Principe multiplicatif


Principe
Soit ξ une expérience qui comporte 2 étapes : la 1ère qui a p résultats possibles
et chacun de ces résultats donne lieu à q résultats lors de la 2ème. Alors
l’expérience a p × q résultats possibles.
Remarque : Le principe multiplicatif peut s’énoncer ainsi : si un évènement
A peut se produire de p façons et si un évènement B peut se produire de q
façons, la réalisation de A suivie de B peut se produire de p × q façons.

Exemple 1
On jette 3 dés identiques. Combien y-a-t-il de résultats possibles ?
63

5
6CHAPTER 1. PRÉREQUISDÉNOMBREMENTSTHÉORIE DES ENSEMBLES

Exemple 2
Une urne contient 1R, 1B, 1N, 1V . On effectue 2 tirages successifs avec
remise. Combien y-a-t-il de résultats possibles ?

4 × 4 = 16

(cela correspond au principe multiplicatif)

Conséquence
Si une expérience ξ consiste à répéter n fois de façon indépendante une même expérience
ξ0 qui a p résultats possibles, alors ξ a pn = p × p × . . . × p issues possibles.
| {z }
fois

1.1.2 Permutations sans répétitions


Exemple :
On a 3 lettres a, b, c
Les permutations sont les sous-ensembles ordonnés de {a, b, c}
abc acb bac cab cba bca

Définition
Une permutation de n éléments est une disposition ordonnée sans répétition de ces
n éléments. (une façon de ranger côte à côte ces n éléments)
Résultat
Si Pn est le nombre de permutations de n éléments alors
Pn = n!
preuve :
Soit n éléments a1 , a2 , . . . , an .
a1 : on peut le mettre dans n’importe quelle case
a2 : dans n − 1 cases

an : dans une case.

Exemple 1
De combien de manière peut-on classer 4 individus.
P4 = 4! = 24
1.1. DÉNOMBREMENT. ANALYSE COMBINATOIRE 7

Exemple 2
Une maı̂tresse de maison doit placer 6 personnes autour d’une table ronde.
Combien a-t-elle de possibilités.
P5 = 5!

Exemple 3
Un géophile dispose de 21 paires de bottes de couleurs différentes pour chausser
ses 42 pattes (21 G et 21 D)
1◦ ) De combien de façon peut-il se chausser
2◦ ) De combien de façon peut-il se chausser avec m̂ couleur pied D et pied G

Solution : 1◦ ) 21 ! × 21 ! 2◦ ) 21 !

1.1.3 Les arrangements sans répétition


Exemple :
On a 3 lettres a, b, c. Combien y-a-t-il de mots de 2 lettres différentes :
ab ba ac ca bc cb : il y a 6 mots de 2 lettres : arrangements de 2 éléments
parmi 3

Définition :
Un arrangement de p éléments parmi n est une disposition ordonnée sans répétition
de p éléments.
(une façon de ranger p éléments pris parmi n en tenant compte de l’ordre)
Résultat
Apn = nb d’arrangement de p éléments parmi n
n!
Apn =
(n − p)!
preuve :
1ère place : n possibilités
2ème place : n − 1 possibilités
pème place : n − p + 1 possibilités

Exemple 1
Pour accéder à une banque de données, il faut 4 lettres différentes. Combien
de mots de passe peut-on avoir ?
A426 = 258800
8CHAPTER 1. PRÉREQUISDÉNOMBREMENTSTHÉORIE DES ENSEMBLES

Exemple 2
12 candidats se présentent aux élections d’un conseil d’administration com-
portant 8 places 6=.
Combien de listes possibles y-a-t-il ?
A812 = 12!
4!

Remarque
Qu’est-ce qu’un arrangement avec répétition de p éléments parmi n ?
C’est une disposition ordonnée de p éléments avec autant de répétition que
l’on souhaite.
Le nombre d’arrangements avec répétition est de np

1.1.4 Combinaisons sans répétitions


Exemple
On a 4 éléments a, b, c, d
Les combinaisons de 2 éléments sont {a, b} {a, c} {a, d} {b, c} {b, d} {c, d}.
Il y en a 6.
Définition
Une combinaison de p éléments parmi n est une disposition non ordonnée de p éléments
parmi n.
(sous ensembles de p éléments parmi n)
Remarque
Arrangement : on tient compte de l’ordre
Combinaison : on ne tient pas compte de l’ordre.
2 arrangements comportant les mêmes éléments définissent une seule combi-
naison.

Résultat
n!
Le nombre de combinaisons de p éléments parmi n est Cnp =
(n − p)!p!
preuve : A partir d’une combinaison de p éléments on peut faire p! arrange-
ments
Apn = p!Cnp

Propriétés
1.2. THÉORIE SOMMAIRE DES ENSEMBLES 9

Cn0 = Cnn = 1
j
Cn+1 = Cnj−1 + Cnj
Xn
n
(a + b) = Cnk ak bn−k (formule du binôme)
k=0

1.2 Théorie sommaire des ensembles


1.2.1 Définitions
- Un ensemble est une collection d’objets appelés éléments.

- φ ensemble vide : il ne contient aucun élément.

- Soit Ω un ensemble
Un ensemble A est un sous ensemble de Ω ou une partie de Ω si tous les
éléments de A sont éléments de Ω.
on dit aussi que A est une partie de Ω.
L’ensemble des parties de Ω est noté P(Ω).
Ex : donner l’ensemble des parties de Ω avec Ω = {a, b, c}.
P(Ω) = { {a, b, c} {a, b} {a, c} {b, c} φ {a} {b} {c} }
(8 éléments)
Soient Ω, A, B ∈ P(Ω)

- Appartenance x ∈ A signifie que l’élément x appartient à l’ensemble A.


x∈/ A signifie que l’élément x n’appartient pas à A.
- Inclusion A ⊂ B signifie que tous les éléments de A sont dans l’ensemble B.
A 6⊂ B.
- Complémentaire Ā (ou Ac ) ensemble des éléments de Ω qui n’appartiennent pas à A.
- Union A ∪ B : x ∈ A ∪ B ⇔ x ∈ A ou x ∈ B.
- Intersection A ∩ B : x ∈ A ∩ B ⇔ x ∈ A et x ∈ B.

A∪A=A A∩A=A

Remarque : A ∪ φ = A A∩φ=φ

si A ⊂ B alors A ∪ B = B si A ⊂ B alors A ∩ B = A

Définition
A et B sont disjoints ssi

A∩B =φ
10CHAPTER 1. PRÉREQUISDÉNOMBREMENTSTHÉORIE DES ENSEMBLES

- Différence A\B = A ∩ B

- E, F des ensembles
Une application de E dans F est une correspondance qui aux éléments x ∈ E
associe des éléments y de F .

1.2.2 Propriétés


A∪B =B∪A

A∩B =B∩A

A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)

A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)

A∩B =A∪B
A∪B =A∩B

1.2.3 Notion de cardinal


Si Ω a un nombre fini d’éléments, alors pour tout A ∈ P(Ω), A a également
un nombre fini d’éléments.
cardinal de A, noté card(A) est le nombre d’éléments de A.

Propriétés

card A = card Ω − card A

card A ∪ B = card A + card B − card (A ∩ B)

card (A/B) = card A − card (A ∩ B)

card φ = 0
Chapter 2

Introduction au calcul des


probabilités

Ce sont les jeux de hasard qui sont à l’origine du calcul des probabilités. Vers
1654, Pascal et Fermat se sont confrontés au problème suivant : pourquoi en
jetant 3 dés obtient-on plus souvent la somme 11 que la somme 10 alors que
pour 11 : 146, 236, 155, 335, 443, 245
pour 12 : 156, 246, 255, 345, 336, 444
C’est à la suite de leur correspondance qu’est né le calcul des probabilités.
Les probabilités ont connu un grand essor au XIXe . Mais ce n’est qu’en
1933 que grâce à Kolmogorov le calcul des probabilités s’inscrit enfin dans
un cadre théorique rigoureux.
La découverte de la physique quantique et des théories modernes de l’imprévisibilité
redonnent au calcul des probabilités une place centrale dans l’étude de la na-
ture.

2.1 Du langage ensembliste à celui des évènements


On a une expérience aléatoire (tirage d’une carte, lancement d’un dé) qui est
une action qui débouche sur plusieurs résultats possibles. Pour la définir, il
s’agit de recenser l’ensemble de ses résultats possibles appelés éventualités
ou évènements élémentaires.
On appelle univers l’ensemble de ses éventualités et il est noté Ω.

11
12 CHAPTER 2. INTRODUCTION AU CALCUL DES PROBABILITÉS

Un évènement est un ensemble d’éventualités noté A, c’est donc aussi une


partie de Ω.(A ∈ P(Ω)).
On représente un évènement par un ensemble.

Ex : jet de dé = exp aléatoire


univers Ω = {1,2,3,4,5,6}
éventualités {1} {2} ... {6}
évènement A : tomber sur un pair A = {2, 4, 6}
A est l’évènement réalisé quand A ne l’est pas
A = {1, 3, 5}.
A ∪ B est l’évènement qui est réalisé dès que l’un au moins des événements
A ou B l’est.
A ∩ B est l’évènement qui est réalisé dès que les événements A et B le sont.
A = {2, 4, 6} B = ”tomber sur un nombre ≤ 3”.
A ∪ B = {1, 2, 3, 4, 6}
A ∩ B = {2}
Ω est l’évènement certain : réalisé à coup sûr.
φ est l’évènement impossible : ”obtenir 7” par exemple.
A ⊂ B signifie que chaque fois que A est réalisé B l’est aussi.
A ∩ B = φ : événements incompatibles.

Soit Ω l’ensemble des éventualités ou univers.


On arrive au point essentiel de définir la probabilité d’un évènement A (A ⊂
Ω) qui doit mesurer la chance que l’évènement A a de se réaliser lorsqu’on
effectue une épreuve.

La complexité de la définition dépend de celle de Ω :


Ω fini, Ω infini dénombrable, Ω infini non dénombrable.

2.2 Définition des probabilités dans le cas Ω


fini
Probabilité de Laplace (XVIIIe )
Elle correspond à la notion intuitive de probabilité.

Définition
2.2. DÉFINITION DES PROBABILITÉS DANS LE CAS Ω FINI 13

soit Ω fini,dont les événements élémentaires sont équiprobables.

P (A) = card A = Nb cas favorables

card Ω Nb cas possibles
Attention à l’hypothèse d’équiprobabilité.

Exemple 1 :
Une urne contient 1B 1N
On fait 2 tirages avec remise
Proba d’avoir 2 Noires ?
On a Ω = {(N, N ); (B, B); (B, N ); (N, B)}. cardΩ = 4 (ou alors on ap-
plique le principe multiplicatif vu qu’il y a indépendance).
A : ”avoir 2 Noires”. A = {(N, N )}.
cardA
On a P (A) = = 1/4
cardΩ
Remarque : si on ne tient pas compte de l’ordre et que l’on écrit Ω =
{{N, N } {B, B} {B, N }}, les évènements élémentaires n’étant pas équiprobables,
cardA
on n’a pas P (A) = .
cardΩ
Erreur : on aurait P (A) = 1/3 !!

Exemple 2 :
Soit une urne contenant 1R ;1V ; 1J ;1B
On effectue 3 tirages avec remises.
Quelle est la probabilité d’obtenir 2 fois la blanche ?
On a cardΩ = 4 × 4 × 4 = 64 (principe multiplicatif).
Soit A : ”2 fois la blanche exactement”.
3!
Ainsi cardA = C32 (place des 2 blanches) ×3 (l’autre couleur) = × 3 = 9.
2!
9
Donc P (A) = 64

Exemple 3
Soit une urne contenant 2V et 3B
1) On effectue 2 tirages sans remise
Proba d’avoir 2 vertes exactement, 2 blanches exactement, 1V et 1B.
2)même question avec tirage avec remise.

1) Erreur : Ω = {(B, B) (V, V ) (B, V ) (V, B)} évènements non équiprobables


!
14 CHAPTER 2. INTRODUCTION AU CALCUL DES PROBABILITÉS

on écrit : Ω = {(B1 , B2 ) (B1 , B3 ) (B2 , B3 ) (B3 , B2 ) . . .}


On a cardΩ = A25 = 20. On a
cardA A2 2 1
P (A) = = 2 = = ,
cardΩ 20 20 10
cardB A23 6 3
P (B) = = = = ,
cardΩ 20 20 10
cardC 12 6 3
P (C) = = = = .
cardΩ 20 10 5
cardC = C21 (choix V) ×C31 (choix B) ×2 (ordre) = 2 × 3 × 2 = 12.

2) On a cardΩ = 52 (principe mult), ainsi


2×2 4 9 2×3×2 12
P (A) = = ; P (B) = ; P (C) = = .
52 25 25 25 25
Propriétés

P (A) + P (A) = 1 ∀A ∈ P(Ω)

P (A ∪ B) = P (A) + P (B) − P (A ∩ B) ∀A, B ∈ P(Ω)

A ⊂ B ⇒ P (A) ≤ P (B)
Ex : à démontrer en utilisant les propriétés du cardinal.

2.3 Probabilités : Définition axiomatique


Si Ω est infini, la définition précédente devient caduque.
Les fondements de la probabilité mathématique sont dus à Kolmogorov (1933).
Il faut savoir qu’en 1919, Von Mises affirmait ”le calcul des probabilités n’est
pas une discipline mathématique”.

Définition Ω fini ou infini dénombrable


une application de P(Ω) dans [0, 1] est une probalité si et seulement si
P
(1) P (Ω) = 1

(2) ∀(Ai )i=1,...,n tq Ai ∩ Aj = φ ∀i 6= j
! i=n
[n X
P Ai = P (Ai ).


i=1 !i=1 ∞
[∞ X
(3) P Ai = P (Ai ).


i=1 i=1

Dans le cas Ω non dénombrable, on ne peut pas forcément définir une proba-
2.4. PROBABILITÉS CONDITIONNELLES.NOTION D’INDÉPENDANCE15

bilité sur P(Ω), qui satisfasse les axiomes (1) (2) (3) sur P(Ω). On est obligé
de la définir sur une famille F de P(Ω), famille qui vérifie certaines propriétés:

si A ∈ F , A ∈ F

si A, B ∈ F A ∪ B ∈ F et A ∩ B ∈ F

[
(Ai )i∈N ∈ F ⇒ Ai ∈ F

i=1

On dit que F est une σ-algèbre.

ex vérifier que la probabilité de Laplace satisfait aux axiomes (1) (2) (3.)

Propriétés

P (A) + P ((A) = 1
∀A ∈ P(Ω)(ou F)
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)

A ⊂ B ⇒ P (A) ≤ P (B)
Preuve :
• A ∪ A = Ω ⇒ P (A ∪ A) = P (Ω) = 1. A ∩ A = φ ⇒ P (A ∪ A) =
P (A) + P (Ā).
• A ∪ B = A ∪ (B\A ∩ B) d’où
P (A ∪ B) = P (A ∪ (B\A∩B )) = P (A) + P (B\A ∩ B).
or B = (B\A ∩ B) ∪ (A ∩ B).
d’où P (B) = P (B\A ∩ B) + P (A ∩ B)
d’où le résultat.
•A⊂B B = A ∪ (B\A)
d’où P (B) = P (A) + P (B\A) .
| {z }
≥0

2.4 Probabilités conditionnelles.


Notion d’indépendance
Les concepts d’indépendance et de probabilité conditionnelle sont définis ex-
plicitement par Abraham De Moivre (1667 - 1754). On lui doit également
un énoncé clair et précis de la formule des probabilités composées.
Soit Ω un univers (lié à une expérience aléatoire ξ) , P une probabilité sur
16 CHAPTER 2. INTRODUCTION AU CALCUL DES PROBABILITÉS

P(Ω)(ou F).
Soient A, B deux évènements, A ⊂ Ω, P (A) > 0 et B ⊂ Ω.
Définition
la probabilité conditionnelle de B sous l’hypothèse A est définie par
P (A ∩ B)
P (B|A) = .
P (A)
Signification : P (B|A) exprime la probabilité de B quand on sait que A
est déjà réalisé.
On dit couramment probabilité de B sachant A.

Exemple : On extrait sans remise 2 cartes d’un jeu de 32. La première


carte tirée est un roi. Quelle est la proba que la 2e carte soit aussi un roi ?
3
P (B|A) = 31 directement.
(on raisonne sur ce qu’il advient une fois la 1ere carte tirée.)
4
Si on veut appliquer la définition, c’est plus compliqué : P (A) = 32
P (A ∩ B) ? il s’agit de définir l’univers sur lequel est défini A ∩ B.
Soit l’experience aléatoire ξ : tirer 2 cartes sans remise. On a cardΩ = A232 =
32!
30!
= 32 × 31 et card A ∩ B = A42 . Ainsi
4×3 4×3
P (A ∩ B) = 32×31 donc P (B|A) = 32×31 × 32
4
3
= 31 .

Ainsi en général on utilise la relation dans le sens P (A∩B) = P (B|A)×P (A)

Propriété 1 : Formule des probabilités composées


P (A ∩ B) = P (B|A) × P (A) si P (A) > 0
P (A ∩ B) = P (A|B) × P (B) si P (B) > 0
Théorème
Soit A ∈ P(Ω) (ou F), tq P (A) > 0, P étant une probabilité sur P(Ω)
P(Ω) → [0, 1]
P|A : est une probabilité sur P(Ω)
B → PA (B) = P (B|A)
preuve :
P (Ω ∩ A) P (A)
(1) On a PA (Ω) = P (Ω|A) = = = 1.
P (A) P (A)
P ((B1 ∪ B2 ) ∩ A) P [(B1 ∩ A) ∪ (B2 ∩ A)]
(2) On a PA (B1 ∪ B2 |A) = = . Or
P (A) P (A)
B1 ∩ B2 = φ donc (B1 ∩ A) ∩ (B2 ∩ A) = φ d’où P [(B1 ∩ A) ∪ (B2 ∩ A)] =
P ((B1 ∩ A) P (B2 ∩ A)
P (B1 ∩ A) + P (B2 ∩ A). Ainsi PA (B1 ∪ B2 |A) = + =
P (A) P (A)
2.4. PROBABILITÉS CONDITIONNELLES.NOTION D’INDÉPENDANCE17

PA (B1 ) + PA (B2 ).
(3) est montré de la même manière.

Exemple :
Soit un jeu de 52. On fait 2 tirages avec remise. Probabilité que la première
carte soit un roi rouge et la 2e un roi noir ?

On a Ω = {(D, R)...}. Soient les événements suivants:


A: ”la première carte est un roi rouge” et
B: la deuxième carte un roi noir”. On a
P (A ∩ B) = P (B|A) × P (A), Ainsi
2 2 2 2
P (A) = et P (B|A) = 52 (= P (B)), donc P (A ∩ B) = × =
52 52 52
P (A) × P (B).

Définition
P (A) > 0
Soient A, B ∈ P(Ω) (ouF) , avec
P (B) > 0
A et B sont indépendants si et seulement si
P (B|A) = P (B) ou P (A|B) = P (A)
Ce qui est le cas dans un tirage avec remise. Le tirage de la première carte
n’influe pas sur le tirage de la 2e . Ce n’est plus le cas pour les tirages sans
remise.

Caractérisation
A et B (P (A) > 0 P (B) > 0) sont indépendants si et seulement si
P (A ∩ B) = P (A) × P (B)
Exemple : Soit une urne contenant 10 blanches ,20 rouges et 30 noires. On
tire 2 boules sans remises. Probabilité que la première soit rouge (évènement
A) et la deuxième soit blanche (évènement B) ?

On a P (A ∩ B) = P (B|A) × P (A). (pas d’indépendance)


20 1
On a P (A) = = et
60 3
10
P (B|A) = . Donc
59
10 1
P (A ∩ B) = ×
59 3
18 CHAPTER 2. INTRODUCTION AU CALCUL DES PROBABILITÉS

m̂ question avec des tirages avec remises


1 10 1 1 1
P (A ∩ B) = P (A) × P (B) = × = × =
3 60 3 6 18
Exemple :
un jeu radiophonique consiste à poser 10 questions à un candidat qui doit
choisir parmi 2 réponses dont une seule est juste. Le candidat perd au bout
de 2 réponses fausses.
1) Probabilité qu’un candidat qui répond au hasard puisse gagner ?
2) Probabilité qu’il ait perdu au bout de 5 questions sachant qu’il a perdu ?

1) Soit G évènement :”le candidat a gagné”.


ξ : poser 10 questions pour lesquelles il y a 2 réponses. On a
cardΩ = 210 .
card G = nombre de réponses toutes justes ou une fausse
= 1 + 10 = 11. Ainsi
P (G) = 211 10

2) Soit A = ”le candidat a perdu au bout de 5 questions”.


P (A ∩ G) P (A)
On a P (A|G) = = et
P (G) P (G)
P (G) = 1 − P (G) = 1 − 211
10

C41
P (A) =
25

attention !

Exemple introductif
Un sac contient 5 boules rouges et 15 boules jaunes. Un deuxième sac con-
tient 9 boules rouges.
ξ : On tire au hasard 1 boule du 1er sac et on la remet dans le second sac
sans regarder la couleur. On tire alors une boule du 2e sac. Quelle est la
probabilité P que cette boule soit rouge ?

Commentaire :
ξ comporte 2 étapes. La deuxième étape dépend de la 1er .
Si on tire une rouge alors P = 10
10
= 1.
9
Si on tire une jaune alors P = 10 .
2.4. PROBABILITÉS CONDITIONNELLES.NOTION D’INDÉPENDANCE19

Soit A = ”boule R au 2e tirage”,


B1 : ”1er boule est R” B2 : ”2e boule est J”. On a
B1 ∩ B2 = φ, B1 ∪ B2 = Ω. Ainsi
A = (A ∩ B1 ) ∪ (A ∩ B2 ). D’où
P (A) = P (A ∩ B1 ) + P (A ∩ B2 )
= P (A|B1 ) × P (B1 ) + P (A ∩ B2 ) × P (B2 )
5 9
= 1 × 20 + 10 × 15
20
Propriété 2 - Formule des probabilités totales
n
[
Soient (Bi )i=1,...n ∈ P(Ω) (ou F), tq Bi = Ω Bi ∩ Bj = φ i 6= j P (Bi ) > 0
i=1
Soit A ∈ P(Ω) (ou F), on a
Xn
P (A) = P (A|Bi ) × P (Bi )
i=1
n
[ n
[
Preuve : A = A ∩ Bi = (A ∩ Bi ), ainsi
i=1 i=1
P (A) = ni=1 P (A ∩ Bi ) = ni=1 P (A|Bi ) × P (Bi ).
P P

Exemple :
Soit un sac contenant 6 jetons : 5 numérotés 1 et 1 numéroté 2.
Soient 2 urnes : U1 contenant six boules Blanches et quatre Noires et U2
contenant 8 B et 2 N . L’expérience aléatoire comporte 2 étapes. On pioche
au hasard dans le sac, on regarde le numéro et on pioche dans l’urne corre-
spondante.
Probabilité que la boule soit blanche ?

On a U1 ∪ U2 = Ω et U1 ∩ U2 = φ, on a donc
P (B) = P (B ∩ U1 ) + P (B ∩ U2 )
= × P (U
P (B|U1 )   1 ) + P (B|U
 2 )P (U2 )
6 5 8 1 1 2 7
= × + × = + =
10 6 10 6 3 15 15
Autre question : sachant que la boule est blanche proba qu’elle provienne
de U1 :
P (B ∩ U1 ) P (B|U1 ) × P (U1 ) P (B|U1 ) × P (U1 )
On a P (U1 |B) = = = =
P (B) P (B) P (B|U1 ) × P (U1 ) + P (B|U2 ) × P (U2 )
20 CHAPTER 2. INTRODUCTION AU CALCUL DES PROBABILITÉS

6 5 1
×
10 6 = 3 = 5 .
7 7 7
15 15
Théorème de Bayes
n
[
Soit {Bi , i = 1, . . . , n} Bi = Ω, Bi ∩ Bj = φ ∀i 6= j,
i=1 . On a
P (Bi ) > 0
Soit A ∈ P(Ω)(ou F),
P (A|Bk ) × P (Bk )
P (Bk |A) = n
X
P (A|Bi ) × P (Bi )
i=1

P (Bk ∩ A)
Preuve : P (Bk |A) = et on applique la formule des probabilités
P (A)
totales.

Exemple :
Une population est constituée de 10 Français, 10 Allemands.
7 Français sont bruns, 3 blonds,
1 Allemand est brun, 9 blonds.
On rencontre un blond, probabilité qu’il soit Allemand ?
Soient les événements A = ”il est blond”, B1 = ”Allemand” et B2 =
”Français”.
9
On connait P (B1 ) = 1/2, P (B2 ) = 1/2, P (A|B1 ) = et P (A|B2 ) = 3/10.
10
On demande P (B1 |A).
On a B1 ∪ B2 = Ω et B1 ∩ B2 = φ, on peut donsc appliquer le théorème de
Bayes:
9 1
P (A|B1 ) × P (B1 ) ×
P (B1 |A) = = 10 2 =
P (A|B1 ) × P (B1 ) + P (A|B2 ) × P (B2 ) 9 1 3 1
× + ×
10 2 10 2
3
.
4
Exemple :
2.4. PROBABILITÉS CONDITIONNELLES.NOTION D’INDÉPENDANCE21

Une entreprise utilise 3 machines différentes A, B, C pour fabriquer des pièces.


40 % sont fabriquées par A, 30 % par B et 30 % par C. La machine A pro-
duit 2 % de pièces défectueuses, B 4 % et C 5 %.
1) On prélève une pièce au hasard. Probabilité qu’elle soit défectueuse.
2) On prélève une pièce. Elle est défectueuse. Probabilité qu’elle vienne de
A.
3) On prélève une pièce. Elle est saine. Probabilité qu’elle vienne de C.

Soient A : ” être fabriqué par A, B : ”être fabriqué par B,....


D : ”être défectueuse” et D : saine.
On a P (A) = 0, 4, P (B) = 0, 3, et P (C) = 0, 3.
A, B, C sont tels que A ∩ B = φ, A ∩ C = φ, C ∩ B = φ et A ∪ B ∪ C = Ω.
1)En appliquant la formule des probabilités totales, on a
P (D) = P (D|A) × P (A) + P (D|B) × P (B) + P (D|C) × P (C) = 0, 02 × 0, 4 +
0, 04 × 0, 3 + 0, 05 × 0, 3.
P (D|A) × P (A) 0, 02 × 0, 4
2)D’après le théorème de Bayes, P (A|D) = =
P (D) P (D)
P (D|C) × P (C) 0, 95 × 0, 3
3) P (C|D) = =
P (D) 1 − P (D)
Exemple :
Une urne contient 10 B 20 R 30 N .
On tire 3 boules sans remise.
Probabilité que les 2 premières soient rouges et la troisième noire ?

Soient les évènements: A:” la première boule tirée est rouge”, B:”la 2ième
est rouge”, on a
20
P (A ∩ B) = P (B|A) × P (A), or P (A) = = 1/3 et P (B|A) = 19 59
. Donc
60
19 1
P (A ∩ B) = × .
59 3
Posons C = A ∩ B.
Soit D:”la troisième est noire”. On a
30 19
P (D ∩ C) = P (D|C) × P (C) = × .
58 59 × 3
Exemple :
Soient 2 dés ; l’un d’eux est pipé. ils permet d’obtenir 6 dans 50 % des cas ;
l’autre est équilibré. On lance l’un des deux dés choisi au hasard. On obtient
6. Quelle est la probabilité qu’on ait utilisé le dé équilibré ?
22 CHAPTER 2. INTRODUCTION AU CALCUL DES PROBABILITÉS

Soient E : ”le dé est équilibré,”


P : ”le dé est pipé,”
A : ”obtenir 6”.
1 1 1 1
Les données sont P (E) = , P (P ) = , P (A|E) = et P (A|P ) = .
2 2 6 2
On a E ∪ P = Ω et E ∩ P = φ. On peut donc appliquer le théorème de
1 1
P (A|E) × P (E) ×
bayes: P (E|A) = = 6 2 = 0, 25.
P (A|E) × P (E) + P (A|P ) × P (P ) 1 1 1
× +
6 2 4

2.5 Exercices d’application


Exercice 1 :
Dans une entreprise, la probabilité qu’un ouvrier A quitte l’entreprise dans
l’année est 1/5, probabilité qu’un cadre B quitte l’entreprise dans l’année est
1/8 et la probabilité que A et B quittent l’entreprise est 1/40.
Calculer la probabilité que l’un des deux quitte l’entreprise et que ni l’un ni
l’autre ne quitte l’entreprise.

Exercice 2 :
Dans une population, on a observé que pendant 1 mois, 40 % des individus
sont allés au cinéma, 25 % au théatre et 12,5 % au cinéma et au théatre.
Calculer la probabilité que pendant 1 mois un individu
1) aille au cinéma ou au théatre.
2)n’aille pas au cinéma.
3)n’aille ni au cinéma ni au théatre.
4)aille au cinéma mais pas au théatre.
5) probabilité qu’un individu aille au théatre sachant qu’il est allé au cinéma
6) probabilité qu’un individu n’aille pas au cinéma sachant qu’il n’est pas
allé au théatre.

Exercice 3 :
Une urne contient 5B et 3N
1) 5 tirages sans remises
1-a) Proba d’avoir 3B puis 2N
1-b) Proba d’avoir exactement 3B
2.5. EXERCICES D’APPLICATION 23

2) 5 tirages avec remise


1-a) Proba d’avoir BBBN N
2-b) Proba d’avoir exactement 3B.
24 CHAPTER 2. INTRODUCTION AU CALCUL DES PROBABILITÉS
Chapter 3

Variables aléatoires et lois de


probabilités

3.1 Espace probabilisé et loi de probabilité


3.1.1 Définition
On a vu qu’une expérience aléatoire ξ définissait un ensemble d’événements
possibles Ω appelé univers. Sur P(Ω) on peut définir une application P telle
que ∀A ∈ P(Ω) (ou c alF ) P (A) est la probabilité de l’évènement A de se
réaliser.

Définition
Soit Ω un univers.
On appelle espace probabilisé le triplet (Ω, P(Ω) (ou c alF ), P ) P étant une probabilité sur P(Ω)
P est appelée loi de probabilité
On note souvent (Ω, P ).
Remarque :
Si ξ est une expérience aléatoire et Ω l’ensemble de ses éventualités, le statis-
ticien cherche à donner une loi de probabilité P. (Ω, P ) décrira le caractère
aléatoire de l’expérience.

3.1.2 Exemples
Exemple 1 : On lance successivement 2 fois une pièce : ξ
Ω = {(P, P )(F, F )(P, F )(F, P )} avec P = pile et F = face.

25
26CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS

On définit la probabilité suivante:


1
P : Ω → [0, 1] ∀ω ∈ Ω P (ω) =
4
Exemple 2 : Dans une urne contenant 3 Blanches, 4 Rouges, 6 Noires, on
tire une boule et on observe sa couleur:
3 4 6
Ω = {B, R, N }, P (B) = , P (R) = , P (N ) = .
13 13 13
Exemple 3 : Une pièce a 2 faces valant respectivement +1 et −1.
ξ : on fait 3 lancers successifs. On a
{(+1, +1, −1)(+1, +1, +1)(+1, −1, +1)(+1, −1, −1)
Ω=
(−1, +1, −1)(−1, +1, +1)(−1, −1, 1)(−1, −1, −1)}
1
P (ω) = 3 ∀ω ∈ Ω. Les événements sont équiprobables.
2

3.1.3 Lois discrètes et lois continues


On rencontrera deux types de lois de probabilité :
- Lois discrètes : P : Ω → [0, 1] où Ω est fini ou ∞ dénombrable i.e. Ω
est une suite (finie ou ∞) d’ événements élémentaires que l’on peut noter
Ω = {ωi i ∈ I} avec I ⊂ N. Soient
pi = P ({ωi }) i ∈ I. [ X
Soit A un évènement qq, si A = {ωi } alors P (A) = pi
i∈J i∈J

- Lois continues : P : Ω → [0, 1] est continue si tous les événements élémentaires


ont une probabilité nulle.
d−c
ex : Ω = [a, b] ∀[c, d] ⊂ [a, b] P ([c, d]) = (loi uniforme)
b−a

3.2 Notion de variable aléatoire et loi de prob-


abilité d’une variable aléatoire
3.2.1 Exemple introductif
Soient 2 joueurs Albert et Bernard. L’un des deux lance un dé
1F
si 1 ou 6, A −→ B
2F
si 2,3 ou 5, B −→ A
si 4, partie nulle.
3.2. NOTION DE VARIABLE ALÉATOIRE ET LOI DE PROBABILITÉ D’UNE VARIABLE ALÉ

Appelons X le gain d’Albert.


X dépend du hasard, plus particulièrement du résultat du lancer de dé. On
dira que X est une variable aléatoire car elle dépend du hasard.
Ici ξ = lancer de dé Ω = {1, 2, 3, 4, 5, 6} ainsi X dépend des événements
de Ω et peut prendre les valeurs −1, 0, 2.
X(1) = −1, X(6) = −1, X(2) = X(3) = X(5) = 2, X(4) = 0.

Ω→R
X:
ω → X(ω)
X est une application numérique de {1, 2, 3, 5, 6} dans R.

Le dé étant non truqué, les événements élémentaires de Ω sont équiprobables.


1
Ainsi (Ω, P ) est un espace probabilisé P ({i}) = i = 1, 2, 3, 4, 5, 6
6
On demande la probabilité qu’Albert a de gagner 2 F. On a
1
P (X = 2) = P [ω tq X(ω) = 2] = P [X −1 (2)] = P ({2, 3, 5}) = ,
2
1
P (X = −1) = P (X = 0) = 1/6.
3
Ainsi à chaque valeur de X, on peut associer une probabilité. Cette corre-
spondance s’appelle loi de probabilité de X représentée par le tableau suivant:

valeurs de X -1 0 2
probabilité 1/3 1/6 1/2

3.2.2 Définitions
Définition 1 :
Une variable aléatoire est une fonction de Ω dans R (Ω, P ) étant un
espace probabilisé.
Rmq :
Si Ω fini ou ∞ dénombrable aucun pb. Si Ω est non dénombrable, il faut une
propriété supplémentaire : X −1 (] − ∞, x]) ∈ F.
F étant une σ algèbre (par exemple les intervalles de R).

X est une correspondance entre l’ensemble des évènements élémentaires et R.

Définition 2 :
28CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS

Soit X une v.a définie sur l’espace probabilisé (Ω, P ). On appelle


loi de probabilité de X, la probabilité PX définie sur l’ensemble des intervalles I
de R tq ∀I ⊂ R
Px (I) = P {ω tq X(ω) ∈ I}

3.2.3 Exemples

Exemple 1. On lance successivement 2 fois une pièce de monnaie. Soit la


variable aléatoire X représentant le nombre de faces obtenues après ces 2
lancements.
1) donner les valeurs de X
2) définir la loi de probabilité de X

Solution : Ω = {(P, P ), (P, F ), (F, P ), (F, F )} évènements équiprobables

X: Ω →R X(Ω) = {0, 1, 2}
(P, P ) →0
Valeurs de X 0 1 2
(P, F ) →1 1 1 1
PX
(F, P ) →1 4 2 4

(F, F ) →2
Exemple 2. Dans une urne, il y a des boules blanches et rouges. Les blanches
sont en proportion p et les rouges en proportion q = 1 − p.
ξ : on tire une boule. Ω = {B, R}, p(B) = p, p(R) = q.
X : nb de rouges obtenues. Donner la loi de probabilité de X.
On a Px (0) = P (X = 0) = P (B) = p et Px (1) = P (X = 1) = P (R) = q.

ev élémentaires B R
Valeurs de X 0 1
probabilités p q
Remarque :
On peut faire une analogie entre variable aléatoire (v.a) et variable statis-
tique. La notion de probabilité pour les v.a remplace celle de fréquence
relative pour les variables statistiques.
3.3. VARIABLES ALÉATOIRES DISCRÈTES 29

3.2.4 Fonction de répartition d’une loi de probabilité


d’une v.a
Définition.
soit X une v.a définie sur (Ω, P ) on appelle fonction de répartition de X la fonction F
de R dans R définie par F (x) = P (X ≤ x).
Propriétés.
(1) P (a < X ≤ b) = F (b) − F (a) ∀b ≥ a.
(2) F est croissante
(3) F (x) ∈ [0, 1] ∀x ∈ R, lim F (x) = 1, lim F (x) = 0.
X→+∞ x→−∞

La fonction de répartition permet de calculer toutes les probabilités relatives


aux intervalles.

3.3 Variables aléatoires discrètes


On peut faire une analogie entre les variables statistiques et les variables
aléatoires discrètes (v.a.d).

3.3.1 Rappel de statistique descriptive univariée


Ω : population
M = ensemble de classes Ci i = 1, . . . k
x : Ω → M variable statistique

classes C1 C2 . . . Ck
fréquences relatives f1 f2 fk
fréquences relatives cumulées F1 = f1 F2 = f1 + f2 Fk = 1

3.3.2 Définitions d’une v.a.d. et de sa loi de proba-


bilité
Définition 1.
une variable X est discrète si l’ensemble de ses valeurs est fini ou ∞ dénombrable.

v. stat v. aléatoire discrètre


Analogie : classe de modalité valeurs de X
Ci xi
30CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS

Définition 2.
La loi de probabilité de X est définie par
1) les valeurs de X : xi i ∈ I,
2) les probabilités des valeurs de X pi = P (X = xi ).
Souvent on dresse le tableau :

valeurs de X x1 x2 ... xn
proba P (X = xi ) p1 p2 ... pn
v. statistique v. aléatoire discrètre
fréquence relative pi = p(X = xi )
Analogie :
fi
de Ci

3.3.3 Fonction de répartition

X : Ω → {x1 , . . . , xn }
La fonction de répartition F (F (x) = P (X ≤ x)) vérifie:
x ∈] − ∞, x1 [ F (x) = P (φ) = 0,
x ∈ [x1 , x2 [ F (x) = P (X ≤ x) = F (x1 ) = P (X = x1 ) = p1 ,
x ∈ [xi , xi+1 [ F (x) = p1 + p2 + . . . + pi ,
x ≥ xn F (x) = 1.
X
F (x) = pi
i tq
xi ≤x

Propriété pi = F (xi ) − F (xi−1 )

Ainsi si on connait la loi de probabilité de X on déduit sa fonction de


répartition et inversement.

v. statistique v. aléatoire discrètre


fréquences fonction
Analogie :
relatives de répartition
cumulées
3.3. VARIABLES ALÉATOIRES DISCRÈTES 31

3.3.4 Exemples

• Exemple 1 : ξ : on jette 2 dés. Soit X la v.a. qui représente la somme des


points obtenus par les 2 dés.
1) donner la loi de probabilité de X.
2) donner la fonction de répartition de X.
• Exemple 2 : on lance une pièce de monnaie un certain nombre de fois. Soit
X le nombre de jets nécessaires pour obtenir pile pour la 1ere fois
1) quelles valeurs prend X ?
2) quelle est la loi de probabilité de X ?
3) fonction de répartition

1)L’univers est défini de la manière suivante: Ω = {suite infinie (un )n∈N un =


P ou F }, et on a
X(Ω) = N∗
2) valeurs de X 1 2 . . . k
1 1 1
proba 2
... k
2 2 2
3) x < 1 F (x) = 0,
1≤x<2 F (x) = 1/2,
1 1
2≤x<3 F (x) = + 2 = 3/4,
2 2 k k
k ≤ x < k + 1 F (x) = 21 + 212 + 213 + . . . + 21k = 12 1−(1/2)
1−1/2
= 1 − 21k = 2 2−1
k .

• Exemple 3 : D’un sac contenant n jetons, numérotés de 1 à n n ≥ 3,


on tire successivement au hasard sans remise 3 jetons.
soit X le numéro du 3e jeton obtenu.
Déterminer la loi de proba de X et sa fonction de répartition.

Ω = {triplet}.
X(Ω) = {1, . . . , n}.

P (X = k) = P ({triplet tq 3e numéro est k})


A2 1
= n−1 = .
A3n n
X1 E(x)
F (x) = = .
k≤x
n n
• Exemple 4 : On place un hamster dans une cage. Il se trouve face à 5
32CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS

portillons dont un seul lui permet de sortir. A chaque essai infructueux, il


reçoit une décharge électrique et on le replace à l’endroit initial.

1) En supposant que le hamster choisisse de façon équiprobable entre les


5 solutions à chaque nouvel essai, déterminer la probabilité des événements
suivants :
le hamster sort au 1er essai, au 3e , au 7e .

2) Le hamster mémorise maintenant les essais infructueux et choisit de façon


équiprobable entre les portillons qu’il n’a pas encore essayés.
Soit X le nb d’essais effectués pour sortir.
Quelles valeurs prend X ? Déterminer sa loi de probabilité

Solution succinte :
4 4 1
1)P (1er essai) = 1/5, P (3e essai) = × × = 0, 128, P (7e ) = (4/5)6 ×
5 5 5
1
= 0, 0524;
5
valeurs de X 1 2 3 4 5
2) X(Ω) = {1, 2, 3, 4, 5}
proba 0, 2 0, 2 02 0, 2 0, 2

3.4 Variables aléatoires continues (v.a.c)


3.4.1 Définition - Fonction de répartition
Définition :
La v.a X est continue si et seulement si ses valeurs constituent un ou plusieurs intervalles

La fonction de répartition est définie par F (x) = P (X ≤ x)

Définition :
Si F est continue et dérivable alors X est absolument continue.

Rmq dans beaucoup d’ouvrage on parle de continuité à la place d’absolue


continuité

Propriétés
3.4. VARIABLES ALÉATOIRES CONTINUES (V.A.C) 33

(1) F est croissante,


(2) lim F (x) = 1 lim F (x) = 0 si X(Ω) = R
x→+∞ x→−∞
(3) P (a ≤ X < b) = F (b) − F (a)
(4) si X est abs cont Alors ∀x P (X = x) = 0.
preuve de (4) :
0 ≤ P (X = x) ≤ P (x − u ≤ X < x + v) = F (x + v) − F (x − u)
= (F (x + v) − F (x)) + (F (x) − F (x − u)) ∀u, v .
| {z } | {z }
↓v→0 ↓u→0
0 0

3.4.2 Fonction densité

Définition 1
P (a ≤ X < b) F (b) − F (a)
La densité moyenne de proba sur [a, b] de X v.a.c. f (a, b) = =
b−a b−a
Ainsi on en déduit naturellement la notion de densité de probabilité en 1
point.

Définitions 2
F (x + ∆x) − F (x)
(i) La densité de probabilité en 1 point f (x) = lim
∆x→0 ∆x

(ii) Si X est abs continue f (x) = F 0 (x) est appelée fonction densité
Z x
Conséquences ∀x ∈ R F (x) = f (y)dy
−∞ Z b
P (a ≤ X ≤ b) = f (y)dy.
a
Propriété de f
(1) f ≥ 0
Z +∞
(2) f (x)dx = 1
−∞

Remarque
(2) est souvent utilisé pour montrer qu’une fonction est effectivement une
densité.
34CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS

3.4.3 Exemples
Exercice 1
Soit X la v.a. donnée par sa fonction densité

 0 x<0
f (x) = 1 x ∈ [0, 1] (Loi uniformément répartie sur [0, 1])
0 x>1

1) donner le graphe de f
2) donner la fonction de répartition et son graphe. Calculer P (0, 25 ≤ X <
0, 5).

Exercice 2
On suppose que la durée de vie d’un individu est une v.a. continue dont la
densité de probabilité est

k t2 (100 − t)2 t ∈ [0, 100]
f (t) =
0 sinon
1) Déterminer k pour que f soit la fonction densité d’une v.a
2) Calculer la probabilité pour qu’un individu meurt entre 60 et 70 ans.

3.5 Caractéristiques d’une variable aléatoire

3.5.1 Introduction
Pour une variable statistique donnée par le tableau

classes fréquences relatives


C1 f1
.. ..
. .
Cn fn
on avait défini des grandeurs caractérisant la v. statistique comme la moyenne,
la variance, l’écart type.
3.5. CARACTÉRISTIQUES D’UNE VARIABLE ALÉATOIRE 35
Xn

x = fi xi moyenne

i=1
Xn
fi x2i − x2

V (x) = variance
Rappels i=1
Xn
= fi (xi − x)2



i=1
σ(x) = pV (x) écart type
On va faire de même pour les variables aléatoires.

3.5.2 Espérance
• Cas des variables discrètes
Soit X une v.a. définie sur (Ω, P ) tq X(Ω) = {xi , i ∈ I}, pi = P (X = xi )
L’espérance de X est définie par
X
E(X) = pi xi .
i∈I

(analogie avec les variables statistiques)

• Cas des variables absolument continues


X : (Ω, P ) → R de fonction densité f définie sur R
Z +∞
E(X) = xf (x) dx.
−∞
Z b
Si f est définie sur [a, b] E(X) = xf (x)dx.
a

Exercice 1
Dans une urne, on a des boules blanches en proportion p et des noires en
B→0
proportion q = 1 − p. Soit X :
N →1
Calculer E(X).

valeurs de X 0 1
sol : E(X) = q
proba p q
Exercice 2
36CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS

Lancers successifs de 2 pièces de monnaie. X : nb de faces obtenues.


Calculer E(X)

X: 0 1 2 1 1
sol : 1 1 1 E(X) = +2× =1
proba 2 4
4 2 4
Exercice 3
Lancer de 2 dés. X = somme des 2 dés.
Calculer E(X)
2 6 12 20 30 42 40 30 20 12 252
E(X) = + + + + + + +1+ + + = =7
36 36 36 36 36 36 36 36 36 36 36
Exercice 4
On jette un dé : X : pt du dé

X 1 2 3 4 5 6 1 21
1 1 1 1 1 1 E(X) = (1 + 2 + 3 + 4 + 5 + 6) =
proba | {z }6 6
6 6 6 6 6 6 6×7
2
Exercice 5
Un joueur tire au hasard une carte parmi 52. Il gagne 200 F si la carte est
un coeur et perd 100 F sinon. Soit G : Ω → R le gain du joueur.
1) définir la loi de probabilité de G
2) calculer son espérance

Ω = {52 cartes}

Valeur de G 200 -100 200 300 100


1 3 E(G) = − =− = −25
proba 4 4 4
4 4
Exercice 6
Deux joueurs A et B lancent chacun une pièce.
Si les 2 pièces tombent sur pile A gagne g sinon B gagne 2 F.
Un jeu est équitable si et seulement si l’espérance du gain de chaque joueur
est nulle. Que doit valoir g pour que le jeu soit équitable ?

sol : Ω = {(P, P )(F, F )(P, F )(F, P )}


3.5. CARACTÉRISTIQUES D’UNE VARIABLE ALÉATOIRE 37

GA : gain de A -2g GB 2 −g
31 3 1
proba proba
44 4 4
6 g 6 g
E(GA ) = − + , E(GB ) = − . Ainsi
4 4 4 4
E(GA ) = E(GB ) = 0 si et seulement si g = 6.

Exercice 7 
 0 si x < 0 x > 2
Soit X définie par sa fonction densité f (x) = x si x ∈ [0, 1[
−x + 2 si x ∈ [1, 2]

1) représentation de f et vérifier que f est une fonction densité.
2) calculer F , la fonction de répartition.
3) calculer E(X).

sol :
base × hauteur 2×1
1) • Aire triangle = = =1 (calcul géométrique)
2 2
Z +∞ Z 1 Z 2
• f (x)dx = x dx + −x + 2 dx
−∞ 0
 2 1  1
x 2
2
= + −x2 + 2x
2 0 1
= 1/2 + −2 + 4 + 1/2 − 2 = 1 (calcul analytique)

 =0 x<0
2


 x
 = x ∈ [0, 1[

2) F (x) 2 2
x
= − + 2x − 1 x ∈ [1, 2[




 2
=1 x>2

Z +∞ Z 1 Z 2
2
3) E(X) = x f (x) dx = x dx + x(−x + 2)dx
−∞ 0
 3 1  1  
x x3 2
2 8
= + − 3 +x = 1/3 + − + 4 − [−1/3 + 1] = 1
3 0 1 3

Propriétés de l’espérance Soit a, b ∈ R, X : Ω → R, Y :Ω→R


38CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS

E(aX + b) = a E(X) + b
E(X + Y ) = E(X) + E(Y )
E(X − Y ) = E(X) − E(Y )
E(X.Y ) = E(X).E(Y ) si X et Y sont indépendantes (définition au chapitre 4)

3.5.3 Variances
• Cas des variables discrètes Soit X une v;a;d telle que
X(Ω) = {xi i ∈ I} et P (X = xi ) = pi .
X X
V (X) = pi x2i − E(X)2 = pi (xi − E(X))2 (analogie avec les v.
i∈I i∈I
statistiques)

• Cas des variables absolument continues de fonction densité f : R → R


Z +∞ Z +∞
2
V (X) = (x − E(X)) f (x)dx = x2 f (x)dx − E(X)2 .
−∞ −∞

Pour toutes les variables aléatoires, on peut définir

V (X) = E[(x − E(X))2 ] = E(X 2 ) − E(X)2 .

définition :
on appelle écart type de X, noté σ(X), la quantité:
p
σ(X) = V (X)
Exercice 1
Soit X la v.a. discrète définie par

xi pi
−2 1/8
−1 1/4
Calculer E(X) et V (X)
0 1/5
1 1/8
2 3/10
9
sol : E(X) = ' 0, 225
40
3.5. CARACTÉRISTIQUES D’UNE VARIABLE ALÉATOIRE 39
 2
83 9 3239
V (X) = − = ' 2, 02
40 40 1600
Exercice 2
Une entreprise de la région estime que la demande concernant l’un des ar-
ticles qu’elle produit est une v.a. continue X dont la densité de probabilité est

f (x) = 0 x<0
= 3x + 2 x ∈ [0, 1/3[
=x x ∈ [1/3, 2/3]
= −3x + 3 x ∈ [2/3, 1[
=0 x≥1
1) représentation de f .
2) fonction de répartition de f .
3) P [200 < X < 600].
4) E(X), V (X).

Propriété de la variance
V (aX + b) = a2 V (X)
V (X + Y ) = V (X) + V (Y ) si X et Y sont indépendantes
V (X − Y ) = V (X) + V (Y ) si X et Y sont indépendantes
On verra plus tard la définition mathématique de l’indépendance de 2 v.a.
mais on peut la définir intuitivement. 2 v.a. sont indépendantes si elles n’ont
aucune liaison entre elles.
Ex : on lance 2 dés X : n◦ du 1er dé Y = n◦ du 2e . Elles sont indépendantes.

3.5.4 Moments
Définition
On appelle moments centrés d’ordre k de X: mk = E(X k )
X
• v.a. discrètes mk = pi xki , si X(Ω) = {xi i ∈ I}
i∈I
Z +∞
• v.a. continues mk = xk f (x)dx
−∞

Propriété
40CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS

V (X) = m2 − m21

définition
on appelle moments centrés en E(X) d’ordre k de X: Mk = E(X − E(X))k

(V (X) = M2 )

3.5.5 Médiane et Mode

Définition
Soit X une v.a. On appelle médiane de X, notée Me , le réel (ou l’intervalle)abscisse
1
de l’intersection entre y = et y = F (x).
2
Exemple

 0 x<0
0 x>2

f (x) =

 x [0, 1[
2 − x [1, 2[

Z x
Si x < 0, F (x) = f (t)dt = 0.
−∞ Z x  2 x
t x2
Si x ∈ [0, 1[, F (x) = tdt = = .
0 2 0 2 x
Z x
t2

Si x ∈ [1, 2[, F (x) = 1/2 + (2 − t)dt = 1/2 + 2t − = 1/2 + 2x −
1 2 1
x2 x2
− 2 + 1/2 = −1 + 2x − .
2 2
On a Me = 1.

Définition
Soit X une v.a. On appelle mode de X la valeur x0 telle que
(i) si X est discrète P (X = x) ≤ P (X = x0 ) ∀x
(ii) si X est continue f (x) ≤ f (x0 ) ∀x
Rmq : une v.a. peut avoir plusieurs modes.
3.5. CARACTÉRISTIQUES D’UNE VARIABLE ALÉATOIRE 41

3.5.6 Fonction d’une variable aléatoire

Soit X une v.a. et Y = ϕ(X), ϕ étant une fonction de R dans R.

• Cas d’une variable discrète Soit X une v.a.d telle que


X(Ω) = {x1 , . . . , xn }, pi = P (X = xi ).
Y = ϕ(X) est définie sur le même univers Ω et Y (Ω) = {ϕ(x1 ), . . . , ϕ(xn )}
L’évaluation de la distribution Y ne présente pas de difficultés majeures. On
calcule la probabilité des évènements.
P (Y = yk ) = P ({ω ∈ Ω tq Y (ω) = yk }) = P (ω ∈ Ω tq ϕ(X(ω)) = yk )
Par contre on peut calculer E(Y ) et V (Y ) sans la distribution de probabilité
de Y :
n
X
E(Y ) = pi ϕ(xi )
i=1
Xn
V (Y ) = fi ϕ2 (xi ) − E(Y )2
i=1

Exemple :
Soit X une v.a. prenant chacune des valeurs 0,1,2,3,4,5 avec la même prob-
1
abilité
6
Soient Y = 2X + 1 et Z = X 2
1) Calculer E(Y ), V (Y ) puis E(Z), V (Z).
2) Donner la loi de probabilité de Y puis de Z.

sol :
1
1) E(Y ) = [1 + 3 + 5 + 7 + 9 + 11] = 6
6
1 70 35
V (Y ) = [1 + 9 + 25 + 49 + 81 + 121] − 62 = =
6 6 2
1 55
E(Z) = [1 + 4 + 9 + 16 + 25] =
6 6
1 55 979 552 2849
V (Z) = [1 + 16 + 81 + 256 + 625] − 2 = − 2 = = 79, 14
6 6 6 6 36
Valeurs de Y 1 3 5 7 9 11
2) 1 1 1 1 1 1
probas
6 6 6 6 6 6
42CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS

• Cas d’une variable continue


Soit X une v.a.c. de fonction densité f
Soit ϕ une fonction de R dans R telle que Y = ϕ(X) soit également une v.a.c.

Dans les applications rencontrées, on a


Z +∞
E(Y ) = ϕ(x) f (x)dx
−∞
Z +∞
V (Y ) = ϕ2 (x) f (x)dx − E(Y )2
−∞

Rmq : si on pose Y = ϕ(X) avec X v.a., Y n’est pas forcément une v.a.

Exemple :
Soit X une v.a. telle que
1/2 sur [−1, 1]
f (x) =
0 ailleurs
2
Soit Y = X
1) Calculer E(Y ) et V (Y )
2) Quelle est la fonction densité de Y ? Retrouver E(Y ) et V (Y ).

sol :  3 1
Z 1
1 2 x 1 1 1
1) E(Y ) = x dx = = + =
−1 2 6 −1 6 6 3
Z 1  5 1
1 1 x 1 1 1
V (Y ) = x4 dx − 2 = − = −
−1 2 3 10 −1 9 5 9
2) Calculons la fonction de répartition de Y .
G(y) = P (Y ≤ y) = P (X 2 ≤ y).
Pour y < 0 G(y) = 0.
√ √
Pour y > 0 G(y) = P (− y ≤ X ≤ y) , avec F la fonction
√ √
= P (X ≤ y) − P (X ≤ − y)
√ √
= F ( y) − F (− y)
de répartition de X.

 0
 si x < −1
1+x
on a F (x) = si x ∈ [−1, 1] Ainsi,
 2

1 si x > 1
Pour y < 1, G(y) = 0.
3.5. CARACTÉRISTIQUES D’UNE VARIABLE ALÉATOIRE 43


Pour y ∈ [0, 1], G(y) = y.
Pour y > 1, G(y) = 0. La fonction densité de Y , g(y) = G0 (y) est donc
Ainsi g(y) = 0 pour y < 0 et y > 1,
1
g(y) = √ pour 0 ≤ y ≤ 1
2 y
 √
1/2 y y ∈ [0, 1]
g(y) =
0 sinon
Z 1
1 1 1/2
Z
1 1 3/2 1 1
On a E(Y ) = y √ dy = y dy = 4 /3/2 0 = ,
0 2 y 2 0 2 3
Z 1 Z 1
1 1 1 1
V (Y ) = 42 √ dy − 2 = y 3/2 dy −
0 2 y 3 2 0 9
1 2 5/2 1 1 1 1
= × (4 )0 − = − .
2 5 9 5 9
44CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS
Chapter 4

Lois discrètes usuelles

4.1 Introduction
On a un phénomène aléatoire que l’on veut comprendre. Ce phénomène
aléatoire est à priori complexe et on ne peut calculer directement les proba-
bilités de ses éventualités.
ex : comprendre la dépense annuelle des ménages français pour les loisirs;
par exemple, on veut calculer la probabilité qu’ils dépensent 5 000 F par an.
On dispose donc d’une population pour laquelle le modèle est destiné, d’un
individu et d’un caractère étudié (représenté par une variable aléatoire X).

Que fait-on ?

1 - Pour avoir une première idée du phénomène représenté par une vari-
able aléatoire X, on peut faire plusieurs observations de X.

ex : X = dépense annuelle pour les loisirs d’un ménage (variable aléatoire


attachée à un individu). On demande à un certain nombre de ménages ses
dépenses annuelles en loisirs. On a donc la valeur de Xi , Xi étant la dépense
annuelle pour le ménage i.

Cette suite d’observation débouche sur la définition d’une variable statistique


x souvent décrite de la manière suivante :

valeurs de x fréquences
xi ni

45
46 CHAPTER 4. LOIS DISCRÈTES USUELLES

On étudie cette variable statistique à l’aide des techniques des statistiques


descriptives (1ere année).

2 - Il y a quelques lois de probabilité ou lois théoriques qui décrivent as-


sez bien un grand nombre de phénomènes aléatoires. On veut représenter le
phénomène aléatoire par une loi de probabilité théorique. Cette modélisation
est évidemment plus riche que la représentation par une variable statistique
: ici on peut calculer la probabilité de tout évènement associé au phénomène
aléatoire. Dans ce chapitre, nous allons fournir un catalogue de lois de prob-
abilité discrètes (description, étude) souvent utiles en pratique.
Le statisticien plus chevroné construira ses propres modèles théoriques.

3 - Après le choix d’un modèle théorique se pose la question suivante : peut-on


quantifier l’approximation du phénomène aléatoire par le modèle théorique.

4.2 Schéma de Bernouilli


Toute épreuve n’ayant que 2 résultats possibles peut-être considérée comme
une situation d’alternative.
En d’autres termes, les 2 résultats possibles sont complémentaires l’un de
l’autre.

Il s’agit d’une situation fréquente dans la pratique dès que l’on cherche à
mettre en évidence un caractère particulier au sein d’une population :
tout individu de cette population peut être décrit selon une alternative : soit
il présente ce caractère, soit il ne le présente pas.

Exemple : Etude de l’impact d’une campagne publicitaire pour un nouveau


produit.
Q1 : Est-ce que l’individu possédait ce produit auparavant ?
Q2 : L’individu a-t-il été touché par la campagne ?
Q3 : La campagne a-t-elle induit l’achat ?

Souvent les résultats possibles sont des objets qualitatifs. Pour les quan-
tifier, il faut leur trouver un codage.
4.3. LE SHÉMA BINOMIAL 47

On définit ainsi une v.a. X dites de Bernouilli (savant suisse 1654-1705) par
0 1
1−p p
Définition
On réalise une expérience aléatoire qui a 2 résultats possibles : le succès S, de probabilité. p,
et l’Echec
 E de probabilité. 1 − p. La v.a
1 si succès est une v.a. de Bernouilli
X:
0 si échec

Mode
Si p > q, le mode est1;
sip < q, le mode est0

Médiane
p > q ⇒ q < 1/2 Me = 1
p < q ⇒ q > 1/2 Me = 0

Propriété
E(X) = p
V (X) = p(1 − p)
Remarque :
La v.a. de Bernouilli est une v.a. indicatrice : elle indique la réalisation
éventuelle de l’événement de probabilité p. Le shéma de Bernouilli est le
plus simple des modèles probabilistes.

4.3 Le shéma Binomial

C’est une succession d’épreuves de Bernouilli (n) indépendantes.

Définition :
48 CHAPTER 4. LOIS DISCRÈTES USUELLES

On réalise n fois successivement et d’une manière indépendante une expérience aléatoire


qui a 2 résultats possibles, S (succès) de probabilité p et E (échec) de probabilité 1 − p
X = nombre de succès obtenus est une v.a. binomiale de paramètre n et p.

Notation B(n, p).


Remarque :
On peut également la définir comme une somme de v.a. de Bernouilli.
A chaque épreuve i, on associe la v.a. de Bernouilli Xi
n
X
X= Xi .
i=1

Loi de probabilité X ∼ B(n, p)


X(Ω) = {0, . . . , n}
P (X = k) = Cnk pk (1 − p)n−k ∀k ∈ X(Ω)
n : nb d’épreuves,
k : nb de S (succès),
p : probabilité du succès.

Propriétés

E(X) = np

V (X) = np(1 − p)

Propriété

Si X1 ∼ B(n1 , p) et X2 ∼ B(n2 , p)
indépendantes, alors
X1 + X2 ∼ B(n1 + n2 , p)
Preuve : somme de v.a Benouilli.

Il y a des tables pour éviter de calculer les probabilités d’ événements liés à


la loi binomiale. On peut également, dans certains cas, approximer B(n, p)
par une autre loi.

Exercice :
Une machine à embouteiller peut tomber en panne. La probabilité d’une
panne à chaque emploi est de 0,01. La machine doit être utilisée 100 fois.
4.3. LE SHÉMA BINOMIAL 49

Soit X= nb de pannes obtenues après 100 utilisations.


1) Quelle est la loi de X ?
Calculer P (X = 0), P (X = 1) et P (X ≥ 4).
2) On estime le coût d’une réparation à 500 F. Soit la v.a
Y représentant la dépense pour les réparations après 100 utilisations.
Exprimer Y en fonction de X et calculer E(Y ) V (Y ).

Solution :
0
1) X ∼ B(100, 0, 01) ; P (X = 0) = C100 (0, 01)0 0, 99100 = 0, 366
1
P (X = 1) = C100 0, 01 0, 9999 = 100 × 0, 01 × 0, 9999 = 0, 377
P (X ≥ 4) = 1 − (. . .) = 0, 061
2) Y = 500X
E(Y ) = 500 E(X) = 500 × 100 × 0, 01 = 500
V (Y ) = 5002 V (X) = 5002 0, 99 = 247500
Exercice :
Dans une pépinière 95% des scions (jeunes arbres greffés) sont supposés sans
virus. Par commodité les scions sont rangés par paquets de 2. Un paquet est
dit sain si les 2 scions le sont.
1) Proba d’avoir un paquet sain ?
2) X = nb de paquets sains sur un lot de 10
Quelle est la loi de X ?
3) Un lot de 10 est accepté par l’acheteur si 9 au moins des paquets sont
sains. Proba qu’un lot soit accepté ?

Solution :
1) p = 0, 95 × 0, 95 = 0, 9025
2) X ∼ B(10, p)
3) P (X ≥ 9) = P (X = 9) + P (X = 10)
= 0, 7361
Remarque
Le schéma binomial correspond au processus de tirage d’un échantillon aléatoire
avec remise :
N1 : nb d’individus ayant la propriété S
N2 : nb d’individus n’ayant pas la propriété S
N = N1 + N2 : nb total d’individus
On fait n tirages avec remise
Soit X = nb d’individus ayant la propriété S
50 CHAPTER 4. LOIS DISCRÈTES USUELLES

N1
X ∼ B(n, p) avec p =
N
Propriété
Calcul en chaine des probalités de la loi binomiale:
si X ∼ B(n, p) alors

(n − k + 1)p
P (X = k) = P (X = k − 1)
k(1 − p)
P (X = k) n−k+1 p
Preuve : =
P (X = k − 1) k 1−p

4.4 Le schéma hypergéométrique

Exemple : En pratique lorsque l’on tire un échantillon de taille n parmi une


population de taille N , le bon sens veut que l’on ne prenne pas 2 fois le
même individu. Cela signifie que le tirage se fait sans remise. Les v.a de
Bernouilli associées aux différents éléments de l’échantillon et indicatrices de
la présence ou absence d’un caractère donné, sont alors dépendantes. Le
schéma binomiale n’est plus adapté.

Le schéma hypergéométrique est une succession d’épreuves de Bernouilli non


indépendantes.

Définition Si dans une population de taille N , on a 2 types de popula-


tions:
N1
N1 individus type 1 en proportion p =
N
N2 individus type 2 : N2 .
On fait n tirages sans remise dans la population et la v.a
X = nb individus de type 1 dans l’échantillon.
X obéit au schéma hypergéométrique H(N, n, p)
X
X= Xi , avec Xi v.a de Bernouilli non indépendantes.
i
Loi de probabilité
4.4. LE SCHÉMA HYPERGÉOMÉTRIQUE 51

Si X ∼ H(N, n, p), alors 


n < N2
Les valeurs de X sont les entiers compris entre 0 et n si et
n < N1
CNk 1 × CNn−k
2
P (X = k) = . (dénombrement classique)
CNn
Propriétés
E(X) = np
N −n
V (X) = np(1 − p)
N −1
Théorème :

Quand N → +∞ avec n, p fixes


La loi hypergéométrique H(N, n, p) tend vers la loi binomiale B(n, p)
Que signifie une loi qui tend vers une autre loi ? (cf chap. condition
d’application)
n
Dans la pratique, on utilise l’approximation dès que < 0, 1
N
preuve : en cours magistral.

Exemple 1
A un guichet SNCF se présentent 2 femmes et 3 hommes. On choisit au
hasard 2 personnes 6= pour une enquête.
Soit X = nb de femmes.
a) Probabilité de choisir une femme au moins.
b) Calculer E(X) et σ(X).
 
2
a) X ∼ H 5, 2, .
5
C21 C31 C22 C30 7
P (X ≥ 1) = P (X = 1) + P (X = 2) = 2
+ 2
= = 0, 7.
C5 C5 10
3 4
b) E(X) = np = 2 × = = 0, 8,
5 5
N −n 2 3 3 9
V (X) = npq =2× × × = = 0, 36,
N −1 5 5 4 25
σ(X) = 0, 6.
52 CHAPTER 4. LOIS DISCRÈTES USUELLES

Exemple 2
On choisit au hasard 10 étudiants de DEUG 6= pour un entretien : 304
étudiants sont inscrits en 1ère année, 233 en 2ème .
X = nb d’étudiants de 1ère année parmi les 10 choisis.
Calculer la probabilité d’avoir 5 étudiants de 1ère année et déterminer E(X)
et σ(X).
304
X ∼ H(537, 10, ),
537
5 5
C C
P (X = 5) = 30410 233 ' 0, 227.
C537
Mais on peut utiliser l’approximation    
n 10 304 304
Comme = < 0, 1, on peut approximer H 537, 10, par B 10, .
N 537 537 537
 5  5
5 304 233
On a P (X = 5) = C10 ' 0, 225.
537 537
304
E(X) = np = 10 × = 5, 661,
537
N −n 304 233 527
V (X) = npq = 10 × × × ' 2, 415,
N −1 537 537 536
σ(X) = 1, 554.

avec l’approximation σ(X) = npq = 1, 567.

4.5 Loi géométrique et loi de Pascal


On se place dans une optique différente.
A la base, il y a toujours l’épreuve de Bernouilli qui a 2 résultats possibles :
un évènement de probabilité p et l’autre. Mais cette fois, on ne connait pas
le nombre d’épreuves.

Définition
X suit la loi géométrique de paramètre G(p), si elle est égale au nombre d’épreuves de
Bernouilli indépendantes qu’il faut réaliser pour obtenir pour la 1ère fois l’évènement de
probabilité p.
Loi de probabilité
X(Ω) = N∗ , (l’ensemble des valeurs est ∞ dénombrable)
et
4.5. LOI GÉOMÉTRIQUE ET LOI DE PASCAL 53

P (X = k) = q k−1 p k ∈ N∗

fonction de répartition
n n−1
X X 1 − qn
P (X ≤ n) = q k−1 p = p qk = p = 1 − qn
k=1 k=0
1 − q
FX (n) = 1 − q n

caractéristiques
1
E(X) =
p
1−p
V (X) =
p2
Définition
La loi de Pascal est la généralisation de la loi géométrique lorsque l’on s’intéresse
à l’obtention pour la k ième fois de l’évènement de probabilité p
Loi de probabilité
X(Ω) = {k, . . . , ∞} et
k−1 k−1 j−k
P (X = j) = Cj−1 p q p j ≥ k.

Caractéristiques

k
E(X) =
p
k(1 − p)
V (X) =
p2
Remarque : la ressemblance avec la loi binomiale n’est qu’apparente. La
grande différence est que le nombre de répétitions de l’épreuve élémentaire de
Bernouilli n’est pas connu, et c’est lui qui représente l’aléatoire du problème
!

• Application
Ces 2 lois interviennent particulièrement en contrôle de qualité mais aussi
dans la surveillance des événements dont une certaine fréquence de survenue
est interprétée en terme de signal d’alarme.
54 CHAPTER 4. LOIS DISCRÈTES USUELLES

• Remarque de modélisation
La probabilité de l’évènement qui nous intéresse est toujours p, elle est
constante au cours du temps. Cette propriété de stationnarité n’est pas
systématique dans les situations réelles que l’on doit modéliser.

Exemple
Supposons que 5 % des pièces en sortie d’une chaine de production soient
défectueuses. On souhaite connaitre la probabilité qu’un échantillon de 20
pièces issu de cette chaine ne contienne aucune pièce défectueuse.
D’autre part, on recherche la probabilité que la première pièce défectueuse ne
soit pas l’une des 20 premières sorties de la chaine.

- chaque pièce est indentifiée par un caractère à 2 modalités :


Elle est soit défectueuse (succès), soit non défectueuse (echec).
La modélisation de base est donc le schéma de Bernouilli avec p = 0, 05. On
peut faire l’hypothèse de l’indépendance des épreuves de Bernouilli (grande
taille de la population). Soit X la v.a représentant le nb de défectueuses
après la réalisation de 20 épreuves de Bernouilli. On a
X ∼ B(20, 0, 05)
P (X = 0) = 0, 9520 = 0, 3585.

- On garde la modélisation des pièces par les aléas de Bernouilli. On fait


l’hypothèse d’indépendance (gd nb de pièces). Mais le nombre de pièces
n’est plus donné : c’est un aléa.
Y = nombre de pièces observées jusqu’à l’obtention d’une défectueuse, on a
Y ∼ G(0, 05)
∞ ∞
20 1 − 0, 95
X
k−1
P (Y ≥ 21) = 0, 95 0, 05 = 0, 95 × 0, 05
k=21
1 − 0, 95
0, 05
= 0, 9520 = 0, 3585.
0, 05
Si on s’était intéressé au nombre de pièces à examiner pour en avoir 2
défectueuses, on aurait utilisé une loi de Pascal.
4.6. LOI DE POISSON 55

4.6 Loi de Poisson


Siméon-Denis Poisson(1781-1840)est un probabiliste, mathématicien et physi-
cien français à qui l’on doit d’importants développements sur la loi des grands
nombres, les suites d’épreuves de Bernouilli mais aussi sur les applications
des probabilités dans le domaine du droit.

Soit X une variable binomiale B(n, p).


On va supposer que p ≈ 0 et que n → +∞ de manière à ce que np → m
Quel modèle va suivre cette variable aléatoire ?

P (X = k) = Cnk pk (1 − p)n−k . On montrera en CM que


mk −m
P (X = k) −→ e .
n→+∞ k!
np→m

définition
X est une v.a. de Poisson de paramètre m si et seulement si
X(Ω) = N, et
mk −m
P (X = k) = e .
k!
Notation : P(m)
On est dans la situation o`‘u X(Ω) est infini dénombrable.
On peut maintenant poser la loi de Poisson comme modèle d’une épreuve
aléatoire :

Théorème d’approximation
Soit X ∼ B(n, p)
quand n → +∞ tq np → m
p→0
L
Alors X → P(m)
Modélisation
Lorsqu’un évènement a une faible probabilité p d’apparition lors d’une épreuve
de Bernouilli et si l’on répète un grand nombre de fois cette épreuve (n) le
nombre total de réalisations de l’évènement considéré suit à peu près une loi
de Poisson de paramètre m = np

n > 50
Dans la pratique :
p < 0, 1
56 CHAPTER 4. LOIS DISCRÈTES USUELLES

Rmq : plus p est petit, meilleure est l’approximation. Pour cette raison
la loi de Poisson a été appelée loi des phénomènes rares

Les processus de Poisson sont fréquents dans les problèmes de gestion :


- nb de pièces défectueuses dans un échantillon de grande taille prélevé dans
une production où la proportion des défectueuses est faible.
- nb de quadruplés, quintuplés par an dans un pays donné
- nb d’appels intercontinentaux sur une ligne pendant une durée donnée.
- nb d’erreurs commises au cours d’une longue suite d’opérations (inventaire)
- pannes de machine
- émission de particules radio-actives

caractéristiques Si X ∼ P(m)

E(X) = m
Alors
V (X) = m
X mk
Il faut savoir que = em
k≥0
k!
X mk −m X mk−1
E(X) = k e = e−m m =m
K≥0
k! K≥1
(k − 1)!
k
X m X mk X mk
V (X) = k2 e−m − m2 = k(k − 1) e−m + k e−m − m2
K≥0
k! K≥1
k! K≥1
k!
X mk−2 X mk−1
= m2 e−m + m e−m − m2
K≥2
(k − 2)! K≥1
(k − 1)!
=m
Propriété : somme de v.a de Poisson
Si X1 et X2 sont 2 variables de poisson P(m1 ), P(m2 ) indépendantes alors
X1 + X2 ∼ P(m1 + m2 )
(ceci est vrai pour une somme finie quelconque de v.a de Poisson indépendantes)
Preuve :
4.6. LOI DE POISSON 57
" k
#
[
P (Y = k) = P (X1 + X2 = k) = P X1 = i ∩ X2 = k − i
i=0
k
X
= P (X1 = i).P (X2 = k − i)
i=0
K
X mi1 −m1 mk−i
= e 2
e−m2
i=0
i! (k − i)!
K
X e−(m1 +m2 )
= Cki mi1 mk−i
2
i=0
k!
(m1 + m2 )k −(m1 +m2 )
= e .
k!
Propriété
Si X ∼ P(m), alors
P (X = k) m
= .
P (X = k − 1) k
Conséquence : les probabilités % tant que k ≤ m puis & pour k ≥ m et
ont une valeur maximale P (X = m) et alors

P (X = m) = P (X = m − 1).

Conséquence statistique
On peut envisager une loi de Poisson comme modèle représentatif de données statistiques
discrètes pour lesquelles la variable ne prend que des valeurs entières, posi-
tives ou nulles et pour lesquelles
- la moyenne ' la variance et
fk 1
- est proportionnel à fk étant les fréquences
fk−1 k
Exemple 1

Lors d’un sondage portant sur un grand nombre de personnes, on sait que 2%
des personnes interrogées acceptent de ne pas rester anonymes. Sachant que
l’un des sondeurs a interrogé 250 personnes (en les choisissant de manière
indépendante), calculer la probabilité
a) que ces 250 personnes souhaitent rester anonymes
b) 3 personnes acceptent de ne pas rester anonymes
c) plus de 10 personnes acceptent de ne pas rester anonymes
58 CHAPTER 4. LOIS DISCRÈTES USUELLES

X = nb de personnes ne souhaitant pas rester anonymes.


X ∼ B(250, 0, 02) h P(5)
0
P (X = 0) = e−5 50! = e−5 = 0, 0067
3
P (X = 3) = e−5 53! = 0, 14
P (X ≥ 10) = 1 − P (X < 10) = 1 − P (X ≤ 9)

Exemple 2
Dans un hôpital parisien, il arrive en moyenne 1,25 personnes à la minute
aux urgences entre 9 h et 12 h.
X : nb de personnes observées à la minute à l’entrée de ce service.
On admet X ∼ P(m) avec m = 1, 25
Déterminer les probabilités suivantes
a) En 1mn il arrive 2 personnes b) 4 personnes au plus c) 3 personnes au
moins.

a) P (X = 2) = 0, 2238
b) P (X ≤ 4) = 0, 9909
c) P (X ≥ 3) = 1 − P (X ≤ 2)
= 1 − 0, 8685
= 0, 1315.

Vous aimerez peut-être aussi