Vous êtes sur la page 1sur 32

1

UPGC UFR DES SCIENCES SOCIALES

Département d’Economie

SUPPORT DE COURS
PROBABILITE
Licence 2

Enseignant : Dr Essan

Dr ESSAN K. Ambroise
2

M. ESSAN K. AMBROISE

Objectifs du cours :

Ce cours a pour objectif de donner aux étudiants des compétences mathématiques


nécessaires à la compréhension des autres unités d’enseignement de la spécialité nécessitant
des connaissances mathématiques. A l’issu de ce cours, l’étudiant doit être capable de :

- Calculer la probabilité d’un événement d’une expérience aléatoire.


- Calculer la loi de probabilité, la fonction de répartition, l’espérance, la variance et
l’écart type d’une variable aléatoire discrète ou continue.
- Définir les lois usuelles de probabilité.

Plan du cours

Chapitre 1 : Notion d’analyse combinatoire- Probabilité.

I- Eléments du langage des ensembles


II- Dénombrement
III- Probabilités

Chapitre2 : Variables aléatoires.

I- Généralités
II- Variables aléatoires discrètes
III- Variables aléatoires continues

Chapitre 3 : Lois usuelles de probabilité.

I- Lois discrètes
II- Lois continues

Dr ESSAN K. Ambroise
3

Chapitre 1 : NOTION D’ANALYSE COMBINATOIRE-


PROBABILITES

I. ELEMENTS DU LANGAGE DES ENSEMBLES


1) Ensemble, élément, sous ensemble

Définitions
On appelle ensemble une collection finie ou infinie d’objets, mathématiques ou
non.
Tout objet de cette collection s’appelle élément de cet ensemble.
Une partie de l’ensemble s’appelle sous ensemble.

Appartenance et inclusion
Prenons l’ensemble E des étudiants en L2 Eco. Chaque étudiant est un élément
de E ; on dit encore chaque étudiant appartient à E. Par exemple si Laure est
une étudiante de l’ensemble E, alors on note Laure ∈ E.
La partie F de l’ensemble E, composée de fille est un sous ensemble. On note
F⊂E et on dit que F est inclus dans E.
Soit G le sous ensemble de E composé de garçon. On a laure ∉ G

Définition1.1
On dit qu’un sous ensemble B est inclus dans A ou que B est un sous ensemble
de A ou encore que B est une partie de A, noté B ⊂ A si et seulement si
∀ ∈ , ∈ .

Définition1.2
Si E est un ensemble, alors il existe un ensemble, appelé ensemble des parties
de E, noté P(E) dont tous les éléments sont les ensembles inclus dans E. Il
vérifie pour tout ensemble F : F ∈ P(E) équivaut à F ⊂ E.

Exemple d’ensembles, de sous ensembles


∅ : ensemble vide,
ℕ : ensemble des nombres entiers naturels,
ℤ : ensemble des nombres entiers relatifs,
ℚ : ensemble des nombres rationnels,
ℝ : ensemble des nombres réels,
ℂ : ensemble des nombres complexes.
On a : ∅ ⊂ ℕ ⊂ ℤ ⊂ ℚ ⊂ ℝ ⊂ ℂ.
ℤ est un sous ensemble de ℝ. {-1 ; 0 ; 7} est un sous ensemble de ℤ.
{-12} est un sous ensemble de ℤ, appelé singleton.

Dr ESSAN K. Ambroise
4

Exercice
Soit E={1 ; x ; y ; 2 ; -4}, déterminer P(E).

2) Opération sur les ensembles


Soient E un ensemble, P(E) l’ensemble des parties de E et + et , deux
éléments de P(E).

a) Définitions
• On appelle union de A et de B, noté A∪B, le sous ensemble des éléments
de E qui sont soit dans A, soit dans B, soit dans les deux :
A ∪ B={ ∈ . : ∈ ou ∈ }.

• On appelle intersection de A et de B, noté A∩B, le sous ensemble des


éléments de E qui sont à la fois dans A et dans B :
A ∩ B={ ∈ . : ∈ et ∈ }.

• On appelle complémentaire de A, noté CA ou AC ou 0+ 000, le sous ensemble


0000
des éléments de E qui ne sont pas dans A : + ={ ∈ . : ∉ }.

• On appelle différence de A et B, noté +\ ,, le sous ensemble des

∈ et ∉ }= ∩ 0000.
éléments de E qui sont dans A et qui ne sont pas dans B :
+\, ={ ∈ . :

• On appelle différence symétrique de A et B, noté A ∆ B, le sous ensemble


des éléments de E tel que + ∆ ,= (A\B) ∪ (B\A)= (A∪ B)\(A∩B). C’est
l’ensemble des éléments qui sont soit dans A, soit dans B mais pas dans les
deux à la fois.

• On dit que deux ensembles A et B sont disjoints si et seulement si A∩B=∅.


C'est-à-dire que les deux éléments n’ont aucun élément en commun.

• On appelle produit cartésien de A par B, l’ensemble noté A×B défini par :


A × B = { ( , 7) : ∈ et 7 ∈ }.

• Soient E un ensemble et A1 ; A2 ; … ; An des sous-ensembles de E. On dit que


le système {A1 ; A2 ; … ; An} forme une partition de 9 si et seulement si :
1. . = A1 ∪ A2 ∪ … ∪ An
2. Si les sous ensemble A1 ; A2 ; … ; An sont deux à deux disjoints ; c'est-à-
dire pour tout i≠ j, Ai ∩ Aj=∅ .

Dr ESSAN K. Ambroise
5

Exemple
- Soient A1, l’ensemble des nombres pairs, et A2, l’ensemble des nombres
impairs.
{ A1 ; A2 } forme une partition de ℕ.
- Soit A⊂E, {A ; 000} forme une partition de E.

b) Propriétés
(i) A, B ⊂ A∪B.
(ii) A ∩ B⊂ A, B.
(iii) 0000000
∪ = 000 ∩ 000 ; 0000000
∩ = 000 ∪ 0000.
(iv) A⊂ B⇔ A ∩ B= A
(v) A∪(B∩C)= (A∪B)∩ (A∪C) ; A∩(B∪C)= (A∩B)∪(A∩C).

II. DENOMBREMENT
On se place dans un ensemble E fini. E est appelé population. On note C son
cardinal (nombre d’éléments de E).
Dénombrer, c’est trouver le cardinal de E. Pour trouver le cardinal de E, il faut
expliquer une méthode systématique qui permette de trouver tous les éléments de
E, sans compter aucun élément plusieurs fois.

1) p-uplets ou p-listes

Définition
On appelle p-uplets ou p-listes de p éléments de E, un échantillon ordonné
avec répétition de longueur p sur E ; c’est une suite ordonnée de p éléments de
E. Il correspond à une application de {1 ; 2 ; … ; p} vers E.

Proposition
Le nombre de p-uplets est : Dp.

Exemples
- De combien de façon peut-on ranger 6 fichiers dans 4 cartons ?
- Combien de possibilités un employé dispose-t-il pour ouvrir une porte d’un
bureau de son entreprise dont le système de sécurité utilise un code à 4
chiffres ?
- Un sac contient 5 boules indiscernables. On tire successivement et avec
remise 10 boules du sac. Combien de possibilités a-t-on ?

2) Arrangement

Définition
On appelle arrangement de E éléments de E, un échantillon ordonné sans
répétition de longueur E sur E ; c’est un E-uplet dont tous les éléments sont
différents, donc E ≤ C. Il correspond à une injection de {1 ; 2 ; … ; p} vers E.

Proposition
G D!
Le nombre d’arrangements de E éléments de E est : +D = (DIG)! avec E ≤ C.

Dr ESSAN K. Ambroise
6

Exemple
- Une urne contient 10 boules toutes différentes et indiscernables au
toucher : 3 rouges, 5 blanches et 2 noires. On tire successivement sans
remise 3 boules de l’urne. Quel est le nombre de possibilités ?
- De combien de façons peut-on ranger 4 fichiers dans 6 cartons ; un carton
ne peut contenir au plus un fichier ?
- De combien de façons, un employé peut-il ouvrir une porte d’un bureau de
son entreprise dont le système de sécurité utilise un code à 4 chiffres
distincts ?

3) Permutation
Définition
On appelle permutation, tout arrangement de C éléments de E.

Proposition
Le nombre de permutation de C éléments de E est : D!

4) Combinaison
Définition
On appelle combinaison de E éléments de E, un échantillon non ordonné sans
répétition de longueur E sur E ; c’est un sous ensemble de taille E dans E.

D
Proposition1
G D!
Le nombre de combinaisons de E éléments de E est : JGK = LD = G!(DIG)! avec
E ≤ C. C’est aussi le nombre de sous ensembles de E éléments dans E.

Exemples
- Une urne contient 10 boules toutes différentes et indiscernables au
toucher : 3 rouges, 5 blanches et 2 noires. On tire simultanément 3 boules
de l’urne. Combien de tirages possibles peut-on faire ? Combien de tirages
possibles peut-on faire, contenant deux boules de même couleur ?
- Considérons l’ensemble E suivant: . = {M, N, O, 1, 7}. Combien de couples
d’éléments de E peut-on former ? Combien de triplets contenant au moins
1 chiffre peut-on former ?

Proposition 2 (Binôme de newton)


Pour tous réels M et N, on a : (P + R)D = ∑DTUV LTD PDIT RT .

Exercice
1. En utilisant le binôme de Newton, développer (M + 1)W et (M − 1)W.
2. Montrer que pour tous entiers naturels C et E tels E < C,
Z[\] = Z[^\] + Z]] Z[^ = Z[^\] + Z[^
^\]

3. Montrer la formule du Binôme de newton

Dr ESSAN K. Ambroise
7

III. PROBABILILITES
1) Généralités
L’étude d’un phénomène aléatoire commence par la description de l’ensemble
des résultats possibles de l’expérience.
 On note Ω, cet ensemble : ensemble des réalisations appelé univers.
 Les éléments ` ou point de Ω sont appelés les réalisations
 Les sous-ensembles ou partie de Ω, sont appelés des événements ; ils
sont notés traditionnellement par des lettres majuscules latines : A, B, …

Définitions

Soit Ω un ensemble fini, P (Ω) l’ensemble des parties de Ω. On appelle


probabilité sur (Ω, P (Ω)), toute application a de P (Ω) dans [0 ; 1] telle que :

1. a(Ω) = 1
2. Pour tous , ∈ P (Ω) tels que ∩ = ∅, a( ∪ ) = a( ) + a( ).

Le couple (Ω, P (Ω)) est appelé espace probabilisable, le triplet (Ω, P (Ω), a) est
l’espace de probabilité. Pour tout événement , le réel positif ou nul a( ) est
appelé probabilité de l’événement .

Proposition

Soit (Ω, P (Ω), a) un espace probabilisé fini et , ∈ P (Ω).

1. a( ̅ ) = 1 − a( )
2. Si ⊂ alors a( ) < a( ) et a( \ ) = a( ) − a( ).
3. a( ∪ ) = a( ) + a( ) − a( ∩ ), (Formule de Poincaré pour et ).
Cette formule se généralise :
Si ] , c , …, [ sont des événements, alors
[

ade fg =
fU]
∑[fU] a( f ) − ∑]kflik[ ah f ∩ i j + ∑]kflilmk[ ah f ∩ i ∩ mj − ⋯ + (−1)[I] a( ] ∩ c ∩ …∩
[ ).

4. Si ] , c , …, [ sont des événements deux à deux disjoints (deux à deux


incompatibles), alors
a( ] ∪ c ∪ …∪ [ ) = a( ] ) + a( c ) + ⋯ + a( [ ).
(Additivité dénombrable)

2) Calculs de probabilités

a) Equiprobabilité
Définition

Dr ESSAN K. Ambroise
8

On dit qu’il y a équiprobabilité lorsque les probabilités de tous les


singletons ou événements élémentaires sont égales. On dit que tous les
événements élémentaires sont équiprobables. Dans ce cas a est dite
probabilité uniforme.

Théorème
Soit (Ω, P (Ω), a) un espace de probabilité fini (c'est-à-dire que card(Ω) est
fini) où a est une probabilité uniforme. Pour tout événement , on a :

OMpq( ) CrsNpt qt OMu vMwrpMNxtu


a( ) = =
OMpq(Ω) CrsNpt qt OMu EruuyNxtu

Exemples
1. Dans un jeu de 32 cartes, on extrait une carte. Chaque carte a le même
nombre de chances d’être tirée. Quelle est la probabilité de tirer un as
sachant qu’il y a 4 as dans ce jeu.

2. Une expérience aléatoire consiste à lancer un dé parfaitement équilibré


et à relever le nombre obtenu.

Calculer les probabilités des événements suivants :


A « avoir un nombre pair multiple de 3 »
B « avoir un nombre x tel que x ∈ z2; 6z»

3. Une urne contient 15 boules toutes différentes et indiscernables au


toucher : 7 rouges, 5 blanches et 3 vertes. On tire successivement et
avec remise 4 boules de l’urne. Calculer les probabilités des événements
suivants :
A « les boules tirées sont de même couleur »
B « les boules tirées contiennent une boule verte »
C « les boules tirées sont de couleurs différentes »
C « aucune boule rouge n’a été tirée »

b) Probabilité conditionnelle
La notion de probabilité conditionnelle intervient à chaque fois que l’on
dispose d’une information supplémentaire qui restreint le champ de
possibilité, et de réviser ses pronostics sur la réalisation ou non d’un
événement.

Définition
Soit (Ω, P (Ω), a) un espace de probabilité fini et A un événement de
probabilité non nulle. Pour tout événement ⊂ Ω, on appelle probabilité
~(}∩•)
conditionnelle de sachant , le nombre a} ( ) =
~(})
.
On note aussi a} ( ) = a( / ).

Remarque (probabilité composée)

Dr ESSAN K. Ambroise
9

On tire de la définition la relation suivante: a( ∩ ) = a( ) a( / ).


C’est la formule de la probabilité composée.

c) Probabilité totale

Définition
On appelle système complet d’événements, une partition de Ω.

Proposition
Soit { ] , c , …, [ } un système complet d’événements de probabilité non
nulle. Alors pour tout événement B, on a:
•(,) = •(, ∩ +‚ ) + •(, ∩ +ƒ ) + ⋯ + •(, ∩ +D )
•(,) = •(+‚ )•(,/+‚ )+•(+ƒ )•(,/+ƒ )+ ⋯ + •(+D )•(,/+D ).
(Formule des probabilités totales).

d) Formule de Bayes

Proposition
Soit { ] , c , …, [ } un système complet d’événements de probabilité non
nulle. Alors pour tout événement B, on a : ∀y ∈ {1, 2, … C}
~(}„ ∩•) ~(}„ )~(•/}„ )
a( f / )= = )~(•/} )~(•/} )~(•/}
~(•) ~(}… … )\~(}† † )\⋯\~(}‡ ‡)
où l’on suppose que a( ) ≠ 0.

e) Indépendance d’événements

Définition et Théorème
Deux événements A et B sont indépendants si et seulement si
a( ∩ ) = a( ) × a( ).

Proposition

et 0 ; ̅ et ; et ̅ et 0 sont indépendants.
Si et sont deux événements indépendants alors :
1.
2. a} ( ) = a( / )=a( ) et a• ( ) = a( / )= a( ).

Exemple :
On tire au hasard 13 cartes d’un jeu de 52 cartes. On donne la signification
aux évènements A et B :
A : « parmi les 13 cartes tirées figure un seul As »
B : « parmi les 13 cartes tirées figure l’As de cœur »
Les événements A et B sont-ils indépendants ?

Proposition
Les événements ] , c, …, [ sont dits indépendants, ou mutuellement
indépendants, ssi

∀ˆ ⊂ ⟦1, C⟧, a(⋂f∈Œ f) = ∏f∈Œ a( f ).

Dr ESSAN K. Ambroise
10

Les événements ∅ et Ω sont indépendants de tout événement .

Remarque
Si les événements ] , c , …, [ sont dits indépendants, alors ils sont deux à
deux indépendants. La réciproque est fausse.

Exemples fondamentaux
• Les résultats successifs du jet d’une pièce de monnaie, d’un dé, etc, sont
des événements indépendants.
• Les résultats successifs de tirages AVEC REMISE d’une boule dans une urne
sont des événements indépendants.

Exercice1
Un sac contient n jetons numérotés de 1 à n, tous indiscernables au
toucher. On tire au hasard un jeton. Si on a obtenu le jeton numéroté i, on
lance i fois une pièce de monnaie équilibrée. On recherche la probabilité de
l’évènement B : « on obtient 0 pile ».

Exercice2

Une entreprise de prêt à porter utilise dans son atelier de coupe deux
machines M1 et M2. Les deux pièces découpées sont stockées sans
distinction de provenance. La machine M1 découpe 60% des pièces ; 5%
sont défectueuses. La machine M2 découpe 40% ; 2,5% sont défectueuses.

On note E1 : « la pièce a été découpée par M1 » ; E2 « la pièce a été


découpée par M2 » et D : « la pièce est défectueuse ».

1) On prélève au hasard une pièce de la production totale.


a) Quelle est la probabilité d’obtenir une pièce défectueuse provenant
de M1 ?
b) Quelle est la probabilité d’obtenir une pièce défectueuse provenant
de M2 ?
c) En déduire que la probabilité de D est 0,04.
2) On prélève une pièce et on s’aperçoit qu’elle est défectueuse. Calculer
la probabilité qu’elle provienne de M1.

Dr ESSAN K. Ambroise
11

CHAPITRE 2 : VARIABLE ALEATOIRE

I. GENERALITES

1) Définition et propriété

Définition
Soit (Ω, P (Ω), a) un espace de probabilité, on appelle variable aléatoire (v.a)
à valeurs dans E, toute application • : Ω → .. . étant un espace
quelconque.
Si . =ℝ, alors • est appelé variable aléatoire réelle.

Exemples
- Variable indicatrice
Soit A un événement sur (Ω, P), on lui associe la variable ‘} à valeurs
dans {0 ; 1} qui vaut : 1 si ’ ∈ et 0 sinon
- On jette deux dés parfaitement équilibrés de couleurs différentes. On
note (y, “) les résultats obtenus. On s’intéresse à la somme des résultats
obtenus. L’application • : Ω × Ω →ℕ : (y ; “) ↦ y + “ est une variable
aléatoire.
L’ensemble des valeurs prises par la variable aléatoire • est :
{2 ; 3 ; 4 ; 5 ; 6 ; 7 ; 8 ; 9 ; 10 ; 11 ; 12}.
- On lance cinq fois une pièce de monnaie. L’application • : Ω →ℕ, qui à
tout évènement élémentaire de Ω associe le nombre de Pile obtenus,
est une variable aléatoire.

Propriété
- Toute fonction d’une ou de plusieurs variables aléatoires est une
variable aléatoire.
- Si les •f sont des variables aléatoires réelles, alors • = ∑f Mf •f est une
variable aléatoire réelle.

2) Loi de probabilité d’une variable aléatoire


Définition
Soit • une v.a à valeurs dans E, on appelle loi de probabilité de •, la
probabilité a– sur •(Ω) définie par :
a– ( ) = a(• ∈ ) = a( {’ ∈ Ω ∶ •(’) ∈ } ), avec ˜• ∈ z
l’évènement « • prend une valeur dans ».

En particulier ∀ ∈ ., ˜• = z = {’ ∈ Ω / •(’) = } = • I] ( )
Ceci dit soit • une v.a à valeurs dans . fini ou dénombrable, on a
∑™∈š a(• = ) = 1.

Dr ESSAN K. Ambroise
12

Exemple : Si l’ensemble des valeurs prises par la variable aléatoire • est :


•(Ω)= {2 ; 3 ; 4 ; 5 ; 6 ; 7 ; 8 ; 9 ; 10 ; 11 ; 12}, alors
a(• = 2) + a(• = 3) + ⋯ + a(• = 12) = 1
3) Fonction de répartition
Définition
Soit • une v.a., on appelle fonction de répartition de • la fonction
œ: ℝ → ˜0; 1z définie par œ( ) = a(• ≤ ).
En d’autres termes œ( ) est la probabilité que la variable aléatoire •
prenne une valeur inférieure ou égale à .

Propriétés
- Une fonction de répartition est une fonction croissante au sens large.
- lim œ( ) = 0 et lim œ( ) = 1
™→I• ™→\•
- Une fonction de répartition est continue à droite.
- a(M < • ≤ N) = œ(N) − œ(M) ∀ M < N.

II. VARIABLES ALEATOIRES DISCRETES

1) Définition, loi de probabilité et fonction de répartition d’une v.a discrète à


une dimension

a) Définition et loi de probabilité

Une variable aléatoire discrète est une variable aléatoire qui peut prendre
une quantité dénombrable de valeurs. Pour une telle variable aléatoire, on
définit sa loi de probabilité E par E( ) = a(• = ).
- Si • peut prendre les valeurs ] , c , ….. alors
E( f ) ≥ 0, ∀y = 1, 2, … et E( ) = 0 pour toutes les autres valeurs.
Et on a ∑•U‚ G( Ÿ ) = ‚.

La représentation graphique de l’application ⟼ a(• = ) est un


diagramme en bâtons.

Exemple 1

En reprenant l’exemple de I- 1) sur les deux dés, déterminer la loi de


probabilité de • désignant la somme des résultats obtenus.
• est à valeur dans {2 ; 3 ; 4 ; 5 ; 6 ; 7 ; 8 ; 9 ; 10 ; 11 ; 12}. On pose
a(• = ) = E( ).

2 3 4 5 6 7 8 9 10 11 12 total

E( ) 1 2 3 4 5 6 5 4 3 2 1
¤ E( ) = 1
36 36 36 36 36 36 36 36 36 36 36

Dr ESSAN K. Ambroise
13

Exemple 2
On lance une pièce de monnaie symétrique deux fois de suite. On
représente par • la v.a réelle représentant le nombre de fois où le côté face
est apparu. On obtient la loi de probabilité suivante :

Evènement élémentaire v.a réelle • = E( ) = a(• = )



a] ac 0 ]
¥

a] œc ou œ] ac 1 ]
c

œ] œc 2 ]
¥

∑ E( ) = 1

Ici Ω = { a] ac , a] œc , œ] ac , œ] œc } et •(Ω) = {0, 1, 2}

P(x)

2

4
0 1 2 x

Exemple 3 (Loi géométrique)

On lance une pièce de monnaie symétrique. On définit la v.a • par le


nombre de lancers successifs nécessaires pour obtenir le côté face pour la
première fois. Ici •(Ω) = {1, 2, … }. C’est un ensemble dénombrable. Pour
que lancers soient nécessaires il faut avoir obtenu le côté pile − 1 fois et
obtenir face au f訩 lancer : PPP…PF.
] ™I] ] ]
Par conséquent ∀ ∈ ℕ∗ E( ) = a(• = ) = JcK c
= c« . La loi de
]
probabilité de • est une loi géométrique de paramètre E = c (pièce
symétrique). La loi de probabilité est donnée par le tableau suivant :

•= 1 2 3 ... … total

a( ) 1 1 1 ... 1 … 1
2 4 8 2™

Dr ESSAN K. Ambroise
14

] ] ]
En effet ∑\•
™U] = =1
c« c ]I…

b) Fonction de répartition

La fonction de répartition d’une variable aléatoire discrète • est œ(M) =


∑™k- E( ) = ∑™k- a(• = ).

Si nous désignons f , y ∈ ℕ, les valeurs susceptibles d’être prises par •,


alors la fonction de répartition garde la même valeur sur tout intervalle de la
forme ˜ f ; f\] ˜ en occurrence œ( f ).

Ainsi œ( ) = ∑™„ k™ a(• = f ).

Aussi a(• = f ) = œ( f ) − œ( fI] ).


Au point d’abscisse f la fonction de répartition effectue un saut égal à la
probabilité rattachée à f .

Représentation graphique
Le graphique de la fonction de répartition ⟼ œ( ) de ℝ dans ˜0; 1z est la
courbe cumulative qui est une fonction en escalier dans le cas d’une v.a
réelle discrète.

Exemple 4
La fonction de répartition de la v.a • représentant le nombre de fois où le
côté face a été obtenu en lançant une pièce de monnaie symétrique 2 fois
de suite est la suivante :

•= E( ) = a(• = ) œ( ) = a(• < )


4
0


2
1


4
2

Total 1

Dr ESSAN K. Ambroise
15

Exemple 5

Soit • une variable aléatoire dont la loi de probabilité est donnée par :
] ] ] ]
E(1) = , E(2) = , E(3) = et E(4) = , déterminer et représenter
¥ c ® ®
la fonction de répartition de •.

2) Variables aléatoires discrètes à deux dimensions

Définition

Soient • et • deux v.a réelles discrètes, l’espace probabilisé (Ω, P (Ω), a)


Si à chacune des valeurs possibles du couple aléatoire (¯, °), on associe la
probabilité de l’évènement correspondant, on obtient la loi conjointe des
v.a • t± • ou la loi du couple aléatoire (•, •).
Désignons par G ² la probabilité afin que X et Y prennent respectivement
deux valeurs déterminées Ÿ et ³² . Autrement dit
G ² = •(¯ = Ÿ ´µ ° = ³² ).
La loi de probabilité du couple aléatoire (•, •) est donnée par les G ² et on
a V ≤ G ² ≤ ‚ et ∑f ∑i G ² .

Tableau1

Y 7] 7c … 7i … Loi marginale de
X X

] E]] E]c … E]i … E]. = ¤ E]i


i

c Ec] Ecc … Eci … Ec. = ¤ Eci


i

⋮ ⋮ ⋮ ⋮ ⋮

f Ef] Efc … Efi … Ef. = ¤ Efi


i

⋮ ⋮ ⋮ ⋮ ⋮

Loi
E.c E.i ¤ Ef. = 1
E.]
marginale … …
de Y f

= ¤ E.i
i

Dr ESSAN K. Ambroise
16

Exemple
On lance un dé symétrique deux fois de suite. On définit les variables
aléatoires : • = •] comme le nombre de point du premier lancer et •c comme
le nombre de point du deuxième lancer. On pose • = •] + •c la somme des
points obtenus. Déterminons la loi du couple aléatoire (•, •) et en déduisons
la loi de •.
Nous avons Efi = ah• = f , • = 7i j = ah•] = f , •c = 7i − f j =
ah•] = f ). a( •c = 7i − f j (Car •] et •c sont indépendantes )
Par suite on a

× … , ¹f º»I™„ ∈{],c,¼,¥,½,¾}
Efi = ·¸ ¸
0, uyCrC

La loi du couple (•, •) est donnée par le tableau suivant :

Tableau2
• Loi
marginale
de •
2 3 4 5 6 7 8 9 10 11 12

• = •]
] ] ] ] ] ] ]
1 0 0 0 0 0
¼¾ ¼¾ ¼¾ ¼¾ ¼¾ ¼¾ ¾

] ] ] ] ] ] …
2 0 0 0 0 0 ¸
¼¾ ¼¾ ¼¾ ¼¾ ¼¾ ¼¾
] ] ] ] ] ] …
3 0 0 0 0 0 ¸
¼¾ ¼¾ ¼¾ ¼¾ ¼¾ ¼¾
] ] ] ] ] ] ]
4 0 0 0 0 0
¼¾ ¼¾ ¼¾ ¼¾ ¼¾ ¼¾ ¾

] ] ] ] ] ] ]
5 0 0 0 0 0
¼¾ ¼¾ ¼¾ ¼¾ ¼¾ ¼¾ ¾

] ] ] ] ] ] ]
6 0 0 0 0 0
¼¾ ¼¾ ¼¾ ¼¾ ¼¾ ¼¾ ¾

Loi
marginale
de • ] c ¼ ¥ ½ ¾ ½ ¥ ¼ c ]
1
¼¾ ¼¾ ¼¾ ¼¾ ¼¾ ¼¾ ¼¾ ¼¾ ¼¾ ¼¾ ¼¾

Loi de probabilités marginales


Désignons par Ef. la somme des probabilités Efi selon l’indice “ :
G . = ∑² G ² = •(¯ = Ÿ )
Les nombres Ef. constituent la loi de probabilité marginale de •.
Nous avons également E.i :

Dr ESSAN K. Ambroise
17

G.² = ¤ G ² = •(° = ³² )
Les nombres E.i constituent la loi de probabilité marginale de •.
Exemples
Dans le tableau 2, la loi de probabilité marginale de • somme des points
obtenus se lit dans la dernière ligne du tableau et la loi de probabilité
marginale de • se lit dans la dernière colonne du tableau.

Loi de probabilités conditionnelles


Revenons au tableau 1. Supposons que la probabilité afin que • prenne la
valeur f ne soit pas nulle ( Ef. ≠ 0 ). La probabilité conditionnelle de • =
7i sachant que • = f est égale à :
Efi
Ei⁄f = ah• = 7i ⁄• = f j =
Ef.
Les probabilités Ei⁄f correspondantes aux différentes valeurs 7i de •
constituent la loi conditionnelle de • sachant que • = f .

De même, si E.i ≠ 0, alors la probabilité conditionnelle de • = f sachant


que • = 7i est égale à
Efi
Ef⁄i = ah• = f ⁄• = 7i j =
E.i
Les probabilités Ef⁄i correspondantes aux différentes valeurs f de •
constituent la loi conditionnelle de • sachant que • = 7i .
Exemple
Revenons au tableau 2. La loi conditionnelle du nombre de point • du
premier lancer sachant que la somme Y des points des 2 lancers est égale à
5 est donnée dans le tableau suivant :

Tableau 3
•= f a(• = f ⁄• = 5)
] ¥ ]
1 :
¼¾ ¼¾

] ¥ ]
2 :
¼¾ ¼¾

] ¥ ]
3 :
¼¾ ¼¾

] ¥ ]
4 :
¼¾ ¼¾

¥
5 À: =À
¼¾

¥
6 À: =À
¼¾

total 1

Dr ESSAN K. Ambroise
18

Propriété
Nous avons : Efi = Ef. × Ei⁄f = E.i × Ef⁄i

Indépendance
La notion d’indépendance de 2 évènements peut être étendue à 2 v.a • et
•.
Définition : On dit que 2 v.a discrètes • et • sont indépendantes si pour
tout couple de valeur ( f , 7i ) on a la relation : Efi = Ef. × E.i

Autrement dit quels que soient f et 7i les évènements ˜• = fz et

Á• = 7i  sont indépendants. Dans ce cas chaque loi conditionnelle est égale


à la loi marginale correspondante :
^„» ^„»
Ei⁄f = = E.i et Ef⁄i = = Ef.
^„. ^.»
Cela signifie que la connaissance de la valeur prise par • n’apporte aucune
information sur la valeur prise par • et inversement.

3) Espérance, variance et écart-type d’une variable aléatoire discrète

a) Espérance mathématique

On définit l’espérance mathématique d’une variable aléatoire discrète


• par .(•) = ∑™ E( )
Si à est une fonction réelle alors Ã(•) admet pour espérance (si elle
existe) .hÃ(•)j = ∑™ Ã( ) E( ).

Théorème
• Pour tout M, N réels, on a : .(M• + N) = M.(•) + N
• Pour toutes variables aléatoires • et •, si • et • sont pourvues
d’espérance alors
.(• + •) = .(•) + .(•) ; .(• − •) = .(•) − .(•) .
• Si la v.a • ne prend que des valeurs positives ou nulle sur Ω,
alors .(•) ≥ 0. Plus généralement, si • ≥ • sur Ω, alors
.(•) ≥ .(•).
]
• Si • ≥ 0 et Ä > 0, alors a(• ≥ Ä) ≤ Æ .(•).
(Inégalité de Markov)

Proposition
Si • et • sont des v.a.r. discrètes indépendantes et pourvues
d’espérances, alors .(••) = .(•).(•)

Dr ESSAN K. Ambroise
19

Exemple
On lance un dé parfaitement équilibré et on désigne par • la variable
aléatoire qui prend le nombre apparu. Calculer .(•), .(• c ) et
.(å c + 1).

b) Variance
Si .(• c ) (moment d’ordre 2) existe, alors
On appelle variance de •, la quantité
ÈMp (•) = .˜(• − É)c z = .(• c ) − É c où É = .(•).

La variance d’une variable aléatoire • peut s’interpréter comme une


mesure du degré de dispersion des valeurs de la variable • par rapport
à sa valeur moyenne. Si la variance est petite alors les valeurs de • sont
groupées dans un petit intervalle autour de la valeur moyenne. Si par
contre, la variance est grande, les valeurs de • sont fortement
dispersées dans un grand intervalle autour de la valeur moyenne.

Propriété de la variance
Pour tout M, N réels, on a : È(M• + N) = Mc È(•).
Pour toutes variables aléatoires X et Y, indépendantes :
ÈMp(• + •) = ÈMp(•) + ÈMp(•) ; ÈMp(• − •) = ÈMp(•) + ÈMp(•).

Proposition (Inégalité de Bienaymé Tchebychev)


]
∀M > 0 , a˜|• − .(•)| ≥ Mz ≤ -† ÈMp(•) . Pour vu que • admet un
moment d’ordre 2.
]
Ou encore ∀M > 0 , a˜|• − .(•)| < Mz ≥ 1 − -† ÈMp(•) .
Preuve :
La v.a • = (• − .(•))c admet une espérance. Donc
] Ë-Ì(–)
a(|• − .(•)| ≥ M) = a(• ≥ Mc ) ≤ † .(•) =
- † -
(Voir Inégalité
de Markov et définition de la variance).

Cette inégalité s’interprète de la façon suivante : avec une probabilité


]
au moins égale à 1 − -† ÈMp(•), la v.a • prend ses valeurs dans
l’intervalle ˜.(•) − M, .(•) + Mz.

Définition
Une v.a • est dite centrée si • a une espérance nulle. Si • admet une
espérance alors la v.a • − .(•) est toujours centrée.

c) Ecart-type
On appelle écart-type de • noté Í(•), la racine carrée de la variance de
•.
Í(•) = ÎÈMp (•)

Dr ESSAN K. Ambroise
20

Notons que pour toute variable aléatoire • la moyenne de l’écart est


zéro, .h• − .(•)j = 0, et donc la moyenne de l’écart ne peut pas
caractériser le degré de dispersion des valeurs de la variable • par
rapport à sa valeur moyenne. C’est pourquoi on prend plutôt la
moyenne du carré de l’écart, c’est-à-dire la variance de •.

Proposition
Pour tout M, N réels, on a : Í(M• + N) = |M|Í(•)

Exercice

Une boite contient 10 boules indiscernables au toucher. Sur chacune


d’elles est inscrit un nombre comme l’indique le tableau ci-dessous. a est
un entier naturel strictement supérieur à 100
Nombre inscrit 25 50 100 125 a
Nombre de 3 3 1 1 2
boules
On organise un jeu pour enfant. Le jeu consiste à miser une somme de
100F et à tirer une boule de la boite. L’enfant reçoit la somme inscrite sur
la boule.
1. Rick Joue. Justifier que la probabilité p qu’il perde de l’argent est 0,6
2. Soit • la variable aléatoire qui à chaque tirage de boule associe le
gain algébrique de Rick, c'est-à-dire la différence entre la somme
perçue par Rick et sa mise.
a) Présenter la loi de probabilité de •.
b) Démontrer que Rick n’a aucun intérêt à jouer si a ne dépasse
pas 275.
3. On pose a=275.
a) Définir et représenter graphiquement la fonction de répartition
œ de •. (On prendra 10 pour 1cm en abscisses et 0,1 pour 1cm
en ordonnées).
b) Calculer .(•), ÈMp(•) et (•).

4) Covariance

Définition
Soient • et • deux v.a discrètes pourvues chacune de moment d’ordre 2. On
appelle covariance de , • la quantité
Zrw(•, •) = .˜(• − .(•))(• − .(•))z.

Propriété
• Si • = • alors Zrw(•, •) = ÈMp(•).
• En développant, on a Zrw(•, •) = .(••) − .(•).(•).
• Si • et • sont indépendantes alors Zrw(•, •) = 0. La réciproque est
fausse.
• Pour toutes constantes réelles :
Zrw(• − M, • − N) = Zrw(•, •).
Zrw(M• + N, •) = MZrw(•, •).

Dr ESSAN K. Ambroise
21

Zrw(M•, N•) = MNZrw(•, •).

Propriété
Soient •] , … , •[ des v.a.r discrètes ayant un moment d’ordre 2. Alors
ÈMp(•] + ⋯ + •[ ) = ∑[mU] ÈMp(•m ) + 2 ∑]kflik[ Zrw(•f , •i )

III. VARIABLES ALEATOIRES CONTINUES


1) Définition, densité de probabilité, fonction de répartition

Une variable aléatoire • est dite continue si les valeurs prises par • sont
dans un intervalle fini ou infini. Par exemple, l’heure d’arrivée d’un train à
une gare donnée.
• est une v. a. continue s’il existe une fonction non négative v définie pour
tout ∈ ℝ et vérifiant la propriété :
\•
a(• ∈ ) = Ï} v( )q . (3.1) et ÏI• v( )q = 1
La fonction v est appelée densité de probabilité de •.
La relation (3.1) signifie que la probabilité pour que • prenne une valeur
dans peut être obtenue en intégrant la densité de probabilité sur .
La fonction de répartition d’une v. a. continue est donnée par :

œ( ) = ÏI• v(±) q±.

Propriétés
Ð
- Pour tout M < N, a(M < • ≤ N) = Ï- v( ) q ;
-
- a(• = M) = Ï- v( ) q = 0 ;
-
- a(• ≤ M) = a(• < M) = œ(M) = ÏI• v( ) q
- a(• > M) = 1 − a(• ≤ M) = 1 − œ(M).
- La densité de probabilité v d’une v.a. continue est la dérivée de sa
fonction de répartition œ : œ Ñ ( ) = v( ).

2) Espérance, variance, écart-type d’une variable aléatoire continue X

a) Espérance de X

Définition
Soit • une v. a continue ayant une densité v( ). L’espérance
mathématique de • notée .(•) est :
\•
.(•) = Ò v( ) q
I•

Dr ESSAN K. Ambroise
22

Théorème

• est une v.a.r de densité continue v( ) si, et seulement si, pour toute
fonction à continue bornée on a :
\•
.hÃ(•)j = Ò Ã( )v( ) q
I•

b) Variance de X

Définition
Soit • une v. a continue ayant une densité v( ). La variance de X notée
ÈMp(•) est :
ÈMp (•) = .˜(• − É)c z = .(• c ) − É c où É = .(•).
\•
On a .(• c ) = ÏI• c v( ) q .

c) Ecart-type de X
Í(•) = ÎÈMp(•)

Propriétés
Ces propriétés sont similaires à celles de la variable aléatoire discrète. Pour
tout M et N réels et pour toute variable aléatoire continue X, on a :
- .(M• + N) = M.(•) + N
- ÈMp(M• + N) = Mc ÈMp(•)
- Í(M• + N) = |M|Í(•)

Dr ESSAN K. Ambroise
23

CHAPITRE 3: LOIS USUELLES DE PROBABILITE

I- Lois discrètes

1) Loi binomiale

Définitions
• On considère une expérience dont les résultats ne peuvent prendre que
deux valeurs, appelées par convention ; succès ou échec : un candidat est
admis ou non à un examen, une pièce usinée est bonne ou défectueuse, …
A une telle expérience est associée une variable X prenant la valeur 1 pour le
succès et la valeur 0 pour l’échec avec les probabilités respectives E et 1 −
E. Cette variable est appelée variable de Bernoulli.
La loi d’une telle variable est appelée loi de Bernoulli et définie par :
a(• = 1) = E et a(• = 0) = 1 − E
On écrit • ↝ (1, E) on lit X suit une loi Bernoulli.

• On exécute n épreuves indépendantes, chacune ayant une probabilité E de


succès et une probabilité 1 − E d’échec. La variable aléatoire qui comporte
le nombre de succès sur l’ensemble des C épreuves est dite variable
aléatoire binomiale de paramètres (C, E).
La loi de probabilité d’une telle variable est dite loi binomiale de paramètres
(C, E). On écrit ¯ ↝ ,(D, G) et on lit • suit une loi binomiale de paramètres
(C, E).
Si ¯ ↝ ,(D, G) alors a(• = Ô) = Z[m Em (1 − E)[Im .

Si ¯‚ ↝ ,(D, G) et ¯ƒ ↝ ,(Õ, G) et, si •] et •c sont indépendantes, alors


¯‚ + ¯ƒ ↝ ,(D + Õ, G).

Propriétés
Si • ↝ (1, E) alors
- .(•) = E
- ÈMp(•) = E(1 − E).
Si • ↝ (C, E) alors
- .(•) = CE
- ÈMp(•) = CE(1 − E).

Dr ESSAN K. Ambroise
24

Exemple
On sait que les vis fabriquées par une certaine société sont affectées d'un
défaut avec la probabilité 0,01 ; l'état d'une vis est indépendant de celui des
précédentes ou suivantes. Or, la société accepte de rembourser les paquets
de 10 vis qu'elle vend si plus d'une des vis présentent un défaut. Quelle
proportion des paquets vendus la société s'expose-t-elle à devoir
rembourser ?
Solution :
Désignons par X le nombre de vis malformées d'un paquet donné. X est une
variable aléatoire binomiale de paramètres (10, 0,01). X peut prendre les
valeurs suivantes : 0 ; 1 ;2 ;… ;10 et a(• = Ô) = Z]À m
(0,01)m (0,99)]ÀIm .
La probabilité qu'il faille remplacer un paquet est :
a(• > 1) = 1 − a(• ≤ 1) = 1 − a(• = 0) − a(• = 1)
= 1 − Z]ÀÀ
0,01À × 0,99]À − Z]À ]
0,01] × 0,99× ≈ 0,004 = 4/1000
La société s’expose à rembourser 4 sur 1000 paquets vendus.

2) Loi hypergéométrique ou loi du tirage exhaustif

Définition

On considère un tirage équiprobable sans remise ou tirage exhaustif dans


une population d’effectif Ù, cette population étant composée de deux
parties disjointes :
- Une partie à ÙE éléments (éléments possédant un certain caractère),
avec ∈ z0, 1˜ .
- Une partie à (Ù − ÙE) éléments (éléments n’ayant pas ce caractère).
On écrit aussi Ù − ÙE = Ù(1 − E)

C’est le cas, par exemple, d’un lot de Ù pièces comprenant ÙE pièces


défectueuses et donc (Ù − ÙE) pièces fonctionnant bien.

Quelle est la probabilité qu’un sous-ensemble de C éléments contienne


éléments de l’ensemble ?

Les éléments peuvent être tirés, soit un par un, soit d’un seul coup, mais
sans remise.

Soit • la v.a représentant le nombre d’individus ayant le caractère


considéré dans l’échantillon. On veut calculer a(• = ).

Le nombre d’échantillons de taille C est égale à ZÚ[ .

Un échantillon de taille C comprend :

- individus, pris parmi les ÙE individus ayant le caractère considéré,


donc ZÚ^™
choix possibles,
- (C − ) individus pris parmi les (Ù − ÙE) individus n’ayant pas ce
caractère, donc Z(ÚIÚ^)
[I™
choix possibles.

Dr ESSAN K. Ambroise
25

Le nombre d’échantillons de taille C, comprenant individus pris parmi les


ÙE individus est donc égal à ZÚ^

Z(ÚIÚ^)
[I™
.

La probabilité cherchée est égale à :


ZÚ^

Z(ÚIÚ^)
[I™
a(• = ) =
ZÚ[
[
Ú
Le quotient est appelé taux de sondage.

La variable aléatoire ainsi définie suit une loi hypergéométrique Û(Ù; C; E).

Cette loi dépend de trois paramètres Ù, C et E. On a

.(•) = CE (Cette espérance est indépendante de la taille Ù de la


population).
ÚI[
ÈMp(•) = ÚI]
CE(1 − E).

Remarque

La loi hypergéométrique est utilisée, en particulier dans les contrôles de


qualité où on tire, de la population étudiée, les éléments défaillants.

Exemple :
On tire au hasard 13 cartes d’un jeu de 52 cartes. Quelle est la probabilité
pour que parmi les 13 cartes tirées figurent 2 As ?
Solution :
Soit • la v.a désignant le nombre de As tirés.
¥
Ici = 52 , C = 13 , E = ½c et ÙE = 4.

Z¥c Z¥®
]]
a(• = 2) =
Z½c]¼

3) Loi de poisson

Définition
Une variable aléatoire • pouvant prendre les valeurs 0 ; 1 ; 2 ;… est dite de
poisson s’il existe un réel λ> 0 tel que :
Þ„
E(y) = a(• = y) = t IÞ . f! ∀y = 0; 1; 2; …
La loi d’une telle variable aléatoire est dite loi de poisson de paramètre λ
et on écrit •↝ P (λ).

Propriété
Soit •↝P(λ).

Dr ESSAN K. Ambroise
26

.(•) = ß et ÈMp(•) = ß

a) Approximation d’une loi binomiale par la loi de poisson

Soit • ↝ (C, E). On suppose que C est assez grand et E assez petit et
que CE est fini, (CE ∈ ℝ).
On pose ß = CE. Ainsi • ↝P(λ).
Dans la pratique, on peut approximer une loi binomiale de paramètre
(C, E) par une loi de poisson, pour C ≥ 30 et E ≤ 0,1.

b) Application de la loi de poisson

Voici quelques exemples de variables aléatoires qui obéissent en


générale à la règle de probabilité de loi de poisson :
1. Le nombre de coquilles par page ou par groupe de pages d’un livre.
2. Le nombre d’individus dépassant l’âge de 100 ans dans une
communauté humaine.
3. Le nombre de faux N° téléphoniques composé en un jour.
4. Le nombre de clients pénétrant dans un poste donné en l’espace
d’un jour.

N.B : si • ↝P(λ), on peut utiliser la table de la loi de poisson pour


calculer les probabilités a(• = y) et œ( ) = a(• ≤ ) (voir table
annexe)

Exemple 1
Admettons que le nombre d'erreurs par page dans un livre suive une
distribution de Poisson de paramètre λ=1/2. Calculer la probabilité qu'il y
ait au moins une erreur sur une page.
Solution
Désignons par X le nombre d'erreurs sur cette page. On aura :

a{• ≥ 1} = 1 − a{• = 0} = 1 − t I† ≈ 0,393. Cela signifie qu’il y a
environ 4 chances sur 10 de trouver au moins une erreur sur une page.

Exemple 2
On admet que la probabilité de défaut pour un objet fabriqué à la machine
est 0,1. Trouver la probabilité qu'un lot de 30 objets comprenne au plus un
élément affecté d'un défaut.

II - Lois continues
1) Loi uniforme sur ˜P, Rz, −∞ < M < N < +∞

Dr ESSAN K. Ambroise
27

Une variable aléatoire réelle •, suit une loi uniforme sur l’intervalle
˜M, Nz, si sa loi de probabilité admet une densité f égale à :
v( ) = ÐI-
]
1˜-,Ðz ( )

1˜-,Ðz est la fonction caractéristique du segment ˜M, Nz.

- Sa fonction de répartition est


0 uy ≤ M
œ( ) = á«âã
äâã
¹f -l™lÐ
1 uy ≥ N
- La moyenne de la densité (espérance) est
1 Ð
M+N
s = .(•) = Ò q =
N−M - 2
- Et la variance est
1 Ð
-\Ð c (N − M)c
Í =
c
Ò J − c K q =
N−M - 12

Remarque
La somme de deux v.a. indépendantes ou non, suivant une loi uniforme
sur ˜M, Nz, ne suit pas forcément une loi uniforme sur ˜M, Nz.

2) Loi exponentielle

Une variable aléatoire réelle positive • suit une loi exponentielle, de


paramètre ß positif, si sa densité de probabilité est donnée par :
v( ) = ßt IÞ™ 1ℝå .
• est appelée variable exponentielle.

Sa fonction de répartition est


-
œ(M) = a(• ≤ M) = ÏÀ ßt IÞ™ q = 1 − t IÞ- .

Espérance et variance :
] ]
.( ) = Þ et È(•) = Þ† . L’espérance est égale à l’écart-type.

Remarque
La somme de deux variables aléatoires indépendantes, suivant des lois
exponentielles de paramètres respectifs ß] et ßc est une v.a suivant une
loi exponentielle de paramètre ß] + ßc .

Dr ESSAN K. Ambroise
28

3) Loi gamma

Définition
La loi exponentielle est un cas particulier de la famille des lois gamma.
Une variable aléatoire réelle positive • suit une loi gamma æ(±; ß) ou
Γ(±; ß), de paramètres positifs ± et ß, si sa densité de probabilité est
donnée par:
Þ© âè« (Þ™)éâ…
v( ) = ê(ë)
uy ≥0
v( ) = 0 uyCrC

Γ est la fonction eulérienne définie par l’intégrale pour ± > 0 :


\•
Γ(±) = ÏÀ t I™ ëI] q .

Fonction de répartition :
ßë - IÞ™
œ(M) = a(• ≤ M) = Ò t ëI]
q
Γ(±) À

Espérance et variance :
ë ë
.(•) = Þ et ÈMp(•) = Þ†

Remarque
Loi gamma s’identifie à la loi exponentielle si ± = 1.

4) Loi de Laplace-Gauss ou loi normale

Définition1
Une variable aléatoire réelle X prenant ses valeurs dans ℝ, suit une loi de
Laplace-Gauss ou loi normale, de paramètres s et Í si sa densité de
probabilité est donnée par :
1 I
(™I¨)†
v( ) = t cí†
Í√2ì
On écrit alors • ↝N(s; Í).

Propriété
Si • ↝N(s; Í) alors
.(•) = s et ÈMp (•) = Í c .
Proposition
Soient •] et •c deux v.a indépendantes telles que •] ↝N(s] ; Í]) et
•c ↝N(sc ; Íc ). Alors •] + •c ↝N( s] + sc ; ÎÍ] c + Íc c )
Ce résultat se généralise facilement à la somme de C variables aléatoires
gaussiennes, indépendantes.

Dr ESSAN K. Ambroise
29

Définition 2
Une variable aléatoire est dite centrée si sa moyenne .(•) = 0.
Dans le cas d’un jeu, on dit que le jeu est équitable.
Une variable aléatoire est dite réduite si sa variance ÈMp(•) = 1.

Propriété
• Si • est une variable aléatoire quelconque admettant une
–Iš(–)
espérance et une variance non nulle alors î =
í(–)
est une
variable aléatoire centrée réduite.
¯IÕ
• ¯ ↝N(Õ; ï) si, et seulement si ð = ↝N(V; ‚).
ï

a) Loi normale centrée réduite


Une variable aléatoire • suit une loi normale centrée réduite et on note
• ↝N(0; 1) si sa densité de probabilité est donnée par :
1 I™ †
v( =) t c
√2ì
Sa fonction de répartition est donnée par :
Ǡ
] -
œ(M) = a(• ≤ M) = Ï t I
† q .
√cñ I•
M est appelé fractile de la loi normale centrée réduite.
La fonction de répartition et les fractiles de la loi normale centrée
réduite sont lues respectivement dans les tables de la loi normale
centrée réduite (en annexe).

Exemple 1 (utilisation de la table de la loi normale)


Soit • ↝N(3; 2). Calculer les probabilités suivantes :
1. a(• ≤ 4) , a(• ≤ −1), a(• > 1), a(1 < • ≤ 4).
2. Déterminer les fractiles M et N tels que :
a(• ≤ M) = 0,75, a(• > N) = 0,85.

Exemple 2

On suppose que la taille, en centimètre, d'un homme âgé de 25 ans est une
variable aléatoire normale de paramètres É = 175 et Ͳ = 36. Quel est le
pourcentage d'hommes de 25 ans ayant une taille supérieure à 185 cm ?
Parmi les hommes mesurant plus de 180 cm, quel pourcentage d'entre eux
ne dépassent pas 192 cm ?

Exemple 3

a. Supposer que • est une variable aléatoire normale de moyenne 15. Si


{• > 9} = 0,2, quelle est approximativement ÈMp(•)?
b. Soit • une variable aléatoire normale de moyenne 12 et de variance 4.
Trouver la valeur de c telle que a{• > O} = 0,10.

Dr ESSAN K. Ambroise
30

b) Approximation de la loi binomiale ou la loi de poisson par la loi normale


Soit • ↝ (C, E). En pratique, cette approximation est valable dès que
les quantités CE et C(1 − E) sont supérieures à 5,
–I[^
• ↝N (CE; ÎCE(1 − E) ). Donc î = ↝N(0; 1).
Î[^(]I^)

De même si •↝P(λ) alors pour λ (en pratique ß > 18) assez grand,
óIÞ
• ↝N(λ; √λ). Donc • = ↝ N(0; 1).
√ô

Remarque
- Une variable aléatoire binomiale est une variable discrète prenant ses
valeurs dans l’intervalle ˜0, Cz alors qu’une variable aléatoire gaussienne
est une variable continue prenant ses valeurs dans ℝ.
- Dans le cas d’une loi binomiale, un point a une probabilité non nulle
alors que dans le cas d’une loi normale, un point est un ensemble de
probabilité nulle.
Pour ces deux raisons, on doit faire une correction de continuité quand
on utilise l’approximation d’une loi binomiale par une loi normale.

–I[^
Soit • ↝ (C, E). On pose î =
Î[^(]I^)
.
a(• = Ô) ≅ a(Ô − 0,5 < • < Ô + 0,5)
mIÀ,½I[^ m\À,½I[^
= a( <î< ).
Î[^(]I^) Î[^(]I^)

m\À,½I[^
De même a(• ≤ Ô) ≅ a( î < ).
Î[^(]I^)

óIÞ
Soit •↝P(λ), on pose ö = .
√Þ
a(• = M) ≅ a(M − 0,5 < • < M + 0,5)
-IÀ,½IÞ -\À,½IÞ
= a( <ö< ).
√Þ √Þ

Exemple1
Un contrôle au calibre, effectué depuis plusieurs mois sur le diamètre des
pièces usinées par une machine-outil, indique que le pourcentage de pièces
« défectueuses » est égal à 8%.
Un échantillon de 100 pièces de la production est prélevé et le diamètre de
ces pièces est vérifié. Soit • la v.a « nombre de pièces défectueuses » dans
un échantillon de 100 pièces.
La v.a • suit la loi binomiale (100; 0.08).
Comme CE = 100 × 0.08 = 8 > 5 et C(1 − E) = 100 × 0.92 = 92 > 5,
on peut utiliser l’approximation par la loi normale Ù(8; 2,713). Les
paramètres sont en effets : la moyenne s = CE = 8 et la variance est égale
à CE(1 − E) = 7,36 = (2,713)c .
En utilisant cette approximation, on peut calculer, par exemple, la
probabilité d’avoir au moins 10 pièces classées défectueuses dans un
Dr ESSAN K. Ambroise
31

échantillons de 100 pièces, soit a(• ≥ 10) qui devient avec la correction
de continuité a(• > 9,5) :
–I® ×,½I®
a(• > 9,5) = a J > = 0,552K = 0,2903.
c,W]¼ c,W]¼

Exemple2
Dans un essai de sérologie préventive d’une maladie, 2000 enfants ont été
partagés en deux groupes de 1000 ; les enfants d’un groupe recevaient un
sérum, les autres ne recevaient rien. On a observé 40 cas de maladies dans
le premier groupe et 50 dans le deuxième.
Les lois du nombre de maladies Ù] et Ùc dans chaque groupe sont des lois
discrètes, le nombre de maladies est faible 40 et 50 pour un effectif de
1000 individus. Ce sont donc des évènements rares de probabilité 0,04 et
0,05, les variables Ù] et Ùc suivent des lois de Poisson a(40) et a(50). Ces
lois peuvent être approchées par les lois normales Ù(40, √40) et
Ù(50, √50).

Remarque
- La loi normale est une des lois de probabilité la plus utilisée. Elle dépend
de deux paramètres, la moyenne s , paramètre de position, et l’écart-
type Í, paramètre mesurant la dispersion de la variable aléatoire autour
de sa moyenne.
- Elle s’applique à de nombreux phénomènes, en physique, en économie.
- Les variables utilisées dans le domaine technologique ou économique
sont en général positives. La loi normale pourra représenter un tel
phénomène si la probabilité d’obtenir des valeurs négatives de la
variable est très faible.

5) Convergences

a) Loi faible des grands nombres

Théorème
Soit (•[ ) une suite de variables aléatoires indépendantes et de
même loi, d’espérance s et de variance Í c positive.
]
Soit ÷[ = [ (•] + •c + ⋯ + •[ ).
í†
Alors, pour tout Ä > 0 : a(|÷[ − s| ≥ Ä) ≤ [Ɔ.
Il en résulte :
lim a(|÷[ − s| ≥ Ä) = 0 ; lim a(|÷[ − s| < Ä) = 1
[→\• [→\•

On dit que la suite de v.a (÷[ ) converge en probabilité vers la


variable aléatoire certaine s.

Dr ESSAN K. Ambroise
32

De façon générale, on dit que la suite de v.a (•[ ) converge en


probabilité vers la variable aléatoire X ssi
∀Ä > 0, lim a(|•[ − •| ≥ Ä) = 0.
[→\•

b) Convergence en loi

Théorème
Soit ß > 0 fixé, et soit, pour tout C ∈ ℕ∗ , •[ une v.a de loi (C, ‡è).
Þø
Alors ∀Ô ∈ ℕ , lim a(•[ = Ô) = t IÞ m! .
[→\•

On dit que la suite de v.a (•[ ) converge en loi vers une v.a de loi
P(λ).

c) Théorème de la limite centrée

Théorème
Soit (•[ ) une suite de v.a indépendantes et de même loi,
d’espérance s et de variance Í c positive.
Soit ù[∗ la v.a centrée réduite associée à ù[ = •] + •c + ⋯ + •[ .
Alors (ù[∗ ) converge en loi vers • ∗ de loi normale centrée réduite,
c'est-à-dire que l’on a, pour tout M, N dans ℝ tels que M < N :
] Ð é†
lim a(M ≤ ù[∗ ≤ N)= Ï t I † q±.
[→\• √cñ -

Dr ESSAN K. Ambroise

Vous aimerez peut-être aussi