Académique Documents
Professionnel Documents
Culture Documents
de Constantine
COURS DE PROBABILITES
(Semestre 2)
Zaher MOHDEB
Les variables aléatoires peuvent être discrètes, qui est, en prenant tous les
éléments d’une liste finie ou dénombrable de valeurs spécifiée, doté d’une
fonction de masse de probabilité, caractéristique d’une distribution de
probabilités ; ou continues, en prenant une valeur numérique dans un
intervalle ou d’une famille d’intervalles, par l’intermédiaire d’une fonction
de densité de probabilité qui est une caractéristique de la distribution de
probabilités ; ou un mélange des deux types.
Ainsi la notion de variable aléatoire permet de créer une relation entre un
espace probabilisé et un espace mesurable qui est presque toujours l’espace
IR ou IRn . Par cette relation, l’espace qui n’était que mesurable devient
aussi probabilisé. Dans ce cas, la variable aléatoire présente le grand intérêt
pratique d’associer des nombres à une expérience soumise au hasard dont
les issues sont abstraites. Pour un expérientateur, l’espace probabilisé est
le phénomène étudié et l’espace mesurable sera l’ensemble de tous les
résultats chiffrés des expériences portant sur le phénomène en question.
Définition
Soit X l’application définie de Ω dans IR, on note X −1 l’application
de P(IR) dans P(Ω) qui à B ⊂ IR associe son image réciproque par
X : X −1 (B) = {ω ∈ Ω/X (ω) ∈ B}.
Définition
On appelle tribu borélienne sur IR (ou tribu des boréliens de IR) la
tribu engendrée par les intervalles ouverts de IR et on note B(IR) ou
B
ZaherIR . (E. N. P. de Constantine)
Mohdeb 5 / 46
Notion de variables aléatoires réelles
Proposition
La tribu BIR des boréliens de IR est engendrée par
i) la famille des intervalles ouverts bornés,
ii) la famille des intervalles de la forme ] − ∞, a[ avec a ∈ IR,
iii) la famille des intervalles de la forme ] − ∞, a] avec a ∈ IR.
Définition
Soit (Ω, A, P) un espace probabilisé. On appelle variable aléatoire réelle
définie
sur (Ω, A), l’application
X de Ω dans IR
X : (Ω, A) −→ (IR, BIR ) , telle que l’image réciproque par X de tout
intervalle ] − ∞, x] est un événement de A, c’est-à-dire
X −1 (] − ∞, x]) ∈ A, ∀x ∈ IR.
Remarque : Dire que X est une variable aléatoire réelle sur (Ω, A) revient
à dire ∀B ∈ BIR , X −1 (B) ∈ A, puisque la famille des intervalles de la
forme ] − ∞, x] , avec x ∈ IR, engendrent la tribu des boréliens B IR .
Zaher Mohdeb (E. N. P. de Constantine) 6 / 46
Notion de variables aléatoires réelles
La fonction indicatrice 1IA est clairement une variable aléatoire car pour
tout borélien B dans BIR , on a
A si 0∈
/B et 1 ∈ B,
CΩ A si 0∈B et 1 ∈
/ B,
(1IA )−1 (B) = {ω ∈ Ω : 1IA (ω) ∈ B} =
Ω si 0∈B et 1 ∈ B,
∅ si 0∈
/B et 1 ∈
/B
(1)
et ∅, A, CΩ A et Ω sont des événements de A.
Proposition
Soit X une variable aléatoire réelle définie sur un espace probabilisé
(Ω, A, P) à valeurs dans un espace probabilisable (IR, BIR ). Alors la
famille des parties {X −1 (B) : B ∈ BIR } est une tribu (ou σ-algèbre)
de Ω, appelée tribu engendrée par X .
On note σ(X ) cette tribu de parties de Ω et on remarquera que σ(X )
est une sous-tribu de la tribu A de Ω.
Définition
Une variable aléatoire (v.a.) discrète sur un espace probabilisé
(Ω, A, P) est une application définie sur Ω prenant un nombre fini ou
dénombrable de valeurs réelles {x1 , x2 , . . .} telle que ∀xi ∈ X (Ω),
X −1 ({xi }) ∈ A.
Définition
Soit X une variable aléatoire réelle discrète sur (Ω, A, P) et
X (Ω) = {xi , i ∈ I }. On appelle tribu engendrée par X , notée σ(X )
(ou AX ), la sous-tribu de A engendrée par la famille des
{X −1 ({xi }), i ∈ I }.
Définition
La fonction f définie sur IR par f (x) = P(X = x) est appelée fonction
densité discrète de X .
Propriétés : La densité discrète f d’une variable aléatoire X vérifie
a) f (x) ≥ 0, ∀x ∈ IR,
b) {x ∈ IR/f (x) 6= 0} est un sous-ensemble fini ou dénombrable
{x1X, x2 , . . .} de IR.
c) f (xi ) = 1.
i
Définition
Deux variables aléatoires réelles discrètes X et Y définies sur le même
espace probabilité (Ω, A, P) sont dites presque sûrement égales si
Définition
L’application X de Ω dans {0, 1} telle que X (e) = 0, X (s) = 1,
P(X = 1) = p et P(X = 0) = 1 − p est appelée variable aléatoire de
Bernoulli de paramètre p notée B(p).
- Loi binomiale
Considérons n répétitions indépendantes d’une expérience de Bernoulli
(pile-face, succès-échec, boule rouge - boule blanche) de probabilités
respectives p et q = 1 − p.
d’où
Ckn p k q n−k
si k = 0, 1, . . . , n
P(Sn = k) = (2)
0 sinon.
Cette distribution est l’une des plus importantes de la théorie des
probabilités, appelée distribution binomilale car son k ieme terme b(k, n, p)
est le k ieme terme du développement de (p + q)n . On note Sn ∼ B(n, p).
Remarques
i ) La loi binomiale décrit des phénomènes ne pouvant prendre que
deux états s’excluant mutuellement, par exemple : succès ou échec
dans un jeu, bonne pièce ou pièce défectueuse dans une fabrication,
lot acceptable ou lot refusé, défaillance ou fonctionnement d’un
matériel, etc. . .
ii ) Elle est utilisée dans le domaine technique pour déterminer la
probabilité de défaillance à la sollicitation de matériels, en contrôle
qualité, mais elle ne peut s’appliquer rigoureusement que si les
expériences sont non exhaustives, c’est la loi du tirage avec remise.
iii ) Les événements considérés doivent être indépendants et la
probabilité de réalisation d’un événement doit être constante.
- Loi hypergéométrique
Considérons une population de N objets parmi lesquels M sont d’un
type et N − M d’un second type.
Supposons que nous tirions un échantillon aléatoire (tirage sans
remise) de taille n ≤ N de la population.
Soit X le nombre d’objets du 1er type dans l’échantillon de taille n. Il
est clair que le nombre k d’objets du premier type et donc (n − k)
objets du second type dans l’échantillon de taille n doivent vérifier les
conditions suivantes :
0 ≤ k ≤n 0 ≤ k ≤n
0 ≤ k ≤M ⇐⇒ 0 ≤ k ≤M
0 ≤ n−k ≤ N −M n−N +M ≤ k ≤ n.
Donc X est une variable aléatoire dont les valeurs possibles varient entre
max(0, n − N + M) et min(n, M), avec
k n−k
CM CN−M
P(X = k) = n si k = max(0, n − N + M), . . . , min(n, M)
C N
0 sinon,
(3)
où n, M, N sont des entiers tels que n ≤ N et M ≤ N. On dira que X suit
une loi hypergéométrique de paramètres N, n, M
N et on note
X ∼ H(N, n, M N ).
Remarque : Notons que si n ≤ M et n ≤ N − M, alors la formule donnée
par (3) s’écrit
k n−k
CM CN−M
P(X = k) = si k = 0, 1, . . . , n (4)
CnN
0 sinon.
- Loi de Poisson
Définition
Soit λ un nombre réel positif. On dit que la variable aléatoire X suit une
loi de Poisson de paramètre λ, si X est une variable aléatoire discrète
prenant la valeur entière n avec la probabilité
e −λ λn
P(X = n) = si k = 0, 1, 2, . . . (5)
n!
0 sinon.
On note X ∼ P(λ).
On a
n
1 1 2 k −1 k λ 1
P(X = k) = 1− 1− ... 1 − λ 1− .
k! n n n n (1 − λn )k
n
λ
Lorque n −→ ∞, 1− −→ e −λ , d’où
n
e −λ λk
P(X = k) = Ckn p k (1 − p)n−k −→ , quand n −→ ∞ .
k!
La distribution binomiale B(n, p) peut être approximée par une
distribution de Poisson de paramètre λ = np , dès que n > 50 et
p < 0, 10.
- Loi géométrique
Supposons qu’une expérience admette deux résultats possibles
appelés succès et échec notés respectivement ”s” et ”e” tels que
P(s) = p et P(e) = 1 − p = q.
Répétons cette expérience (répétitions indépendantes) et définissons
la variable aléatoire X représentant ”le nombre de répétitions de
l’expérience nécessaires à l’obtention du premier succès”.
Pour calculer P(X = k), on note Ak l’événement : ”obtenir un succès
à la k ieme répétition de l’expérience”. A cause de l’indépendance des
répétitions de l’expérience, il est clair que
Définition
On dit qu’une variable aléatoire X suit une loi géométrique de
paramètre p et on note X ∼ G(p), si
Définition
Soit (Ω, A, P) un espace probabilisé. Une variable aléatoire X continue est
une application de (Ω, A, P) dans IR pour laquelle la fonction F X qui à x
notation
appartenant à IR associe P({ω ∈ Ω/X (ω) ≤ x}) = P(X ≤ x) est bien
définie et continue.
La fonction FX est appelée fonction de répartition (en abrégé f.r.) de la
variable aléatoire X ,
Propriétés
i) FX (+∞) = lim FX (x) = 1 et FX (−∞) = lim FX (x) = 0.
x→+∞ x→−∞
En effet, on a FX (+∞) = lim P({ω ∈ Ω/X (ω) ≤ x}) = P(Ω) = 1
x→+∞
et FX (−∞) = lim P({ω ∈ Ω/X (ω) ≤ x}) = P(∅) = 0.
x→−∞
En effet, on a
{ω ∈ Ω/X (ω) ≤ x2 } = {ω ∈ Ω/X (ω) ≤ x1 } ∪ {ω ∈ Ω/x1 < X (ω) ≤ x2 }
=⇒ P(X ≤ x2 ) = P(X ≤ x1 ) + P(x1 < X ≤ x2 )
=⇒ P(x1 < X ≤ x2 ) = FX (x2 ) − FX (x1 ).
iii ) P(x1 < X < x2 ) = FX (x2− ) − FX (x1 ) , où FX (x2− ) = lim FX (x).
<
x → x2
En effet, on a {ω ∈ Ω/X (ω) < x2 } = {ω ∈ Ω/X (ω) ≤ x1 } ∪ {ω ∈
Ω/x1 < X (ω) < x2 },
comme P(X < x2 ) = lim P(X ≤ x) = lim FX (x) = FX (x2− ),
< <
x → x2 x → x2
d’où
FX (x2− ) = FX (x1 ) + P(x1 < X < x2 ).
iv ) FX est monotone non décroissante.
En effet, soit x1 , x2 ∈ IR tels que x1 < x2 , on a
0 ≤ P(x1 < X ≤ x2 ) = FX (x2 ) − FX (x1 ) =⇒ FX (x2 ) ≤ FX (x1 ).
d’où
h
FX (x0 ) − FX (x) = lim FX (x0 ) − FX (x1 ) + FX (x1 ) − FX (x2 )
n→+∞
i
+ . . . + FX (xn−1 ) − FX (xn )
h i
= lim FX (x0 ) − FX (xn )
n→+∞
= FX (x0 ) − lim FX (xn ) ,
n→+∞
ainsi
FX (x) = lim FX (xn ) .
n→+∞
et
d’où P(X = a) = 0.
Remarque
On en déduit que si X est une v.a. réelle continue, alors P(X = x) = 0,
∀x ∈ IR.
0.5
y=F (x)
X
x 0 x x x ....
1 2 3 4
Définition
Soit F la fonction de répartition d’une variable aléatoire réelle X , s’il existe
une fonction f positive, intégrable au sens de Riemann et telle que
Z x
∀x ∈ IR, F (x) = f (t) dt ,
−∞
Propriétés
dF (x)
a) F 0 (x) = f (x) , = f (x) ,
dx
Z +∞
b) f (t) dt = F (+∞) − F (−∞) = 1 ,
−∞
Solution
1) f étant une densité de probabilité de la loi de la variable aléatoire X , on
doit avoir
i) fZ(x) ≥ 0, ∀x ∈ IR, ce qui entraine que c ≥ 0,
+∞
ii) f (t) dt = 1, ce qui entraı̂ne que
−∞
2 2
2x 3
8 3
Z
2 2
1=c (4x − 2x ) dx = c 2 x − = c =⇒ c= .
0 3 0 3 8
+∞ 2
3 1
Z Z
2) P(X > 1) = f (x) dx = (4x − 2x 2 ) dx = .
1 8 1 2
- Loi normale
Définition
- Une loi de probabilité P définie sur (IR, B IR ) est appelée loi normale de
paramètres m et σ, si elle admet une densité de probabilité de la forme
1 1 x −m 2
f (x) = √ e − 2 ( σ ) , ∀x ∈ IR . (8)
σ 2π
- Loi de Cauchy
Définition
- Une loi de probabilité P définie sur (IR, B IR ) est appelée loi de Cauchy de
paramètres réels a et b (avec a > 0), si elle admet une densité de
probabilité de la forme
1 a
f (x) = , ∀x ∈ IR . (9)
π a2 + (x − b)2
0.4
y=f (x)
1
0.35
0.3
0.25
0.2
y
0.15
0.05
−10 −5 0 5 10
x
x2
Figure: Courbe de la densité d’une loi normale N (0, 1) : f1 (x) = √1 e − 2 ,
2π
1
ainsi que celle de la densité d’une loi de Cauchy : f 2 (x) = π(1+x 2) .
- Loi exponentielle
Définition
- Une loi de probabilité P définie sur (IR, B IR ) est appelée loi exponentielle
de paramètre réel λ > 0, si elle admet une densité de probabilité de la
forme
λ e −λx si x > 0
f (x) = (10)
0 sinon .
Remarques :
- La loi de probabilité exponentielle peut être associée aux processus de
Poisson. En effet, un tel processus génère des événements dont les temps
d’occurrence sont indépendants et distribués suivant une loi exponentielle.
- La loi de probabilité exponentielle de paramètre λ est également utilisée
en fiabilité. Le paramètre λ représente le taux de défaillance d’un appareil
et son inverse 1/λ désigne le temps moyen de bon fonctionnement.
Zaher Mohdeb (E. N. P. de Constantine) 44 / 46
Notion de variables aléatoires réelles
- Loi Gamma
Définition
- Soient a et b deux nombres réels strictement positifs. Une loi de
probabilité P définie sur (IR, BIR ) est appelée loi Gamma de paramètres a
et b, si elle admet une densité de probabilité de la forme
a
b x a−1 e −bx si x > 0
f (x) = Γ(a) (11)
0 sinon ,
Remarques :
i) Dans le cas particulier a = 1, on retrouve la loi exponentielle de
paramètre λ = b.
ii) La loi Γ(a, b) peut être utilisée pour modéliser un certain nombre de
phénomènes aléatoires. Par exemple :
- Dans la théorie des files d’attente, la loi gamma représente la loi de
probabilité d’occurrence de a événements (a étant un entier), dans un
processus poissonnien. Si le temps T , entre les défaillances successives
d’un système, suit une loi exponentielle, le temps cumulé d’apparitions de
b défaillances suit une loi Γ(a, b),
- En fiabilité, la loi Γ(a, b) peut être utilisée pour modéliser les temps de
défaillance d’un matériel.