Académique Documents
Professionnel Documents
Culture Documents
Université de Sousse
Institut Superieur des Science Appliquées et de
-
Technologie de Sousse
T hi
???????
SA ud
PROBABILITÉS
IS hfo
-COURS ET EXERCICES CORRIGÉS-
Préparé par:
Kamel Mahfoudhi
Maître assistant en mathématique appliquées
a
M
K.
???????
Year University: 2022-2023
2
K.
M
a
IS hfo
SA ud
T hi
-
3
-
T hi
Variables aléatoires et lois de
probabilités
SA ud
Une expérience aléatoire ξ définit un univers Ω. On désigne par A l’ensemble des parties de Ω
(P(Ω)) ou une σ-algèbre (F). On peut définir sur A une application P telle que ∀A ∈ A, P(A)
est la probabilité de l’événement A de se réaliser.
Définition 0.0.1. Soit Ω un univers. On appelle espace probabilisé le triplet (Ω, A, P). On note
souvent (Ω, P).
IS hfo
Exemples 0.0.1. • Soit l’expérience ξ: On lance successivement 2 fois une pièce:
Ω = {(P, P )(F, F )(P, F )(F, P )}, avec P = "obtenir pile" et F = "obtenir face".
1
On définit la probabilité suivante: P : Ω → [0, 1], ∀ω ∈ Ω P(ω) = .
4
• Dans une urne contenant 3 boules Blanches, 4 boules Rouges, 6 boules Noires, on considère
l’expérience ξ: tirer une boule et observer sa couleur:
Ω = {B, R, N } et la probabilité P est définie par:
a
3 4 6
P(B) = , P(R) = et P(N ) = .
13 13 13
• Lois discrètes : P : Ω → [0, 1], òù Ω est fini ou infini dénombrable d’ événements élémen-
taires que l’on peut noter Ω = {ωi , i ∈ I}, avec I ⊂ N. Soit pi = P({ωi }), ∀i ∈ I.
[ X
Pour A = {ωi } un événement quelconque, alors P(A) = pi .
i∈J i∈J
• Lois continues: P : Ω → [0, 1] est continue si tous les événements élémentaires ont une
probabilité nulle.
d−c
Par exemple: Pour Ω = [a, b], on définit P par: ∀[c, d] ⊂ [a, b], P([c, d]) = . (c’est
b−a
la loi uniforme continue)
4
-
Soient 2 joueurs A et B. L’un des deux lance un dé cubique non truqué; s’il obtient 1 ou 6, il
T hi
donne à l’autre 1 dinar, s’il obtient 2, 3 ou 5, il reçoit 2 dinars et s’il obtient 4, la partie sera
considérée nulle.
On désigne par X le gain dde A. X dépend du hasard (résultat du lancer de dé), d’où
l’appellation: X est une variable aléatoire.
Dans ce cas l’expérience ξ est le lancer de dé, Ω = {1, 2, 3, 4, 5, 6}, ainsi la variable aléatoireX
dépend des événements de Ω et peut prendre les valeurs −1, 0, 2. Soit
SA ud
X(1) = −1, X(6) = −1, X(2) = X(3) = X(5) = 2 et X(4) = 0.
X:Ω → R
ω → X(ω)
X est une application numérique de {1, 2, 3, 5, 6} dans R.
Les événements élémentaires de Ω sont équiprobables. Ainsi (Ω, P) est un espace probabilisé
IS hfo1
P({i}) = , n pour i = 1, 2, 3, 4, 5, 6.
6
On demande la probabilité que le joueur A gagne 2 dinars. On a
1
P(X = 2) = P [ω telque X(ω) = 2] = P[X −1 (2)] = P({2, 3, 5}) = .
2
1
De même P(X = −1) = et P(X = 0) = 1/6.
3
Ainsi à chaque valeur de X, on peut associer une probabilité. Cette correspondance s’appelle loi
de probabilité de X représentée par le tableau suivant:
a
Valeurs de X −1 0 2
Proba. PX 1/3 1/6 1/2
On peut énoncer alors:
M
Définition 0.1.2. Soit X une variable aléatoire (v.a) définie sur l’espace probabilisé (Ω, P). On
appelle loi de probabilité de X, la probabilité PX définie sur l’ensemble des intervalles I de R
telle que:
∀I ⊂ R, PX (I) = P{ω telque X(ω) ∈ I}.
Exemples 0.1.1. 1. On lance successivement 2 fois une pièce de monnaie. Soit la variable
aléatoire X représentant le nombre de faces obtenues après ces 2 lancements.
On a: Ω = {(P, P ), (P, F ), (F, P ), (F, F )}et les événements sont équiprobables
Les valeurs de X sont 0, 1 et 2. La loi de probabilité de X est donnée par le tableau
suivant:
0.2. Variables aléatoires discrètes. 5
Valeurs de X 0 1 2
1 1 1
Proba. PX
-
4 2 4
2. Dans une urne, il y a des boules blanches et rouges. Les blanches sont en proportion p et
T hi
les rouges en proportion q = 1 − p.
Soit l’expérience ξ : on tire une boule. On a: Ω = {B, R}, P(B) = p et P(R) = q.
Soit X le nombre de rouges obtenues. La loi de probabilité de X est donnée par le tableau
suivant:
Valeurs de X 0 1
SA ud
Proba. PX p q
Définition 0.1.3. Soit X une v.a définie sur (Ω, P) on appelle fonction de répartition de X la
fonction F de R dans R définie par F (x) = P(X ≤ x).
La fonction de répartition permet de calculer toutes les probabilités relatives aux intervalles.
i
[
−1 0
et X (] − ∞, x [) sont tous les deux égaux à la réunion disjointe X −1 (xj ); donc:
j=1
i
X
F (x) = F (x0 ) = pj .
j=1
i−1
X
• Si x = xi on a F (x) = pj qui est la valeur de F (x0 ) pour tout x0 ∈] xi−1 , xi ].
-
j=1
T hi
Le cas où ×(Ω) on le verra plus tard.
SA ud
• Les probabilités des valeurs de X, pi = P(X = xi ). Souvent on dresse le tableau:
Valeurs de X x1 x2 ... xn
Proba P(X = xi ) p1 p2 ... pn
Exemples 0.2.1. 1. On lance une pièce de monnaie un certain nombre de fois. Soit X le
nombre de jets nécessaires pour obtenir pile pour la 1ere fois.
M
Valeurs de X 1 2 ... k
1 1 1
Proba P(X = xi ) ...
2 22 2k
1 1 1 1 1 1 − (1/2)k 1 2k − 1
– Pour k ≤ x < k+1, F (x) = + 2 + 3 +. . .+ k = = 1− k = .
2 2 2 2 2 1 − 1/2 2 2k
-
2. On dispose d’un sac contenant n jetons, numérotés de 1 à n (n ≥ 3). On tire successivement
au hasard sans remise 3 jetons. Soit X le numéro du 3e jeton obtenu. On a X(Ω) = [[1, n]]
T hi
et pour tout k ∈ X(Ω),
A2n−1 1
P(X = k) = P({triplets tels que le 3me numéro est k}) = = .
A3n n
La loi de probabilité de X
SA ud
La fonction de répartition de X est définie par:
3. On place un hamster dans une cage. Il se trouve face à 5 portillons dont un seul lui permet
de sortir. À chaque essai infructueux, il reçoit une décharge électrique et on le replace à
IS hfo
l’endroit initial.
Si le hamster choisi de façon équiprobable entre les 5 solutions à chaque nouvel essai, le
hamster sort au 1er essai avec une probabilité P( 1er essai) = 51 , au 3me essai avec une
4 4 1
probabilité P( 3me essai) = × × = 0.128 et au 7me essai avec une probabilité
5 5 5
6
me 4 1
P(7 essai) = × = 0.0524.
5 5
Si le hamster mémorise les essais infructueux et choisit de façon équiprobable entre les
a
portillons qu’il n’a pas encore essayés. Soit X le nombre d’essais effectués pour sortir.
La loi de probabilité de X est donnée par:
M
Valeurs de X 1 2 3 4 5
Proba P(X = xi ) 0.2 0.2 0.2 0.2 0.2
• Si F est continue et dérivable alors on dit que la variable X est absolument continue.
Propriétés 0.3.1. La fonction de répartition F d’une variable continue X vérifie les propriétés
suivantes:
-
Proof.
• Pour x < y, on a:
T hi
P X −1 (] − ∞, y[) = P X −1 (] − ∞, x[∪[x, y[)
F (y) =
= P X −1 (] − ∞, x[) ∪ X −1 ([x, y[)
1
est croissante et X −1 (] − ∞, a[) =
SA ud
• Pour a ∈ R, on a: La suite (] − ∞, a − n [)n
limn→∞ X −1 (] − ∞, a − n1 [). Donc
1
F (a) = P(X −1 (] − ∞, a[)) = P( lim X −1 (] − ∞, a − [))
n→∞ n
1 1
= lim P (X −1 (] − ∞, a − [)) = lim F (a − ) = F (a − 0).
n→∞ n n→∞ n
On peut montrer par ailleurs que F admet une limite à droite en tout point. On a:
IS hfo X −1 (] − ∞, a]) = lim X −1 (] − ∞, a +
n→∞
1
P(× ≤ a) = P(X −1 (] − ∞, a])) = P( lim X −1 (] − ∞, a + [))
n→∞ n
1 1
= lim P(X −1 (] − ∞, a + [)) = lim F (a + ) = F (a + O).
n→∞ n n→∞ n
a
• La suite d’événements (X −1 (] − ∞, −n[))n est décroissante, donc:
= P( lim X −1 (] − ∞, −n[))
n→∞
−1
= P(X (∅)) = P(∅) = 0.
= P( lim X −1 (] − ∞, n[))
n→∞
= P(X −1 (R)) = P(Ω) = 1.
Remarque 0.3.1. Pour tous réels a et b tels que a ≤ b, on a: P(a ≤ X < b) = F (b) − F (a). Si
la variable X est absolument continue, alors pour a, P(X = a) = 0. En effet,
-
F (x + h) − F (x)
T hi
f (x) = lim .
h→0 h
(ii) Si la variable X est absolument continue, alors la dérivée f (x) = F 0 (x) est appelée fonction
densité de probabilité de X
Par conséquent:
SA ud
Z x Z b
∀x ∈ R, F (x) = f (y)dy et P(a ≤ X ≤ b) = f (y)dy.
−∞ a
R +∞
La fonction f est positive et −∞ f (y)dy = 1. Cette dernière conséquence est souvent utilisé
pour montrer qu’une fonction f est effectivement une densité.
1 si x ∈ [0, 1]
Exemple 0.3.1. Soit X la v.a. donnée par sa fonction densité f (x) =
0 si non
C’est la loi uniformément répartie sur [0, 1].
IS hfo
1 si x > 1
La fonction de répartition F de X est définie par: F (x) = x si x ∈ [0, 1]
0 si x < 0
et on a, P(0.25 ≤ X < 0.5) = F (0.5) − F (0.25) = 0.5 − 0.25 = 0.25.
i∈I
Exemples 0.4.1. 1. Dans une urne, on a des boules blanches en proportion p et des noires
en proportion q = 1 − p. Soit la variable aléatoire X dont la loi est donnée par le tableau:
Valeurs de X 0 1
Proba P(X = xi ) p q
Valeurs de X 0 1 2
1 1 1
Proba P(X = xi )
-
4 2 4
1 1
+ 2 × = 1.
T hi
L’espérance mathématique de X est E(X) =
2 4
2. On lance 2 dés cubiques. Soit la variable aléatoire X égale égale au somme des numéros
des faces de dessus des deux dés.
L’espérance mathématique de X est
2 6 12 20 30 42 40 30 20 12 252
SA ud
E(X) = + + + + + + +1+ + + = = 7.
36 36 36 36 36 36 36 36 36 36 36
3. Un joueur tire au hasard une carte parmi 52. Il gagne 2 dinars si la carte est un coeur et
perd 1 dinars sinon. Soit G le gain du joueur.
La loi de probabilité de G est donnée par:
Valeur de G 2 −1
1 3
IS hfo Proba PG 4 4
2 3 1
L’espérance mathématique de G est E(G) = − = − = −0.25
4 4 4
4. On définit la variable aléatoire continue X par sa fonction densité
0 si x < 0 ou x > 2
f (x) = x si x ∈ [0, 1[
−x + 2 si x ∈ [1, 2]
-
Proof.
X
• Dans le cas discret, on a: pi = P(X −1 (xi )) = P({ω}). Donc:
T hi
ω∈X −1 (xi )
X X X X
E(X) = xi pi = xi ( P({ω})) = X(ω)P({ω})
i∈I i∈I ω∈X −1 (xi ) ω∈Ω
SA ud
Donc, ∀α, ∀β des réels
X X X
E(α × +βY ) = (α × +βY )(ω)P({ω}) = α X(ω)P({ω}) + β Y (ω)P({ω})
ω∈Ω ω∈Ω ω∈Ω
= αE(X) + βE(Y ).
0.4.2
IS hfo
Variances.
Définition 0.4.2. Soit X une variable aléatoire. La variance de X (ou le moment centré d’ordre
2) est le réel (s’il existe) définie par:
× − E(X)
X∗ = .
σ(×)
-
variance de X est le réel (s’il existe) définie par:
X X
pi x2i − E(X)2 = pi (xi − E(X))2 .
T hi
V(X) =
i∈I i∈I
SA ud
Z +∞ Z +∞
V(X) = (x − E(X))2 f (x)dx = x2 f (x)dx − E(X)2 .
−∞ −∞
9
− ( )2 =
40
-1
1
4
3239
1600
0
1
5
1
1
8
2
3
10
' 2, 02.
2. Une entreprise de la région estime que la demande concernant l’un des articles qu’elle
produit est une v.a. continue X dont la densité de probabilité est:
0 si x < 0
3x + 2 si x ∈ [0, 1/3[
a
f (x) = x si x ∈ [1/3, 2/3]
−3x + 3 si x ∈ [2/3, 1[
0 si x ≥ 1
M
0.4.3 Moments.
Définition 0.4.5. Soit X une variable aléatoire. Pour k ∈ N∗ , on appelle moment (resp. moment
centré) d’ordre k de X, noté mk (resp. Mk ), la quantité (si elle existe) définie par:
mk = E(X k ) (resp. Mk = E(X − E(X))k .)
• Cas des variables discrètes
Soit X une v.a. définie sur (Ω, P) telle que X(Ω) = {xi , i ∈ I} et pi = P(X = xi ).
X
mk = pi xki .
i∈I
0.4. Caractéristiques d’une variable aléatoire. 13
-
Z +∞
Le moment d’ordre k de X est définie par: mk = xk f (x)dx.
−∞
T hi
Soit X une v.a. admettant une variance V(X). Alors
V(X) = m2 − m21 = M2 .
SA ud
Définition 0.4.6. Soit X une variable aléatoire de fonction de répartition F . On appelle médiane
1
de X, notée Me , le réel (ou l’intervalle) abscisse de l’intersection entre y = et y = F (x).
2
Exemple 0.4.3. Soit X une variable aléatoire de densité de probabilité f définie par:
0 si x<0
0 si x>2
IS hfo
• Si x < 0, F (x) =
Z x
f (x) =
f (t)dt = 0.
x
2−x
si
si
x ∈ [0, 1[
x ∈ [1, 2[
−∞
x x
t2 x2
Z
• Si x ∈ [0, 1 [, F (x) = tdt = = .
0 2 0 2
• Si x ∈ [1, 2 [,
a
x x
t2
Z
1
F (x) = 1/2 + (2 − t)dt = + 2t −
1 2 2 1
M
1 x2 1 x2
= + 2x − − 2 + = −1 + 2x − .
2 2 2 2
La médiane de X est: Me = 1.
Définition 0.4.7. Soit X une variable aléatoire. On appelle mode de X la valeur x0 telle que:
K.
-
On définie sur le même univers Ω la variable Y par:
T hi
Y (Ω) = {y1 = ϕ(x1 ), . . . , yn = ϕ(xn )}
et on calcule la probabilité des événements.
P(Y = yk ) = P({ω ∈ Ω tel que Y (ω) = yk }) = P(ω ∈ Ω tel que ϕ(X(ω)) = yk ).
Cette variable Y s’appelle la variable image de X par ϕ et on la note Y = ϕ(X).
SA ud
On peut calculer l’espérance mathématique E(Y ) et la variance V(Y ) sans la distribution
de probabilité de Y . Soit
n
X n
X
E(Y ) = pi ϕ(xi ) et V(Y ) = fi ϕ2 (xi ) − E(Y )2 .
i=1 i=1
Exemples 0.4.4. 1. Soit X une v.a. prenant chacune des valeurs 0,1,2,3,4,5 avec la même
1
probabilité . Soient Y = 2X + 1 et Z = X 2 . On a:
a
6
1
– E(Y ) = [1 + 3 + 5 + 7 + 9 + 11] = 6
6
M
1 70 35
– V(Y ) = [1 + 9 + 25 + 49 + 81 + 121] − 62 = =
6 6 2
1 55
– E(Z) = [1 + 4 + 9 + 16 + 25] =
6 6
1 55 979 552 2849
– V(Z) = [1 + 16 + 81 + 256 + 625] − 2 = − 2 = = 79, 14
6 6 6 6 36
K.
Valeurs de Y 1 3 5 7 9 11
1 1 1 1 1 1
Proba P(Y = yi ) 6 6 6 6 6 6
Z 1 3 1
1 2 x 1 1 1
– E(Y ) = x dx = = + = .
−1 2 6 −1 6 6 3
-
Z 1 5 1
1 1 x 1 1 1
– V(Y ) = x4 dx − 2 = − = −
2 3 10 9 5 9
T hi
−1 −1
– La fonction de répartition G de Y est définie par:
∗ Pour y < 0, G(y) = 0.
∗ Pour y > 0,
√ √
SA ud
G(y) = P(− y ≤ X ≤ y)
√ √ √ √
= P(X ≤ y) − P(X ≤ − y) = F ( y) − F (− y).
0 six < −1
1+x
Comme F (x) = six ∈ [−1, 1] ,
2 alors
1 six > 1
· Pour y < 1, G(y) = 0.
√
IS hfo · Pour y ∈ [0, 1], G(y) = y.
· Pour Pour y > 1, G(y) = 1.
1
0
√ sur [0, 1]
– La fonction densité de Y, g(y) = G (y) est donc g(y) = 2 y
0 ailleurs
Z 1 Z 1
1 1 1 2 1
– L’espérance mathématique E(Y ) = y √ dy = y 1/2 dy = × [y 3/2 ]10 = .
0 2 y 2 0 2 3 3
Z 1 Z 1
1 1 1 1 1 2 1 1 1
– La variance V(Y ) = 42 √ dy − 2 = y 3/2 dy − = × [y 5/2 ]10 − = −
0 2 y 3 2 0 9 2 5 9 5 9
a
M
K.