Vous êtes sur la page 1sur 10

Variables aléatoires

Dr Hamidou. OUEDRAOGO(Mdecine)
May 13, 2022

1 Généralités sur les variables aléatoires


Définition 1.1. Soit Ω l’univers lié à une épreuve. Une variable aléatoire réelle est une
application X : Ω −→ R. L’ensemble des valeurs prises par X est noté X(Ω)(en abrégé
V.a). A tout évènement élémentaire ω ∈ Ω correspond donc un réel, qui est la valeur
prise par X quand ω est réalisé. On note usuellement une variable aléatoire par une lettre
majuscule.

Lorsque X(Ω) est fini où infini dénombrable on dit que X est une variable aléatoire est
discrète.

Exemple 1.2. La somme des points obtenus en lanant 2 dés, le nombre d’étudiants
connectés à Facebook.

Lorsque X(Ω) est infini non dénombrable (c’est-à-dire, lorsque X peut prendre toutes
les valeurs d’un intervalle réel), on dit que X est une variable aléatoire continue.

Exemple 1.3. Temps d’attente à un fil du RU, la distance parcouru par un vélo.

1
2 Variables aléatoires discrètes
2.1 Loi d’une variable aléatoire discrète
Soit X une variable aléatoire discrète telle que X(Ω) = {x1 ; x2 ; · · · ; xn ; · · · }

Définition 2.1. On appelle loi (ou distribution) de probabilité de X la donnée des cou-
ples {(xi , pi ), xi ∈ X(Ω)}. On la présente généralement sous forme de tableau
xi x1 · · · xn · · ·
p(X = xi ) p1 · · · pn · · ·

Exemple 2.2. La demande mensuelle d’un produit A dans un super marché de la place
est une variable aléatoire dont la loi est indiqué dans le tableau suivant:

Demande xi 0 1 2 3 4
p(X = xi ) 0, 1 0, 2 0, 3 0, 3 0, 1

Remarques:

• On la represente aussi sous forme graphique ( Diagramme en bâtons)


P
• xi ∈X(Ω) pi = 1

2.2 Fonction de répartition d’une variable aléatoire discète


Définition 2.3. Soit X une variable aléatoire. On appelle fonction de répartition de X
la fonction
FX : R −→ R

définie par ∀ x ∈ R, FX (x) = p(X ≤ x).

Proposition 2.4. Soit X une variable aléatoire. Alors

• pour tout x ∈ R, 0 ≤ FX (x) ≤ 1,

• La fonction FX est croissante,

• La fonction FX est une fonction en escalier

Exercice 2.5. Un site de vente par Internet propose un choix de 20 montres :


Il y a 5 montres qui coûtent 10 euros , 9 montres qui coûtent 20 euros , 4 montres qui
coûtent 30 euros et 2 montres qui coûtent 50 euros . On tire une montre au hasard. X
est la v.a.r associe au prix de cette montre.

2
2.3 Espérance d’une variable aléatoire discrète
Définition 2.6. Soient X une variable aléatoire discrète. On appelle espérance de X le
réel noté E(X) et défini par
X
E(X) = xi p(X = xi )
xi ∈X(Ω)

On note souvent µ = E(X)

Proposition 2.7. Soit X , Y deux variables aléatoires discrètes et a, b des nombres réels.
Alors

• E(aX + bY ) = aE(X) + bE(Y ) ∀a, b ∈ R;

• E(aX + b) = aE(X) + b ∀a, b ∈ R;

• (E(a) = a ∀a ∈ R.

Proposition 2.8. Soit g : R −→ R, une fontion continue,alors g(X) est une variable
aléatoire discrète et on a
X
E(g(X)) = g(xi )p(X = xi ).
xi ∈X(Ω)

2.4 Variance d’une variable aléatoire discrète


Définition 2.9. Soient X une variable aléatoire discrète. On appelle variance de X le
réel positif noté V (X) et défini par
X
V (X) = (xi − E(X))2 p(X = xi ) = E((X − E(X))2
xi ∈X(Ω)

2
On note souvent σX = V (X).

Définition 2.10. Soient X une variablep aléatoire discrète. On appelle ćart-type de X le


réel positif noté σX défini par σX = V (X)

Proposition 2.11. Soit X une variable aléatoire discrète et a, b des nombres réels. Alors

• V (aX + b) = a2 V (X) ∀ a, b ∈ R;

• V (a) = 0 ∀ a ∈ R;

• V (X) = E(X 2 ) − (E(X))2 (formule de Konig-Huygens).

3
2.5 Lois discrètes usuelles
2.5.1 La loi de Bernoulli
Définition 2.12. Une épreuve de Bernoulli est une épreuve aléatoire ayant 2 résultats
possibles : succès ou échec. En notant X, le nombre de succès à l’issue d’une épreuve, on
a X(Ω) = {0, 1}, (0 si le résultat est un échec, 1 si le résultat est un succès).
On dit qu’une variable aléatoire X suit une loi de Bernoulli de paramètre p et on note
X ,→ Bernoulli(p) si

• X(Ω) = {0, 1}

• p(X = 1) = p et p(X = 0) = 1 − p

Proposition 2.13. Soit X ,→ Bernoulli(p). Alors

• E(X) = p

• V (X) = p(1 − p)

2.5.2 La loi Binomiale


Définition 2.14. On répète n fois de facon indépendante une même épreuve de Bernoulli.
X : Nombre de succès parmi les n expériences X(Ω) = {0, 1, 2, · · · , n}
On dit qu’une variable aléatoire X suit une loi Binomiale de paramètres n et p et on note
X ,→ Bin(n, p) avec une probabilité p de succès si
X(Ω) = {0, 1 · · · , n} et p(X = k) = Cnk pk (1 − p)n−k ∀ k ∈ {0, 1 · · · , n}

Remarque 2.15. Trois conditions doivent être remplies pour que X suive une loi bino-
miale:

• n fixé d’avance ;

• épreuves de Bernoulli avec paramètre p = P(succès) ;

• épreuves indépendantes.

Proposition 2.16. Soit X ,→ Bin(n, p). Alors

• E(X) = np

• V (X) = np(1 − p)

2.5.3 La loi géométrique


Définition 2.17. On effectue des ṕreuves de Bernoulli indépendantes jusqu’au 1er succès.
Soit X : le nombre d’essais nécessaires jusqu’au 1er succès (en incluant ce dernier) . On
a X(Ω) = {1, 2, 3, 4, · · · } On dit qu’une variable aléatoire X suit une loi géométrique de
paramètre p et on note X ,→ Geo(p) si
X(Ω) = {1 · · · , n, · · · } = N∗ et p(X = k) = p(1 − p)k−1 ∀k ∈ N∗

4
Proposition 2.18. Soit X ,→ Geo(p). Alors
1
• E(X) = p

1−p
• V (X) = p2

2.5.4 La loi de Poisson


Définition 2.19. La loi de Poisson sert à modéliser des fréquences. Elle dépend d’un
paramètre λ qui représente la fréquence moyenne sur l’intervalle de temps (ou d’espace)
prédéterminé.
On dit qu’une variable aléatoire X suit une loi Poisson de paramètres λ et on note X ,→
P(λ) si
λk
X(Ω) = {0, 1 · · · , n, · · · } = N etp(X = k) = e−λ ∀k∈N
k!
Proposition 2.20. Soit X ,→ P(λ). Alors

• E(X) = λ

• V (X) = λ

Obtention de la loi de Poisson à partir d’une loi Binomiale


On admet que si n ≥ 30 et p ≤ 0, 1 alors la loi X ,→ Bin(n, p) peut être remplacée par la
loi P(λ) avec λ = np

Exercice 2.21. On estime que le nombre moyen d’accidents par semaine dans une région,
est égal à 7. Calculer:

1. La probabilité qu’il y ait plus de 3 accidents sur une semaine.

2. Moins de 13 accidents en 15 jours.

Exercice 2.22. Un restaurant possède 28 places. La probabilité pour qu’une personne


ayant réservée ne vienne pas est de 0, 05. Un jour le patron a pris 30 réservations.
Qu’elle est la probabilité qu’il se trouve dans une situation embarrassante.?

3 Variables aléatoires continues


3.1 Généralités
Définition 3.1. Une variable aléatoire continue X est une variable aléatoire réelle pouvant
prendre toutes les valeurs d’un intervalle ou de plusieurs intervalles de R.

Exemple:X(Ω) =]a, b[, ]a, b] ou R, ]a, +∞[, ] − ∞, b[

5
3.2 Fonction de répartition
Définition 3.2. Soit X une variable aléatoire réelle. On appelle fonction de répartition
de X, la fonction F : R −→ R définie par FX (x) = p(X ≤ x) ∀ x ∈ R

Proposition 3.3. La fonction de répartition d’une variable aléatoire réelle vérifie

• lim FX (x) = 0
x−→−∞

• lim FX (x) = 1
x−→+∞

• Pour tout a; b ∈ R avec a < b, FX (b) − FX (a) = p(a < X ≤ b)

• La fonction FX est croissante.

3.3 Variables aléatoires continues à densité


Définition 3.4. On dit qu’une variable aléatoire continue X est à densité s’il existe une
fonction fX : R −→ R+ positive et continue telle que
Z x
∀x ∈ R; FX (x) = fX (t)dt
−∞

La fonction fX est appelée densité (de probabilité) de X.

Proposition 3.5. Si X est une variable alátoire continue à densité alors FX est de classe
C 1 et on a FX0 (x) = fX (x)

Proposition 3.6. Une fonction f : R −→ R est une densité si, et seulement si :

• f est continue sur R.

• f est positive sur R


R +∞
• −∞
f (t)dt = 1

Proposition 3.7. Soit X : Ω −→ R une variable aléatoire continue à densité. Alors,


pour tout x ∈ R, on a p(X = x) = 0 et P (X ≤ x) = P (X < x).
De plus, pour tout a ≤ b, on a Z b
P (a ≤ X ≤ b) = FX (b) − FX (a) = f (t)dt
a

6
3.4 Espérance et variance d’une variable aléatoire réelle à den-
sité
3.4.1 Espérance d’une variable aléatoire réelle à densité
Définition 3.8. Soit X : Ω −→ R une variable aléatoire continue à densité. On appelle
espéranceZ de X le réel noté E(X) défini par
+∞
E(X) = tfX (t)dt.
−∞

Proposition 3.9. Soit X , Y deux variables aléatoires aléatoires réelles à densité et a, b


des nombres réels. Alors

• E(aX + bY ) = aE(X) + bE(Y ) ∀a, b ∈ R;

• E(aX + b) = aE(X) + b ∀a, b ∈ R;

• (E(a) = a ∀ a ∈ R.

Proposition 3.10. Soit g : R −→ R, une fontion continue,alors g(X) est une variable
aléatoire à densité et on a
Z +∞
E(g(X)) = g(t)fX (t)dt
−∞

3.4.2 Variance d’une variable aléatoire réelle à densité


Définition 3.11. Soient X une variable aléatoire continue. On appelle variance de X le
réel positif noté V (X) défini par

V (X) = E((X − E(X))2

2
On note souvent σX = V (X).

Définition 3.12. Soient X une variable p aléatoirecontinue. On appelle écart-type de X


le réel positif noté σX défini par σX = V (X).

Proposition 3.13. Soit X une variable aléatoire à densité et a, b des nombres réels.
Alors

• V (aX + b) = a2 V (X)(V (a) = 0∀a ∈ R)

• V (X) = E(X 2 ) − (E(X))2 (formule de Konig-Huygens).

Définition 3.14. Soit X une variable aléatoire. On appelle variable aléatoire centrée-
réduite associée à X la variable aléatoire X ∗ = X−E(X)
σX
C’est -à- dire E(X ∗ ) = 0 et
V (X ∗ ) = 1.

7
3.5 Inégalité de Bienaymé Tchebichev
Cette inégalité permet de préciser la remarque intuitive suivante: plus lécart-type d’une
variable est faible, plus la distribution de la variable est concentrée autour de son espérance.
1 1
Quel que soit t > 0, p(|X − E(X)| ≥ tσX ) ≤ ⇐⇒ p((E(X) − tσ X ) ≤ X ≤ E(X) − tσ X )) ≥ 1 − .
t2 t2
Ainsi la proba qu’une v.a appartienne à l’intervalle précédent est toujours supérieure où
égale à une valeur minimale qu’on peut choisir aussi proche de 1 qu’on le veut( il suffit
de prendre t assez grand). Cette inégalité montre par exemple que, quelle que soit la loi
de la v.a X, celle-ci a au moins 75% de chances de prendre ses valeurs dans l’intervalle
[E(X) − 2σ; E(X) + 2σ].

3.6 Quelques lois continues


3.6.1 Loi uniforme
Définition 3.15. On dit qu’une variable réelle X suit une loi uniforme sur l’intervalle
[a; b] (avec a < b) si sa densité est
 1
 b−a si x ∈ [a; b]
fX (x) =
0 si x ∈
/ [a; b]

On note X ,→ U(a, b).


Fonction de répartition de U(a, b)


 0 si x < a
Z x 


x−a
FX (x) = fX (t)dt = b−a
si x ∈ [a; b]
−∞ 



1 si x > b.

Proposition 3.16. Soit X ,→ U(a, b). Alors


a+b
• E(X) = 2

(b−a)2
• V (X) = 12

3.6.2 Loi Normale ou Loi de Laplace-Gauss


Elle joue rôle particulièrement important en théorie des probabilités:

Définition 3.17. On dit qu’une variable réelle X suit une loi Normale de paramètres µ
et σ, et on note X ,→ N (µ, σ) si sa densité de probabilité est
1 1 x−µ 2
fX (x) = √ e− 2 ( σ )
σ 2π

8
Proposition 3.18. Soit X ,→ X ,→ N (µ, σ). Alors

• E(X) = µ

• V (X) = σ 2

Cas particulier: Loi normale centrée réduite N (0, 1)

Définition 3.19. Une variable réelle X suit une loi Normale centrée réduite si µ = 0 et
σ = 1, et on note X ,→ N (0, 1) si sa densité de probabilité est

1 1 2
fX (x) = √ e− 2 x

Théorème 3.20. Si une variable aléatoire suit une loi Normale N (µ, σ), alors on peut
X −µ
montrer que la variable aléatoire définie par: T = suit la loi normale centrée
σ
N (0, 1). La variable T est alors sans unité. T est dite variable centrée réduite associée.

La conséquence importante de ce théorème est que, par ce changement de variable,


n’importe qu’elle loi normale peut être ramenée à la seule loi N (0, 1).

Théorème 3.21. Toute somme, ou plus généralement toute combinaison linéaire de deux
variables normales indépendantes, est elle même une variable normale. Soient a et b des
nombres réelles. Si X1 ,→ N (µ1 , σ1 ) et X2 ,→ N (µ2 , σ2 ), X1 et X2 étant indépendantes,
alors la variable q
aX1 + bX2 ,→ N (aµ1 + bµ2 , a2 σ12 + b2 σ22 )

Utilisation de la table de loi normale centrée réduite


La table à double entrée donne
F (t) = P (T < t)
pour des valeurs de t positives ou nulles.

• Lecture de F (t): Par exemple la valeur F (1.45) est lue à l’intersection de ligne de
1.4 et de la colonne (0.05). on lit F (1.45) =?.

• Recherche de t: La valeur t telle que F (t) = 0, 791 en lue en utilisant la ligne et la


colonne où elle figure. On trouve t =?
Cette recherche peut conduire à une interpolation: Exemple si on veut déterminer
t tel que P (T < t) = 0, 7 on remarque 0, 7 ne figure pas dans le tableau.

Application 3.22. La longueur d’une certaine catégorie d’écran d’ordinateur suit une
loi normale d’espérance mathématique 35 cm et de variance 1, 96cm2 . On note X , la
longueur d’un clavier choisi au hasard.

1. Quelle est la probabilité que la longueur d’un clavier soit supérieure à 37 cm ?

2. Quelle est la longueur du clavier dont 25% de lensemble sont plus courts que lui ?

9

Application 3.23. Soit X1 : Poids en kg d’un ordinateur de type
√ A. X 1 ,→ N (15, 8)
Soit X2 : Poids en kg d’un ordinateur de type B. X2 ,→ N (17, 10)

1. Quelle est la probabilité que le poids total des deux types d’ordinateurs excède 35kg?

2. Quelle est la probabilité que leur poids moyen soit inférieur à 16.5kg?

3. Quelle est la probabilité que le poids de l’ordinateur de type A dépasse celui de typeB
?

Application 3.24. 1400 usagers prennent le TGV Paris-Nantes. Les portent s’ouvrent
une demi-heure avant le départ. 50 Passagers arrivent avant l’ouverture, 70 arrivent trop
tard. Si la distribution des aarivées est normale.

1. Calculer la moyenne et l’écart type de sa loi.

2. Déterminer l’heure à laquelle les portes du train doivent être ouvertes pour que pas
plus de 20 usagers qui attendent sur le quai.

3. Calculer le nombre de voyageurs ayant raté le train si celui-ci a un retard de 5


minutes.

10

Vous aimerez peut-être aussi