Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
5
6 1.1. Image directe et image réciproque d'un ensemble
Définition 1.2 Considérons un espace probabilisé (Ω, A, P ) . On appelle alors variable aléatoire
réelle (en abrégé v.a.r.) toute application :
X : Ω −→ IR / ω ∈ Ω 7→ X (ω) ∈ IR
Une v.a.r. est dite discrète lorsque X (Ω) est fini ou infini dénombrable (ensembles de type N, Z, etc
…), continue lorsque X (Ω) a la puissance du continu (ensembles de type R, etc …).
−1
∀ A ⊂ IR. on note X (A) par [X ∈ A] ,
−1
Notations usuelles : ∀ x ∈ IR. on note X ({x}) par [X = x] ,
∀ x ∈ IR. on note X −1 (]−∞, x]) par [X ≤ x] ... etc.
Exemple 1.2 Une urne contient 5 boules numérotées de 1 à 5. On tire 2 boules l'une après
l'autre avec remise et on s'intéresse à la VAR X égale au plus grand numéro tiré.
Les tirages étant effectués avec remise les expériences sont indépendantes donc :
F (k) = P [“le premier numéro est ≤ k”] P [“le second numéro est ≤ k”]
= k 2 /25.
Conclusion :
k <1 1 2 3 4 5 >5
F (k) 0 1/25 4/25 9/25 16/25 25/25 1
Définition 1.4 On appelle quantile d'ordre α ∈ [0, 1] de la v.a.r X le réel qα tel que
P (X ≤ qα ) = α ⇔ F(qα ) = α
Les quantiles d'ordre α avec α = k/4; k = 1, 2, 3 sont appelés les quartiles et le quantile d'ordre
α = 1/2 est appelé la médiane de la v.a.r X.
Définition 1.5 Si Ω est dénombrable (resp fini), alors l'ensemble des valeurs prises par X noté
X(Ω) est dénombrable (resp fini), on dit que la v.a.r. X est discrète.
Définition 1.6 On appelle loi de Probabilité de la v.a discrète X, la collection des couples
(xi , pi ), i ∈ N où pour tout i ∈ N, pi = P(X = xi ).
8 1.5. Variables aléatoires discrètes
Exemple 1.3 On lance 3 fois une pièce et on considère X = nombre de piles obtenus.
Déterminer la loi de probabilité de X.
1.5.2 Moments
Définition 1.7 Pour tout k ∈ N∗ , on appelle moment d'ordre k de X, le réel noté E(X k ), défini
par ∑
E(X k ) = xik pi
i∈N
Remarque : Si l'ensemble Ω est fini, la condition de convergence de la série numérique est toujours
satisfaite. Par contre dans le cas infini il faut la vérifier.
Le moment d'ordre 1 de X est appelé Espérance mathématique de X et le réel positif noté var(X)
défini par
var(X) = E(X 2 ) − (E(X))2
√
est appelé variance de X et var(X) défini l'écart type de X noté σ (X).
Interprétation pratique :
Proposition 1.2 Soit X une VAR à valeurs dans X (Ω) = {x1 , ..., xn } et φ une application continue
Κεφάλαιο 1. Variables aléatoires réelles 9
de R dans R. Alors :
∑
n
E (φ ◦ X) = φ (xi ) P [X = xi ] .
i=1
Cette relation est très importante car elle montre que pour connaitre l'espérance de φ◦X (par exemple
X (2 pour
) φ : x 7→ x2 ) il n'est pas nécessaire de connaitre la loi de φ ◦ X (celle de X suffit puisque
2 ∑ 2
E X = i xi P [X = xi ]).
Proposition 1.3 Soient X et Y deux v.a.r. à valeurs dans X (Ω) = Y (Ω) = {x1 , ..., xn } de variance
finie et λ ∈ R alors :
i) E(λ) = λ; var(λ) = 0;
Définition 1.8 On appelle fonction génératrice des moments de la v.a. r. X, la fonction L définie
sur R par : ∑
∀t ∈ R, LX (t) = E(etX ) = etk P(X = k).
k
Proposition 1.4 Si X est à valeurs dans l'ensemble {1, 2, ..., n} on dit alors que X suit une loi
uniforme si et seulement si :
1
∀ k = 1, ..., n , P [X = k] =
n
et on note X ∼ U ({1, 2, . . . , n}).
10 1.7. Lois discrètes usuelles
n+1 n2 − 1
Proposition 1.5 Si X ; U ({1, 2, . . . , n}), alors E(X) = et var(X) = .
2 12
Exercice 1.1 Calculer sa fonction génératrice des moments et retrouver ainsi son espérance
mathématique et sa variance.
Désignons par p = N1 /N la proportion de boules blanches. Il est clair que X est à valeurs dans
{0, 1, ..., n}. Un évènement élémentaire compatible avec [X = k] est :
Les tirages sont effectués avec remise, il y a donc indépendance des tirages et :
P ({ω}) = pk (1 − p)n−k .
Remarquons maintenant que [X = k] est constitué de Cnk évènements élémentaires de cette forme (il
y a autant d'évènements élémentaires différents que de façon de placer les k boules blanches dans
les n positions disponibles). Donc :
∪ ∑
P [X = k] = P {ω} = P [{ω}] = card ([X = k]) P ({ω}) .
ω∈[X=k] ω∈[X=k]
Proposition 1.6 Une variable aléatoire X suit une loi binomiale B (n, p) avec n ∈ N et p ∈ ]0, 1[
si et seulement si :
∀ k = 0, ..., n , P [X = k] = Cnk pk (1 − p)n−k
Proposition 1.7 (a) Si X ; B (n, p), alors E(X) = np et var(X) = np(1 − p).
{
X ; B (n, p) , Y ; B (m, p)
(c) ⇒ (X + Y ) ; B (n + m, p) .
X et Y indépendantes
Application à la loi de Bernoulli : On dit que X suit une loi de Bernoulli de paramètre p ∈ [0, 1] si
et seulement si X ; B (1, p) . En d'autres termes :
P [X = 0] = 1 − p et P [X = 1] = p.
Κεφάλαιο 1. Variables aléatoires réelles 11
Il découle de la propriété précédante que si les (Xi )i=1...n sont indépendantes et de même loi de
Bernoulli de paramètre p (i.e. Xi ; B (1, p)) alors :
X1 + ... + Xn ; B (n, p) .
Exemple 1.5 Un concessionnaire de voitures vend le même jour 7 véhicules identiques à des
particuliers. Sachant que la probabilité pour que ce type de voiture soit en état de rouler deux
ans après est de 0.9, calculez la probabilité que les 7 voitures soient en service deux ans plus
tard.
On dénomme par X la variable aléatoire associée au "nombre de voitures en état de rouler deux
ans après leur achat". D'après l'énoncé, X(Ω) = {0, 1, 2, 3, 4, 5, 6, 7} et cette variable aléatoire
suit une loi binomiale de paramètres X ; B(7, 0.9). Ainsi, la probabilité que 7 voitures soient
en service deux ans plus tard est :
La variable aléatoire réelle X prend alors clairement ses valeurs dans l'ensemble {0, 1...n} . Remarquons
n
ensuite que le nombre total de tirages possibles est CN et pour l'évènement [X = k] on a :
k
k
CN1 = CpN choix possibles pour les boules blanches,
CN
n−k n−k
= C(1−p)N choix possibles pour les boules noires.
2
−n
Proposition 1.9 Si X ; H (N , n, p), alors E(X) = np et var(X) = np(1 − p) N
N −1
Exemple 1.6 Une urne est constituée de 10 boules blanches et 8 boules noires. On
tire au hasard, et sans remise, 5 boules dans l'urne. Soit la variable aléatoire X =
{nombres de boules noires}. Quelle est la loi de probabilité de X? ( )
8
Dans cette expérience, la variable aléatoire X suit une loi hypergéométrique H 18, 5, 18 . Par
12 1.7. Lois discrètes usuelles
C8k × C18−8
5−k
P (X = k) = 5
C18
k 0 1 2 3 4 5
P (X = k) 0.0294 0.1961 0.3922 0.2941 0.0817 0.0065
Définition 1.9 Soit λ > 0. On dit qu'une variable aléatoire X à valeurs dans N suit une loi de
poisson de paramètre λ et on note X ; P si elle admet une loi de probabilité
λk −λ
∀ k ∈ N, P (X = k) = e
k!
{
X ; P (λ1 ), Y ; P (λ2 )
(b) ⇒ (X + Y ) ; P (λ1 + λ2 ).
X et Y indépendantes
Remarques : Le paramètre λ de cette loi désigne le nombre moyen des apparitions. La loi de Poisson
est une approximation de la loi binomiale B(n, p) lorsque : n est grand (n ≥ 50 ) et p petit (p ≤ 0.1 )
et λ = np ≤ 15.
Exemple 1.7 Lors d'un sondage portant sur un grand nombre d'individus, 2% des personnes
interrogées acceptent de ne pas rester anonymes. Sachant que l'un des sondeurs a interrogé
250 personnes, calculez la probabilité que ces 250 personnes souhaitent rester anonymes.
ou
50 −5
P (X = 0) = e
0!
= 0.0067
Définition 1.10 Soit f : X(Ω) → R. On dit que la v.a.r. X est continue de densité f si
2) ∀x ∈ X(Ω), f (x) ≥ 0,
∫x ∫ +∞
3) ∀x ∈ X(Ω), F(x) = f (t)dt et f (x)dx = 1.
−∞ −∞
Exemple 1.8 Montrer que la fonction f définie par ∀ xR, f (x) = xex 1x>0 est une densité de
probabilité.
1.8.2 Moments
∫ +∞
Soit k ∈ N.Si l'intégrale généralisée −∞
|u k |f (u)du converge, on appelle moment d'ordre k de la v.a
X, le réel défini par : ∫ +∞
E(X k ) = u k f (u)du.
−∞
Le moment d'ordre 1 de X noté E(X) est appelé espérance mathématique de X.
Exercice 1.2 Montrer que l'espérance mathématique si définie vérifie les mêmes propriétés
que dans le cas discret.
Proposition 1.11 Si h est une fonction réelle continue et X une variable aléatoire de densité
f . Si la variable aléatoire Y = h(X) admet une moyenne alors on a
∫ +∞
E [h(X)] = h(x)f (x)dx
−∞
Définition 1.11 Soit (a, b) ∈ R2 avec a < b. On dit que la v.a.r. X suit une loi uniforme sur
[a, b] et on note X ; U ([a b]), si elle admet pour densité la fonction définie par :
1
si x ∈ [a, b]
,
b−a
f (x) =
0, sinon
a+b (a − b)2
E(X) = , Var(X) = .
2 12
Κεφάλαιο 1. Variables aléatoires réelles 15
Proposition 1.12 Si X ; U ([a b]), alors sa fonction de répartition F est donnée par
0, six ≤ a
x−a
F(x) =
, si x ∈]a, b[
b−a
0, six ≥ b
(x − m)2
1 −
∀x∈R f (x) = √ e 2σ
σ 2π
Une loi normale sera notée de la manière suivante N (m, σ ) car elle dépend de deux paramètres
m (la moyenne) et σ (l'écart-type).
1 x2
∀x∈R f (x) = √ e− 2
2π
est appelée loi normale standard ou gaussienne standard ou encore loi normale centrée réduite.
Le graphe de cette fonction paire nous permet d'avoir de ces importantes relations pour le calcul
de probabilités :
Exercice 1.4 Soit X ; N (0, 1). Déterminer les réels x, y et z tels que :
i) La v.a.r Y = X−m
σ ; N (0, 1)
Proposition 1.15 La somme de deux variables gaussiennes indépendantes est elle-même une
variable gaussienne (stabilité) : Soient X et Y deux variables aléatoires indépendantes suivant
√ lois N (m1 , σ1 ) et N (m2 , σ2 ). Alors la variable aléatoire X + Y suit la loi
respectivement les
normale N (m1 , σ12 + σ22 ).
Parfois d'autres lois que la loi normale sont utiles dans les approximations (cf. les calculs d'intervalle
de confiance, de test). Ce sont les lois de Student et du χ2 (lire khi-deux). Ces lois dépendent d'un
paramètre n entier, appelé degré de liberté (d.d.l.). De même que pour la loi normale N (0, 1), on
disposera de tables pour ces lois.
Définition 1.14 Soient X1 , . . . , Xn des v.a indépendantes de même loi N (0, 1). Posons Z =
∑ n 2
i=1 Xi ,
par définition la variable aléatoire Z suit une loi du khi-deux à n degrés de libertés.
On note Z ; χn2 .
Quelques propriétés
- E(Z) = n et Var(Z) = 2n
Définition 1.15 Soient X ; N (0, 1) et Y ; χn2 . Posons T = √ X . Alors T suit une loi de
Y /n
Student à n degrés de libertés et on note T ; tn .
Tout comme la loi normale, cette loi admet une densité symétrique. Le quantile d'ordre α ∈]0, 1[
de cette loi est notée tn (α). De la parité de la fonction de densité on en déduit cette propriété des
quantiles de cette loi :
∀ 0 < α < 1/2, tn (α) = −tn (1 − α)
Si la v.a.r. X suit une loi de Fisher de paramètres (n, m), on note X ; Fn,m . Le quantile d'odre α
de cette loi est noté Fn,m (α).
Κεφάλαιο 1. Variables aléatoires réelles 17
3) Si X ; tn , alors Y = X 2 ; F1,n .
Théorème 1.1 Soit X1 , . . . , Xn n v.a.r. indépendantes suivants la même loi telles que
1∑
n
alors la variable aléatoire définie par X̄n = Xi vérifie :
n
i=1
Exemple 1.11 On emballe des pièces dans des caisses qui en contiennent chacune 250. Le poids
de chaque pièce est une variable aléatoire indépendante des autres ayant une moyenne de 0,5
et un écart type de 0.40. On charge 20 caisses sur une palette. Déterminer la probabilité que
les pièces pèsent plus de 2510 g.
∑
5000
Solution : Soit Y = Xi le poids total des 5000 pièces. D'après le théorème central limite la v.a.r
i=1
Y −E(Y )
Z = √Var(Y) ; N (0, 1) pour cette valeur de n = 5000.
Or E(Y ) = 5000(0.5) = 2500 et Var(Y ) = 5000(0.01) = 50. D'où on en déduit que
a) Déterminer les réels a, b et c tels que P(X > a) = 0.063, P(X < b) = 0.823 et
P(X > c) = 0.963.
b) Déterminer u tel que P(X 2 < 2u) = 0.95
2) Soit X ∼ N (1, 9) ie (m = 1 et σ 2 = 9). Déterminer y tel que P(0 < X < y) = 0.40
18 1.11. Exercices du chapitre 1
3) Soit T ∼√ t20 , la loi de Student à 20 degrés de libertés. Donner la valeur de u tel que
P(|T | ≤ u) = 0.975
4) Soit Z une variable aléatoire distribuée suivant une loi de Fisher à 9 et 10 degrés de
libertés. Déterminer u tel que P(Z ≤ 2u) = 0.025.
Exercice 1.6 Dans un aérodrome, la durée du processus d'atterrissage d'un avion, mesurée en
minutes, est une variable aléatoire X de densité de probabilité f telle que :
2 −λx
λ xe si x > 0 et λ > 0
f (x) =
0 sinon,
4) Déterminer les probabilités suivantes : P(X > 2); P(1 < X < 3).
Exercice 1.7 La durée de vie d'une composante électronique est une variable aléatoire réelle
X de densité de probabilité f définie par (avec α > 0)
{ 2 −αx
α xe si x > 0
f (x) =
0 sinon
Exercice 1.8 Soit X une variable aléatoire distribuée suivant une loi exponentielle de
paramètre λ > 0.
Exercice 1.10 Soient X et Y deux variables aléatoires indépendantes et de même loi continue
uniforme sur [0, 1].
Exercice 1.11 Un assureur automobile s'intéresse à la distribution du coût d'un sinistre pour les
assurés de son portefeuille. Un modèle classique conduit à supposer que la( variable
) aléatoire X,
coût d'un tel sinistre, (exprimé en milliers de francs) suit une loi gamma γ r, θ1 (les paramètres
r et θ strictement positifs caractérisent le portefeuille de l'assureur), de densité f définie par:
r−1
x − θx
si x > 0
θ r Γ (r) e
f (x, θ) =
0 si x ≤ 0,
∫ +∞
où Γ (r) = t r−1 e−t dt.
0
Tout au long de cet exercice on supposera r connu, θ étant au contraire un paramètre inconnu.
Pour obtenir une information sur θ, l'assureur a relevé les coûts de n sinistres, ceux-ci pouvant
être considérés comme une réalisation d'un échantillon de taille n (X1 , · · · , Xn ).
2X
1) Montrer que la variable aléatoire Y = θ suit une loi Khi-Deux à 2r degré de liberté.
∑
9
si Xi = 38, 60.
i=1