Académique Documents
Professionnel Documents
Culture Documents
MP http://mpberthollet.wordpress.com
X
Résumé 10 : Probabilités I (P ({ω}))ω∈Ω sommable de réels positifs tels que pω = 1.
ω∈Ω
Ω sera un ensemble abstrait, c’est-à-dire sans structure particulière. P(Ω) dé-
signe l’ensemble de tous les sous-ensembles de Ω, y compris le sous-ensemble
vide ∅. Nous noterons Ac , ou Ā, le complémentaire de la partie A de Ω. § 3. Propriétés élémentaires des probabilités.— On se fixe ici un espace pro-
......................................................................................................................................................................................................................... babilisé (Ω, A , P ).
1 E SPACES P ROBABILISÉS Propriétés 1.4
§ 1. Tribus.— C’est la partie qualitative : nous définissons la classe des parties I A ∈ A =⇒ P (Ac ) = 1 − P (A).
de Ω que nous considérerons I A, B ∈ A et A ⊂ B =⇒ P (A) 6 P (B).
I Si A ∩ B = ∅, alors P (A ∪ B) = P (A) + P (B).
Définition 1.1 (σ−algèbre, ou tribu)
I P (A ∪ B) = P (A) + P (B) − P (A ∩ B).
On appelle tribu tout ensemble A ⊂ P(Ω) vérifiant les 3 hypothèses sui- I P (A ∩ B c ) = P (A) − P (A ∩ B).
vantes :
1. A contient ∅ et Ω. Voici un analogue probabiliste du théorème de limite monotone :
.........................................................................................................................................................................................................................
: si les (Ai )i∈I sont indépendants, ils sont aussi deux à deux indépen- 3 VARIABLES A LÉATOIRES D ISCRÈTES
dants, mais la réciproque est fausse.
Définition 3.1 (Variable aléatoire discrète)
C’est la probabilité conditionnelle qui code la manière dont A dépend de B :
Une variable aléatoire discrète définie sur Ω est une application X : Ω −→ E,
Définition 2.2 (Probabilité conditionnelle) où E est un ensemble, dont l’image X(Ω) est finie ou dénombrable, et telle
Soient A et B deux événements avec P (B) > 0. La probabilité conditionnelle que pour tout x ∈ X(Ω), l’ensemble X −1 ({x}) appartienne à A .
P (A ∩ B) Lorsque E = R, on dit de X qu’elle est une variable aléatoire réelle.
de A sachant B est P (A|B) = . Si X est une variable aléatoire réelle, alors pour toute fonction f : R → R,
P (B)
l’application f ◦ X : Ω → R est aussi une variable aléatoire réelle.
Théorème 2.3
Supposons que P (B) > 0. E XEMPLES :
.........................................................................................................................................................................................................................
Théorème 2.5 (Probabilités Totales)
4 L OIS USUELLES
Soit (En ) un système complet d’éléments non négligeables de la tribu A . Pour
tout A ∈ A , on a X Nous donnons ici quelques lois usuelles, que vous rencontrerez dans maintes situations. Elles
P (A) = P (A|En )P (En ). permettent de classer les variables aléatoires . Par exemple, une variable aléatoire est dite de Poisson
n
si la loi est une loi de Poisson.
Dans le cas des variables de bernoulli, Binômiale, et géométrique, on notera systématiquement q =
En particulier, P (A) = P (A|B)P (B) + P (A|B c )P (B c ). 1 − p.
P (B|A)P (A)
P (A|B) = . 1.1 Loi uniforme
P (B|A)P (A) + P (B|Ac )P (Ac )
C’est la loi la plus simple, définie comme étant celle où P ({ω}) ne dépend pas du choix de ω ∈ Ω.
Ainsi, pour toute partie A ⊂ Ω,
Card(A)
P (A) = .
Card(Ω)
E XEMPLES : .........................................................................................................................................................................................................................
1. FONDAMENTAL : Toute variable aléatoire représentant le nombre de succès dans 5 E SPÉRANCE
une suite de n expériences aléatoires indépendantes mutuellement est une variable
binomiale de loi B(n, p) pour un ceratin p.
Définition 5.1 (Espérance d’une variable aléatoire réelle)
2. On lance n fois une pièce truquée. Ω = {P, F }n . Soit X le nombre total de
PILE. X prend ses
valeurs dans [[0, n]], donc est discrète. Sa loi est donnée par Soit X : Ω → R une variable aléatoire discrète réelle.
n k
P (X = k) = p (1 − p)n−k , ce qui en fait une variable aléatoire binomiale de
k
paramètre p. C’est par ailleurs la somme de n variables de Bernoulli mutuellement 1. Si X est à valeurs dans R+ , on appelle espérance de X le nombre appar-
indépendantes. tenant à [0, +∞] : X
E(X) = xP (X = x).
x∈X(Ω)
§ 2. Lois dénombrables.— On considèrera ici que Ω = N. Bien sûr, il n’existe pas de loi uniforme 2. Si X est quelconque (i.e pas forcément positive), la variable aléatoire est
sur N. dite d’espérance finie si la famille (xP (X = x))x∈X(Ω) est sommable.
Rappelons que se donner une loi P sur cet espace discret est équivalent à se donner une
∞
X Dans ce cas, la somme
X de cette famille est appelée espérance de X, i.e à
suite(pn )n∈N de réels positifs telle que pn = 1, et de poser pour tout n ∈ N, pn = P ({n}). nouveau E(X) = xP (X = x).
n=0 x∈X(Ω)
Nous noterons L (Ω) (ou plus souvent L 1 ) l’ensemble des variables aléa-
1
2.1 Loi géométrique G(p) toires réelles X : Ω → R d’espérance finie.
La loi géométrique de paramètre p ∈]0, 1[ est donnée par
Propriétés 5.2 (De l’espérance)
Pour tout n ∈ N∗ , pn = pq n−1 .
1. Soient X, Y : Ω → R d’espérances finies. Alors, pour tout réel a, aX + Y (Y = y) sont indépendants, i.e lorsque
est aussi d’espérance finie et
∀x, y ∈ E, P (X = x) ∩ (Y = y) = P (X = x) × P (Y = y).
E(aX + Y ) = aE(X) + E(Y ).
2. Les variables aléatoires discrètes d’une famille (Xn )n∈N sont dites mutuel-
2. Si X > 0, alors E(X) > 0.
lement indépendantes lorsqu’elles le sont deux à deux.
3. Si X > Y , et si ces deux v.a.d sont d’espérance finie, alors E(X) > E(Y ).
4. Si X est positive et d’espérance finie, et si Y : Ω → R est une v.a.d telle Théorème 6.2
que |Y | 6 X, alors Y est d’espérance finie.
5. Si Y est d’espérance finie, alors |E(Y )| 6 E(|Y |). 1. Si X : Ω → E et Y : Ω → R sont indépendantes, et si f, g : R → R, alors
f (X) et g(Y ) sont aussi indépendantes.
6. L 1 contient toutes les variables aléatoires bornées.
2. Si X1 , . . . , Xn : Ω → R sont des variables aléatoires indépendantes, alors
Proposition 5.3 (Formule de transfert) pour tout m compris entre 1 et n − 1, et toutes fonctions f et g, les deux
variables f (X1 , . . . , Xm ) et g(Xm+1 , . . . , Xn ) sont indépendantes.
Soit X : Ω → E est une variable aléatoire discrète, et f une fonction de X(Ω)
dans R. Alors
I f (X) est d’espérance finie si et seulement si la famille P (X = x)f (x)
La loi d’une somme de deux variables aléatoires indépendantes se calcule
est sommable. grâce à :
X
I Dans ce cas, E f (X) = P (X = x)f (x). Proposition 6.3 (Loi d’une somme de variables aléatoires indépendantes)
x∈X(Ω)
Si X et Y sont desvariables aléatoires réelles indépendantes, alors pour tout
réel k,
Proposition 5.4 (Inégalité de Markov) P (X + Y = k) =
X
P (Y = y)P (X = k − y).
Soit X : Ω → R unevariable aléatoire discrète, et a > 0. On a l’inégalité y∈Y (Ω)
E(|X|)
P |X| > a 6 . Propriétés 6.4 (Espérance d’un produit de variables aléatoires indépendantes)
a
Si X, Y sont deux variables aléatoires réelles indépendantes d’espérance finie,
alors XY est d’espérance finie et de plus
Démonstration : Notons A = (|X| > a) = {ω ∈ Ω/|X(ω)| > a}. Nous avons vu que
c’est bien un événement. De plus, lavariable aléatoire |X| est supérieure ou égale à
E(XY ) = E(X)E(Y ).
lavariable aléatoire a1A (on le vérifie sur A, puis sur son complémentaire). D’après
la croissance de l’espérance, E(|X|) > E(a1A ) = aP (A).
.........................................................................................................................................................................................................................
6 C OUPLE DE VARIABLES ALÉATOIRES § 2. Variables Aléatoires Dépendantes.— On est un peu plus démunis
lorsque l’on ne dispose plus de cette hypothèse.
§ 1. Variables Aléatoires Indépendantes.— Les couples, ou les familles, de Définition 6.5
variables aléatoires indépendantes sont les plus simples à étudier.
Soient X, Y : Ω → R deux variables aléatoires discrètes réelles. Alors l’ap-
Définition 6.1 (variables aléatoires indépendantes) plication Z = (X, Y ) : Ω → R2 est aussi unevariable aléatoire discrète. On
appelle
I loi conjointe de X et Y , et on note P(X,Y ) , la loi de la variable aléatoire
1. Un couple de variables aléatoires discrètes X, Y : Ω → E sont dites in-
dépendantes lorsque pour tous x, y ∈ E, les événements (X = x) et
(X, Y ) : Ω → R2 , qui est donc une loi sur R2 : moment d’ordre 2 fini.
pour tous x, y ∈ R, P(X,Y ) (x, y) = P (X = x) ∩ (Y = y) .
Propriétés 7.2 (L 2 ←→ L 1 )
I lois marginales de (X, Y ) les lois de X et de Y .
I pour tout x ∈ R tel que P (X = x) > 0, la loi conditionnelle de Y 1. Si X admet un moment d’ordre 2, elle est d’espérance finie, i.e L 2 (Ω) ⊂
sachant (X = x) la loi µ de probabilité sur R définie par : L 1 (Ω)
Pour tout y ∈ R, µ({y}) = P (Y = y|X = x). 2. Cauchy-Schwarz : Si X et Y admettent toutes deux un moment d’ordre
2, alors XY est d’espérance finie, et
I loi conditionnelle µ de Y sachant (X > x).... je vous laisse deviner.
E(XY )2 6 E(X 2 )E(Y 2 ).
R EMARQUES :
1. Ce que l’on vient de faire pour deux variables aléatoires peut se faire pour un
nombre fini d’entre elles. On appelle ainsi vecteur aléatoire discret toutevariable
aléatoire discrète Z : Ω → Rn . Si on note alors Z = (X1 , . . . , Xn ), Z admet n : On ne confondra pas E(X 2 ) et E(X)2 .
lois marginales.
2. A l’aide de la loi conjointe, on peut retrouver les lois marginales, grâce à la formule
des probabilités totales : Propriétés 7.3 (de L 2 )
Le contraire est faux, l’idée étant que ’lon ne sait pas comment dépendent des deux L 2 est un sous-espace vectoriel de L 1 .
variables X et Y .
3. Une variable Aléatoire suivant une loi géométrique G(p) est définie par
R EMARQUES : X(Ω) = N∗ et pour tout n ∈ N∗ , P (X = n) = pq n−1 . Alors,
Si X ∈ L 2 , d’après le théorème de transfert,
1 q
n E(X) = et Var(X) = 2
p p
X
2 2
I Si X(Ω) = {x1 , . . . , xn }, σX = (xi − EX) P (X = xi ).
i=1
4. Une variable Aléatoire suivant une loi de Poisson P(λ) est définie par
+∞
λn
X(Ω) = N et pour tout n ∈ N, P (X = n) = e−λ . Alors,
X
2 2
I Si X(Ω) = {xi , i ∈ N}, σX = (xi − EX) P (X = xi ).
n!
i=0
E(X) = λ et Var(X) = λ .
1. Une variable Aléatoire suivant une loi de Bernoulli B(p) est définie par cov(X, Y )
2. Coefficient de corrélation entre X et Y le réel ρ(X, Y ) = , si
X = 1 a pour probabilité p et X = 0 a pour probabilité q. Alors σ(X)σ(Y )
leurs variances ne sont pas nulles évidemment.
E(X) = p et Var(X) = pq . 3. On dira que X et Y sont décorrélées lorsque leur covariance est nulle, i.e
lorsque E(XY ) = E(X)E(Y ). Nous avons déjà vu que c’est le cas lorsque
X et Y sont indépendantes.
2. Une variable Aléatoire suivant une loi uniforme est définie par X(Ω) =
1 n+1 n2 − 1 La proposition suivante permet de calculer la variance d’une somme de va-
[[1, n]] et P (X = k) = . Alors E(X) = et Var(X) = .
n 2 12 riables aléatoires, et de calculer plus simplement la covariance.