Académique Documents
Professionnel Documents
Culture Documents
Toufik Chaayra
Département : Mathématiques
Filière : SMA - S6
Module : M33
Année universitaire : 2021/2022
Définition
On définit la fonction caractéristique de la v.a. X, par :
X
itX
e P(X = x) si X est discrete
φX (t) = E eitX = Zx +∞
eitx f (x)dx si X est continue
−∞
Comme eitx = 1 pour tout réel t, par exemple, si X est une variable
aléatoire absolument continue, l’intégrale
Z +∞ Z +∞
φX (t) = eitx f (x)dx = eitx dF (x)
−∞ −∞
Propriétés
1 φX (0) = 1.
2 |φX (t)| ≤ 1, t ∈ R.
3 Si Y = aX + b, a et b étant des constantes, alors
φY (t) = φX (at)eibt
f (x)dx = 1.
−∞
3 φY (t) = E eitY =E eit(aX+b) = eitb E eitaX = eitb φX (at).
4
h i
−itX
φ(−t) = E e = E(cos tX) − iE(sin tX)
= E[cos(tX)] + iE[sin(tX)]
= E[cos(tX) + i sin(tX)]
= E [eitX ] = φ(t)
Toufik Chaayra Faculté pluridiscilinaire, Nador SMA S6 5 / 68
Fonctions caractéristiques
Théorème 1
Soit X la v.a. de mesure de probabilité µ sur R et de fonction
caractéristique φX (t). Alors φX (t) est uniformèment continue sur R
Preuve :
Soient ε > 0 et t, s ∈ R. On a
Z
|φX (t) − φX (s)| ≤ eitx − eisx dµ(x).
R
Soit A > 0 tel que µ(R\[−A, A]) ≤ ε. Alors, on découpe R en
[−A, A] ∪ (R\[−A, A]). Majorant eitx − eisx par 2 sur R\[−A, A], on
trouve
Z A
|φX (t) − φX (s)| ≤ 2ε + eitx − eisx dµ(x)
−A
Z A
≤ 2ε + |t − s||x|dµ(x) par l’inégalité des accrois. finis
−A
≤ 2ε + |t − s|A2 .
Toufik Chaayra Faculté pluridiscilinaire, Nador SMA S6 6 / 68
Fonctions caractéristiques
Preuve : (Suite)
On pose η = ε/A2 . Si |t − s| < η, alors
Preuve : (Suite)
Cette dérnière intégrale est donc absolument convergente; elle est
uniformément convergente en t.
L’intégrale obtenue est la dérivée d’ordre k de φ(t) et enfin cette
intégrale est continue en t.
On a donc: Z +∞
(k) k
φX (t) =i xk eitx dF (x)
−∞
la limite pour t = 0 est
Z +∞
(k) k k k k
φX (0) =i x dF (x) = i E X
−∞
Exemple 1
On considère X une v.a. qui suit une loi binomiale B(n, p).
À partir de sa fonction caractéristique on calculera son espérance
mathématique et sa variance.
On a :
n
X n
X
iuX iuk
φ(u) =E e = e P(X = k) = eiuk Cnk pk (1 − p)(n−k)
k=0 k=0
n
X k n
= Cnk pe iu
(1 − p) (n−k) iu
= pe + (1 − p)
k=0
D’où
1
E(X) = φ′ (0) = np.
i
La dérivée seconde est
n−2
′′ iu iu −iu
φ (u) = −npe pe + (1 − p) npe + (1 − p)
1 ′′
et E X 2 = 2 − np = n(n − 1)p2 + np.
φ (0) = − −n(n − 1)p
i2
La variance Var(X) est donc Var(X) = E X 2 − E(X)2
d’où
1
E(X) = φ′ (0) = λ.
i
Toufik Chaayra Faculté pluridiscilinaire, Nador SMA S6 12 / 68
Fonctions caractéristiques
d’où
1 ′′
2
E X = 2 φ (0) = − −λ − λ = λ2 + λ
2
i
La variance Var(X) est donc
Var(X) = λ2 + λ − λ2 = λ
donc Z +∞
1 − x2
2
φ′X (u) = −u √ e cos uxdx = −uφX (u)
2π −∞
φ′X (u)
On en tire = −u ou [ln φX (u)]′ = −u Ce qui implique
φX (u)
−u2
ln φX (u) = + c.
2
−u2
Comme φX (0) = 1, on a c = 0 et φX (u) = e 2 .
1
et E(Y ) = φ′Y (0) = µ.
′′
i
La dérivée φY (u) s’écrit
2 2 2 2 2
iuµ− u 2σ iuµ− u 2σ
φ′′Y (u) = −σ2e + iµ − uσ 2
e
et
2
1 ′′
E Y = 2 φY (0) = − −σ + i µ = σ 2 + µ2
2 2 2
i
La variance Var(Y ) est donc Var(Y ) = σ 2 + µ2 − µ2 = σ 2
Toufik Chaayra Faculté pluridiscilinaire, Nador SMA S6 16 / 68
Fonctions caractéristiques
On a vu que, pour la fonction génératrice des moments M (t), on a :
∞
X (t)k
M (t) = mk
k=0
k!
(a + b)n+1 − an+1
En vertu de corollaire, on a : mn = ; n = 0, 1, 2, · · ·
b(n + 1)
de dérivée φ′ (t) = iaeita et de dérivée seconde φ′′ (t) = −a2 eita donc son
espérance mathématique est :
1
E(X) = φ′ (0) = a
i
et E X 2 = i12 φ′′ (0) = a2 , doù sa variance est :
2
Var(X) = E X − E(X)2 = a2 − a2 = 0
Toufik Chaayra Faculté pluridiscilinaire, Nador SMA S6 21 / 68
Lois discrètes
Loi de Bernoulli
Soit une v.a. X qui suit une loi de Bernoulli de paramètre
p (0 ≤ p ≤ 1), alors X(Ω) = {0, 1} avec P(X = 1) = p et
P(X = 0) = 1 − p.
Sa fonction caractéristique est :
X
itX
φ(t) = E e = P(X = x)eitx = peit + (1 − p)e0 = peit + (1 − p)
x
∀k ∈ X(Ω) = N∗ ; k−1
P(X = k) = Ck+n−2 pn (1 − p)k−1
E (Xi ) = npi ; (i = 1, 2, · · · , m)
Sa variance est :
où B(α, β) = Γ(α)Γ(β)
Γ(α+β)
Sa fonction caractéristique est:
∞
Γ(α + β) X (it)k Γ(α + k)
φ(t) =
Γ(α) k=0 k! Γ(α + β + k)
Son espérance mathématique est :
α
E(X) =
α+β
Sa variance est :
αβ
Var(X) =
(α + β)2 (α + β + 1)
Toufik Chaayra Faculté pluridiscilinaire, Nador SMA S6 31 / 68
Lois Continues
Loi de Cauchy
1 (x−µ)2
−
f (x) = √ e 2σ2 ; x ∈] − ∞, +∞[
σ 2π
Sa fonction caractéristique est :
!
t2 σ 2
φ(t) = exp iµt −
2
E(X) = µ
Sa variance est :
Var(X) = σ 2
Toufik Chaayra Faculté pluridiscilinaire, Nador SMA S6 33 / 68
Lois Continues
Loi normale centrée réduite
Une v.a. X suit une loi normale centrée réduite s’il suit une loi
normale de paramètre µ = 0 et σ = 1 et on note X ∼ N (0, 1). Sa
fonction de densité est :
1 − x2
f (x) = √ e 2; x ∈] − ∞, +∞[
2π
Sa fonction caractéristique est :
2
− t2
φ(t) = e
E(X) = 0
Sa variance est :
Var(X) = 1
Toufik Chaayra Faculté pluridiscilinaire, Nador SMA S6 34 / 68
Lois Continues
Loi du Khi-deux
Une v.a. X suit une loi de Khi-deux avec n degrés de liberté si sa
densité est:
1
2n/2 Γ n
e−x/2 xn/2−1 si x > 0
f (x) = 2( )
0 si x ≤ 0
E(X) = n
Sa variance est:
Var(X) = 2n
1 T e−ita − e−itb
Z
IT = φ(t)dt
2π −T it
Z T −ita
1 +∞ e − e−itb itx
Z
= dF (x) e dt
2π −∞ −T it
Z T −it(x−a)
− e−it(x−b)
Z +∞
1 e
= dF (x) dt
2π −∞ −T it
D’autre part
Z ∞
1
IT = 2[S(T (x − a)) − S(T (x − b))]dF (x)
2π −∞
"Z
1 a−0 Z a+0 Z b−0
IT = JT dF (x) + JT dF (x) + JT dF (x)+
2π −∞ a−0 a+0
Z b+0 Z ∞ #
+ JT dF (x) + JT dF (x)
b−0 b+0
Si x < a < b, on a :
π π
S(T (x − a)) −→ − , S(T (x − b)) −→ −
T →∞ 2 T →∞ 2
Donc Z a−0
lim JT dF (x) = 0
T →∞ −∞
Si x = a < b, on a :
π
S(T (x − a)) = 0, S(T (x − b)) −→ − .
T →∞ 2
Donc Z a+0
lim JT dF (x) = π[F (a + 0) − F (a − 0)]
T →∞ a−0
Si a < x < b, on a :
π π
S(T (x − a)) −→ , S(T (x − b)) −→ −
T →∞ 2 T →∞ 2
Donc Z b−0
lim JT dF (x) = 2π[F (b − 0) − F (a + 0)]
T →∞ a+0
Si a < x = b, on a :
π
S(T (x − a)) −→ , S(T (x − b)) = 0
T →∞ 2
Donc Z b+0
lim JT dF (x) = π[F (b + 0) − F (b − 0)]
T →∞ b−0
Si a < b < x, on a :
π π
S(T (x − a)) −→ , S(T (x − b)) −→
T →∞ 2 T →∞ 2
Donc Z ∞
lim JT dF (x) = 0
T →∞ b+0
En résumé :
1
lim IT = [π(F (a + 0) − F (a − 0))+
T →∞ 2π
+ 2π(F (b − 0) − F (a + 0)) + π(F (b + 0) − F (b − 0))]
1 1
= [F (b + 0) + F (b − 0)] − [F (a + 0) + F (a − 0)]
2 2
Corollaire 1
Si a et b sont deux points de continuité de F . On a :
Z T −ita
1 e − e−itb
F (b) − F (a) = lim φ(t)dt
T →∞ 2π −T it
Corollaire 2
Si φ est absolument intégrable, la fonction de répartition F est
dérivable dans R et de plus
Z +∞
1
F ′ (x) = f (x) = e−itx φ(t)dt
2π −∞
Preuve :
Z T −itx
F (x + h) − F (x) 1 e − e−it(x+h)
F ′ (x) = lim = lim lim φ(t)dt
h→0 h h→0 T →+∞ 2π −T ith
1 − e−ith −itx
Z T
1
F ′ (x) = lim lim e φ(t)dt
h→0 T →+∞ 2π −T ith
Or,
1 − e−ith −itx
e φ(t) ≤ |φ(t)|
ith
Z ∞
et puisque, par hypothèse |φ(t)|dt < ∞, on peut en vertu de
−∞
théorème de Lebesgue, passer à la limite sous l’opérateur d’intégration
et on a :
1 − e−ith −itx 1 +∞ 1 − e−ith −itx
Z T
1
Z
lim e φ(t)dt = e φ(t)dt
T →+∞ 2π −T ith 2π −∞ ith
1 ∞ 1 − e−ith −itx
Z
′
F (x) = f (x) = lim e φ(t)dt
2π −∞ h→0 ith
1 ∞ −itx
Z
= e φ(t)dt
2π −∞
Cette dernière intégrale est absolument convergente en x : C’est une
fonction continue en x.
Donc, la v.a. correspondante à F (x) est absolument continue, de
densité f .
Théorème
Si deux fonctions de répartitions correspondent à la même fonction
caractéristique, alors elles sont égales.
i.e. φF1 = φF2 =⇒ F1 = F2
Proposition
Soit X = (X1 , . . . , Xd ) un vecteur aléatoire, de fonction caractéristique
ϕ = ϕX et de loi PX . Si E ∥X∥2 < ∞, alors
∂ϕ ∂2ϕ
E (Xk ) = −i (0), E (Xk Xj ) = − (0)
∂tk ∂tk ∂tj
Preuve :
En effet, φX+Y (t) = E eit(X+Y ) itX
=E e e itY , d’où, puisque X et Y
sont indépendantes, donc aussi eitX et eitY :
itX itY
φX+Y (t) = E e E e = φX (t)φY (t)
On peut généraliser le théorème précédent de la façon suivante :
Théorème
Soient X1 , X2 , · · · , Xn des v.a. indépendantes. Alors, pour tout réel t,
on a : n Y
φPn Xi (t) = φXi (t)
i=1
i=1
Toufik Chaayra Faculté pluridiscilinaire, Nador SMA S6 51 / 68
Fonction caractéristique et indépendance
Remarque
On peut trouver des v.a. X et Y non indépendantes qui vérifient,
quand même, φX+Y (t) = φX (t)φY (t).
Contre-exemple
Soit X une v.a. de Cauchy C(0, 1); sa fonction caractéristique est
donnée par φX (t) = e−|t| .
Le couple (X, Y ), où Y = X vérifie :
2
−2|t| −|t|
φX+Y (t) = φ2X (t) = e = e = φX (t)φY (t).
Corollaire
Le produit de deux fonctions caractéristiques est une fonction
caractéristique.
P (A ∩ B ∩ C) = ∅ =
̸ 1/8.
Définition
Une famille X1 , . . . , Xn de v.a. est (mutuellement) indépendante si
(σ (X1 ) , . . . , σ (Xn )) est indépendante. Autrement dit,
∀B1 , . . . , Bn ∈ B(R)
n
Y
P (X1 ∈ B1 , . . . , Xn ∈ Bn ) = P (Xi ∈ Bi ) .
i=1
Autrement dit
P(X1 ,...,Xd ) = PX1 ⊗ . . . ⊗ PXd
X1
−1 0 1
X2
−1 0 1/4 0
0 1/4 0 1/4
1 0 1/4 0
On pose X = (X1 , X2 ), on a :
1 1 1 1
PX = δ(−1,0) + δ(0,1) + δ(1,0) + δ(0,−1)
4 4 4 4
alors
1
P(X = (0, 0)) = 0 ̸=
= P (X1 = 0) P (X2 = 0)
4
ainsi X1 et X2 ne sont pas indépendantes.
Toufik Chaayra Faculté pluridiscilinaire, Nador SMA S6 55 / 68
Indépendance
Définition
Une v. a. X est indépendante d’une sous-tribu F si σ(X) ⊥ F.
En particulier, deux variables X et Y sont indépendantes si
σ(X) ⊥ σ(Y ) et on notera alors X ⊥ Y .
Proposition
Si C1 et C2 sont deux famille indépendantes alors σ (C1 ) et σ (C2 ) sont
indépendantes.
Proposition
X1 , . . . , Xd indépendantes si et seulement si ∀ϕi , i ∈ {1, . . . , n}
fonctions boréliennes telles que les ϕi (Xi ) sont intégrables, on ait:
n n
!
Y Y
E ϕi (Xi ) = E (ϕi (Xi )) .
i=1 i=1
Proposition
Une famille (X1 , . . . , Xn ) de variables aléatoires est une famille
indépendante si et seulement si : ∀ (t1 , . . . , tn ) ∈ Rn ,
n
Y
φ(X1 ,...,Xn ) (t1 , . . . , tn ) = φXi (ti )
i=1
où φX : Rn → R est la fonction caractéristique de X : φX (t) = E eitX
Proposition
Soient X1 et X2 deux variables aléatoires, elles sont indépendantes si et
seulement si
FX1 ,X2 (x1 , x2 ) = FX1 (x1 ) FX2 (x2 )
Proposition
Soit X est Y deux variables aléatoires indépendantes telle que
P (X = xi , Y = yj ) = P (X = xi ) P (Y = yj ) ;
∀(i, j) ∈ {1, . . . , n} × {1, . . . , m}
Remarque
D’après ce qui précède on a X et Y indépendantes implique X et Y
non corrélées.
Contre-exemple
Y = X 2 , X ∼ N (0, 1), E(X) = 0 et E(XY ) = 0, ainsi
E(X)E(Y ) = E(XY ) mais X et Y ne sont pas indépendantes:
Proposition
Un vecteur gaussien est entièrement déterminé par
Théorème
Soit X un vecteur gaussien de Rd de matrice de covariance Γ. Alors, Γ
est diagonale si et seulement si (X1 , . . . , Xd ) est indépendante.
Toufik Chaayra Faculté pluridiscilinaire, Nador SMA S6 61 / 68
Corrélation et vecteur gaussien
Contre-exemple
Soit X ∼ N (0, 1) et ϵ une v.a de Rademacher telle que
1
P(ϵ = 1) = P(ϵ = −1) = et soit X ⊥ ϵ. Posons Y = ϵX
2
▶ Montrons que Y ∼ N (0, 1)
Soit y ∈ R,
Définition
Si X et Y admettent chacune une variance non nulle, on appelle
coefficient de corrélation linéaire de X et Y le réel noté ρ(X, Y ) et
définie par :
Cov(X, Y )
ρ(X, Y ) =
σ(X)σ(Y )
Propriétés
1 ρ(X, Y ) est compris dans [−1, 1].
2 Les deux variables ne sont pas corrélées si ρ(X, Y ) est nul.
3 Les deux variables sont d’autant mieux corrélées que ρ(X, Y ) est
proche de 1 ou de −1.
n
X
V ar (X1 + . . . + Xn ) = V ar (Xk )
k=1
Proposition
Si (X1 , . . . , Xn ) sont des variables aléatoires indépendante alors :
∀t ∈ R,
n
Y
φX1 +...+Xn (t) = φXi (t),
i=1
où φX (t) = E eitX . En particulier, si X1 , . . . , Xn ont la de même loi
alors
φX1 +...+Xn (t) = (φX1 (t))n .
Toufik Chaayra Faculté pluridiscilinaire, Nador SMA S6 65 / 68
Somme de variables aléatoires indépendantes
Théorème
Soient X1 , . . . , Xm des variables aléatoires indépendantes suivants
chacune une loi Binomiale de paramètres ni et p, alors leur somme X
suit la loi binomiale:
m
X
X= Xk ∼ B (n1 + . . . + nm , p)
k=1
Théorème
Si x1 , . . . , xm sont des variables aléatoires de Bernoulli avec paramètre
p, indépendantes et identiquement distribuées, alors leur somme X suit
la loi binomiale: m
X
X= Xk ∼ B(m, p)
k=1
Proposition
Soient X et Y deux variables aléatoires réelles, indépendantes. La loi
de la somme X + Y est donnée par le produit de convolution PX ∗ PY
des lois PX et PY , défini, pour toute fonction borélienne bornée ϕ de R
dans R, par
Z Z Z
ϕdPX ∗ PY = ϕ(x + y)dPX (x) dPY (y)
R R R
Proposition
Soient X et Y deux variables aléatoires réelles indépendantes de
densités fX et gY respectivement. La densité de la somme X + Y est
donnée par le produit de convolution hX+Y = fX ∗ gY défini par
Z
hX+Y (t) = fX (x)gY (t − x)dx
R
Théorème
Soient X1 , . . . , Xn des variables aléatoires indépendantes suivants
chacune une loi normale d’éspérance µi et de variance σi2 . Alors la
somme X1 + · · · + Xn suit une loi normale d’éspérance µ1 + · · · + µn et
de variance σ12 + · · · + σn2