Académique Documents
Professionnel Documents
Culture Documents
spicesagros.fr
16 mars 2020
2 Ensembles 5
3 Formules combinatoires 6
4 Dénombrement 7
5 Espaces probabilisés 8
5.1 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
5.2 Correspondance entre relations logiques et ensemblistes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
5.3 Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1
ECS2 19/20 Le 29/04/2020 A 07H55 Page 2/26
8 Inégalités 17
8.1 Inégalités de concentration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
8.2 Inégalités de moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
9 Convergences 18
9.1 Convergence en probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
9.2 Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
9.3 Liens entre ces deux types de convergence (HP) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
9.4 Approximations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
10 Estimation inférentielle 20
10.1 Estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
10.1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
10.1.2 Exemples d’estimateurs de paramètres usuels et sans biais et convergents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
10.2 Estimation par intervalle de confiance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
10.2.1 Estimation par intervalle de confiance d’une proportion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
10.2.2 Estimation par intervalle de confiance asymptotique d’une moyenne de loi normale de variance donnée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
12 Quelques outils 26
1 Légendes et abréviations
— D Définition — ∀k ≥ 1, Lk désigne l’espace vectoriel des variables aléatoires admettant un moment
— T Théorème d’ordre k (notation de l’ensemble hors programme à ne surtout pas utiliser)
— ∀k ≥ 1, Lkd désigne l’espace vectoriel des variables aléatoires discrète admettant un
— P Proposition
moment d’ordre k (notation de l’ensemble hors programme à ne surtout pas utiliser)
— Pr Propriété (s) — PX : loi de X
— C Corollaire — X ∼ Y : les variables X et Y suivent la même loi.
— R Remarque — SX support de X.
— E Exemple
— HP : résultat hors programme mais ...
— c : résultat valable en continu
— : résultat valable en discret
— : union disjointe
— ssrcv : sous réserve de convergence
— ssr |cv| : sous réserve de convergence absolue
— i.i.d. : variables indépendantes et identiquement distribuées
— SCE : système complet d’événements
— v.a.r. : variable aléatoire
— v.a.r.d. : variable aléatoire discrète
— v.a.r.a.d. : variable aléatoire à densité
— ui < ∞ : série simple convergente (symbole hors programme à ne surtout pas
i
utiliser)
— ui = ∞ : série simple divergente (symbole hors programme à ne surtout pas
i
utiliser)
— ui,j < ∞ : : série double convergente (symbole hors programme à ne surtout pas
i,j
utiliser)
— ui,j = ∞ : série double divergente (symbole hors programme à ne surtout pas
i,j
utiliser)
b
— f < ∞ : intégrale convergente (symbole hors programme à ne surtout pas utiliser)
a
b
— f = ∞ : intégrale divergente (symbole hors programme à ne surtout pas utiliser)
a
— A B : A et B indépendants (le symbole hors programme à ne surtout pas utiliser)
— X Y : X et Y indépendantes (le symbole hors programme à ne surtout pas utiliser)
— X1 . . . Xn : X1 , . . . , Xn mutuellement indépendantes (le symbole hors pro-
gramme à ne surtout pas utiliser)
2 Ensembles
◮ Ai ∪ Bj = (Ai ∪ Bj )
i∈I j∈J (i,j)∈I×J
D Définition intuitive d’un ensemble
C’est le tout formant une collection d’objets ayant une propriété commune. Chaque ◮ Ai ∩ Bj = (Ai ∩ Bj )
objet d’un ensemble est appelé élément, et écrire que x est un élément de A se note x ∈ A. i∈I j∈J (i,j)∈I×J
Dans le cas contraire, on note x ∈ A. Pr Lois de Morgan où A = ∁E A
On dit que A = B lorsque ∀x ∈ A, x ∈ B et ∀x ∈ B, x ∈ A. Par contraposée A = B ◮ A∩B = A∪B
lorsque ∃x ∈ A, x ∈ B ou ∃x ∈ B, x ∈ A. ◮ A∪B = A∩B
R L’ordre de l’écriture des éléments d’un ensemble n’a aucune importance, ainsi que ◮ Ai = Ai
i∈I i∈I
leurs répétitions éventuelles. Par exemple : {1, 2, 3} = {2, 3, 1} = {1, 1, 2, 3, 3, 3}.
◮ Ai = Ai (Lois de Morgan généralisées)
D Soit A et B deux ensembles, on dira que B est un sous-ensemble de A ou que B i∈I i∈I
est une partie de A si, et seulement si, tout élément de B est aussi un élément de A. Pr ◮ (B = A) ⇔ (A ∪ B = E et A ∩ B = ∅) ⇔ (A B = E)
Ainsi : B ⊂ A lorsque ∀x ∈ B, x ∈ A. Pr ◮ Ω = ∅
R (A = B) ⇔ (A ⊂ B et B ⊂ A). ◮∅=Ω
D On appelle ensemble des parties de A, l’ensemble de tous les sous-ensembles de ◮A=A
A, on le note P (A), il contient évidemment A lui-même et l’ensemble vide. ◮ B=A ⇔ A=B
◮ (A ⊂ B) ⇔ B ⊂ A
R ◮ Ecrire A ⊂ E se traduit par A ∈ P (E) ( on n’écrit jamais A ∈ E !).
D A − B = {x ∈ Ω, x ∈ A et x ∈ B}
◮ Ecrire a ∈ A se traduit par {a} ⊂ A ( on n’écrit jamais a ⊂ A !). Pr ◮ A − B = A ∩ B
D ◮ A ∪ B = {x ∈ Ω, x ∈ A ou x ∈ B}. ◮ A − B = A − (A ∩ B)
◮ A=Ω−A
◮ Ai = {x ∈ E | ∃i ∈ I, x ∈ Ai }.
i∈I ◮ ((A − B) = A) ⇔ (A ∩ B = ∅)
Pr ◮ A ∪ A = A D ◮ Produit cartésien de deux ensembles
◮ A∪B =B∪A A × B = {(a, b) | a ∈ A et b ∈ B} .
◮ Produit cartésien de n ensembles
◮ A ∪ (B ∪ C) = (A ∪ B) ∪ C
A1 × · · · × An = {(x1 , ..., xn ) | x1 ∈ A1 , ..., xn ∈ An }
◮ A ⊂ A ∪ B, B ⊂ A ∪ B
D Soit E un ensemble. Pour toute partie A de E, on définit la fonction indicatrice
◮ (A ⊂ B) ⇔ (A ∪ B = B)
(ou fonction caractéristique) de A notée 1A par
◮ ∅∪A=A
1 si x ∈ A
◮ Ω∪A =Ω 1A : x ∈ E → 1A (x) =
0 si x ∈ A
◮ A∪A=Ω
Pr ◮ ∀x ∈ E, 1Ω (x) = 1, 1∅ (x) = 0
Pr Distributivités ◮ 1A∩B = 1A × 1B
◮ A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) ◮ 1A∪B = 1A + 1B − 1A∩B = 1A + 1B − 1A × 1B
◮ A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)( +∞ +∞
Pr Ak signifie “les événements An sont réalisés une infinité de fois”.
◮ Ai ∪ B = (Ai ∪ B) n=0 k=n
+∞ +∞
i∈I i∈I
Pr Ak signifie “tous les événements An sont réalisés à partir d’un certain
n=0 k=n
◮ Ai ∩ B = (Ai ∩ B)
i∈I i∈I rang”.
: xP ([X = x]) ssr |cv|
: (x − E (X))r P ([X = x]) ssr |cv|
x∈X(Ω) x∈X(Ω)
E (X) = +∞ µr (X) = E ((X − E (X))r ) = +∞
c : xf (x) dx ssr |cv| c : (x − E (X))r f (x) dx ssr |cv|
−∞ −∞
P c : (E (X) < ∞) ⇔ (E (|X|) < ∞) D c: V (X) = µ2 (X)
P c : Pour tout X variable positive nous avons (E (X) < ∞) ⇔ (E (⌊X⌋) < ∞) . D c: σ (X) = V (X)
P c : Si X (Ω) possède un maximum xmax et xmin , alors E (X) < +∞ et l’on a : P c: (V (X) < ∞) ⇔ E X 2 < ∞
xmin ≤ E (X) ≤ xmax . P c: (V (X) = 0) ⇔ (X = E (X) p.s.)
P : ∀a ∈ IR, soit X une variable certaine égale à a alors E (X) = a, i.e. E (a) = a. P c: E X 2 = 0 ⇒ (V (X) = 0)
P c : Si X ≥ 0 alors E (X) ≥ 0. P c: (X bornée) ⇒ (V (X) < ∞)
P c : (X ≥ 0 et E (X) = 0) ⇒ (X = 0 p.s.) E X2 < ∞
P c : ⇒ E (XY ) < ∞
E (X) < ∞ E Y2 <∞
P c : ⇒ E (XY ) < ∞
Y est bornée T Théorème de Koenig-Huygens c Soit X tel que E X 2 < ∞ alors
2
T Théorème de domination V (X) = E X 2 − (E (X)) .
c : Soit X et Y deux variables, si |X| ≤ Y et si E (Y ) < ∞ alors E (X) < ∞ et P c : Soit r ∈ IN alors (mr+1 (X) < ∞) ⇒ (∀k ∈ [[0, r]], mr (X) < ∞) .
|E (X)| ≤ E (|X|) ≤ E (Y ) . P c : Soit r ∈ IN alors µr+1 (X) < ∞ ⇒ (∀k ∈ [[0, r]], µr (X) < ∞) .
D Moment d’ordre r où r ≥ 0. T Théorème de transfert
: xr P ([X = x]) ssr |cv| : ϕ (x) P ([X = x]) ssr |cv| où ϕ déf sur I ⊃ X (Ω)
x∈X(Ω)
mr (X) = E (X r ) = +∞
x∈X(Ω)
E (ϕ (X)) = b
c : xr f (x) dx ssr |cv| c : ϕ (x) f (x) dx ssr |cv| où X (Ω) = ]a, b[ p.s., a et b dans IR
−∞
a
P c : (m2 (X) = 0) ⇔ (X = 0 p.s.) et ϕ : ]a, b[ → IR est C 0 presque partout dans ]a, b[
R c : Dans le cas continu, on pourrait se contenter de la convergence simple puisque P c : ∀ (a, b) ∈ IR∗ × IR, (E (X) < ∞) ⇔ (E (aX + b) < ∞)
l’intégrande ne change de signe qu’en 0, mais c’est une histoire de programme ! et E (aX + b) = aE (X) + b.
P c : Toute v.a.r. bornée admet des moments de tous ordres. P c : ∀ (a, b) ∈ IR∗ × IR, (V (X) < ∞) ⇔ (V (aX + b) < ∞)
et V (aX + b) = a2 V (X) .
D Moment absolu d’ordre r où r ≥ 0.
D P c : Soit X tel que E (X) < ∞ et V (X) < ∞, V (X) = 0 alors
: |x|r P ([X = x]) ssrcv X − E (X)
X∗ = est appelée variable centrée réduite associée à X.
mr (|X|) = E (|X|r ) =
x∈X(Ω)
+∞ σ (X)
c : |x|r f (x) dx ssrcv
−∞
6.3 Inégalités
R c : Dans le cas continu, on pourrait se contenter de la convergence simple puisque
l’intégrande ne change de signe qu’en 0, mais c’est une histoire de programme ! Pr c Inégalités de moments
P c : (mr (X) < ∞) ⇔ (mr (|X|) < ∞) ◮ ∀X ∈ L1 , (X ≥ 0) ⇒ (E (X) ≥ 0) (positivité de l’espérance)
2
D Moment centré d’ordre r où r ≥ 0. ◮ ∀ (X, Y ) ∈ L1 , (X ≤ Y ) ⇒ (E (X) ≤ E (Y )) (croissance de l’espérance)
2
Soit X une v.a.r. tel que E (X) < ∞ ◮ ∀ (X, Y ) ∈ L1 , (X = Y ) ⇒ (E (X) = E (Y ))
Soit I = Ij un ensemble dénombrable et pour tout j de J, les Ij sont des ensembles P Lois marginales
j∈J
dénombrables. ◮ Loi de X : ∀xi ∈ X (Ω) , P ([X = xi ]) = pi,j
xi ∈X(Ω)
Les assertions suivantes sont équivalentes :
◮ Loi de Y : ∀yj ∈ Y (Ω) , P ([Y = yj ]) = pi,j .
(1) la famille (ui )i∈I est sommable
yj ∈Y (Ω)
(2) pour tout j ∈ J, la série uk converge et la série |uk | converge. Dans ce
k∈Ij j k∈Ij D Lois conditionnelles
cas nous avons ui = uk . ◮ Loi conditionnelle de X sachant [Y = yj ] avec P ([Y = yj ]) = 0
i∈I j∈J k∈Ij pi,j
P[Y =yj ] : X (Ω) → [0, 1] définie par ∀xi ∈ X (Ω) , P[Y =yj ] ([X = xi ]) = .
T Cas particulier fondamental : I = IN 2 p•,j
◮ Loi conditionnelle de Y sachant [X = xi ] avec P ([X = xi ]) = 0
Soit (In )n∈IN une partition de IN2 . Les assertions suivantes sont équivalentes : pi,j
(1) La famille (ui,j )(i,j)∈IN2 est sommable P[X=xi ] : Y (Ω) → [0, 1] définie par ∀yj ∈ Y (Ω) , P[X=xi ] ([Y = yj ]) = .
pi,•
(2) Pour tout n ∈ IN, la série |ui,j | où (i, j) ∈ In converge et la série simple P Caractérisation de la loi d’une fonction d’un couple
i,j
Notons Z = g (X, Y ) . Caractériser la loi de la v.a.r. Z, c’est donner Z (Ω) =
|ui,j | converge aussi.
n≥0 (i,j)∈In g (X, Y ) (Ω) et pour tout z de Z (Ω) :
+∞ P ([Z = z]) = P ([X = x] ∩ [Y = y]) .
Dans ce cas nous avons ui,j = ui,j . (x,y)∈X(Ω)×Y (Ω)
g(x,y)=z
(i,j)∈IN2 n=0 (i,j)∈In
P ∀I ∈ P (Z (Ω)) , P ([Z ∈ I]) = P ([X = x] ∩ [Y = y]) .
P Produit de deux familles sommables (x,y)∈X(Ω)×Y (Ω)
Soit I et J deux ensembles dénombrables et soit (ui )i∈I et (vj )j∈J deux familles som- g(x,y)∈I
mables, alors la série double ui,j est convergente et l’on a T Théorème de transfert
i,j Soit une application ϕ définie sur D ⊃X (Ω) × Y (Ω) ,
E (ϕ (X, Y )) = ϕ (x, y) P ([X = x] ∩ [Y = y]) ssr |cv| de la série double
ui,j = ui vj . (x,y)∈X(Ω)×Y (Ω)
(i,j)∈I×J i∈i j∈J en jeu.
+∞ +∞
7.5.2 Le lemme des coalition
∀z ∈ IR, fX+Y (x) = fX (z − t) fY (t) dt à condition
fX (t) fY (z − t) dt =
−∞ −∞
P c : ∀ (X, Y ) deux variables et ∀ (ϕ, ψ) ∈ F (I, IR) × F (J, IR) | I ⊃ X (Ω) et
que fX+Y soit définie et C presque partout, ce qui est le cas si au moins l’une des deux
0
J ⊃ Y (Ω) alors ϕ (X) , ψ (Y ) restent des variables, et X Y ⇒ ϕ (X) ψ (Y ) .
densités est bornée et on note fX+Y = fX ∗ fY .
La réciproque est fausse. Pr c Le produit de convolution est commutatif et associatif.
P c : ∀ (X1 , . . . , Xn ) n variables et ∀ (ϕ, ψ) ∈ F (I, IR) × F (Y, IR) tq
Autrement dit fX+Y = fX ∗ fY = fY ∗ fX et (fX ∗ fY ) ∗ fZ = fX ∗ (fY ∗ fZ ) .
∀k ∈ [[1, n − 1]], ϕ (X1 , . . . , Xk ) et ψ (Xk+1 , . . . , Xn ) restent des variables alors ∀k ∈
[[1, n − 1]], X1 . . . Xn ⇒ ϕ (X1 , . . . , Xk ) ψ (Xk+1 , . . . , Xn ) .
n
P c : ∀ (X1 , . . . , Xn ) ∈ L1 ,
n n n
X1 . . . Xn ⇒ E Xi < ∞ et E Xi = E (Xi )
i=1 i=1 i=1
c : ∀ (X, Y ) ∈ L 2 n
P , X Y ⇒ (Cov (X, Y ) = 0)
7.5.3 Convolution
8 Inégalités
T Inégalité de Cauchy-Schwarz
2
◮ c : Soit (X, Y ) ∈ L2 alors Cov (X, Y ) < ∞ et (Cov (X, Y ))2 ≤ V (X) V (Y ) .
D’autres versions
2
◮ c : Soit (X, Y ) ∈ L2 alors E (XY ) < ∞ et (E (XY ))2 ≤ E X 2 E Y 2 .
Le cas d’égalité est atteint lorsqu’il existe deux réels a et b non tous les deux nuls tel
que aX + bY = 0.
2
◮ c : Soit (X, Y ) ∈ L2 alors E (XY ) < ∞ et
|E (XY )| ≤ E (|XY |) ≤ E (X 2 ) E (Y 2 ).
E E (|X|) ≤ E (X 2 )
T Inégalité triangulaire
c : Soit X et Y telles que E (X) < ∞ et E (Y ) < ∞ alors
E (|X + Y |) ≤ E (|X|) + E (|Y |) .
D
P
c : (Xn )n≥1 −→ X lorsque ∀ε > 0, lim P ([|Xn − X| ≥ ε]) = 0 soit encore R N’employer cette proposition qu’en cas où vous soyez sûrs de connaître la
n→+∞ nature discrète de TOUTES les variables en jeu.
∀ε > 0, lim P ([|Xn − X| < ε]) = 1.
n→+∞ T Théorème de composition
Toutes les variables en jeu étant définies sur le même espace probabilisé, c’est ce que L L
l’on appelle une convergence spaciale. ) c : Si (Xn )n≥1 −→ X et si f ∈ C 0 (IR,IR) alors (f (Xn ))n≥1 −→ f (X) .
ε* R Il est suffisant d’avoir f ∈ C 0 (X (Ω) ,IR) mais ce n’est pas dit dans le programme.
R c : ∀ε > 0, [|Xn − X| ≥ ε] ⊂ |Xn − X| > .
2
P
c : (Xn )n≥1 −→ X ⇔ (Xn − X)n≥1 −→ 0 .
P T Théorème de Slutsky
Pr +
L
(Xn )n≥1 −→ X L
Pr
P
c : (Xn )n≥1 −→ X ⇒ lim E (Xn ) = E (X) et lim V (Xn − X) = 0 ◮ c : L ⇒ (Xn + Yn )n≥1 −→ X + c
n→+∞ n→+∞ (Yn )n≥1 −→ c ∈ IR
L
+
P
D c : lim E (Xn ) = a ∈ IR et lim V (Xn ) = 0 ⇒ (Xn )n≥1 −→ a (Xn )n≥1 −→ X L
n→+∞ n→+∞ ◮ c : L ⇒ (Xn Yn )n≥1 −→ cX
(Yn )n≥1 −→ c ∈ IR
T Théorème de composition
P P
c : Si (Xn )n≥1 −→ X et si f ∈ C 0 (IR,IR) alors (f (Xn ))n≥1 −→ f (X) . R Slutsky mélange les types de convergence.
0
R Il est suffisant d’avoir f ∈ C (X (Ω) ,IR)) mais ce n’est pas dit dans le programme. T Théorème de la limite centrée (TCL)
T Loi faible des grands nombres L
◮ c : Soit (Xn )n≥1 i.i.d. alors (Sn∗ )n≥1 −→ N où N ֒→ N (0, 1) où
◮ c : Soit (Xn )n≥1 une suite de variables indépendantes, d’espérance commune m n
Sn − E (Sn )
1
n
P ∀n ∈ IN∗ , Sn = Xk et Sn∗ = où σ (Sn ) > 0.
et de variance commune σ 2 . Soit Xn = Xk alors Xn n≥1 −→ m. k=1
σ (Sn )
n x
k=1 1 2
1
n Autrement dit ∀x ∈ IR, lim P ([Sn∗ ≤ x]) = Φ (x) = √ e−t /2 dt.
◮ : Si ∀k ∈ [[1, n]], Xk ֒→ B (p) alors en posant Fn = Xk on a, n→+∞ −∞ 2π
n Sn − nµ L
k=1
p (1 − p) 1 Alors en posant ∀n ≥ 1, E (Xn ) = µ et V (Xn ) = σ2 , alors √ −→ N où
∀ε > 0, P ([|Fn − p| ≥ ε]) ≤ ≤ . σ n n≥1
nε2 4nε2 N ֒→ N (0, 1) .
◮ c : Le TCL existe aussi en “version moyenne”, c’est-à-dire qu’en utilisant les
n
9.2 Convergence en loi 1
même notations et en posant Xn = Xk alors
L n
D c : (Xn )n≥1 −→ X lorsque lim FXn (x) = FX (x) en tout point où FX est k=1
n→+∞
∗ √ Xn − µ L
continue. Xn = n −→ N où N ֒→ N (0, 1) .
Les fonctions FXn et FX représentent la fonction de répartition de Xn (resp. de X), n≥1 σ
, -
les variables en jeu n’ont pas l’obligation d’être définies sur le même espace. La convergence Sn − nE (X1 )
en loi n’est donc pas une convergence spaciale. C c : ∀ (a, b) ∈ IR2 , a < b, lim P a≤ ≤b =
n→+∞ nV (X1 )
P c : Soit a et b deux réels tel que a < b alors on a, 1 b
2
lim P ([a < Xn ≤ b]) = P ([a < X ≤ b]) . √ e−t /2
dt
n→+∞ 2π a
9.4 Approximations
P (Binomiale par Poisson) ∀n ∈ IN∗ , Xn ֒→ B (n, pn ) avec lim npn = λ > 0,
n→+∞
L
alors (Xn )n≥1 −→ X où X ֒→ P (λ) (conditions : n ≥ 30 et p ≤ 0, 1).
P (Binomiale par Normale) Soit ∀n ∈ IN∗ , Xn ֒→ B (p) indépendantes, ainsi
n
L
Sn = Xk ֒→ B (n, p) . Alors (Sn∗ )n≥1 −→ N où N ֒→ N (0, 1) avec ∀n ∈ IN∗ ,
k=1
− np
Sn
Sn∗ = (conditions n ≥ 30, np ≥ 5 et nq ≥ 5).
np (1 − p)
P (Poisson par Normale) Soit ∀n ∈ IN∗ , Xn ֒→ P (λ) indépendantes, ainsi
n
L
Sn = Xk ֒→ P (nλ) . Alors (Sn∗ )n≥1 −→ N où N ֒→ N (0, 1) avec ∀n ∈ IN∗ ,
k=1
Sn − nλ
Sn∗ = √ (condition λ ≥ 15).
nλ
R Le programme stipule que les conditions d’approximation devront être systéma-
tiquement rappelées dans l’énoncé, mais malgré tout il serait bon d’avoir un ordre de
grandeur en tête pour les oraux ...
D : Soit (X1 , . . . , Xn ) un n−échantillon tel que ∀k ∈ [[1, n]], E (Xk ) = µ et 10.2.2 Estimation par intervalle de confiance asymptotique d’une moyenne
V (Xk ) = σ2 inconnu. On appelle variance empirique la variable aléatoire Sn2 définie de loi normale de variance donnée
n
1 2 ) *
par ∀n ∈ IN∗ , Sn2 = Xk − Xn . P IC (µ) = X − u √σ ; X + u √σ où u1−α/2 = Φ−1 (1 − α/2)
n α n 1−α/2 n n 1−α/2 n
k=1
n à condition
1 que n ≥ 30. Dans le cas ou σ est inconnu, on pourra l’estimer par la réalisation
1 2
P c : ∀n ∈ IN∗ , Sn2 = Xk2 − Xn (à savoir retrouver). n
n de Sn notée s dans l’échantillon, ce qui donne
k=1 n−1
n−1 ) *
P c : ∀n ∈ IN∗ , ∀σ ∈ IR∗+ , E Sn2 = σ 2 (à savoir retrouver). IC α (µ) = X s
n − u1−α/2 √n ; X s
n + u1−α/2 √n
n
n−1 P
P c : Sn2 −→ σ2 (à savoir retrouver).
n
11.5 Loi exponentielle c ◮ Epreuve type : c’est le rang d’appartition du premier succès lors d’une succession
illimitée d’épreuves de Bernoulli.
◮ Notation : X ֒→ E (λ) où λ ∈ IR∗+ ◮ X (Ω) = IN∗
◮ Paramètre : λ ◮ ∀k ∈ IN∗ , P ([X = k]) = qk−1 p avec q = 1 − p
◮ Epreuve type : temps d’attente entre deux phénomènes indépendants tels que des ◮ ∀k ∈ IN, P ([X > k]) = qk
arrivées à un guichet, ou des appels téléphoniques ... 0 si x < 1
◮ X (Ω) = IR+ p.s. ◮ ∀x ∈ IR, FX (x) =
1 − q k
si x ∈ [k, k + 1[ , k ∈ IN∗
◮ ∀x ∈ IR, fX (x) = λe−λx 1IR+ (x) 1
◮ ∀x ∈ IR, FX (x) = 1 − e−λx 1IR+ (x) ◮ E (X) =
p
1 q
◮ E (X) = ◮ V (X) = 2
λ p
1
◮ V (X) = 2 ◮ (X ֒→ G (p)) ⇔ ∀ (n, m) ∈ (IN)2 , P[X>n] ([X > n + m]) = P ([X > m]) (absence
λ
◮ (X ֒→ E (λ)) ⇔ ∀ (x, y) ∈ IR2+ , P[X>x] ([X > x + y]) = P ([X > y]) (absence de de mémoire) ce qui s’est passé sur l’intervalle ]−∞, n] n’affecte en rien ce qui se passera
mémoire), autrement dit ce qui s’est passé sur l’intervalle de ]−∞, x] n’affecte en rien ce sur l’intervalle ]n, n + m] .
qui se passera sur l’intervalle ]x, x + y] .
◮ ∀a > 0, (X ֒→ E (λ)) ⇔ aX ֒→ E
λ 11.8 Lois normales
a
11.8.1 Loi normale centrée et réduite ou de Laplace-Gauss centrée et réduite
X
◮ ∀λ > 0, (X ֒→ E (1)) ⇔ ֒→ E (λ) c
λ
◮ ∀λ > 0, (X ֒→ E (λ)) ⇔ (λX ֒→ E (1)) ◮ Notation : X ֒→ N (0, 1)
◮ E (1) = γ (1) ◮ Paramètre : 0 et 1
◮ X (Ω) = IR p.s.
1 2
11.6 Loi gamma c ◮ ∀x ∈ IR, fX (x) = √ e−x /2
2π
◮ Notation : X ֒→ γ (υ) avec υ ∈ IR∗+ ◮ Intégrale de Gauss
+∞
◮ Paramètre : υ 1 2
⊲ √ e−x /2 dx = 1
∗ 2π
◮ X (Ω) = IR+ p.s. −∞
+∞
xυ−1 e−x ⊲ −x2
e dx = 1
◮ ∀x ∈ IR, fX (x) = 1IR∗+ (x)
Γ (υ) −∞
◮ E (X) = υ ◮ Fonction de répartition
x
1 2
◮ V (X) = υ ⊲ ∀x ∈ IR, Φ (x) = √ e−t /2 dt
◮ γ (1) = E (1) −∞ 2π
n ⊲ ∀x ∈ IR, Φ (−x) = 1 − Φ (x)
◮ γ (υ 1 ) ∗ · · · ∗ γ (υ n ) = γ υk ⊲ Φ (0) = 1/2
k=1 ◮ Mode : 0
◮ Médiane : 0
11.7 Loi géométrique ◮ E (X) = 0
◮ V (X) = 1
◮ Notation : X ֒→ G (p) où p ∈ ]0, 1[ X −m
◮ Paramètre : p ◮ ֒→ N (0, 1) ⇔ X ֒→ N m, σ2
σ
1
◮ (X ֒→ U (]0, 1[)) ⇔ − ln (X) ֒→ E (λ)
λ
12 Quelques outils
◮ ∀x ∈ IR, ⌊x⌋ ≤ x < ⌊x⌋ + 1
+∞
1
◮ tn = où |t| < 1
n=0
1−t
+∞
1
◮ (−t)n = où |t| < 1
n=0
1+t
+∞
n+k−1 n 1
◮ t = k
où |t| < 1
n=0
k−1 (1 − t)
+∞
xn
◮ = ex où x ∈ IR
n=0
n!
+∞
(tX)2n
◮ etX + e−tX = 2 (à savoir retrouver )
n=0
(2n)!
+∞
(tX)2n+1
◮ etX − e−tX = 2 (à savoir retrouver )
n=0
(2n + 1)!
+∞
◮ Γ : x ∈ IR∗+ → tx−1 e−t dt
0
n nk
◮ ∼ où k est entier fixé.
k
n→+∞ k!
n
nk 1
◮ lim e−n = (HP à savoir retrouver)
n→+∞ k! 2
k=0