Vous êtes sur la page 1sur 10

Table des matières Les schémas de tirages .............................

15
1) Tirage exhaustif ordonné ............................ 15
Partie I : Introduction ......................... 7
2) Tirage exhaustif non ordonné...................... 15
Combinatoire .............................................8
3) Tirage bernoullien ordonné ......................... 15
1) L’ensemble étudié ......................................... 8
4) Tirage bernoullien non ordonné .................. 15
2) Permutation sans répétition .......................... 9
Les variables aléatoires ............................16
3) Permutation avec répétition.......................... 9
1) Quantiles .................................................... 16
4) Arrangement sans répétition ........................ 9
2) Le mode...................................................... 16
5) Arrangement avec répétition ...................... 10
3) L’espérance mathématique......................... 16
6) Combinaison sans répétition ....................... 10
4) Moments non centrés ................................. 16
7) Combinaison avec répétition ....................... 10
5) Moments centrés ........................................ 17
Définitions et axiomes .............................11
6) Moments factoriels ..................................... 17
1) Les évènements .......................................... 11
7) Variance ..................................................... 17
2) Propriétés des évènements ......................... 11
8) Variance de la somme................................. 18
3) Axiomes de Kolmogorov.............................. 12
9) Coefficient d’asymétrie ............................... 18
4) Propriétés des probabilités.......................... 12
10) Coefficient d’aplatissement....................... 19
5) Probabilité conditionnelle ........................... 12
11) Indépendance des variables ...................... 19
6) Notion d’indépendance ............................... 13
12) Fonction génératrice des probabilités........ 19
7) Calcul de la probabilité d’un évènement ...... 13
13) Fonction génératrice des moments ........... 20
Probabilités de Bayes ...............................14 14) Inégalité de Bienaymé Tchebychev ............ 20

1 2

Partie II : Lois Discrètes .................... 21 Loi hypergéométrique..............................26


1) Définition.................................................... 26
Loi uniforme discrète ...............................22
2) Domaine de définition................................. 26
1) Définition.................................................... 22
3) Mode.......................................................... 26
2) Fonction de répartition ............................... 22
4) Moments factoriels ..................................... 26
3) Espérance mathématique ........................... 22
5) Moyenne .................................................... 26
4) Fonction génératrice ................................... 22
6) Variance ..................................................... 26
5) Moments factoriels ..................................... 22
7) Convergence vers la loi binomiale ............... 26
6) Moments non centrés ................................. 22
7) Moments centrés ........................................ 23 Loi de Poisson ..........................................27
8) Caractéristiques de forme ........................... 23 1) Définition.................................................... 27

Loi binomiale ...........................................24 2) Calcul des probabilités successives .............. 27


3) Fonction génératrice ................................... 27
1) Définition.................................................... 24
4) Moment centré ........................................... 27
2) Mode.......................................................... 24
5) Coefficients de Fisher .................................. 28
3) Calcul des probabilités successives .............. 24
6) Convergence vers la loi normale.................. 28
4) Moments centrés ........................................ 24
7) Convergence de la loi binomiale .................. 28
5) Coefficients de Fisher .................................. 24
6) Convergence vers la loi normale.................. 25
7) Loi de Bernoulli ........................................... 25

3 4
Partie III : Lois Continues .................. 29 Loi Log normale........................................36
1) Définition.................................................... 36
Loi uniforme continue ..............................30
2) Fonction de répartition ............................... 36
1) Définition.................................................... 30
3) Médiane ..................................................... 36
2) Fonction de répartition ............................... 30
4) Mode.......................................................... 36
3) Médiane et Espérance................................. 30
5) Moment non centré .................................... 36
4) Variance ..................................................... 30
6) Loi Log normale généralisée........................ 37
5) Fonction génératrice ................................... 30
7) Changement de base .................................. 37
6) Coefficients de Fisher .................................. 30
7) Loi rectangulaire......................................... 31 Test de Khi-deux ......................................38
1) Loi de Khi-deux ........................................... 38
Loi Gamma ...............................................32
2) Construction de l’indicateur d’écart............. 38
Fonction Gamma ............................................... 32
1) Loi Gamma ............................................ 32 Statistique Mathématique .......................39
2) Caractéristiques de ................................ 32 1) Distribution d’échantillonnage .................... 39
3) Loi Gamma (a,b) ..................................... 33 2) Convergence Stochastiques et TCL............... 39

Loi Normale..............................................34
1) Loi normale réduite..................................... 34
2) Loi de Laplace Gauss ................................... 35

5 6

Partie I : Introduction
Combinatoire
1) L’ensemble étudié
Eléments discernables : les éléments qui ne sont pas
considérés comme équivalents dans une disposition.
Ex : (a,b,c,d)
Eléments indiscernables : les éléments qui sont
considérés comme équivalents dans une disposition.
Ex : (a,a,a,a)
Disposition avec répétition : les éléments peuvent
figurer plus d’une fois.
Disposition sans répétition : les éléments ne peuvent
figurer qu’une seule fois.
Disposition ordonnée : il existe au moins deux
dispositions constituées des mêmes éléments mais qui
ne sont pas identiques.
Disposition non ordonnée : si deux dispositions sont
constituées des mêmes éléments, alors ces deux
dispositions sont identiques.

7 8
2) Permutation sans répétition 5) Arrangement avec répétition
On a à choisir n éléments parmi n éléments On a à choisir p éléments parmi n éléments
discernables de Ω . discernables de Ω .
La disposition est ordonnée et sans répétition. La disposition est ordonnée et avec répétition.
pn = n! Anp = n p
3) Permutation avec répétition 6) Combinaison sans répétition
C’est une disposition ordonnée de n éléments ou le On a à choisir p éléments parmi n éléments
premier figure n1 fois, le deuxième n2 fois, …, le k-ième discernables de Ω .
nk fois avec n1 + n2 + ... + nk = n .
La disposition est non ordonnée et sans répétition.
n!
Pnn1 ,n2 ,...,nk = Anp n!
n1! n2!...nk ! C np = =
p! p!(n − p)!
4) Arrangement sans répétition
7) Combinaison avec répétition
On a à choisir p éléments parmi n éléments
C’est une disposition non ordonnée et avec répétition
discernables de Ω .
de p éléments à choisir parmi n éléments de l’ensemble
La disposition est ordonnée et sans répétition. fondamentale.
n!
Anp = App+n−1 Apn+−1n−1 (p + n − 1)!
(n − p)! K np = C pp+n−1 = = =
p! (n − 1)! p!(n − 1)!

9 10

Définitions et axiomes 3) Axiomes de Kolmogorov


Positivité : A ∈ Ω ⇒ P( A) ≥ 0
1) Les évènements
 
Evènement contraire : on note A l’évènement  
contraire de A, si A se réalise, A ne se réalise pas.
Certitude : P(Ω) = P  Ai  = 1
 A ∈Ω 
 i 
U
Réunion : A ∪ B : A ou B ou les deux à la fois.
n  n  n
Intersection : A ∩ B : A et B se réalisent à la fois.
2) Propriétés des évènements
Additivité :
I i =1

Ai = ∅ , alors P 


U ∑ P(A )
i =1

Ai  =

 i =1
i

Distributivité : Ai incompatibles, alors la probabilité de l’union est


A ∩ (B ∪ C ) = ( A ∩ B) ∪ ( A ∩ C ) égale à la somme des probabilités.
A ∪ (B ∩ C ) = ( A ∪ B) ∩ ( A ∪ C )
4) Propriétés des probabilités
Autres propriétés : P (∅) = 0

A∪B = A∩B A∪ A = Ω A∩∅ = ∅ P (A) = 1 − P( A)


A ⊂ B ⇒ P( A) ≤ P(B)
A∩B = A∪B A∩Ω = A A∪∅ = A
 n  n
A∩ A = ∅ A∪Ω = Ω A = A 
P


U ∑
i =1

Ai  ≤

 i =1
P( Ai )

5) Probabilité conditionnelle
P(A ∩ B)
P( A / B) =
P (B)

11 12
6) Notion d’indépendance Probabilités de Bayes
P(A/B) = P(A) et P(B/A) = P(B) ; alors A et B sont
indépendants. Soient u1 , u2 ,..., un des urnes telles que la probabilité de
choisir chaque urne est respectivement π 1 ,π 2 ,...,π n et
 n  n

L’indépendance des Ai implique P 


I ∏
i =1

Ai  =

 i =1
P( Ai ) soient des boules unicolores de couleurs c1 , c2 ,..., ck
telles que pi( j) est la proportion des boules de couleur
c j dans l’urne ui avec 1 ≤ i ≤ n et 1 ≤ j ≤ k .
7) Calcul de la probabilité d’un évènement
Card A pi( j )π i
P(A) = P(ui / c j ) =
Card Ω n


i =1
pi( j)π i

13 14

Les schémas de tirages Les variables aléatoires


On dispose d’une urne contenant N boules de k 1) Quantiles
couleurs différentes N1 , N2 ,..., N k sont respectivement C’est la valeur de xα telle que F (xα ) = α .
les nombres de boules de couleur c1 , c2 ,..., ck dans
l’urne ; N1 + N2 + ... + Nk = N . On prélève un échantillon 2) Le mode
de n boules et on cherche la probabilité que parmi ces C’est la valeur ayant la probabilité maximale.
n boules, on n1 , n2 ,..., nk boules respectivement de 3) L’espérance mathématique

∑ϕ
couleurs c1 , c2 ,..., ck donc P(n1 , n2 ,..., nk ) .
E[ϕ ( X )] = ( x)P( X = x)
1) Tirage exhaustif ordonné
Dx
n n n
AN1 AN2 ... ANk +∞
P(n1 , n2 ,..., nk ) = 1 2 k

ANn E[ϕ ( X )] =
∫ϕ
−∞
( x) f ( x)dx

2) Tirage exhaustif non ordonné


n n
C N1 C N2 ...C Nk
n E (a) = a
P(n1 , n2 ,..., nk ) = 1 2 k
E (aX + bY + c) = aE ( X ) + bE (Y ) + c
C Nn
4) Moments non centrés
3) Tirage bernoullien ordonné
n n nk mr ( X ) = E [ X r ]
P(n1 , n2 ,..., nk ) =  1   2  ... k 
N 1 N 2 N
m0 = 1
N N N
4) Tirage bernoullien non ordonné
n n nk
n!  N1  1  N2  2  Nk 
P(n1 , n2 ,..., nk ) =     ... 
n1! n2!...nk !  N   N  N 

15 16
5) Moments centrés 8) Variance de la somme
µ r ( X ) = E[( X − E ( X ))r ] V (aX + bY ) = a 2V ( X ) + b2V (Y ) + 2abCov ( X ,Y )
µ0 = 1 Indépendance : Cov(X,Y) = 0 ; alors :
µ1 = 0
 n  n
µ2 = m2 − m12
µ 3 = m3 − 3m2 m1 + 2m13
V


∑ ∑
i =1
Xi  =

 i =1
V(Xi )

µ 4 = m4 − 4m3m1 + 6m2m12 − 3m13 9) Coefficient d’asymétrie


µ
6) Moments factoriels γ 1 = 33
σ
 x! 
µ[ k ] ( X ) = E  
( x − k)! Si γ 1 < 0 : distribution décentrée à droite mais étalée
µ[ 0 ] = 1 vers la gauche.
µ[1] = m1 Si γ 1 > 0 : distribution décentrée à gauche mais étalée
µ[2] = m2 − m1 vers la droite.

7) Variance Si γ 1 = 0 : distribution symétrique par rapport à la


V ( X ) = µ2 ( X );σ x = V ( x) moyenne.

17 18

10) Coefficient d’aplatissement 13) Fonction génératrice des moments


µ ψ x (t ) = E[etx ]
γ 2 = 44 − 3
σ
d rψ x
Si γ 2 < 0 : distribution platykurtique (0) = mr
dt r
Si γ 2 > 0 : distribution leptokurtique 14) Inégalité de Bienaymé Tchebychev
Si γ 2 = 0 : distribution mesokurtique σ2
P( X − m ≥ t ) =
t2

E[g( X )k ]
P(g( X ) ≥ t) ≤
tk
E[g( X )k ]
P(g( X ) ≤ t ) ≥ 1 −
tk

11) Indépendance des variables


Cov(X,Y) = 0
E[XY] = E[X]E[Y]
12) Fonction génératrice des probabilités
g X (u) = E[u X ]

d k gx
(1) = µ[k ]
du k

19 20
Partie II : Lois Discrètes
Loi uniforme discrète
1) Définition
1
P( X = x) = ; Dx = {1, 2, …, n} ; X U(n)
n
2) Fonction de répartition
x −1
F ( x) =
n
3) Espérance mathématique
n +1
E[ X ] =
2
4) Fonction génératrice
u 1 − un
g x (u) = ×
n 1 −u
5) Moments factoriels
1 (n + 1)!
µ[ k ] = ×
n(k + 1) (n − k)!
6) Moments non centrés
(n + 1)(2n + 1) n(n + 1)2
m2 = m3 =
6 4
(n + 1)(2n + 1)(3n2 + 3n − 1)
m4 =
30

21 22

7) Moments centrés Loi binomiale


µ2k +1 = 0
n2 − 1 1) Définition
µ2 =
12 P( X = x) = C nx p x q n− x ; q = 1 – p ; Dx = {0,1, 2, …, n}
(n 2 − 1)(3n2 − 7)
µ4 = X B(n,p)
240
2) Mode
8) Caractéristiques de forme np – q < Mo < np + p
γ1 = 0
3) Calcul des probabilités successives
6 (n2 + 1)
γ2 = − × 2 Px −1 q x
5 (n − 1) = ×
Px p n− x +1
Px +1 p n − x
= ×
Px q x +1

4) Moments centrés
g x (u) = (up + q)n
E[ X ] = np
V ( X ) = npq

 dµ r 
µ r +1 = pq + nrµ r −1 
 dp 
5) Coefficients de Fisher
q−p 1 − 6 pq
γ1 = ; γ2 =
npq npq

23 24
6) Convergence vers la loi normale Loi hypergéométrique
Condition : n > 30 et 0,1 < p < 0,9
1) Définition
B(n, p) → N(np , npq )
x n− x x n− x
C Np C Nq ANp ANq
7) Loi de Bernoulli P( X = x) = = C nx ;X H(N, n, p)
x n−x
C Nn ANn
P( X = x ) = p q ; q = 1 – p ; Dx = {0,1}
2) Domaine de définition
X B(1,p)
Max(0, n – Nq) < x < Min(n, Np)
g x (u) = up + q
3) Mode
E[ X ] = p
nNp − Nq + n − 1 nNp + Nq + n + 1
V ( X ) = pq < Mo <
N +2 N +2
n


4) Moments factoriels
B(1, p) = B(n, p) Np! (N − k)! n!
µ[ k ] = × ×
i =1 (Np − k)! N! (n − k)!
5) Moyenne
E[X] = np
6) Variance
npq(N − n)
V (X ) =
N −1
7) Convergence vers la loi binomiale
n
Si < 10% ; H (N , n, p) → B(n, p)
N

25 26

Loi de Poisson 5) Coefficients de Fisher


1
γ1 =
1) Définition m
mx 1
P( X = x) = e −m ;X P(m) ; Dx = IN γ2 =
x! m

2) Calcul des probabilités successives 6) Convergence vers la loi normale


m – 1 < Mo < m Si m > 18 ; P(m) → N(m, m)
Px −1 x 7) Convergence de la loi binomiale
=
Px m Si n > 50 ; p < 0,1 ou p > 0,9 ; B(n, p) → P(np)
Px +1 m
=
Px x +1
3) Fonction génératrice
g x (u) = e m(u−1)
E[X] = m
µ[ k ] = mk
V (X) = m
4) Moment centré

µ r +1 = m  r + rµr −1 
 dm 

27 28
Partie III : Lois Continues
Loi uniforme continue
1) Définition
1 si 0 < x < 1
f ( x) =  X U(0,1)
0 ailleurs
2) Fonction de répartition
0 si x ≤ 0

F (x) = x si 0 < x < 1
1 si x ≥ 1

3) Médiane et Espérance
Me = E[X] = 0,5
4) Variance
V(X) = 1/12
5) Fonction génératrice
et − 1
ψ x (t) =
t
6) Coefficients de Fisher
γ1 = 0
6
γ2 = −
5
µ2k +1 =0

29 30

7) Loi rectangulaire Loi Gamma


Y = U(0 ,1) ; X = a + (b − a)Y ⇒ X = U(a, b) avec b > a
Fonction Gamma
Fonction de densité +∞
 1

f (x ) =  b − a
si a < x < b Γ(ν ) =
∫ 0
e − x xν −1dx ; Γ(ν ) = (ν − 1)Γ(ν − 1)

0 ailleurs
∀ν ∈ N*, Γ(ν ) = (ν − 1)! ; Γ  = π
1
Fonction de répartition
2
0 si x < a Ex : Γ(4 ,5) = 3,5 × 2,5 × 1,5 × 0 ,5 × π
 x − a
F (x ) =  si a < x < b 1) Loi Gamma
b − a
1 si x > b 0 si x < 0

f (x) =  1 −x ν −1
Médiane et espérance  Γ(ν ) e x si x > 0

a+b
Me = E[ X ] = avec ν > 0
2
2) Caractéristiques de
Moment non centré
Mode
1  b r +1 − a r +1 
mr =   ν − 1 si ν > 1
r + 1  b − a  Mo = 
0 ailleurs

31 32
Moments Loi Normale
Γ(ν + r )
mr = ; E[ x ] = V ( X ) = ν ; µ 3 = 2ν ; µ 4 = 3ν (ν + 2) 1) Loi normale réduite
Γ(ν )
1 −u 2 / 2
Coefficients de Fisher g(u) = e ; U = N(0,1)

2
γ1 = Moment non centré
ν
6 mr = (r − 1)mr −2 ; m0 = 1 ; m1 = 0
γ2 =
ν Moment centré
Convergence vers la loi normale Γ(r + 0,5)
µ 2r = m2 r ; µ2r = 2r
ν > 30 ⇒ γ ν → N(ν , ν ) Γ(0 ,5)

3) Loi Gamma (a,b) Coefficients de Fisher


Y = γν ; X = a + bY ⇒ X = γν (a , b) γ1 = γ2 = 0
0 si x < a Fonction génératrice
 a− x
f (x ) =  1 ν −1
b  x −a
2
 e   si x > a ψ u (t ) = et /2

 bΓ(ν )  b 
Fonction de répartition
E[ X ] = a + bν ; V ( X ) = b2ν
On note Π(u) la fonction de répartition de U.
2
γ1 = u
ν

1 −t 2 / 2
6 Π(u) = e dt ; Π (−u) = 1 − Π(u)
γ2 = 2π
ν −∞

33 34

2) Loi de Laplace Gauss Loi Log normale


U = N(0,1) ; X = m + σU ⇒ X = N(m ,σ )
2 1) Définition
1 x −m 
1 −   1  ln x −m  2
f ( x) = e 2 σ  1 − 
σ 

σ 2π ln X = N(m,σ ) ⇒ f ( x) = e 2
σx 2π
Fonction de répartition
Domaine de définition : X ∈ [0 ,+∞[
x − m
F ( x) = Π 
 σ 
2) Fonction de répartition
Moment centré
ln x − m 
F ( x) = Π 
µ2r = σ 2 × 1 × 3 × 5 × ... × (2r − 3) × (2r − 1)  σ 

3) Médiane
Me = e m

4) Mode
Mo = e m−σ
2

5) Moment non centré


σ 2r 2
rm +
mr = e 2

35 36
6) Loi Log normale généralisée Test de Khi-deux
X = x 0 + e m+σU
1) Loi de Khi-deux
2
1  ln( x − x 0 )−m 
1 −   ν : degré de liberté :
f (x ) = e 2 σ 
σ ( x − x 0 ) 2π χ 2 (ν ) = 2γ ν / 2 = γ ν / 2 (0,2) avec ν > 1
 ln( x − x 0 ) − m  Me = x 0 + e m
F ( x) = Π   ; f (x ) =
1
e − x / 2 x (ν / 2)−1
 σ  2ν / 2 Γ(ν / 2)
σ2
m−σ 2 m+
Mo = x0 + e ; E[ X ] = x 0 + e 2 E[X] = ν ; V(X) = 2ν
2) Construction de l’indicateur d’écart
V ( X ) = e 2m+2σ  1 − e −σ 
2 2

  O i : Effectifs observés de la classe i


7) Changement de base Ti : Effectifs théoriques de la classe i
ln X m + σU
log a X = = = m'+σ 'U k : Nombre de classes après regroupement des classes
ln a lna
(dans le cas où les effectifs théoriques sont inférieurs
m σ
Avec m' = et σ ' = ou égaux à 5, on les regroupe avec les classes
lna lna adjacentes).
X = 10 m' +σ 'U r : Nombre de paramètres calculés de la loi théorique
α : Seuil de signification (risque de première espèce)
k

∑i =1
(Oi − Ti )2
Ti
: Indicateur d’écart

37 38

Statistique Mathématique Convergence en loi : Théorème Central Limit (TCL)


n  n 
1) Distribution d’échantillonnage
N : population totale, n : échantillon ∑i =1
Xi − E 
 ∑ Xi 
 i =1  →
 L
N(0,1)
Tirage avec remise :  n 

E (X ) = m ; σ (X ) =
σ
σ
 ∑
 i =1 
Xi 

n
σ
Tirage sans remise : Loi de la moyenne : X → N m, 
 n
σ2 N−n
E (X ) = m ; V (X ) =
Loi de la proportion : 0,1 < p < 0,9
n N −1  pq 
P → N p , 
2) Convergence Stochastiques et TCL  n 
Convergence en probabilité Loi de poisson : P(n) → N(n, n )
( X n ) : Suite infinie de variables aléatoires
Pr
E ( X n ) = a et lim V ( X n ) = 0 ⇒ X n → a
n→+∞
( X n converge en probabilité vers a)
X n : Estimateur sans biais de a.
Pr
lim E (X n ) = a et lim V (X n ) = 0 ⇒ X n → a
n→+∞ n→+∞
X n : Estimateur asymptotiquement sans biais de a.

39 40

Vous aimerez peut-être aussi