Académique Documents
Professionnel Documents
Culture Documents
Définitions de base : {xi , P (xi )} est appelée loi de probabilité de la variable aléatoire X.
Variable aléatoire : Rappelons que si à un ensemble de possibilités Ω, nous attachons un Variable aléatoire réelle discrète :
nombre X prenant les valeurs x1 , x2 , ..., xi , ...xn , lorsque se produit l’un des événements est définie sur Ω et est une application X :→ R avec X(Ω){x1 , ..., xn } fini ou dénombrable.
e1 , e2 , ..., ei , ..., en , on dit que X est une variable aléatoire.
Fonction de répartition :
Loi de probabilité : Cette variable X est définie lorsqu’on connaît les probabilité
P (x1 ), P (x2 ), ..., P (xn ) correspondant aux valeurs possibles de X. Ces probabilités sont obli-
n
R → [0; 1]
gatoirement telles que : P (x1 ) + P (x2 ) + ... + P (xi ) + ... + P (xn ) = 1. La correspondance F =
x F (x) = P (X ≤ x)
Caractéristiques principales : Variance : Indique de quelle manière la variable aléatoire se disperse autour de sa moyenne.
Pn Une variance élevée indique que les valeurs sont très écartées les unes des autres et vice-versa.
Espérance : E(X) = xi P (xi ) Elle est nulle lorsque toutes les valeurs sont identiques. V (X) = E[(X − E(X))2 ] =
i=1
E(X 2 ) − (E(X))2
Propriétés : 3. E(λ) = λ
Variance :
Espérance :
1. ∀λ ∈ R, V (λX) = λ2 V (X)
1. E(X + Y ) = E(X) + E(Y ) p
2. ∀λ ∈ R, E(λX) = λE(X) 2. σ = V (X) l’écart type
Rx
Variable aléatoire continue : grable f telle que : ∀x ∈ R, F (x) = f (t)dt
−∞
1. Si les valeurs possibles de X sont réparties de façon continue sur un intervalle fini, ou
Propriétés de la densité de probabilité :
infini, X est une variable aléatoire continue. Dans ce cas, on ne considère plus la proba-
bilité que la variable prenne une valeur donnée mais que sa valeur soit comprise dans un 1. f est positive car F est croissante
intervalle donné. R +∞
2. f (t)dt = 1
2. On appelle fonction de prépartition d’une variable aléatoire continue X, la fonction F
définie sur R par F (x) = P (X ≤ x). Ses propriétés sont les même que celles du cas
R−∞
a
3. f (t)dt = P (X ≤ a) = F (a)
discret. −∞
0
3. La densité de probabilité d’une fonction de répartition continue F est une fonction inté- 4. F = f
Autres caractéristiques des VAC : Inégalité de Markov (X variable aléatoire continue positive, α > 0) :
Moment d’ordre k par rapport à l’origine :
E(X)
R +∞ P (X > α) ≤
mk = xk f (x)dx α
−∞
Inégalité de Bienaymé-Tchebychev (X variable aléatoire continue, densité f ) :
Moment centré d’ordre K :
V (X)
µk = E[(X − E(X))K ] ∀ε > 0; P ([|X − E(X)|] > ε) ≤ ε2
Loi de Poisson : On dit qu’une variable aléatoire dénombrable X, à valeurs dans N suit une loi de Poisson de
C’est la loi qui considère les événements rares. Si la loi de Poisson décrit la probabilité qu’un événe- paramètre λ > 0
ment se produise durant un intervalle de temps donné, alors : k
⇔ ∀k ∈ N, P (X = k) = e−λ λk!
— La possibilité de réalisation d’un événement est très faible Propriétés :
— Le nombre d’essais est très grand
√
1. E(X) = λ 3. σ(X) = λ
2. V (X) = λ
X−m
Loi normale : Si x → N (m, σ) alors Y = σ → N (0, 1)
Propriétés de la loi normale :
Une variable aléatoire X suit une loi normale de paramètres m et σ si sa densité de probabilité 1. E(X) = m
est donnée par :
2. V (X) = σ 2
R +∞
R→R
3. f (t)dt = 1
(x−m)2 −∞
f : −
1 2σ 2 avec m ∈ R et σ ∈ R+
x f (x) = √ e
R +∞ 1
R0 1
σ 2π ∗ 4. f (t)dt = 2 f (t)dt = 2
0 −∞
Ra
Loi normale centrée réduite : 5. P (X ≤ a) = F (a) = f (t)dt
−∞
Approximations et théorème de limite centrale : 1, tel que np(1 − p) > 10, on peut approcher la loi binomiale B(n, p) par la loi normale
p
N (λ) où m = np et σ = np(1 − p)
1. Théorème 1 (Approximation par loi de Poisson) : Pour n > 30, p ≤ 0, 1 tel que 3. Théorème central limite : Si un échantillon X1 , X2 , ..., Xn est tiré d’une loi quelconque
np(1 − p) ≤ 10, on peut approcher la loi binomiale B(n, p) par la loi de poisson de moyenne µ et d’écart-type σ et les Xi sont indépendantes, alors pour n suffisament
P(λ) où λ = np n
P √
grand, Xi peut être approché par la loi normale de paramètre nµ et σ n
2. Théorème 2 (Approximation par la loi normale) : Pour n ≥ 50 et p ni proche de 0 ni de
i=1
Test de Khi-2 : — Dans chaque classe, on observe un effectif Oi auquel correspond à un effectif théorique
Soient X1 , X2 , ...Xn , n variables qui suivent la loi normale centrée réduite, indépendantes. On Ni donné par la distribution de population que l’on cherche à tester
appelle loi de Khi-2 à ν = n degrés de liberté et on note χ2n la loi de la variable aléatoire — Important : On suppose que ∀i, Ni ≥ 5(effectifs théoriques)
X12 + X22 + .. + Xn 2
. Densité de probabilité : — Si cette condition n’est pas réalisée, la technique consiste à regrouper certaines modalités
(classes) afin d’augmenter la valeur des effectifs théoriques
La loi de χ2n a pour densité de probabilité :
Théorème :
−x n
1
2n Γ( n )
e 2 x 2 −1 si x ≥ 0 n
fn : (Oi −Ni )2
P
2
0 sinon χ2obs = Ni à ν degrés de liberté
i=1
R∞
Avec Γ(a) xa−1 e−x dx. Deux possibilités :
0
Propriétés 1. ν = n − 1 si les effectifs théoriques peuvent être calculés sans estimation des paramètres
— E(X) de la population à l’aide des statistiques sur l’échantillon
√= n
— σ = 2n 2. ν = n − 1 − m si les effectifs espérés ne peuvent être calculés qu’à l’aide de l’estimation
par statistique d’échantillonage de m paramètres de la population
Mise en place du test de Khi-2 Réalisation du test : Il s’agit de vérifier, à partir d’un échantillon, si une variable obéit à la loi théo-
— Soit un caractère statistique réparti dans l’échantillon de n classes rique proposée. On formule deux hypothèses statistiques
1. On formule donc deux hypothèses statistiques : Le seuil de signification du test α étant fixé (en général le seuil de signification sera 5% ou 1%),
— H0 : La distribution observée est identique à la distribution théorique. on calcule les deux quantités :
— H1 : La distribution observée n’est pas identique à la distribution théorique
2. On utilise le test du Khi deux pour définir une règle de décision : χ2obs et χ2α
— accepter H0
— rejeter H0 et accepter l’hypothèse alternative H1 — Si χ2obs ≤ χ2α , on accepte H0 .
— Si, au contraire, la valeur obtenue χ2obs > χ2α , on rejette H0 et on accepte H1 .