Vous êtes sur la page 1sur 2

Généralités : — Probabilité composée : P (A ∩ B) = P (A) × PA (B)

— Événements indépendants : P (A ∩ B) = P (A)P (B),


— P (A ∪ B) = P (A) + P (B) − P (A ∩ B) P (A) 6= 0 P⇒n PA (B) = P (B)
— P (Ā) = 1 − P (A) — P (B) = P (B ∩ A)
Pn i=1
P (A∩B)
— Probabilité conditionnelle :PA (B) = P (A) = P (Ai ) × PAi (B)
i=1

Définitions de base : {xi , P (xi )} est appelée loi de probabilité de la variable aléatoire X.

Variable aléatoire : Rappelons que si à un ensemble de possibilités Ω, nous attachons un Variable aléatoire réelle discrète :
nombre X prenant les valeurs x1 , x2 , ..., xi , ...xn , lorsque se produit l’un des événements est définie sur Ω et est une application X :→ R avec X(Ω){x1 , ..., xn } fini ou dénombrable.
e1 , e2 , ..., ei , ..., en , on dit que X est une variable aléatoire.
Fonction de répartition :
Loi de probabilité : Cette variable X est définie lorsqu’on connaît les probabilité
P (x1 ), P (x2 ), ..., P (xn ) correspondant aux valeurs possibles de X. Ces probabilités sont obli-
n
R → [0; 1]
gatoirement telles que : P (x1 ) + P (x2 ) + ... + P (xi ) + ... + P (xn ) = 1. La correspondance F =
x  F (x) = P (X ≤ x)

Propriétés de F : 2. F est croissante


3. F est continue à droite en tout point x
1. F est positive 4. lim F (X) = 1 et lim F (X) = 0
X→+∞ X→−∞

Caractéristiques principales : Variance : Indique de quelle manière la variable aléatoire se disperse autour de sa moyenne.
Pn Une variance élevée indique que les valeurs sont très écartées les unes des autres et vice-versa.
Espérance : E(X) = xi P (xi ) Elle est nulle lorsque toutes les valeurs sont identiques. V (X) = E[(X − E(X))2 ] =
i=1
E(X 2 ) − (E(X))2

Propriétés : 3. E(λ) = λ
Variance :
Espérance :
1. ∀λ ∈ R, V (λX) = λ2 V (X)
1. E(X + Y ) = E(X) + E(Y ) p
2. ∀λ ∈ R, E(λX) = λE(X) 2. σ = V (X) l’écart type

Rx
Variable aléatoire continue : grable f telle que : ∀x ∈ R, F (x) = f (t)dt
−∞
1. Si les valeurs possibles de X sont réparties de façon continue sur un intervalle fini, ou
Propriétés de la densité de probabilité :
infini, X est une variable aléatoire continue. Dans ce cas, on ne considère plus la proba-
bilité que la variable prenne une valeur donnée mais que sa valeur soit comprise dans un 1. f est positive car F est croissante
intervalle donné. R +∞
2. f (t)dt = 1
2. On appelle fonction de prépartition d’une variable aléatoire continue X, la fonction F
définie sur R par F (x) = P (X ≤ x). Ses propriétés sont les même que celles du cas
R−∞
a
3. f (t)dt = P (X ≤ a) = F (a)
discret. −∞
0
3. La densité de probabilité d’une fonction de répartition continue F est une fonction inté- 4. F = f

Autres caractéristiques des VAC : Inégalité de Markov (X variable aléatoire continue positive, α > 0) :
Moment d’ordre k par rapport à l’origine :
E(X)
R +∞ P (X > α) ≤
mk = xk f (x)dx α
−∞
Inégalité de Bienaymé-Tchebychev (X variable aléatoire continue, densité f ) :
Moment centré d’ordre K :
V (X)
µk = E[(X − E(X))K ] ∀ε > 0; P ([|X − E(X)|] > ε) ≤ ε2

Loi de Bernoulli : 0) = 1 − p est appelée loi de Bernoulli notée B(p).


On appelle variable de Bernoulli ou variable indicatrice, la variable aléatoire X telle que Propriétés :
n 1. E(X) = p
Ω→R
X :
X(Ω) = {0; 1} 2. V (X) = p(1 − p)
p
La loi de probabilité associée à la variable de Bernoulli X telle que P (X = 1) = p et P (X = 3. σ(X) = p(1 − p)

Loi Binomiale : Propriétés :


Considérons une variable aléatoire X qui représente le nombre de succès dans un schéma de Ber-
noulli lors de la répétition de n épreuves identiques et indépendantes. Ainsi, la loi de probabilité 1. E(X) = np
suivie par la somme de n variables de Bernoulli où la probabilité aossciée au succès est p, est la loi 2. V (X) = np(1 − p)
binomiale de paramètre n et p, notée B(n, p).  p
k k n
De plus, ∀k = 0; 1; ...; n, P (X = k) = Cn p (1 − p)n−k où Cn
k
= k = n!
k!(n−k)!
. 3. σ(X) = np(1 − p)

Loi de Poisson : On dit qu’une variable aléatoire dénombrable X, à valeurs dans N suit une loi de Poisson de
C’est la loi qui considère les événements rares. Si la loi de Poisson décrit la probabilité qu’un événe- paramètre λ > 0
ment se produise durant un intervalle de temps donné, alors : k
⇔ ∀k ∈ N, P (X = k) = e−λ λk!
— La possibilité de réalisation d’un événement est très faible Propriétés :
— Le nombre d’essais est très grand

1. E(X) = λ 3. σ(X) = λ
2. V (X) = λ

X−m
Loi normale : Si x → N (m, σ) alors Y = σ → N (0, 1)
Propriétés de la loi normale :
Une variable aléatoire X suit une loi normale de paramètres m et σ si sa densité de probabilité 1. E(X) = m
est donnée par :
2. V (X) = σ 2
R +∞
R→R

3. f (t)dt = 1
(x−m)2 −∞
f : −
1 2σ 2 avec m ∈ R et σ ∈ R+
x  f (x) = √ e
R +∞ 1
R0 1
σ 2π ∗ 4. f (t)dt = 2 f (t)dt = 2
0 −∞
Ra
Loi normale centrée réduite : 5. P (X ≤ a) = F (a) = f (t)dt
−∞

Approximations et théorème de limite centrale : 1, tel que np(1 − p) > 10, on peut approcher la loi binomiale B(n, p) par la loi normale
p
N (λ) où m = np et σ = np(1 − p)
1. Théorème 1 (Approximation par loi de Poisson) : Pour n > 30, p ≤ 0, 1 tel que 3. Théorème central limite : Si un échantillon X1 , X2 , ..., Xn est tiré d’une loi quelconque
np(1 − p) ≤ 10, on peut approcher la loi binomiale B(n, p) par la loi de poisson de moyenne µ et d’écart-type σ et les Xi sont indépendantes, alors pour n suffisament
P(λ) où λ = np n
P √
grand, Xi peut être approché par la loi normale de paramètre nµ et σ n
2. Théorème 2 (Approximation par la loi normale) : Pour n ≥ 50 et p ni proche de 0 ni de
i=1

Statistiques à deux variables : Coefficient de corréliation linéaire :


Ajustements :
— À la règle : Tracer une droite D passant le plus près possible des points du nuage et d’en r= √
cov(x,y)
= √
cov(x,y)
trouver une équation du type y = ax + b cov(x,x)×cov(y,y) V (x)V (y)
cov(x,y)
— Moindres carrés : Obtenir une droite équidistante des points situés de part et d’autre d’elle- r = σx σy
même. Pour cela, on cherche à minimiser la somme des distances des points à la droite au
carré
Décomposition de la variance La variance se décompose ainsi :
Droite de régression :
On considère un nuage de n points de coordonnées (xi , yi ). La droite d’équation y = ax + b est
appelée droite de régression de y en x de la série statistique si et seulement si la quantité suivante var(y) = var(ŷ) + var(ê)
n
P n
P
est minimale : (Mi Qi )2 = (yi − (axi + b))2 . Avec :
i=1 i=1
Covariance : 1. var(y) la variance totale
On appelle covariance
Pn de la série statistique de deux
Pvariables x et y le nombre réel : 2. var(ŷ) la variance de y expliquée par le modèle
1 1 n
cov(x, y) = n (xi − x̄)(yi − ȳ) = n xi yi − x̄ȳ. De plus, cov(x, x) = V (x) 3. var(ê) la variance résiduelle non expliquée par le modèle
i=1 i=1
Propriété de la droite de régression de y en x : var(ŷ)
Pour juger la qualité d’ajustement du modèle aux données, on calcule r 2 = var(y)
. Ainsi,
cov(x,y) cov(x,y)
n
a= =
D = y = ax + b : V (x) cov(x,x)
var(ŷ) = r 2 var(y) et var(ê) = (1 − r 2 )var(y)
b vérifie ȳ = ax̄ + b

Test de Khi-2 : — Dans chaque classe, on observe un effectif Oi auquel correspond à un effectif théorique
Soient X1 , X2 , ...Xn , n variables qui suivent la loi normale centrée réduite, indépendantes. On Ni donné par la distribution de population que l’on cherche à tester
appelle loi de Khi-2 à ν = n degrés de liberté et on note χ2n la loi de la variable aléatoire — Important : On suppose que ∀i, Ni ≥ 5(effectifs théoriques)
X12 + X22 + .. + Xn 2
. Densité de probabilité : — Si cette condition n’est pas réalisée, la technique consiste à regrouper certaines modalités
(classes) afin d’augmenter la valeur des effectifs théoriques
La loi de χ2n a pour densité de probabilité :
Théorème :
 −x n
1
2n Γ( n )
e 2 x 2 −1 si x ≥ 0 n
fn : (Oi −Ni )2
P
2
0 sinon χ2obs = Ni à ν degrés de liberté
i=1
R∞
Avec Γ(a) xa−1 e−x dx. Deux possibilités :
0

Propriétés 1. ν = n − 1 si les effectifs théoriques peuvent être calculés sans estimation des paramètres
— E(X) de la population à l’aide des statistiques sur l’échantillon
√= n
— σ = 2n 2. ν = n − 1 − m si les effectifs espérés ne peuvent être calculés qu’à l’aide de l’estimation
par statistique d’échantillonage de m paramètres de la population
Mise en place du test de Khi-2 Réalisation du test : Il s’agit de vérifier, à partir d’un échantillon, si une variable obéit à la loi théo-
— Soit un caractère statistique réparti dans l’échantillon de n classes rique proposée. On formule deux hypothèses statistiques

1. On formule donc deux hypothèses statistiques : Le seuil de signification du test α étant fixé (en général le seuil de signification sera 5% ou 1%),
— H0 : La distribution observée est identique à la distribution théorique. on calcule les deux quantités :
— H1 : La distribution observée n’est pas identique à la distribution théorique
2. On utilise le test du Khi deux pour définir une règle de décision : χ2obs et χ2α
— accepter H0
— rejeter H0 et accepter l’hypothèse alternative H1 — Si χ2obs ≤ χ2α , on accepte H0 .
— Si, au contraire, la valeur obtenue χ2obs > χ2α , on rejette H0 et on accepte H1 .

Vous aimerez peut-être aussi