Vous êtes sur la page 1sur 8

Probabilité

1 Notions de base
La théorie des probabilités décrit le comportement de phénomènes dont le résul-
tat est soumis au hasard, ainsi elle permet de modéliser la fréquence de réalisation
d' évènements  aléatoires.

1.1 Quelques dénitions


Expérience aléatoire ε : expérience dont le résultat ne peut pas être déterminé
avec certitude a priori.
Univers de ε : ensemble des résultats possibles de ε . On le note Ω.
Résultat élémentaire de ε : résultat possible de ε. C'est un élément de Ω . On le
note ω .
Ensemble P(Ω) des parties de Ω : ensemble constitué de tous les sous-ensembles
(parties) de Ω.
Évènement (aléatoire) : une partie (sous-ensemble) de Ω.
assertion, qui peut ou non se réaliser suivant l'issue de ε.
Réalisation d'un événement : Soit A un évènement de Ω. Soitω le résultat de
l'expérience
A se réalise ⇒ ω ∈ A
Nb :
1- A = Ω se réalise toujours. On l'appelle évènement certain.
2- A = ∅ ne se réalise jamais. On l'appelle évènement impossible.
3- A = ω s'appelle événement élémentaire.

1.2 Calcule de probabilité


Dénition 1.1. Soit (Ω, A) un espace probabilisable. Une probabilité sur (Ω, A) est
une application P : A → [0, 1] satisfaisant les 3 axiomes suivants :

0 ≤ P(A) ≤ 1; ∀A ∈ A
P(Ω) = 1
Ai ) = Σi∈N P(Ai ), ∀(Ai ) ensemble dénombrable d'évènements disjoints.
[
P(
i∈N

Univers équiprobable
On dit qu'un univers Ω est équiprobable si tous les évènements élémentaires ont

1
la même probabilité d'être réalisés. Dans ce cas, pour tout évènement A on a : la
probabilité de l'évènement "A" notées P(A) est donnée par :
n nombre de cas favorable
P(A) = =
N nombre de cas possible

2 Variables aléatoires réelles (v.a.r)


Une variable aléatoire réelle est une variable aléatoire à valeurs dans R, ou une
partie de R ; c'est une fonction dénie depuis l'ensemble des résultats possibles d'une
expérience aléatoire, dont on doit pouvoir déterminer la probabilité qu'elle prenne
une valeur donnée ou un ensemble donné de valeurs. Les variables aléatoires réelles
sont les variables aléatoires les plus couramment étudiées, ce qui conduit certains
auteurs à omettre l'adjectif réel, et à parler de variable aléatoire tout court.
Les variables aléatoires sont très utilisées en théorie des probabilités et en sta-
tistiques. Dans les applications, les variables aléatoires sont utilisées pour modéliser
le résultat d'un mécanisme non-déterministe ou encore comme le résultat d'une
expérience non-déterministe qui génère un résultat aléatoire. En statistique mathé-
matique ou inférentielle, les variables aléatoires servent généralement à modéliser
des populations supposées innies.
1-Variables aléatoires réelles discrètes
Dénition 2.1. X prend ses valeur dans un ensemble E discret de valeurs réelles
(v.a.r.d.).
Loi Séquence des probabilités :
pX (x) = P(X = x), x ∈ E.
Propriétés :
0 ≤ pX (x) ≤ 1
Σx∈E pX (x) = 1
∀B ⊂ B, pX (B) = Σx∈B pX (x).
2-Variables aléatoires réelles continues
Dénition 2.2. X prend ses valeur dans un ensemble E continu de valeurs réelles
(v.a.r.c.).
Loi
∀x ∈ E =, P(X = x) = 0
par contre P(X ∈ [x, x + dx[) 6= 0
La loi de X est dénie via la fonction f de R dans R, appelé densité de probabilité :
f (x)dx = P(X ∈ [x, x + dx[)
Propriétés :
0 ≤ f (x)
Z
f (x)dx = 1
R Z
∀B ⊂ R, pX (B) = f (x)dx
B

2
2.1 Fonction de répartition de X
Dénition 2.3. On appelle fonction de répartition la fonction F dénie par
F : R → [0, 1]
x → P(X ≤ x)

Propriétés :
1- F (x) ∈ [0, 1].
2- F est une fonction croissante.
3- lim F (x) = 0, lim F (x) = 1
x→−∞ x→+∞
4- Pour une variable aléatoire discrète, F est une fonction en escaliers. Pour
une variable aléatoire continue, F est une fonction continue.
L'espérance mathématique d'une v.a.r.d de X est le nombre réel noté E(x) tel
que : X X
E(x) = xi p i = xi P(X = xi )
i i

L'espérance mathématique d'une v.a.r.c


Z
m = E(X) = xf (x)dx.
R

Propriétés de l'espérance : Soient X et Y deux variables indépendantes,


• E(X + Y ) = E(X) + E(Y )
• E(X + k) = E(X) + k, ∀k ∈ R
• E(kX) = kE(X), ∀k ∈ R
• E(aX + b) = aE(X) + b, car E(b) = b, a, b ∈ R
• E(XY ) = E(X)E(Y )
La variance : 2 2
p = E(X ) − E (X).
V (X)
écart-type : σ = V (X).
Priorités de la variance : Soient X et Y deux variables indépendantes,
• V (aX + b) = a2 V (X)
• V (X + Y ) = V (X) + V (Y ).
La covariance
Cov(X; Y ) = E((X − E(X))(Y − E(Y ))) = E(XY ) − E(X)E(Y ).

3 Les lois usuelles

3.1 les lois discrètes


Loi de Bernoulli :
La loi de Bernoulli est la loi d'une variable aléatoire discrète X qui prend la valeur
1 avec probabilité p et la valeur 0 avec probabilité 1-p. Elle est notée par B(p) :

P(X = 1) = p
P(X = 0) = 1 − p = q, avec p + q = 1.

3
L'espérance de X : E(X) = p
La variance de X : V (X) = pq = p(1 − p)

Loi Binomiale :
Soit la répartition de n épreuves indépendantes de Bernoulli de paramètres p. La loi
de la variable aléatoire X égale au nombre de succées dans la répartition de ces n
épreuves est dite binomiale. Elle est notée B(n, p) avec n le nombre d'expériance et
p la probabilité de réussite à chaque expérience :
P(X = k) = Cnk pk (1 − p)n−k , k = 1, ..., n.

L'espérance de X : E(X) = np
La variance de X : V (X) = npq, avec q = 1 − p.

Loi de poisson :
La loi de poisson est une loi qui décrit le comportement du nombre d'évènements
aléatoires et indépendants se produisant dans le même intervalle de temps ou d'es-
pace, (par exemple loi du nombre d'appels téléphonique epndant un intervalle de
temps). Elle est notée par P(λ) (λ constante positive) :
λk
P(X = k) = e−λ , k∈N
k!
L'espérance de X : E(X) = λ
La variance de X : V (X) = λ.

3.2 les lois continues


La loi normale :
La loi normale ou loi de Laplace-Gauss est la loi de probabilité des variables aléatoires
continues dépendantes d'un grand nombre de causes indépendantes et additives. Elle
est notée par N (m, σ). La densité de probabilité de la loi normale est donnée par :
Z b
1 1 x−m 2
f (x) = √ exp− 2 ( σ
)
dx.
σ 2π a

La courbe de cette densité est appellée courbe de Gauss.


L'espérance de la loi normale : E(X) = m
La variance de X : V (X) = σ .

Remarque"Approximation d'une loi binomiale par une loi normale".


Lorsque n est assez grang (n>30), la loi normale fournit une meilleure approxima-
tion à la loi binomiale.

Loi normale centrée réduite :


La loi normale de moyenne nulle et d'écart-type égale à 1 est appellée loi normale
centrée réduite N (0, 1). La densité de probabilité est donnée par :
1 1 2
f (x) = √ exp− 2 x dx.
σ 2π
Propriété :

4
• Si X ∼ N (m, σ), alors T = X−m
σ
∼ N (0, 1)
• f est une fonction paire ; (f(-x)=f(x)) et −∞ f (x) = 1
R +∞

• P(X = a) = 0
• P(X < a) = P(x ≤ a)
• P(X > a) = 1 − P(X ≤ a)
• P(X ≤ −a) = P(X ≥ a) = 1 − P(X < a); (F (−a) = 1 − F (a))
• P(a ≤ X < b) = P(X < b) − P(X ≤ a)
• P(|X| ≤ a) = P(−a ≤ X ≤ a) = 2P(X ≤ a) − 1.

Table de la loi N (0, 1) :


Soit Z une variable aléatoire normale centrée réduite. An de calculer des pro-
babilité de type
P(X > a), P(X < a), P(|X| > a), P(a < X < b) quand X suit une loi normale
N (m, σ), on doit suivre les étapes suivantes :

Etape1 : Réexprimer les probabilités qu'on veut calculer avec la v.a centrée
réduite Z = X−m
σ
.

Etape2 : En utilisant les propriétés citées ci-dessus, on se ramene à des proba-


bilités du type P(Z ≤ a).

Etape3 : Utiliser la table de la loi normale standard N (0, 1).

5
Remarque : Soit X ∼ N (0, 1), P(X ≥ 0) = P(X ≤ 0) = 21 ,

6
puisque elles sont égales à la moitié de l'aire totale de la courbe gaussienne, qui est
égale à 1.
On en déduit,
1 1
P(X ≤ x) > ⇐⇒ x > 0, ou P(X ≤ x) < ⇐⇒ x < 0,
2 2
1 1
P(X ≥ x) > ⇐⇒ x < 0, ou P(X ≥ x) < ⇐⇒ x > 0.
2 2
Exemple.

1. Soit X une variable aléatoire de loi normale N (0, 1).


a. Calculer : P(X > 0.52),
b. Déterminer la valeur de x tel que : P(X < x) = 0.2577.
2. Soit X une variable aléatoire de Laplace-Gauss de moyenne m = 400 et
d'écart-type σ = 15.4, déterminer la valeur de x tel que :
P(X < x) = 0.67.

Solution.
1. a. P(X > 0.52) = 1 − P(X < 0.52) = 1 − 0.6985 = 0.3015.
b. Trouver x pour que P(X < x) = 0.2577. Puisque 0.2577<0.5, on a x<0,
donc,
P(X < x) = φ(x) = 1 − φ(−x) = 0.2577,
et φ(−x) = 1 − 0.2577 = 0.7422 = φ(0.65). Alors −x = 0.65 ou x = −0.65.

2. Soit Z une variable aléatoire réduite :


X − 400 x − 400
Z= ⇒ z=
15.4 15.4
On a P(X < x) = P(Z < z) = 0.67, de la table, 0.67 = φ(0.44), alors z = 0.44,
x − 400
d'où z = ⇒ x = 15.4z + 400 = 15.4 × 0.44 + 400 = 406.776.
15.4

La loi de Khi-deux :
La loi de Pearson ou loi de Khi-deux trouve de nombreuses appliquations dans le
cadre de la comparaison de proportions, des tests de conformité d'une distribution
observée à une distribution théorique et le test d'indépendance de deux caractères
qualitatifs. ce sont les tests du Khi-deux.
Soient X1 , ..., Xn n variables aléatoires centrées réduites, la variable aléatoire dénie
par :
n
X
T = X12 , ..., Xn2 = Xi2 .
i=1

suit une loi de à n degrés de liberté (d.d.l).


Xn2
L'espérance de T : E(T ) = n
La variance de T : V (T ) = 2n.

7
Loi de Student :
Soient X et Y deux variables aléatoires indépendantes telles que X ∼ N (0, 1) et
Y ∼ Xn2 . La variable aléatoire :
X
T =p
Y /n
suit la loi de Student à n degré de liberté.
L'espérance de la loi de Student : E(T ) = 0
La variance de la loi de student : V (T ) = n−2
n
, n > 2.
loi de Fisher-Snédécor Soient Y1 et Y2 deux variables aléatoires indépendantes

telles que Y1 x2n 1 et Y2 x2n 2. la variable aléatoire

Y1 /n1
Z=
Y2 /n2

suit la loi de Fisher-Snédécor à n1 et n2 degrés de liberté, notée F(n1 , n2 ).


L'espérance de la variable de Fisher-Snédécor Z : E(Z) = n2n−1 2
, n2 > 2
La variance de la variable de Fisher-Snédécor Z : V (Z) = ( n2 −2 ) n1 (n2 −4) ,n2 > 4
n2 2 2(n1 +n2 −2)

Vous aimerez peut-être aussi