Académique Documents
Professionnel Documents
Culture Documents
Probabilités et Statistiques
Ce cours est une suite naturelle du cours d’introduction aux probabilités et sert de truchement par
lequel passent un bon nombre des applications des probabilités. Il présente une introduction aux notions
de base de la statistique ainsi que certaines des techniques statistiques les plus fréquemment utilisées. Il
devrait permettre à l’étudiant d’apprécier l’apport du raisonnement statistique dans les sciences
physiques, biologiques et sociales. Plus concrètement, l’étudiant devrait, à la fin du cours, être apte à
modéliser des expériences aléatoires, et à appliquer les modèles qui sont à sa portée.
Pour les commentaires, corrections et suggestions (fort appréciées) merci d’utiliser l’adresse
électronique : yousri.henchiri@isamm.uma.tn
1
1 Probabilités élémentaires
Initialement, la théorie des probabilités s’est développée pour répondre à des questions sou-
levées par des questions relatives aux jeux de hasard. C’est Pierre de Laplace et Karl Friedrich
Gauss qui ont introduit les bases des probabilités à d’autres applications et phénomènes.
Dans ce chapitre, nous commencerons par une introduction au concept de probabilité d’un
événement puis nous montrons comment ces probabilités peuvent être calculées dans certaines
situations. Cependant, nous aurons au préalable besoin des concepts d’ensemble fondamental et
d’événement d’une expérience.
Exemple : nous supposons qu’une population animale est composée a part égale d’individus
des deux sexes (F : Femelle, M : Mâle). Nous considérons l’épreuve suivante : extraire trois
individus de cette population.
• Événements :
Quelques événements particuliers :
? ∅ est l’événement impossible et Ω est l’événement certain.
? Ā Ac est l’événement complémentaire (ou contraire) de A. C’est l’événement qui
se réalise si A ne l’est pas. Autrement dit, Ā = {x : x ∈ Ω mais x ∈
/ A}.
2
Figure 2 – Représentation de l’union de deux ensembles.
Exemple : Soient Ω = {1, 3, 5, 7, 9, 11, 13}, A = {1, 5, 7}, B = {1, 5, 7, 11, 13},
C = {3, 5, 7, 9} et D = {11, 13}. Nous avons,
. L’événement Ac = {3, 9, 11, 13}.
. L’événement A implique l’événement B.
. A ∪ B = {1, 5, 7, 11, 13}.
. B ∪ C = Ω.
. C et D sont deux événements mutuellement exclusifs.
Classes particulières d’événements :
Considérons une suite E1 , E2 , . . . , Em de sous-ensembles non vides de Ω et disjoints
deux à deux, c-à-d
Ei ∩ Ej = ∅, i 6= j, i, j = 1, . . . , m.
et supposons que E1 ∪ E2 ∪ . . . ∪ Em = Ω, nous définissons dans ce cas une classe d’évé-
nements mutuellement exclusifs et exhaustifs et constitue une partition de l’ensemble
fondamental Ω. Une telle classe est encore appelée un système complet (ou exhaustif )
d’événements.
Exemple : Soit Ω = {1, 2, 4, 5, . . . , 10} l’ensemble des résultats d’un test scientifique. Ω
est composé de 10 événements élémentaires {i} (i de 1 à 10). Ces événements consti-
3
tuent une partition de Ω.
Cette probabilité, fondée sur l’expérience, est appelée probabilité empirique. Sa valeur est com-
prise entre 0 et 1, c’est à dire entre l’événement impossible et l’événement certain. Néanmoins,
cette notion de probabilité élimine tout le champ des probabilités a priori ou l’on assigne un degré
de probabilité à un événement avant d’exécuter l’expérience.
Plus généralement, considérons une expérience pouvant donner lieu à un résultat quelconque
parmi N résultats possibles. Supposons que n résultats soient favorables à la réalisation d’un
événement particulier E. La probabilité de l’événement E est le rapport de cas favorables à la
réalisation de cet événement au nombre de cas possibles :
Card(E) n
P(E) = = .
Card(Ω) N
Exemple : Pour tester un vaccin V , nous disposons de 10 volontaires, 3 d’entre eux appar-
tiennent à la même famille. Deux personnes sont tirées au hasard. Quelle est la probabilité que
deux personnes tirées soient de la même famille (l’événement est noté par F ) ?
3
Card(F ) 2 3 1
P(F ) = = 10 = = ,
Card(Ω) 2
45 15
3 3! 10 10!
où 2 = 2!1! = 3 et 2 = 2!8! = 45.
1.2.2 Propriétés
• P(Ā) = 1 − P(A).
preuve : Ω = A ∪ Ā, d’après l’axiome (3). P(A ∪ Ā) = P(A) + P(Ā) = P(Ω) = 1 d’après
l’axiome (2). Donc P(Ā) = 1 − P(A).
4
• P(∅) = 0.
preuve : Ω = Ω ∪ ∅, d’après l’axiome (3). P(Ω ∪ ∅) = P(Ω) + P(∅) = 1 = P(Ω) d’après
l’axiome (2). Donc P(∅) = 0.
B = A ∪ (Ac ∩ B),
ou encore
P(Ac ∩ B) = P(B) − P(A ∩ B).
Donc,
P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
• Axiome des probabilités composées : Soient E1 et E2 , deux résultats possibles d’une même
expérience aléatoire, on suppose que E1 et E2 sont compatibles (E1 ∩ E2 6= ∅). Si l’obtention
de E1 ne modifie pas la probabilité d’obtention de E2 , on peut écrire :
5
Définition 1.1. Soient E et F deux évènements. On dit que E et F sont indépendants si seulement
si
P(E ∩ F ) = P(E) P(F ).
Il est équivalent de dire que, si les deux événements sont disjoints,
P(E | F ) = P(F | E) = 0.
On écrit alors E ⊥
⊥ F.
Remarque 1.2. Indépendance et intersection vide n’ont rien à voir ! ! ! Deux évènement disjoints
sont nécessairement dépendants . . .
Remarque 1.3. Si la réalisation ou la non réalisation de E1 n’affecte pas E2 , alors
P(E2 | E1 ) = P(E2 ).
∪ni=1 Bi = Ω.
A = A ∩ Ω = A ∩ (B1 ∪ B2 ∪ . . . ∪ Bn ) = ∪ni=1 A ∩ Bi
Cette relation est souvent nommée la loi de probabilité totale et montre que sachant B1 , B2 , . . . , Bn
sont des événements dont un seul peut se réaliser, nous pouvons calculer P(A) en commençant par
conditionner selon les Bi .
6
Exemple : Un laboratoire a mis au point un alcootest. Nous savons que 2% des personnes
contrôlées par la police sont réellement en état d’ébriété. Les premiers essais ont conduit aux
résultats suivants :
• lorsqu’une personne est réellement en état d’ébriété, 95 fois sur 100 l’alcootest se révèle
positif,
• lorsqu’une personne n’est pas en état d’ébriété, 96 fois sur 100 l’alcootest se révèle négatif.
Quelle est la probabilité pour qu’une personne soit réellement en état d’ébriété lorsque l’alcoo-
test est positif ?
Solution : Appelons
et
A = "l’alcootest est positif".
Les indications fournies peuvent s’écrire :
et nous cherchons à calculer P(E | A). D’après la formule de Bayes, nous avons :
P(A) P(A | E)
P(E | A) =
P(E) P(A | E) + P(Ē) P(A | Ē)
0.02 × 0.95
= = 0.3265
0.02 × 0.95 + 0.98 × 0.04
Exemple : Dans un élevage de moutons, nous estimons que 30% sont atteints par une certaine
maladie. Nous disposons d’un test pour cette maladie. Si un mouton n’est pas atteint, il a 9
chances sur 10 d’avoir une réaction négative au test ; s’il est atteint, il a 8 chances sur 10 d’avoir
une réaction positive. Nous soumettons tous les moutons de l’élevage au test.
(a) Quelle est la probabilité qu’un mouton de cet élevage ne soit pas malade ?
(b) Quelle est la probabilité conditionnelle qu’un mouton ait une réaction positive au test sachant
qu’il n’est pas malade ?
(c) Quelle est la probabilité qu’un mouton ne soit pas malade et ait une réaction positive au test ?
(d) Quelle proportion des moutons de l’élevage réagit positivement au test ?
(e) Quelle est la probabilité qu’un mouton soit malade, sachant qu’il a réagi positivement ?
(f) Quelle est la probabilité qu’un mouton ne soit pas malade, sachant qu’il a réagi négativement ?
Solution : Pour tout l’exercice, nous notons M l’événement "le mouton est malade" et T
l’événement "le mouton a une réaction positive au test". L’énoncé donne :
(a)
P(M̄ ) = 1 − P(M ) = 1 − 0.3 = 0.7.
(b)
P(T | M̄ ) = 1 − P(T̄ | M̄ ) = 1 − 0.9 = 0.1.
(c)
P(T ∩ M̄ ) = P(T | M̄ ) P(M̄ ) = 0.1 × 0.7 = 0.07.
7
(d) Nous pouvons utiliser la formule des probabilités totales ou raisonner directement, en distin-
guant, parmi les moutons ayant réagi positivement, ceux qui sont malades de ceux qui ne le
sont pas.
(e) Nous pouvons utiliser directement la formule de Bayes ou bien la retrouver comme suit.
P(T ∩ M )
P(M | T ) =
P(T )
P(T | M ) P(M )
=
P(T | M ) P(M ) + P(T | M̄ ) P(M̄ )
0.8 × 0.3
= ' 0.774.
0.8 × 0.3 + 0.1 × 0.7
(f) Nous pouvons utiliser directement la formule de Bayes ou bien la retrouver comme suit.
P(T̄ ∩ M̄ )
P(M̄ | T̄ ) =
P(T̄ )
P(T̄ | M̄ ) P(M̄ )
=
P(T̄ | M̄ ) P(M̄ ) + P(T̄ | M ) P(M )
0.9 × 0.7
= ' 0.913.
0.9 × 0.7 + 0.2 × 0.3
Elle est dite discontinue ou discrète si elle varie elle-même de façon discontinue. Pour plusieurs
répétitions d’une même expérience (par exemple plusieurs jets d’une même pièce de monnaie), le
nombre de réalisations d’un événement aléatoire associé à ces expériences (par exemple le nombre
de "face") est une variable aléatoire discontinue.
Considérons d’autre part une variable aléatoire susceptible de prendre n’importe quelle valeur
réelle appartenant à un intervalle donné. Cet intervalle peut être (−∞, +∞). Une telle variable
aléatoire est dite continue. Le poids d’un individu prélevé au hasard dans une population donnée
est une variable aléatoire continue ne pouvant prendre que des valeurs positives.
Les variables aléatoires sont notées par des lettres majuscules (X, Y, Z, . . .) pour les distinguer
des variables déterministes (x, y, z, . . .)
Définition 1.4. Une variable aléatoire X sur (Ω, A ) est une fonction
X:Ω→R
8
Quelques notations utiles
• {w : X(w) = a} se note X = a,
• {w : X(w) 6 a} se note X 6 a,
• {w : a 6 X(w) 6 b} se note a 6 X 6 b,
• On écrit P({X(w) = a}) = P(X = a)
P({X 6 b}) = P({X 6 a}) + P({a < X 6 b}) ⇒ P(a < X 6 b) = FX (b) − FX (a.)
Preuve :
1
P(X < b) = P( lim {X 6 b −})
n→∞ n
1
= lim P({X 6 b − })
n→∞ n
1
= lim FX (b − ).
n→∞ n
Exemple : Nous considérons la fonction de répartition suivante :
0, si x < 0,
x/2, si 0 6 x < 1,
FX (x) = 2/3, si 1 6 x < 2,
11/12, si 2 6 x < 3,
1, si 3 6 x.
Solution :
(a) P(X < 3) = limn→+∞ FX (3 − n1 ) = limn→+∞ 11
12 = 11
12 .
9
(b) P(X < 1) = P(X 6 1) − P(X = 1).
1
lim FX (1 − ) = FX (1) − P(X = 1)
n→+∞ n
1 2
⇔ = − P(X = 1)
2 3
2 1 1
⇔ P(X = 1) = − = .
3 2 6
(c)
1 1
P(X > ) = 1 − P(X 6 )
2 2
1 1 3
= 1 − FX ( ) = 1 − = .
2 4 4
Soit X une variable aléatoire discrète dont les valeurs sont x1 , x2 , . . . , xn . On pose
pX (xi ) = P(X = xi ), i = 1, 2, . . . , n,
Exemple : Une urne contient 20 boules numérotées de 1 à 20. On pige 5 boules au hasard,
sans remise. Calculer la probabilité qu’au moins une boule soit supérieure à 14.
Densité de probabilité
10
ecdf(x)
1.0
0.8
0.6
Fn(x)
0.4
0.2
0.0
-2 -1 0 1 2
La densité joue la même rôle qui la joue la fonction de probabilité de masse dans le cadre
discret.
Pour résumer, une densité de probabilité est une fonction qui vérifie :
? ∀x, fX (x) > 0,
R R +∞
? R fX (t)dt = −∞ fX (t) dt = 1.
11
0.20
0.15
0.10
f(x)
0.05
0.00
4 6 8 10 12 14 16
0.4
0.2
0.0
4 6 8 10 12 14 16
12
La variance de la variable X est le moment centré d’ordre 2 de X, soit
n
X n
X n
X 2
2 2
V ar(X) = E((X − m) ) = (xi − m) pX (xi ) = x2i pX (xi ) − xi pX (xi ) .
i=1 i=1 i=1
Exemple : Soit X une variable aléatoire qui prend les valeurs 1, 2, . . . , n avec pX (xi ) = 1/n,
i = 1, . . . , n. Calculer E(X) et V ar(X).
Solution :
n(n + 1)/2 n+1
E(X) = (1/n)(1 + 2 + . . . + n) = = .
n 2
2n2 + 6n − 1
E(X 2 ) = .
6
2 n2 − 1
V ar(X) = E(X 2 ) − E(X) = .
12
Solution :
+∞ b
1 h x2 i b
Z Z
x a+b
E(X) = xfX (x)dx = dx = = .
−∞ a b−a b−a 2 a 2
+∞ b
x2 b3 − a3
Z Z
2 2
E(X ) = x fX (x)dx = dx = .
−∞ a b−a 3(b − a)
2 (b − a)2
V ar(X) = E(X 2 ) − E(X) = .
12
Exemples :
Exemple : Une urne contient 11 boules, dont 3 blanches, 3 rouges et 5 bleues. Vous pigez 3
boules sans remise. Vous gagnez 1$ pour chaque boule rouge choisie et vous perdez 1$ pour chaque
13
boule blanche choisir. Combien espérez-vous gagner d’argent à ce jeu ?
Le montant que l’on peut espérer gagner est la moyenne des valeurs de X pondérée par la
X 3
fonction de E(X) = xpX (x) = 0, par symétrie de la fonction de masse autour de 0, et donc
x=−3
le jeu est parfaitement équitable ici.
· Déterminer c.
· Déterminer P(1 6 X 6 2).
· Déterminer E(X), V ar(X).
Solution :
· f est une densité de probabilité alors
Z +∞ Z 4
fX (x)dx = 1 ⇔ fX (x)dx = 1
−∞ 0
Z 4
⇔ c x dx = 1
0
Z 4
⇔ c xdx = 1
0
2
x 4
⇔ c[ ] = 1.
2 0
1
donc c= .
8
R2 3
· P(1 6 X 6 2) = 1 f (x)dx = 16 .
R +∞ 1 4 2
· E(X) = −∞ xfX (x)dx = 8 0 x dx = 38 .
R
R4 3 h 4 i4
· E(X 2 ) = 0 x8 dx = 18 x4 = 8.
0
2 2
· V ar(X) = E(X 2 ) − E(X) = 8 − 83 = 89 .
14
Exemple : Nous supposons X admet une densité de probabilité
3 x2 , si 0 6 x 6 1,
fX (x) =
0, sinon.
Calculer la densité de fY (y) où Y = 1 − X 4 .
Solution :
FY (y) = P(Y 6 y) = P(1 − X 4 6 y)
= P(1 − y 6 X 4 )
= P((1 − y)1/4 6 X)
Z 1
= 3x2 dx
(1−y)1/4
h x3 i1
= 3 .
3 (1−y)1/4
dFY (y) 3 1 3 1
fY (y) = = 1/4
1(y ∈ (0, 1)) = 1(0,1) (y).
dx 4 (1 − y) 4 (1 − y)1/4
Solution : On
FY (y) = P(Y 6 y) = P(2X 6 y) = P(X 6 y/2) = FX (y/2).
1
fX (y/2).
fY (y) =
2
Exemple : Soit la densité de probabilité de X est donnée par
1, si 0 6 x 6 1,
fX (x) =
0, sinon.
Trouver E(exp(X)).
15