Académique Documents
Professionnel Documents
Culture Documents
ESSAÂDI
ÉCOLE NATIONALE DES SCIENCES
APPLIQUÉES AL-HOCEIMA
Discipline : Mathématiques
Cours de
Présenté par
2
Introduction
La théorie (ou le calcul) des probabilités est une branche des mathématiques qui permet
de modéliser les phénomènes où le hasard intervient (initialement développée à propos des
jeux de hasard, puis progressivement étendue à l’ensemble des sciences expérimentales, dont la
physique, la biologie, économie, géographie, sciences humaines, etc...).
Cette théorie permet de construire des modèles de ces phènomènes et permet le calcul : c’est à
partir d’un modèle probabiliste d’un jeu de hasard comme le jeu de dés que l’on peut prédire
les fréquences d’apparition d’événements comme le nombre de fois que l’on obtient une valeur
paire en jetant un dé un grand nombre. Les éléments de calcul des probabiltés indispensables
à la compréhension des statistiques seront traités dans la première partie du cours.
Le scientifique est capable, en utisant les mathématiques, de prédire le comportemet d’un
modèle donné (c’est par exemple une ≪ loi≫ de la physique) : c’est la démarche déductive.
A l’inverse, observant des faits expérimentaux il va tenter de dégager des propriétés générales
du phénomène observé qu’il va en général représenter sous forme d’un modèle (toutes les lois
de la physique et de la chimie sont des modèles mathèmatques les plus généraux possibles des
faits expérimentaux) : c’est la construction inductive de la théorie. Cette démarche générale va
plus loin car le modèle permet de prédire des expériences non réalisées. Si les prédictions ainsi
réalisées sont contradictoires avec les résultats expérimentaux alors on pourra avec certitude
réfuter le modèle (on dit aussi qu’on l’a falsifié) ; dans le cas contraire on garde le modèle mais
on n’est pas certain qu’il soit ≪ vrai≫. Autrement dit, à l’issue d’un tel test on ne peut avoir
de certitude que si on a trouvé des éléments permettant de réfuter le modèle. Nous verrons dans
la suite que cette approche se transpose exatement dans la démarche statistique, en particulier
dans le domaine de tests.
Nous reviendrons sur cette méthode permettant d’obtenir un échantillon représentatif de la
population étudiée. Cela consiste à sélectionner les individus sur la base d’un tirage analogue
à celui qui consiste à tirer des noms dans une urne qui contiendrait tous les noms possibles.
Le terme statistique désigne à la fois un ensemble de données d’observations, et l’activité
qui consiste en leur receuil, leur traitement et leur interprétation. les termes statistiques, ou
statistique englobent ainsi plusieurs notions distinctes.
1. D’une part le recensement de grandeurs d’intérêt comme le nombre d’habitants d’un
pays, le revenu moyen par habitant, le nombre de séropositfs dans une population.
Nous voyons que la notion fondamentale qui se dégage de cette énumération est celle
de Population. Une population est un ensemble d’objets, d’êtres vivants ou d’objets
abstraits (ensemble des mains de 5 cartes distribuées au bridge...) de même nature.
3. A ces deux acceptions du terme statistique il faut ajouter le terme statistique qui définit
toute grandeur calculée à partir d’observations. Ce peut être la plus grande valeur de la
série statistique d’intérêt, la différence entre la plus grande et la plus petite, la valeur
de la moyenne arithmétique de ces valeurs, etc.
On appelle P un ensemble généralement très grand d’invidus ou d’objets de même nature.
Tous les étudiants du Maroc constituent une population, de même que l’ensemble des résultats
3
possibles du tirage du loto. Une population peut donc être réelle ou fictive.
Il est le plus souvent imposssible, ou trop coûteux, d’étudier l’ensemble des individus consti-
tuant une population ; on travaille alors sur une partie de la population que l’on appelle échan-
tillon. Cet échantillon, s’il est convenablement choisi, permettra l’étude de la variabilité des
caractéristiques d’intérêt de la population. On dira qu’on a extrait un échantillon représenta-
tif. Si par exemple on souhaite déterminer les caractéristiques ≪ moyennes≫ du poids et de
la taille des prématurés masculins on tirera au hasard un certain nombre de sujets parmi les
naissances de prématurés de l’année.
Chaque individu, ou unité statistique, appartenant à une population est décrit par un
ensemble de caractéristiques appelées variables ou caractères. Ces variables peuvent être quan-
titatives (numériques) ou qualitatives (non numériques) :
Quantitatives (numériques)
Pouvant être classées en variables continues (taille, poids) ou discrètes (nombre d’enfants dans
une famille).
Qualitatives (non numériques)
Pouvant être classées en variables catégorielles (couleurs des yeux) ou ordinales (intensité d’une
douleur classé en nulle, faible, moyenne, importante).
4
Chapitre 1
Notions élémentaires du calcul des probabilités
Propriété 1.1.1
1- Si A et B sont des ensembles finis, l’ensemble des parties de A, P(A) et le produit cartésien
A × B sont des ensembles finis, de cardinal respectifs :
cardP(A) = 2card(A)
Remarque 1.1.1
Le cardinal de la réunion de deux sous-ensembles disjoints est la somme des cardinaux :
A ∩ B = ∅ =⇒ card(A ∪ B) = card(A) + card(B) .
5
Définition 1.1.2 - Fonction caractéristique
La fonction caractéristique d’un sous ensemble A d’un ensemble Ω est la fonction 1A définie
par :
1 si ω ∈ A
∀ω ∈ Ω, 1A (ω) =
0 sinon .
Propriété 1.1.2
1- La fonction caractéristique de l’intersection de deux sous ensembles A et B d’un ensemble
Ω est le produit des fonctions caractéristiques :
1A (ω) = 1 − 1A (ω).
6
Remarque 1.1.2
La formule du crible peut s’écrire sous forme dévelopée :
— lorsque n = 2 :
card(A ∪ B) = card(A) + card(B) − card(A ∩ B)
— lorsque n = 3 :
card(A ∪ B ∪ C) = card(A) + card(B) + card(C)
− card(A ∩ B) − card(A ∩ C) − card(B ∩ C) + card(A ∩ B ∩ C)
— En général :
n
[ X n X
card Ai = (cardAi ) − card(Ai ∩ Aj )
i=1 i=1 1≤i<j≤n
X \
+ ... + (−1)k+1 card Aij
1≤i1 <i2 <...<ik ≤n 1≤j≤n
\
+ ... + (−1)n+1 card Ai
1≤i≤n
n
X X \
= (−1)k+1 card Aij
k=1 1≤i1 <i2 <...<ik ≤n 1≤j≤n
7
Exemple 2
Exemple 3
Dans l’expérience N°4 de l’exemple 2 :
A = {(1, 2)} est un événement simple.
B = {(1, 2); (1, 4); (5, 3)} est un événement composé.
C = {la somme des points obtenus est égale à 4}. Il est clair que C = {(1, 3); (2, 2); (3, 1)} est
un événement composé.
1.2 Dénombrement :
1.2.1 Permutations d’un ensemble fini
Définition 1.2.1 - Permutation
Une permutation d’un ensemble fini Ω est une bijection de Ω dans Ω.
Démonstration :
Une permutation σ d’un ensemble à n éléments ωi , numérotés de 1 à n est caractérisée par les
images successives de ses éléments :
1- Il y a n possibiltés pour l’image de ω1 ,
2- une fois fixée l’image de ω1 , il y a n − 1 possibiltés pour l’image de ω2 ,
3- puis n − 2 possibiltés pour celle de ω3 , et ainsi de suite.
8
Le nombre total de possibiltés est donc n × (n − 1) × ... × 1.
Exemple 4
Le nombre de façons de trier un jeu de 32 cartes est le nombre de permutations d’un ensemble
à 32 éléments, c’est à dire 32!
Démonstration :
Ap (Ω) = Ωp = |Ω × Ω {z
× ... × Ω}
pf ois
Donc card(Ap (Ω)) = card(Ω) × card(Ω) × ... × card(Ω) = np
Exemple 5
Une urne contient 10 boules numérotées de 1 à 10. On effectue 5 tirages successifs avec remise
et on note les numéros obtenus. Le nombre totale de tirages possibles est le nombre de 5-listes
à valeur dans {1, 2, ..., 10}, c’est à dire 105 .
9
Démonstration :
Lorsqu’on réalise un tirage sans répétition, on a n choix possibles pour le premier tirage, n − 1
choix possibles pour le deuxième tirage et ainsi de suite, soit :
n!
Si p ≤ n, on en déduit Apn = .
(n − p)!
Si p ≥ n + 1, l’un des termes du produit est nul, donc Apn = 0.
Exemple 6
20 athlètes s’affrontent lors d’une compétition. On suppose qu’il ne peut pas y avoir d’ex-aquo.
Le nombre de podiums possibles est le nombre de 3-listes sans répétition dans l’ensemble des
20 athlètes : il y a donc A320 podiums possibles.
10
Exemple 7
L’ensemble des parties de Ω est une tribu de Ω. C’est la plus grande tribu que l’on peut
construire sur Ω.
Considérons l’experience aléatoire qui consiste à tirer au hasard un objet sur une ligne de
conditionnement sur laquelle circulent trois types d’objets différents : a, b, c.
L’univers associé à cette experience est Ω = {a, b, c} et l’ensemble des parties de Ω, P(Ω) =
{∅, {a}, {b}, {c}, {a, b}, {a, c}, {b, c}, Ω} est une tribu de Ω.
Exemple 8
Si A ⊂ Ω, alors {∅, Ω, A, A} est une tribu de Ω.
Dans de nombreuses applications, Ω est R. Dans ce cas, nous ne choisissons pas l’ensemble
des parties de Ω = R comme tribu. En effet, cet ensemble de parties est beaucoup trop grand
pour y définir une probabilité P. On utilisera la tribu B(R) des boréliens de R, c’est à dire la
plus petite tribu contenant tous les intervalles de R. Cette tribu est déjà grande et largement
suffisante pour les applications pratiques.
Propriété 1.3.1
Soit (Ω, T , P) un espace probabilisé.
1- ∀A ∈ T , P(A) = 1 − P(A)
2- P(∅) = 0
3- ∀(A, B) ∈ T 2
a. A ⊂ B =⇒ P(A) ≤ P(B).
D’où ∀A ∈ T , 0 ≤ P(A) ≤ 1.
b. P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
+∞
[ X +∞
4- ∀(An )n∈N∗ ⊂ T on a , P An ≤ P(An ) .
n=1 n=1
Démonstration :
1- A et A forment une réunion disjointe : A ∪ A = Ω donc P(A) + P(A) = 1.
2- ∅ = Ω donc P(∅) = 1 − P(Ω) = 0.
11
3- a. Soit A ⊂ B. Alors on a la réunion disjointe B = A ∪ (B ∩ A)
donc P(B) = P(A) + P(B ∩ A).
Comme P(B ∩ A) ≥ 0, on a P(A) ≤ P(B).
En prenant B = Ω, on obtient l’encadrement voulu.
b. D’une part A ∪ B = A ∪ (B ∩ A) donc P(A ∪ B) = P(A) + P(B ∩ A).
D’autre part B = B ∩ Ω = B ∩ (A ∪ A) = (B ∩ A) ∪ (B ∩ A)
Donc P(B) = P(A ∩ B) + P(A ∩ B), d’où le résultat.
Définition 1.3.4
On dit qu’il y a équiprobabilté des événements si :
∀(i, j) ∈ {1, ..., n}2 , P(Ei ) = P(Ej ).
Proposition 1.3.1
1- S’il y a l’équiprobabilité des événements élémentaires, alors
1
∀i ∈ {1, ..., n}, P(Ei ) = où n = card(Ω′ ).
n m
[ card(A) m
2- Si A est un événement composé : A = Ei , alors P(A) = = .
i=1
card(Ω) n
Démonstrationn : n
[ X 1
1- P(Ω) = P Ei = P(Ei ) = nP(E1 ) donc P(E1 ) =
i=1 i=1
n
m m
[ X m
2- P(A) = P Ei = P(Ei ) = .
i=1 i=1
n
m card(A)
Alors pour un événement A de cardinal m : P(A) = = .
n card(Ω)
Exemple 9
Si Ω = {ω1 , ..., ωn } est fini, les ωi étant distincts deux à deux, la probabilité uniforme sur Ω est
1
définie en posant P({wi }) = pi = .
n
Exemple 10
On jette deux dés de couleurs différentes. On note i le résultat du premier dé et j du second
dé.
On a donc Ω = {(i, j)/1 ≤ i ≤ 6; 1 ≤ j ≤ 6} et Card(Ω) = 36.
1 1
On munit l’ensemble Ω de la probabilité uniforme, P({(i, j)}) = = .
Card(Ω) 36
On s’intéresse à la probabilité de la somme i + j des deux dés.
Soit l’événement Ak = {(i, j) ∈ Ω; i + j = k}; k ∈ {2, 3, ...12}
1
P({A2 }) = P({(1, 1)}) =
36
2 1
P({A3 }) = P({(1, 2), (2, 1)}) = =
36 18
12
3 1
P({A4 }) = P({(1, 3), (2, 2), (3, 1)}) = =
36 12
1
P({A12 }) = P({(6, 6)}) =
36
Remarque 1.4.1
-L’application PA définit un nouvel espace probabilisé : (Ω, T , PA ).
-On peut aussi considérer une nouvelle tribu TA , la tribu-trace sur A constitué des événements
B ∩ A où B ∈ T .
On a ainsi un autre espace probabilisé : (A, TA , PA ).
B
P(B)
P(A/B)
A∩B
A∩B
P(A/B)
P(B)
B
P(A/B)
A∩B
13
Les nœuds de l’arbre sont des événements emboı̂tés, et on indique sous chaque branche
menant d’un nœud A à un nœud A ∩ B la probabilité conditionnelle PA (B). Notons que la
probabilité d’un nœud A ∩ B se déduit des probabilités des branches menant à ce nœud :
P (A ∩ B) = P (A)PA (B)
P(A/B) = P(A/B).
Savoir que B est vrai, ou que B est vrai, ne modifie pas la probabilité que A soit vrai.
Propriété 1.5.1
A et B sont deux événements P-indépendants si et seulement si
P(A ∩ B) = P(A) × P(B).
Démonstration :
∀(A, B) ∈ T 2 on a B = (B ∩ A) ∪ (B ∩ A) donc
P(B) = P(B ∩ A) + P(B ∩ A)
= P(A)P(B/A) + P(A)P(B/A)
= (1 − P(A))P(B/A) + P(A)P(B/A)
= P(B/A) + P(A)[P(B/A) − P(B/A)]
Donc
P(B ∩ A) = P(A) × P(B) ⇐⇒ P(B) = P(B/A)
⇐⇒ P(B/A) = P(B/A)
et de même en échangeant les rôles de A et B.
Exemple 11 On jette un dé rouge et un dé vert et on considère les événements A = { le dé vert
marque 6 }, et B = { le dé rouge marque 5 }. Il nous faut démontrer que ces deux événements
sont indépendants (bien entendu ce résultat est évident, il n’y a pas d’influence d’un dé sur
l’autre !). L’ensemble fondamental retenu est Ω = E × E, avec E = {1, 2, 3, 4, 5, 6}, sur lequel
1
il y a équiprobabilité : P (ω) = 2 . Comme A = {6} × E, B = E × {5} et A ∩ B = {(6, 5)} on
6
obtient :
Card(A) 6 1
P(A) = = 2 = .
Card(Ω) 6 6
Card(B) 6 1
P(B) = = 2 = .
Card(Ω) 6 6
Card(A ∩ B) 1
P(A ∩ B) = = 2.
Card(Ω) 6
P(A ∩ B) = P(A)P(B), les événements A et B sont donc bien indépendants.
14
Proposition 1.5.1
Si A et B sont des événements P-indépendants, alors A et B, A et B, A et B sont aussi
P-indépendants.
Démonstration :
Il suffit de démontrer que si A et B sont P-indépendants, alors A et B sont P-indépendants :
A = (A ∩ B) ∪ (A ∩ B), donc
P(A) = P(B ∩ A) + P(B ∩ A) = P(A)P(B) + P(B ∩ A)
donc P(B ∩ A) = P(A) − P(A)P(B) = P(A)(1 − P(B)) = P(A)P(B).
Définition 1.5.3
Soient n ≥ 2, n événements (Bi )1≤i≤n de probabilités non nulles forment un système complet
d’événements si et seulement si constituent une partition de Ω.
15
Exemple 12
Une fabrique produit des articles, avec une probabilité globale de 4% qu’ils soient défectueux.
Une procédé de contrôle rapide mais imparfait, conduit à mettre au rebut les articles corrects
avec une probabilité de 2% et à accepter des articles défetueux avec une probabilité de 5%.
Quelle est la probabilité qu’un article pris au hasard soit accepté ?
Pour un article, on distingue les événements :
- B il est bon ou corrrect
- B il est déffectueux
- A il est accepté au contrôle
- A il est refusé
B
0.96 0.02
A∩B
A∩B
0.04 0.05
0.95
A∩B
On a Ω = B ∪ B donc A = A ∩ (B ∪ B) = (A ∩ B) ∪ (A ∩ B).
D’où P(A) = P(A ∩ B) + P(A ∩ B)
= P(B)P(A/B) + P(B)P(A/B)
= 0.96 × 0.98 + 0.04 × 0.05 = 0.9458.
Ainsi : P(A) = 0.9428 .
16
C’est un changement de point de vue : on passe de probabilités ”sachant B”, à des probabilités
”sachant A”.
Exemple 13
1) Exemple du contrôle de qualité :
Pour un article, on a distingué les événements :
-B il est bon ou correct
-B il est défectueux
- A il est accepté au contrôle
- A il est refusé.
A∩B
0.98
B
0.96 0.02
A∩B
A∩B
0.04 0.05
0.95
A∩B
17
- La probabilité qu’un test soit négatif pour un non-porteur du virus : P(N/V )
1er cas : Les données sont :
— P(V ) = 0.001
— P(P/V ) = 0.999
— P(N/V ) = 0.999
P ∩V
0.999
V
0.001 0.001
N ∩V
P ∩V
0.999 0.001
0.999
N ∩V
P(P/V ) × P(V )
P(V /P ) = est la probabilté d’être porteur du virus, sachant que le test est
P(P )
positif.
P(P/V ) × P(V )
P(V /P ) =
P(P/V ) × P(V ) + P(P/V ) × P(V )
0.999 × 0.001 1
= =
0.999 × 0.001 + 0.001 × 0.999 2
2me cas : Les données sont :
— P(V ) = 0.02
— P(P/V ) = 0.999
— P(N/V ) = 0.999
P ∩V
0.999
V
0.02 0.001
N ∩V
P ∩V
0.98 0.001
0.999
N ∩V
18
P(P/V ) × P(V )
P(V /P ) =
P(P )
0.02 × 0.999
= ≈ 0.953.
0.02 × 0.999 + 0.98 × 0.001
V
0.02 0.0001
N ∩V
P ∩V
0.98 0.0001
0.9999
N ∩V
P(P/V ) × P(V )
P(V /P ) =
P(P )
0.02 × 0.9999
= ≈ 0.995
0.02 × 0.9999 + 0.98 × 0.0001
P(A/Bj ) × P(Bj )
∀j ∈ {1, 2, ..., n} P(Bj /A) = X
P(A/Bi ) × P(Bi )
1≤i≤n
19