Académique Documents
Professionnel Documents
Culture Documents
1 Analyse combinatoire 3
2
Chapitre 1
Analyse combinatoire
3
Chapitre 2
2.1 Introduction
Le but principal du calcul des probabilités est la modélisation des expériences et phénomènes aléatoires.
Une expérience aléatoire est une expérience pouvant conduire à plusieurs résultats possibles si on la
répète dans les mêmes conditions : on ne peut donc prévoir, à l’avance, son résultat.
Exemple 2.1.1.
1. Jet d’un dé à 6 faces.
2. Nombre de clients arrivant à un guichet de poste pendant une journée.
3. Durée de vie d’une lampe, d’une composante électronique.
4. Jet d’un dé deux fois.
Chacune des expériences à un ensemble particulier de résultats ; on va le noter Ω.
On ne peut pas prévoir le résultat d’une expérience aléatoire, mais on sait que tel résultat a plus de chance
d’être réalisé qu’un autre ; par exemple, en jetant un dé, on a plus de chance d’avoir une face paire que
d’avoir juste la face 1. Pour décrire ceci, on va associer une mesure de chance (un nombre représentant un
pourcentage) à chaque résultat possible. Cette mesure de chance est appelée probabilité que l’on notera
P.
Dans l’expérience de durée de vie d’une lampe, il est intéressant de savoir si cette durée de vie dépasse
un certain nombre d’heures mais il n’est pas important de s’intéresser à la probabilité que la durée de
vie soit un nombre rationnelle. Donc pour chaque expérience on précisera la classe des sous ensembles
auxquels on s’intéressera et qu’on notera A.
4
Notes de cours -partie Probabilités- Mars-Mai 2014 5
2.2.2 Événement
Definition 2.2.1. un événement est un ensemble de réalisation possibles ; il s’identifie à un sous ensemble
de Ω.
A événement ⇐⇒ A ⊂ Ω ⇐⇒ A ∈ P(Ω). On dit qu’un événement A est réalisé si le résultat ω de
l’expérience est dans A.
un élément ω de Ω est appelé événement élémentaire (c’est un résultat possible de l’expérience).
Ω est appelé l’événement certain.
∅ est appelé l’événement impossible.
Exemple 2.2.1.
Dans l’exemple 2.1.1.1), l’événement ”obtenir une face impaire” est A = {1, 3, 5},
Dans l’exemple 2.1.1.2), l’événement ”le guichet reçoit au moins 1 client” est A = IN∗ , par contre
l’événement ”le guichet reçoit moins de 10 personnes” est A = {0, 1, 2, 3, . . . , 9}
Dans l’exemple 2.1.1.4), l’événement ”obtenir la somme des deux dés égale à 6” est A = {(1, 5), (2, 4), (3, 3), (4, 2), (5, 1)},
Les événements étant identifiés à des sous ensembles de Ω, on peut donc utiliser les opérations ensem-
blistes qu’on rappellera ci-dessus en précisant le vocabulaire probabiliste associé.
7) On dit que A et B sont incompatibles ssi A ∩ B = ∅ ; ils ne peuvent pas avoir lieu en même temps.
Par exemple A et A sont incompatibles.
• Si Ω est fini ou dénombrable, on considère tous les sous ensembles de Ω, ie on prendra A = P(Ω),
donc tout sous ensemble A de Ω est un événement.
• Par contre si Ω n’est pas dénombrable, on ne considère pas tous les sous ensembles de Ω, car P(Ω)
est trop grand. On doit choisir une classe A d’événements plus petite mais elle doit vérifier certaines
conditions de stabilité. Par exemple si deux événements A et B peuvent être réalisés alors A ∩ B
peut l’être aussi ie si A ∈ A et B ∈ A alors A ∩ B ∈ A de même pour A ∪ B ∈ A.
Definition 2.3.1. Soient Ω un ensemble et A une partie de P(Ω), A est une classe de sous ensembles
de Ω.
A a une structure de tribu si elle vérifie :
i) Ω ∈ A,
ii) si A ∈ A alors Ac ∈ A, (stabilité par complémentaire)
+∞
[
iii) si A1 , A2 , . . . , An , . . . , est une suite infinie d’éléments de A alors An ∈ A
n=1
(stabilité par réunion dénombrable).
On dit que A est une tribu (d’événements) de Ω et le couple (Ω, A) est appelé espace probabilisable.
Exemple 2.3.1.
i) A = {∅, Ω} est une tribu appelée tribu grossière.
ii) P(Ω) est une tribu.
iii) soit A ⊂ Ω, fixé, alors A = {∅, A, Ac , Ω} est une tribu.
Remarque 2.3.1.
• On rappelle que si Ω est fini ou dénombrable, on prendra A = P(Ω).
En particulier si Ω = IN, Ω = ZZ ou Ω = QI, alors A = P(Ω).
• Si Ω = IR, on le muni de la tribu appelée tribu borélienne ; elle contient tous les intervalles ouverts,
fermés, semi-ouverts, bornés ou non bornés.
Propriétés 2.3.1. Soit A une tribu d’événements de Ω. Alors on a
1) ∅ ∈ A,
2) si A1 , A2 , . . . , An , . . . , est une suite d’éléments de A alors
n
[
a) An ∈ A pour tout n ≥ 1,
k=1
\n
b) An ∈ A pour tout n ≥ 1,
k=1
+∞
\
c) An ∈ A (stabilité par intersection dénombrable).
n=1
Preuve :
1) Puisque A est stable par complémentaire et Ω ∈ A alors ∅ ∈ A,
a) Il suffit de compléter la suite finie A1 , A2 , . . . , An par des ensembles vides ie prendre Ak = ∅ pour
k ≥ n + 1.
[n
b) Utiliser la stabilité par complémentaire et a) : on a An ∈ A pour tout n ≥ 1, et An ∈ A. D’où
k=1
n
\ n
[
An = An ∈ A,
k=1 k=1
Notes de cours -partie Probabilités- Mars-Mai 2014 7
Definition 2.3.2.
1. Soit A1 , A2 , . . . , An , . . . , une suite de sous ensembles de Ω. On dit que la suite (An )n est une partition
de Ω si
i) ∀i ≥ 1, Ai 6= ∅,
ii) ∀i 6= j, Ai ∩ Aj = ∅,
+∞
[
iii) Ai = Ω
i=1
2. On appelle système complet d’événements de (Ω, A) toute famille d’événements (A1 , A2 , . . . , An , . . .)
de A) formant une partition de Ω.
2.4 Probabilité
Une expérience aléatoire a plusieurs résultats possibles. Comme on ne peut pas les prévoir à l’avance,
on souhaite pouvoir associer à chaque événement un nombre (un pourcentage) représentant la chance que
cet événement soit réalisé :
à l’événement certain Ω on associe la chance 1=100% : Ω 7−→ 1,
à l’événement impossible ∅ on associe la chance 0=0% : ∅ 7−→ 0,
et si ∅ ⊂ A ⊂ Ω alors à A on associe un nombre P(A) ∈ [0, 1] : A 7−→ P(A) ∈ [0, 1].
Propriétés 2.4.1.
1) P(∅) = 0.
. . . , An sont n événements de A, 2 à 2 incompatibles, alors
2) si A1 , A2 ,!
[n Xn
P Ai = P (Ai ).
i=1 i=1
Preuve :
Notes de cours -partie Probabilités- Mars-Mai 2014 8
Probabilité uniforme
Soit Ω un ensemble fini Ω = {ω1 , . . . , ωn }, A = P(Ω).
On appelle probabilité uniforme sur (Ω, A), toute probabilité qui donne la même valeur p à chacun
des événements élémentaires : ∀ω ∈ Ω, P({ω}) = p.
1 1
Propriété : Toute probabilité uniforme sur Ω = {ω1 , . . . , ωn } vérifie P({ωi }) = = , pour
card (Ω) n
i = 1, . . . , n.
n
X 1
En effet 1 = P({Ω}) = P({ωi }) = np. D’où p = .
i=1
n
Dans ce cas on dit que l’on a équiprobabilité et ∀A ⊂ Ω,
card (A) nombre de cas favorables à A
P(A) = = .
card (Ω) nombre de cas possibles
Exemple 2.4.1.
1. Jet d’une pièce équilibrée.
Notes de cours -partie Probabilités- Mars-Mai 2014 9
2. Une urne contient 7 boules blanches et 3 noires. Quelle est la probabilité de tirer une boule blanche ?
nombre de cas favorables 7
P(tirer une boule blanche) = = .
nombre de cas possibles 10
3. Jet d’un dé équilibré.
Soit Ω un ensemble fondamental, A une tribu sur Ω et P une probabilité sur (Ω, A) : (Ω, A, P) espace
probabilisé.
Definition 2.5.1. Soient A et B deux événements de A, avec P(B) > 0.
P(A ∩ B)
La probabilité conditionnelle de A sachant B qu’on note P(A|B) est le nombre P(A|B) = . On
P(B)
la note aussi PB (A) ou PB (A).
Exemple 2.5.1. Reprenons l’exemple précédent :
Preuve :
i) Vérifions d’abord que 0 ≤ P(·|B) ≤ 1.
Soit A un événement, alors
P(A ∩ B) P(B)
0 ≤ P(A|B) = ≤ ≤ 1.
P(B) P(B)
P(Ω ∩ B) P(B)
ii) P(Ω|B) = = =1
P(B) P(B)
iii) Soient A1 , A2 , . . . , An , . . . , une suite
Sinfinie d’événements
de A, 2 à 2 incompatibles (Ai ∩ Aj = ∅ si
+∞
i=1 Ai ∩ B
+∞
!
[ P
i 6= j), alors P Ai |B = .
i=1
P(B)
+∞
!
S S [
+∞ +∞
Or i=1 Ai ∩ B = i=1 Ai ∩ B et les Ai ∩ B sont incompatibles 2 à 2. D’où P Ai |B =
i=1
P+∞ +∞
i=1 P(Ai ∩ B) X
= P(Ai |B).
P(B) i=1
Notes de cours -partie Probabilités- Mars-Mai 2014 10
Exemple 2.5.3. Dans une usine, trois machines M1 , M2 et M3 produisent des pièces :
– M1 produit 10 pièces à l’heure ; M1 a un taux d’erreur de 0, 1
– M2 produit 4 pièces à l’heure ; M2 a un taux d’erreur de 0, 05
– M3 produit 20 pièces à l’heure ; M3 a un taux d’erreur de 0.
Quelle est la probabilité du taux d’erreur de l’usine ?
Réponse : Soit P1 , P2 et P3 les événements ”pièces issues de M1 ”, ”de M2 ” et ”de M3 ” et notons τ le
taux d’erreur de l’usine. Alors
P(τ ) = P(τ |M1 )P(M1 ) + P(τ |M2 )P(M2 ) + P(τ |M3 )P(M3 )
10 4 20
P(τ ) = 0, 1 × + 0, 05 × +0×
34 34 34
P(τ ) = 0.0352941.
Notes de cours -partie Probabilités- Mars-Mai 2014 11
P(B|A)P(A)
P(A|B) = .
P(B|A)P(A) + P(B|A)P(A)
P(A ∩ B) P(B|A)P(A)
P(A|B) == = .
P(B) P(B|A)P(A) + P(B|A)P(A)
P(B|An )P(An )
P(An |B) = P .
i≥1 P(B|Ai )P(Ai )
Preuve : (Cas
[ générale) S S
On a Ω = Ai , Ai ∩ Aj = ∅, ∀i 6= j et B = B ∩ Ω. D’où B = B ∩ i≥1 Ai = i≥1 (B ∩ Ai ). Et on a
i≥1
pour tout 6= j, (B ∩ Ai ) ∩ (B ∩ Aj ) = Ai ∩ Aj ∩ B∅.
P P
D’où P(B) = i≥1 P(B ∩ Ai ) = i≥1 P(B|Ai )P(Ai ). Donc
Exemple 2.5.4. Deux virus V1 et V2 provoquent un symptôme S. On sait que P(V1 ) = 0, 6 et P(V2 ) = 0, 4
et que P(S|V1 ) = 0, 3 et P(S|V2 ) = 0, 9.
Sachant que S a été observé, quel est la probabilité que le virus en cause soit de nature V1 ? V2 ?
Réponse :
P(S|V1 )P(V1 ) 0, 18
P(V1 |S) = = ' 0, 33.
P(S|V1 )P(V1 ) + P(S|V2 )P(V2 ) 0, 54
Mais P(V2 |S) = 1 − P(V1 |S) ' 0, 67.
Donc il est fort probable qu’il s’agit du virus V2 .
Exemple 2.5.5. Un laboratoire médical met au point un test de dépistage d’une maladie. On sait que
cette maladie touche 1% de la population.
On effectue le test sur un échantillon de malades, on constate que 95% sont positifs.
On effectue le même test sur des personnes saines (non malades), on constate que 2% sont positifs.
Quelle est la proportion de malades sachant que le test est positif ?
Réponse : Soit M l’événement {être malade}, M = {être sain (non malade)}, T {test positif} et T =
{test négatif}. On demande de calculer P(M |T ).
La formule de Bayes (n = 2) donne
2.6 Indépendance
Definition 2.6.1. Deux événements A et B de A sont indépendants si et seulement si P(A ∩ B) =
P(A)P(B).
Autre définition équivalente : A et B sont indépendants ssi P(A|B) = P(A).
Exemple 2.6.1. On jette deux foix une pièce. Soit les événements A = {avoir pile au 1er jet} et B =
{avoir face au 2e jet}. Vérifier que A et B sont indépendants.
Réponse : On a Ω = {(P, P ), (P, F ), (F, P ), (F, F )}, card (Ω) = 4, muni de la probabilité uniforme :
ω ∈ Ω, P(ω) = 41 .
A = {(P, P ), (P, F )} et B = {(P, F ), (F, F )}. Donc P(A) = P(B) = 2/4 = 1/2 et P(A)P(B) = 1/2.1/2 =
1/4.
D’autre part A ∩ B = {(P, F )} et P(A ∩ B) = 1/4 = 1/2.1/2.
Par conséquent P(A ∩ B) = P(A)P(B) et donc A et B sont indépendants.
Remarque 2.6.1. La notion d’indépendance n’est pas une notion intrinséque aux événemnts, mais
dépend de la probabilité choisie.
Propriétés 2.6.1. Si A et B sont indépendants alors
1. A et B sont indépendants.
2. A et B sont indépendants.
3. A et B sont indépendants.
(En fait se sont des équivalences)
Preuve :
1. Montrons que P(A ∩ B) = P(A)P(B).
On sait que A = (A ∩ B) ∪ (A ∩ B) et P(A) = P(A ∩ B) + P(A ∩ B) = P(A)P(B) + P(A ∩ B), la
dérnière égalité provient de l’indépendance de A et B.
D’où P(A ∩ B) = P(A) − P(A)P(B) = P(A)(1 − P(B)) = P(A)P(B), càd A et B sont indépendants.
2. Même chose que dans 1 car A et B jouent des rôles symétrique .
3. Idem
Réciproquement : si A et B sont indépendants, on pose B = C et d’après 1 A et C sont indépendants
càd A et B sont indépendants.
Definition 2.6.2. 1) Les événements A, . . . , An de A sont indépendants ou mutuellement indépendants si
et seulement si pour toute partie finie {i1 , . . . , ik } ⊂ {1, . . . , n}, on a P(Ai1 ∩. . .∩Aik ) = P(Ai1 ) . . . P(Aik ).
On dit aussi globalement (ou dans leurs ensemble) indépendants.
Remarque 2.6.2. Attention l’indépendance mutuelle 6= l’indépendance 2 à 2.
Exemple 2.6.2. On jette deux foix une pièce. Soit les événements A = {avoir pile au 1er jet}, B =
{avoir face au 2e jet} et C = {identiques aux 2 jets}. Vérifier que A, B et C sont 2 à 2 indépendants
mais non mutuellement indépendants.
Réponse : On a Ω = {(P, P ), (P, F ), (F, P ), (F, F )}, card (Ω) = 4, muni de la probabilité uniforme :
ω ∈ Ω, P(ω) = 14 .
On sait, exemple 2.6.1, que P(A) = P(B) = 1/2 et P(A ∩ B) = 1/4. On a C = {(P, P ), (F, F )} alors
P(C) = 1/2. Donc
P(A ∩ B) = P(A)P(B),
A ∩ C = {(P, P )} donc P(A ∩ C) = 1/4 = P(A)P(C) et
B ∩ C = {(F, F )} donc P(B ∩ C) = 1/4 = P(B)P(C).
Par suite A, B et C sont 2 à 2 indépendants.
Mais A∩B ∩C = ∅ =⇒ P(A∩B ∩C) = 0 6= P(A)P(B)P(C), càd que A, B et C ne sont pas mutuellement
indépendants.