Académique Documents
Professionnel Documents
Culture Documents
S = {g, f }
si le résultat est l’ordre d’arrivée d’une course entre 7
chevaux numérotées de 1 à 7, alors :
Union
intersection
complémentation
00000000
11111111
000000000
111111111
00000000
11111111
000000000
111111111
00000000
11111111
000000000
111111111
00000000
11111111
000000000
111111111
E F
00000000
11111111
000000000
111111111
00000000
11111111
000000000
111111111
00000000
11111111
000000000
111111111
Exemple :
00
11
1100
11
0011
00
Exemple :
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
E
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
Exemple :
Si E = {g} alors E = {f }.
Commutativité :
E∪F =F ∪E
EF = F E
Associativité :
(E ∪ F ) ∪ G = E ∪ (F ∪ G)
(EF )G = E(F G)
Distributivité :
(E ∪ F )G = EG ∪ F G
EF ∪ G = (E ∪ G)(F ∪ G)
E∪F =E∩F
généralisation, si Ei sont des événements :
n
[ n
\
Ei = Ei
i=1 i=1
n
[ n
\
x∈ Ei ⇒ x ∈ Ei
i=1 i=1
Sn Sn
Supposons que x ∈ i=1 Ei . Alors x ∈ / i=1 Ei , ce qui signifie
que x n’est contenu dans aucun des événements E1 . . . En .
Ceci implique que x est contenu dans tous les événements
Tn
E1 . . . En . Il est donc contenu dans i=1 Ei .
n
\ n
[
x∈ Ei ⇒ x ∈ Ei
i=1 i=1
Tn
si x ∈ i=1 Ei , alors x appartient à chaque E1 . . . En et donc
Sn Sn
x∈ / i=1 Ei , ce qui entraine finalement que x ∈ i=1 Ei 2
Méthodes probabilistes - Probabilités – p. 11/71
Loi de de Morgan - 2
E∩F =E∪F
généralisation, si Ei sont des événements :
n
\ n
[
Ei = Ei
i=1 i=1
n(E)
P (E) = lim
n→∞ n
Inconvénients :
1.
0 ≤ P (E) ≤ 1
2.
P (S) = 1
3. Pour chaque séquence d’événements mutuellement
exclusif E1 , E2 . . . En (Ei Ej = ∅ si i 6= j),
n
[ n
X
P( Ei ) = P (Ei )
i=1 i=1
1
P ({1}) = P ({2}) = P ({3}) = P ({4}) = P ({5}) = P ({6}) =
6
Du troisième axiome, il resulte que la probabilité de tirer un
nombre pair est :
3
P ({2, 4, 6}) = P ({2}) + P ({4}) + P ({6}) =
6
P (E) = 1 − P (E)
Si E ⊂ F , alors P (E) ≤ P (F )
P (E ∪ F ) = P (E) + P (F ) − P (EF )
Démonstration :
1 = P (S)
= P (E ∪ E)
= P (E) + P (E) (Axiome 2)
Démonstration :
Du fait que E ⊂ F , on peut écrire :
F = E ∪ EF
E et EF étant mutuelement exclusifs, par l’axiome 3, on tire :
P (F ) = P (E) + P (EF )
or, d’après l’axiome 1 P (EF ) ≥ 0, d’où :
P (E) ≤ P (F )
Démonstration :
E F
I II III
I = EF E ∪ F = I ∪ II ∪ III
II = EF E = I ∪ II
III = EF F = II ∪ III
E F
I II III
On a donc :
P (E ∪ F ) = P (E) + P (F ) − P (II)
P (E ∪ F ) = P (E) + P (F ) − P (EF ) Méthodes probabilistes - Probabilités – p. 22/71
Ens. fond. à événements élémentaires équiprobables
1
∀i1 ≤ i ≤ N, P ({i}) =
N
De ceci et de l’axiome 3, il résulte que pour tout événement
E:
nombre d’éléments dans E
P (E) =
nombre d’éléments dans S
Méthodes probabilistes - Probabilités – p. 23/71
Exemple 1
30 + 30 6
=
110 11
Méthodes probabilistes - Probabilités – p. 25/71
Probabilités conditionnelles
(5,4) (6,4)
(2,5) (1,6) (6,3) (4,5)
(1,3) (5,5)
(4,3) (4,6)
(1,4) (3,1)
(2,6)
(3,2) (6,5)
(1,5) (4,4)
(3,5) (3,3)
(5,2) (5,6)
(5,3) (3,4)
(1,1) (3,6) (5,1)
(6,2) (6,1)
(1,2)
(4,2)
(2,1) (2,2) (2,3)
(1,4) (2,4) (6,6)
P (EF )
P (E|F ) =
P (F )
En multipliant par P (F ) les deux membres de l’équation,
on obtient :
P (EF ) = P (F )P (E|F )
Cette équation signifie que la probabilité que E et F
apparaissent à la fois est égale à la probabilité que F
apparaisse multipliée par la probabilité conditionnelle de
E si l’on sait que F est survenu.
P (JN )
P (J|N ) =
P (N )
Cependant, JN = J puisque la bille sera à la fois jaune et
non noire si et seulement si elle est jaune. Nous obtenons
ainsi, en supposant que chacune des 25 billes a la même
chance d’être choisie :
5
25 1
P (J|N ) = 15 =
25
3 Méthodes probabilistes - Probabilités – p. 31/71
Exemple 2
P (EF ) = P (E)P (F )
Cette équation est symétrique en E et F , il en résulte que
lorsque E est indépendant de F , F l’est aussi de E.
P (EF ) = 1/52
P (E) = 4/52
P (F ) = 13/52.
On a bien :
P (EF ) = P (E)P (F )
On a bien :
00
11
000
111
000000000
111111111
00
11
000
111
000000000
111111111
00
11
000
111
000000000
111111111
EF EF
00
11
000
111
000000000
111111111
00
11
000
111
000000000
111111111
000000000
111111111
EF et EF étant mutuellement exclusifs, on peut écrire :
P (AX)
P (A|X) =
P (X)
P (A)P (X|A)
=
P (X)
0.3 × 0.4
= = 0.46
0.26
F1
Fn
On peut écrire :
n
[
E= EFi
i=1
Méthodes probabilistes - Probabilités – p. 43/71
Formule des probabilités totales - Généralisation
n
X
P (E) = P (EFi )
i=1
Xn
= P (E|Fi )P (Fi )
i=1
P (EFj )
P (Fj |E) =
P (E)
P (E|Fj )P (Fj )
=
P (E)
P (E|Fj )P (Fj )
= Pn
i=1 P (E|Fi )P (Fi )
Loi de Bayes
P (U1 |B) = PP(U(B)
1 B)
= P (B|U1 )P (U1 )
P (N )
= 12
20
P (DE)
P (D|E) =
P (E)
P (E|D)P (D)
=
P (E|D)P (D) + P (E|D)P (D)
.95 × .005
= ≃ .323
.95 × .005 + .01 × .995
S
(1,6)
(1,5) (2,6)
(1,4) (2,5) (3,6)
(1,3) (2,4) (3,5) (4,6)
(1,2) (2,3) (3,4) (4,5)
(1,1) (2,2) (3,3) (4,4) (5,6) (5,6) (6,6)
(2,1) (3,2) (4,3) (5,4)
(3,1) (4,2) (5,3) (6,4) (6,5)
(3,1) (5,2) (6,3)
(5,1) (6,2)
(6,1)
R
2 3 4 5 6 7 8 9 10 11 12
PX
Du fait que
∞
doit bien prendre l’une de ces valeurs xi ,
on aura : i=1 p(xi ) = 1
Si une variable aléatoire X suit une loi de distribution p on
notera X ∼ p
6/36
5/36
4/36
3/36
2/36
1/36
0 x
0 1 2 3 4 5 6 7 8 9 10 11 12
91 7 2 35
V ar(X) = −( ) =
6 2 12 Méthodes probabilistes - Probabilités – p. 62/71
Variables binomiales
n
X
E[X] = i p(i) (1)
i=1
n
X n
= i pi (1 − p)n−i (2)
i=1
i
n
X n−1
= n pi (1 − p)n−i (3)
i=1
i−1
n
n−1
X
= np pi−1 (1 − p)n−i (4)
i=1
i−1
n−1
X n − 1
= np pj (1 − p)n−(j+1) (5)
j=0
j
= np (7)
Méthodes probabilistes - Probabilités – p. 64/71
Variables aléatoires conjointes
p(x, y) = P (X = x, Y = y)
On peut déduire de la loi de probabilité conjointe de deux
variables X et Y la loi de probabilité marginale de X de la
façon suivante :
X
pX (x) = P (X = x) = p(x, y)
y|p(x,y)>0
De façon similaire :
X
pY (y) = P (Y = y) = p(x, y)
Méthodes probabilistes - Probabilités – p. 65/71
x|p(x,y)>0
Exemple
j
0 1 2 3
10 40 30 4
0 220 220 220 220
30 60 18
1 220 220 220
0
15 12
i 2 220 220
0 0
1
3 220
0 0 0
j
0 1 2 3 P (X = i)
10 40 30 4 84
0 220 220 220 220 220
30 60 18 108
1 220 220 220
0 220
15 12 27
i 2 220 220
0 0 220
1 1
3 220
0 0 0 220
56 112 48 4
P (Y = j) 220 220 220 220
P (X ∈ A, Y ∈ B) = P (X ∈ A) × P (Y ∈ B)
En d’autres termes, X et Y sont indépendantes si, quels
que soient A et B, les événements EA = (X ∈ A) et
EB = (X ∈ B) sont indépendants.
Cela revient à dire que :