Académique Documents
Professionnel Documents
Culture Documents
Chp1: Rappels
hatem.elmeddeb@gmail.com
2
2. Notion de probabilité
3. Indépendance
4. Probabilités conditionnelles
Ω = {{FFF},{FFP},{FPF},{PFF},{FPP},{PFP},{PPF},{PPP}}.
Evénements particuliers 4
•Evénement certain : Ω ⊆ Ω.
0 ≤ P(A) ≤ 1
P(Ω) = 1
P(∅) = 0
P(A) + P(A¯) = 1
A ⊆ B ⇒ P(A) ≤ P(B)
Indépendance 7
Autrement dit :
P(A ∩ B) = P(A).P(B)
𝑃(𝐴 ∩ 𝐵)
𝑠𝑖 𝑃(𝐵) > 0
𝑃 𝐴\𝐵 = 𝑃(𝐵)
0 𝑠𝑖 𝑃 𝐵 = 0
Exemple1 :
Choix d’une carte au hasard d’un jeu de cartes de 52 cartes.
On admet que le jeu est parfaitement mélangé. Quelle est la
probabilité que la carte tirée soit un as si nous savons que la
carte est noire ?
Définition :
Théorème de Bayes
𝑃(𝐻𝑘 ∩ 𝐵)
𝑃 𝐻𝑘 \𝐵 =
𝑃(𝐵)
𝑃 𝐵\𝐻𝑘 . 𝑃(𝐻𝑘 )
= 𝑛
𝑘=1 𝑃 𝐵\𝐻𝑘 . 𝑃( 𝐻𝑘 )
Probabilités conditionnelles 13
Solution
Soit les événements :
Mi : Le mot choisi au hasard dans le message électronique est
le mot i.
S : Le message électronique est un spam.
Déterminons les probabilités que nous connaissons :
𝑃1 = 𝑃 𝑀1 \𝑆 = 0.05
𝑞1 = 𝑃 𝑀1 \𝑆 = 0.001
Probabilités conditionnelles 15
Solution (suite)
𝑃 𝑀1 \𝑆 . 𝑃(𝑆)
𝑃 𝑆\𝑀1 = = 0.998
𝑃 𝑀1 \𝑆 . 𝑃 𝑆 + 𝑃 𝑀1 \𝑆 . 𝑃(𝑆 )
X(ω) ∈ {0, 1, 2, 3}
P({X = 0}) = P({PPP}) = 1/8
P({X = 1}) = P({FPP},{PFP},{PPF}) = 3/8
P({X = 2}) = P({FFP,FPF,PFF}) = 3/8
P({X = 3}) = P({FFF}) = 1/8
Variables Aléatoires Discrètes 17
𝑃(𝑥𝑖 ) = 𝑃(𝑋 = 𝑥𝑖 ) = 𝑃 𝑤 𝑋 𝑤 = 𝑥𝑖 , 𝑖
= 1,2, … . . , 𝑛
Il est clair que ces probabilités satisfont
𝑃(𝑋 = 𝑥𝑖 ) ≥ 0 et
𝑛
𝑃( 𝑋 = 𝑥𝑖 ) = 1
𝑖=1
Fonction de Répartition 18
𝑙𝑖𝑚 −∞ 𝐹𝑋 𝑥 = 0 et 𝑙𝑖𝑚+∞ 𝐹𝑋 𝑥 = 1
𝐹𝑋 est croissante
𝜎𝑋 = 𝑉𝑎𝑟(𝑋)
Loi Uniforme 22
Exemple : jet de dé
Loi de Bernoulli 23
𝑝 𝑠𝑖 𝑥 = 1
𝑝 𝑋=𝑥 = 𝑝 𝑥 (1 − 𝑝)1−𝑥 =
1 − 𝑝 𝑠𝑖 𝑥 = 0
𝐸 𝑋 = 𝑝 et 𝑉𝑎𝑟 𝑋 = 𝜎𝑋 2 = 𝑝(1 − 𝑝)
Loi Binomiale 24
•Deux paramètres : n et p.
•La densité ou loi de probabilité est donnée par :
𝑝 𝑋 = 𝑥 = 𝐶𝑛𝑥 𝑝 𝑥 (1 − 𝑝)𝑛 −𝑥
𝐸 𝑋 = 𝑛𝑝 et 𝑉𝑎𝑟 𝑋 = 𝜎𝑋 2 = 𝑛𝑝(1 − 𝑝)
Loi Binomiale 25
Exemple:
Système actif/passif
On effectue une séquence de n observations d’un système
qui se trouve dans l’un de deux états 0 ou 1, avec probabilité
p d’être actif (valeur observée = 1). On considère la variable
aléatoire qui donne le nombre de fois où le système est actif.
•Précisez ce qu’est Ω,
•Définissez la variable aléatoire X.
•Calculez la probabilité P(X = x).
Loi Géométrique 26
•un paramètre : p
•Densité ou loi de probabilité :
1 1−𝑝
𝐸 𝑋 = et 𝑉𝑎𝑟 𝑋 = 𝜎𝑋 = 2
𝑝 𝑝2
•Sans mémoire
Loi Géométrique 27
•Sans mémoire:
𝑃 𝑋 > 𝑚 + 𝑛\𝑋 > 𝑚 = 𝑃 𝑋 > 𝑛 ∀ 𝑚, 𝑛 ∈ ℕ
Exemple:
L'essai d'une clé au hasard est une épreuve de Bernoulli, avec deux
résultats possibles :
un paramètre ∶ 𝜆 > 0
𝜆𝑥 −𝜆
𝑝 𝑋 = 𝑥 = 𝑒 , 𝑥 = 0,1,2, ….
𝑥!
𝐸 𝑋 = 𝜆 et 𝑉𝑎𝑟 𝑋 = 𝜎𝑋 2 = 𝜆
Remarques:
Exemple:
1- Montrer que l’on est en droit d’approcher la distribution de X par une loi
de Poisson. Donner ses paramètres.
𝑃 𝑋∈𝐴 = 𝑓𝑋 𝑡 𝑑𝑡
𝐴
Variables aléatoires continues 33
+∞
𝑃 𝑋∈ℝ = 𝑓𝑋 𝑡 𝑑𝑡 = 1
−∞
𝑏
𝑃 𝑎<𝑋≤𝑏 = 𝑓𝑋 𝑡 𝑑𝑡
𝑎
𝑏
𝑃 𝑋≤𝑏 = 𝑓𝑋 𝑡 𝑑𝑡
−∞
𝑃 𝑋=𝑎 =0
Fonction de Répartition 34
𝑥
𝐹𝑋 𝑥 = 𝑃(𝑋 ≤ 𝑥) = 𝑓𝑋 𝑡 𝑑𝑡
−∞
𝐹 ′ 𝑋 𝑥 = 𝑓𝑥 (𝑥)
𝑃 𝑎 < 𝑋 ≤ 𝑏 = 𝐹 𝑏 − 𝐹(𝑎)
𝑃 𝑋≤𝑏 =𝐹 𝑏
Espérance mathématique 35
+∞
𝐸 𝑋 ≡ 𝜇𝑋 = 𝑥. 𝑓𝑋 𝑥 𝑑𝑥
−∞
Variance, écart-type 36
+∞
𝑉𝑎𝑟 𝑋 ≡ 𝜎𝑋2 = (𝑥 − 𝐸 𝑋 )2 . 𝑓𝑋 𝑥 𝑑𝑥
−∞
𝜎𝑋 = 𝑉𝑎𝑟(𝑋)
Variance et écart type 37
𝑎 +𝑏 (𝑏−𝑎)2
𝐸 𝑋 = et 𝑉 𝑋 =
2 12
Loi exponentielle 39
• Un paramètre: 𝜆
• Fonction de densité
• Fonction de Répartition
1 1
𝐸 𝑋 = , 𝑉 𝑥 =
𝜆 𝜆2
Loi exponentielle 40
• Sans mémoire:
Cette propriété se traduit mathématiquement par l'équation suivante :
•Fonction de densité:
1 1 𝑥−𝜇 2
− ( )
𝑓𝑋 𝑥 = 𝑒 2 𝜎
2𝜋 𝜎
•Fonction de répartition:
𝑥 1 𝑡−𝜇 2
1 − (
𝑒 2 𝜎 ) 𝑑𝑡
−∞ 2𝜋 𝜎
𝐸 𝑋 = 𝜇, 𝑉 𝑥 = 𝜎2
Loi Normale quelconque 42
•La loi normale centrée réduite 𝑁(0; 1) qui sera noté Z est la
distribution de référence (à l’aide d’une table).
•Toute probabilité sur un intervalle d’une variable aléatoire
normale quelconque 𝑁(𝜇; 𝜎 2 ) peut être calculée à l’aide de
cette distribution Z en effectuant la transformation suivante :
𝑋−𝜇
𝑍= ,
𝜎
et on a :
𝑆𝑖 𝑋~𝑁 𝜇; 𝜎 2 𝑎𝑙𝑜𝑟𝑠 𝑍~𝑁(0; 1).
𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛
𝑋𝑛 = +∞ 𝜇
𝑛
𝜇
…
𝑋𝑗 … …
..
.. ..
. .. …
... . ..
...
.. … 𝑋1
..
Théorème Central Limite: TCL 46
𝐸 𝑋𝑖 = 𝜇 et 𝑉𝑎𝑟 𝑋𝑖 = 𝜎 2
Conséquences:
𝐸 𝑋𝑛 = 𝜇
𝜎2
𝑉 𝑋𝑛 =
𝑛
𝑋𝑛 − 𝜇
. 𝑍= 𝜎 ~𝑁(0; 1)
𝑛
Notez bien que ce résultat est valable pour n’importe quelle distribution ayant une
espérance mathématique et une variance définies.
47
•Application:
48
Fin