Académique Documents
Professionnel Documents
Culture Documents
2 2.1
Introduction aux Probabilités
Card(E)
P(E) = Card(Ω) = proportion d’individus avec la caractéristique E
Autres exemples :
I Lance d’une pièce : pile ou face ?
I Pièce produite par une machine : défectueuse ou non ? plus grande du calibre
fixé ?
I Observation météorologique : va-t-il pleuvoir ?
29
2.1.2 Propriétés fondamentales des probabilités
Exercice 2.1 Météo France a fait les prévisions suivantes pour demain :
la probabilité qu’il y ait du soleil est de 0,6
la probabilité qu’il y ait du vent est de 0,3
la probabilité qu’il y ait du soleil et du vent est de 0,1
a. Traduire les données du problème dans le langage des probabilités, utilisant les
événements S =demain il y aura du soleil et V =demain il y aura du vent.
b. Écrire les événements suivants utilisant le langage des ensembles et calculer leur
probabilité :
I Demain il n’y aura pas de soleil
I Demain il y aura du soleil ou du vent
I Demain il n’y aura ni du soleil ni du vent
Exercice 2.2 Parmi les élevés d’une école 15% possède un vélo et une trottinette et
30% un vélo mais pas de trottinette. On tire un élève au hasard.
a. Traduire les données du problème dans le langage des probabilités utilisant les
événements : V =l’élève choisi a un vélo et T =l’élève choisi a une trottinette
b. Quelle est la probabilité que l’élève ait un vélo ?
c. 40% des élèves ont une trottinette. Quelle est la probabilité que l’élève ait une
trottinette mais pas de vélo ?
d. Récapituler les résultats obtenus dans le un tableau de contingence ci-dessous :
30
2.1.3 Probabilités conditionnelles et indépendance
On note PB (A) ( ou P(A|B)) est la probabilité conditionnelle de A sachant B, c’est à dire
la probabilité de A lorsque on sait que B est réalisé.
P(A∩B)
PB (A) = P(B) ou P(A ∩ B) = PB (A) × P(B)
31
P(R ∩V ) = P(R) × P(V ) = 16 × 16
I Vérifier l’indépendance
Dans d’autres situations, l’ indépendance est une propriété que on veut vérifier, car elle
nous dit si deux phénomènes sont liés. On calcule donc les probabilités relatives aux
événements et on vérifie s’ils sont indépendants ou non.
Example Une association contre le racisme a mené une opération de testing dans deux
discothèques ( Stardust et Utopia ) afin de vérifier si la sélection à l’entrée est influencé
sur critères lié à l’origine ethnique . Les graphiques suivants représentent les probabilité
d’etre accepté selon qu’on soit de type Caucasien ou non
I Stradust :
PCauc. (Accepté) = 0, 9 > 0, 7 = P(Accepté) −→ la sélection dépend du type.
I Utopia :
PCauc. (Accepté) = 0, 7 = P(Accepté) −→ la sélection est indépendante du
type.
Exercice 2.3 Dans un parc 25% des arbustes est malades (M). Certains arbustes sont
plantés à coté du lac (L) et certains arbustes sont plus jeunes (J) car ils ont été planté
plus récemment. On sait que :
I 40% des arbustes sont jeunes et
parmi les arbustes malade 25% sont jeunes
I 5% des arbustes sont malades et à coté du lac et
au total 20% des arbustes vivent à coté du lac.
On choisi un arbuste au hasard.
a. Traduire dans le langage probabiliste les données du problème
b. Déterminer si la maladie M est indépendante ou non de deux facteurs L ou J.
c. Quelles actions pourraient entreprendre les jardiniers pour endiguer la maladie ?
Arracher les arbustes près du lac ou arracher les vieux arbustes ?
32
Exercice 2.4 Une urne qui contient k boules Rouges et 2k boules Bleues. On effectue
deux tirages sans remettre la première boule dans l’urne. et on considère les deux deux
événements :
R1 = la première boule tirée est Rouge R2 = la deuxième boule tirée est rouge
33
2.2 Variables aléatoires
Une variable aléatoire est un nombre aléatoire, c’est-à-dire une fonction
X : Ω→R
ω 7→ X(ω)
le support X(Ω) de la variable aléatoire est l’ensemble de toutes les valeurs qu’on peut
obtenir.
Loi ou distribution de X est la mesure de probabilité, PX , sur R définit par
pour A ⊂ R
Fonction de répartition ou cumulative FX (t) = P(X ≤ t)
Example — Lancé de dé. X résultat d’un lancé de dé.
Le support de X est X(Ω) = {1, 2, 3, 4, 5, 6}
PX (A) := P(X ∈ A) = probabilité que le resultat du dé soit en A
Par exemple PX (]2, 4]) = P(X ∈]2, 4]) = P(2 < X ≤ 4) = P(X ∈ {3, 4}) = 2
6
Fonction de répartition FX (t) = P(X ≤ t) = probabilité que le résultat du dé ≤ t. Par
exemple FX (4, 2) = P(X ≤ 4, 2) = 46
I Variable statistique
Une variable statistique peut être vu comme une variable aléatoire
34
Example On choisit une voiture ω au hasard dans Ω := l’ensemble des voitures d’une
entreprise.
X(ω) := kilométrage de la voiture ω
PX ([10 000, 50 000]) = P(X ∈ [10 000, 50 000]) = 0, 15 ←→ 15% des voitures ont un
kilométrage compris entre 10 000 et 50 000 Km.
FX (30 000) = P(X ≤ 30 000) = 0, 20 ←→ 20% des voitures ont un kilométrage inférieur
à 30 000 Km
Exercice 2.5 On sait que la durée de vie V en heure d’un composant électronique suit
un loi exponentielle de paramètre λ = 0.02 te que donc la fonction de répartition est
FV (t) = 1 − e−0.02∗t pour t ≥ 0 et 0 sinon.
Traduire en langage probabiliste et calculer.
a. La probabilité que la durée de vie du composant soit inférieur ou égal à 50 heures.
b. La probabilité que la durée de vie du composant soit supérieur (strictement) à 50
heures.
c. La probabilité que la durée de vie du composant soit comprise entre 25 heures
(exclus) et 50 heures (inclus).
d. Trouver un temps t0 tel qu’il y ait 90% de chance que de la durée de vie du
composant soit inférieur ou égal à t0
35
Par exemple on tire 15 pommes dans un tas de pommes dont 20% sont rouges.
X= nb de pommes rouge dans le 15 tirée ∼ Binomiale avec n = 15 et p = 0.2.
X(Ω) = {0, 1, 2,3, · · · , 15}
P(X = k) = 15 k (
k 0.2 (1 − 0.2) 15 − k)
Example
I Loi uniforme sur l’intervalle La loi uniforme sur l’intervalle [0, 1] est la loi
selon laquelle, intuitivement, que toutes les valeurs de l’intervalle ont les mêmes
chances d’apparaître.
Densité : f (x) = I[0,1] (x)
P(a < X ≤ b) = ab 1dx = b − a si a, b ∈ [0, 1]
R
Fonction
Rt
de répartition
F(t) = 0 1dx = t si 0 ≤ t ≤ 1
36
qui dépend de deux paramétrés µ (son espérance) et σ (son écart type)
(x−µ)2
−
Densité : f µ,σ (x) = σ √12π e 2σ 2 .
La fonction Rx
de répartition de la loi normale
Fµ,σ (x) = −∞ f µ,σ (t)dx n’a pas une écriture ex-
plicite mais elle peut être calculée facilement à
l’aide des tables ou d’outils numériques.
Exercice 2.6 Une machine produit des pièces mécaniques de précision. On estime que
le diamètre X des pièces produites suit une loi normale de espérance µ = 530 mm et
écart-type σ = 2 mm.
Calculer à l’aide d’Excel
37
a. Le probabilité qu’une pièce ait un diamètre inférieur à 532 mm.
b. Le probabilité qu’une pièce ait un diamètre supérieur à 532 mm.
c. Le probabilité qu’une pièce ait un diamètre compris entre 528 et 532 mm.
d. La valeur x tel que 80% des pièces aient un diamètre inférieur à x mm
e. La valeur x tel que 70% des pièces aient un diamètre supérieur à x mm
2.2.3 Simulations
Les outils numériques ont souvent des générateurs de nombres (pseudo-)aléatoires qui
peuvent être utilisés pour simuler des variables aléatoires d’une loi souhaité.
La fonction ALEA() d’Excel permet de simuler une variable uniforme sur [0, 1]
Pour simuler les autres lois, on peut utiliser le résultat suivant
Soit F la fonction de répartition de la loi d’une loi P et F −1 son inverse a . Si U est une
variable aléatoire uniforme sur [0, 1] alors
X = F −1 (U)
LOI.XXX.INVERSE.N(ALEA() ; paramètres),
38
Z
Variables continues de densité f alors E[g(X)] = g(x) f (x)dx
R
Variance Var(X) = E (X − E(X)) = E X − E [X]2
2
2
p
Écart-type σ (X) = Var(X)
Covariance Cov(X,Y ) = E [(X − E(X))(Y − E(Y ))] = E [XY ] − E [X] E [Y ]
Example — Variable Statistique.
de paramètre p ∈ [0, 1]
39
I Inégalité de Bienaymé-Tchebychev
Inégalité de Bienaymé-Tchebychev.
Pour toute variable aléatoire X avec Var(X) < ∞
Var(X)
P(|X − E(X)| ≥ ε) ≤ pour tout ε > 0.
ε2
c’est-à-dire pour tout k = ε/σ (X)
1
P(E(X) − kσ (X) < X < E(X) + kσ (X)) ≥ 1 −
k2
|X(ω) − E(X)|2
I[|X−E(X)|≥ε] (ω) = I[|X−E(X)|2 >ε 2 ] (ω) ≤
ε2
En effet :
I Si |X(ω) − E(X)| ≥ ε alors le terme de gauche vaut 1 tandis que le terme de
droite est ≥ 1
I Si |X(ω) − E(X)| < ε alors le terme de gauche vaut 0 tandis que le terme de
droite est ≥ 0
donc
|X(ω) − E(X)|2
Var(X)
P(|X − E(X)| ≥ ε) = E(I[|X−E(X)|≥ε] ) ≤ E 2
= .
ε ε2
Exercice 2.10 On tire une pomme au hasard parmi toutes les pommes produites par une
exploitation agricole et on note X son poids. On sait que les pommes pèsent en moyenne
150 g avec un écart-type de 15 g. Utilisant l’inégalité de Bienaymé-Tchebychev :
a. Estimer la probabilité P(|X − 150| ≥ 30)
b. Estimer la probabilité P(100 < X < 200)
c. Déterminer un intervalle [a, b] centré en E(X) et tel que P(a < X < b) ≥ 0.80
40
2.2.5 Indépendance de Variables Aléatoires
E( f (X)g(Y )) = E( f (X))E(g(Y ))
Donc
,→ E(XY ) = E(X)E(Y )
,→ Cov(X,Y ) = 0
,→ Var(X +Y ) =pVar(X) + Var(Y )
,→ σ (X +Y ) = σ (X)2 + σ (Y )2
Exercice 2.11 . On sait que les pommes produites par une exploitation agricole pèsent
en moyenne 150 g avec un écart-type de 15 g.
a. On tire au hasard deux pommes et on note X1 et X2 leur poids. Pourquoi peut-on
raisonnablement supposer que X1 et X2 sont indépendantes ?
b. Calculer l’espérance, la variance et l’écart-type de S = X1 + X2 .
c. Calculer l’espérance, la variance et l’écart-type de X = X1 +X2
2 .
d. On met n = 10 pommes choisis au hasard dans un sac. Calculer l’espérance, la
variance et l’écart-type de
I S le poids total du sac.
I X le poids moyen des pommes du sac
41
I Loi uniforme continue U [a, b]
La loi uniforme sur un intervalle indique, intuitivement, que toutes les valeurs de l’intervalle
ont les mêmes chances d’apparaître.
1
Densité : f (x) = b−a I[a,b] (x)
E(X) = (a + b)/2, Var(X) = (b − a)2 /12
I Fréquence empirique
La fréquence empirique est F = nombre succès
nombre tirage = proportion des succès parmi n tirages
La loi de F est donc la la loi d’une VA Binomiale X ∼ B(n, p) divisé par n en effet F = X
n
I Loi géométrique
C’est la loi qui modélise le temps d’attente du premier succès dans une série d’épreuves
de Bernoulli indépendantes à probabilité de succès p ∈ [0, 1].
P(X = k) = (1 − p)k−1 p pour tout k ∈ N∗ .
E(X) = 1/p, Var(X) = (1 − p)/p2
42
Example Dans une grande population 32% des individus sont des fumeurs.
I on choisit un individu au hasard on définit X = 1 si l’individu fume ; 0 sinon. X
suit une loi de Bernoulli de paramètre p = 0, 32.
I le nombre X de fumeurs parmi n = 300 individus tiré au hasard (avec remise) est
une loi Binomiale B(300; 0, 32)
I La proportion F de fumeurs dans l’échantillon de n = 300 individus suit une loi
B(300,0,32)
300
I Le nombre d’individus que on doit tirer avant d’extraire le premier fumeurs est
une loi géométrique de paramètre p = 0, 32
I Loi exponentielle E (λ )
La loi exponentielle est utilisée pour modéliser le temps de vie ou le temps d’attente d’un
phénomène
Cette loi à support en [0, +∞) semi-infini ne dépend que d’un paramètre λ (parfois appelé
l’intensité)
Densité : f (x) = λ e−λ x pour tout x ≥ 0 et 0 si x < 0 .
E(X) = 1/λ , Var(X) = 1/λ 2
Example
43
I En théorie des files d’attente temps d’attente entre l’arrivée de deux clients.
I Radioactivité : durée de vie d’un atome.
I la durée de vie d’une ampoule
E(X) = µ,
Var(X) = σ 2 et
σ (X) = σ
Une loi normale est centré réduite (ou standard) si µ = 0 et σ = 1. Elle est désigné par la
lettre Z et on note Φ la fonction de répartition de Z
Z t
1 x2
Φ(t) = P(Z ≤ t) = √ e− 2 dx
2π −∞
44
Propriétés : Soit X ∼ N (µ, σ ) alors
I La loi de X est symétrique par rapport à µ, c’est-dire :
P(X < µ − k) = P(X > µ + k)
X−µ
I Z= σ ∼ N (0, 1) est une loi normale centrée réduite. Donc
x−µ x−µ
P(X ≤ x) = P(Z ≤ )=Φ c’est-à-dire P(X ≤ µ + tσ ) = Φ(t)
σ σ
45
X−µ
Pµ,σ (µ − tσ ≤ X ≤ µ + tσ ) ∼
= Pµ,σ (| | ≤ t)
σ
= P(|Z| ≤ t) = P(Z ≤ t) − P(Z < −t)
= P(Z ≤ t) − P(Z < −t)
= P(Z ≤ t) − (1 − P(Z ≥ −t)) = 2Φ(t) − 1
γ α tα
68,3% 1
3
95% 1,96
10%
I t de Student
La loi t de Student à k degré de liberté est une loi de probabilité, est la loi de la variable
Tk = √ Z où Z une variable aléatoire de loi normale centrée et réduite et U une variable
Uk /k
46
indépendante de Z et distribuée suivant la loi du χk2 .
E(Tk ) = k, Var(Tk ) = k/(k − 2) si k > 2
Pour n ≥ 30 la loi Tk est très convenablement approximée par une loi normale centrée
réduite N (0, 1).
Exo. 2.3
a. P(M) = 0, 25
47
d. arracher les vieux arbustes
Exo. 2.4
k k−1 k
a. P(R1 ) = 3k , PR1 (R2 ) = 3k−1 et PR1 (R2 ) = 3k−1
b. Même question si le tirage est effectué sans remise.
k k−1 k−1 2k k 2k
P(R1 ∩ R2 ) = = , P(R1 ∩ R2 ) = =
3k 3k − 1 9k − 3 3k 3k − 1 9k − 3
ainsi que
k−1 2k 3k − 1 1
P(R2 ) = P(R1 ∩ R2 ) + P(R1 ∩ R2 ) = + = = ,
9k − 3 9k − 3 9k − 3 3
k−1 1
c. PR1 (R2 ) = 3k−1 6= 3 = P(R2 ), donc R1 et R2 ne sont pas indépendantes Lorsque
k → +∞
k−1 1
PR1 (R2 ) =→
3k − 1 3
les événement se rapprochent de l’indépendance.
Exo. 2.5
a. P(V ≤ 50) = FV (50) = 1 − e−0.02∗50 = 0, 632120559
b. P(V > 50) = 1 − P(V ≤ 50) = 0, 367879441
c. P(25 < V ≤ 50) = FV (50)−FV (25) = 1−e−0.02∗50 −(1−e−0.02∗25 ) = 0, 632120559−
0, 39346934 = 0, 238651219
d. On cherche t0 =? tel que P(V ≤ t0 ) = 0, 9 donc 1 − e−0.02∗t0 = 0, 9
e−0.02∗t0 = 0, 1
−0.02 ∗ t0 = ln 0.1
ln 0.1 ∼
t0 = −0.02 = 115, 13
Exo. 2.6 µ = 530 et σ = 2
a. P(X ≤ 532) = LOI.NORMALE.N(532; 530; 2; 1) = 0, 841344746
b. .P(X > 532) = 1 − P(X ≤ 532) = 0, 158655254
c. P(528 < X ≤ 532) = LOI.NORMALE.N(532; 530; 2; 1)−LOI.NORMALE.N(528; 530; 2; 1) =
0, 682689492
d. On cherche x tel que P(X ≤ x) = 0, 8 c’est-à-dire
x = F −1 (0, 8) = LOI.NORMALE.INV ERSE.N(0, 8; 530; 2) = 531, 6832425
e. On cherche x tel que P(X > x) = 0, 7 c’est-à-dire P(X ≤ x) = 1 − 0, 7 = 0, 3. Donc
x = F −1 (1 − 0, 7) = LOI.NORMALE.INV ERSE.N(1 − 0, 7; 530; 2) = 528, 951199
Exo. 2.7
a. =ALEA()
b. =LOI.NORMALE.INVERSE.N(ALEA() ;150 ;15)
c. =LOI.BINOMIALE.INVERSE(15 ;0,2 ;ALEA())
d. P(X ≤ t) = P(F −1 (U) ≤ t) = P(F(F −1 (U)) ≤ F(t)) puisque F est croissante
= P(U ≤ F(t)) = F(t)
Exo. 2.8 E(X) = 1P(X = 1) + 0P(X = 0) = P(X = 1) = p
Var(X) = E((X − E(X))2 ) = (1 − E(X))2 P(X = 1) + (0 − E(X))2 P(X = 0)
= (1 − p)2 p + p2 (1 − p) = p(1 − p)
48
Exo. 2.9 E(X) = xI[0,1] (x)dx = 01 xdx = 21 12 − 12 02 = 1
R R
2
puisque 12 x2 est une primitive de la fonction x
R1 1 2 1 1 3 1 1 3 1 1
Var(X) = (x−E(X))2 I[0,1] (x)dx = + 213 ) =
R
0 (x− 2 ) dx = 3 (1− 2 ) − 3 (0− 2 ) = 3 ( 23
1
12
puisque 13 (x − 12 )3 est une primitive de la fonction (x − 21 )2
σ (X) = 1/12 ∼
p
= 0, 29
Exo. 2.10
2
a. P(|X − 150| ≥ 30) ≤ 15 302
= 212 = 41
b. P(100 < X < 200) = P(150 − 50 < X < 150 + 50) = 1 − P(|X − E(X)| ≥ 50) ≥
15 2
1 − Var(X)
50 2 = 1 − 50 = 0, 91
c. Déterminer un intervalle [a, b] centré en E(X) et tel que P(a < X < b) > 0.80.
On cherche ε tel que : P(150 − ε < X < 150 + ε) = 1 − P(|X − E(X)| ≥ ε) ≥
15 2
1 − Var(X)
ε 2 = 1 − ε = 0, 8
2
Donc 15 = 0, 2 et ε = √15
ε 0,2
= 33, 54.
En conclusion [a; b] = [116, 5; 183, 5]
Exo. 2.11
a. On peut raisonnablement supposer que X1 et X2 sont indépendantes, car le nombre
de pommes totales est beaucoup plus grande que nombre de pommes tirées.
b. E(S) = E(X1 ) + E(X2 ) = 150 + 150 = 300g.
Var(S) = Var(X1 ) + Var(X2 ) = 152 + 152 = 2 × 152 puisque on peut supposer X1 et
X2 indépendantes.
√ √
σ (S) = 152 + 152 = 2 × 15
c. E(X) = E(X1 )+E(X
2
2)
= 150g.
Var(X) = 22 Var(S) = 212 2 Var(X1 ) = 12 152
1
√
σ (X) = 12 σ (S) = 21 2 × 15 = √12 × 15
d. Mets 10 pommes choisis au hasard dans un sac. Calculer l’espérance, la variance et
l’écart-type de
I S = X1 + · · · + Xn
E(S) = E(X1 ) + · · · + E(Xn ) = n × E(X) = 10 × 150 = 1 500 g
Var(S) =pVar(X1 ) + · · · +√Var(Xn ) = n × Var(X) = 10 × 152 g2
σ (S) = n × Var(X) = 10 × 15
I X = X1 +···+X
n
n
Exo. 2.12
a. P(100 < X < 200) = P(150− 50 50 50
15 15 < X < 150+ 15 15) = 1−2∗Φ(− 15 ) =2*LOI.NORMALE.STAND
1=0,999141879.
b. Déterminer un intervalle [a, b] centré en E(X) et tel que P(a < X < b) = 0.80
On cherche un intervalle de confiance avec un niveau de risque α = 1−0, 8 = 0, 2. Le
49
tα tel que Φ(tα ) = (0.8+1)/2 est tα ==LOI.NORMALE.STANDARD.INVERSE.N(0.8+1)/2)=1,2815
Donc [a; b] = [150 − 1, 28 ∗ 15; 150 + 1, 28 ∗ 15] = [130, 8; 169, 2]
c. Comparer avec les résultats de l’exercice 2.10.
Comme attendu les résultats sont plus précis : en a. on trouve une probabilité plus
grande et en b un intervalle plus petit.
Exo. 2.13
1−α α tα
68,3% 31,7% 1
99,7% 0,3% 3
95% 5% 1,96
90% 10% 1,64
50