Académique Documents
Professionnel Documents
Culture Documents
1 - Probabilites Et Variables Aleatoires
1 - Probabilites Et Variables Aleatoires
variables aléatoires
Adapté de Yannis Korilis, Christian St-Jean, Dave
DeBarr, Bob Carpenter, Jennifer Chu-Carroll et
plusieurs autres
Expérience aléatoire et probabilité
Variance : l’écart
V ( Xquadratique
) E X E ( Xmoyen
)
2
par rapport à la valeur
moyenne
Variable aléatoire continue
Variance :
Variables aléatoires indépendantes et
conditionnelles
P(A B)
Probabilité conditionnelle : P(A/ B)
P(B)
Théorème de Bayes :
P(B/ A)P(A) P(B/ Ai)P(Ai)
P(A/ B) P(Ai / B)
P(B)
P(B/ Ak)P(Ak)
k
Lois de probabilité discrètes
(Comme quoi, les hasards ne sont pas tous pareils !)
Loi uniforme
1
X={1,2,…,n} : P ( X k )
n
n21
E(X) n1 V(X)
2 12
Loi de bernoulli
X={0,1} : P( X 1 ) p
E(X) p V(X) p(1 p)
Loi binomiale
L’évènement de probabilité p apparaît k fois en n essais
=> n épreuves de bernoulli, avec les combinaisons de k
dans n n k
P( X k ) Cn p ( 1 p )
k k
P( X k ) e
k!
E(X) V(X)
= nombre moyen d’événement par unité de temps.
Loi uniforme
x0;a f(x) 1 F(x) x
a a2 a
a
E( x ) V( x )
2 12
Loi exponentielle
Utilisée en fiabilité pour représenter une espérance de vie
x0 f(x)ex F(x)1ex
1 1
E( x ) V( x )
2
E(x)= 1/ est souvent appelé MTBF (« mean time between failures ») et est
le taux de défaillance
P(X > x)=probabilité d’attendre plus de x avant l’apparition d’un phénomène
lorsque 1/ est le temps moyen d’attente.
Loi sans mémoire : le passé ne permet pas de prédire l’avenir.
Loi Gamma
Généralisation de la loi exponentielle utilisée dans les files d’attentes. P(X > x) =
probabilité d’attendre plus de x minutes avant la kième apparition du phénomène
étudié, avec 1/ comme temps moyen d’attente entre deux apparitions du
phénomène.
k xk 1
x0 f(x) ex (k) yk 1e ydy
(k) 0
k k
E( x ) V( x )
2
Loi de Gauss (« normale »)
Loi fondamentale en statistique. Très souvent utilisée en modélisation.
xm 2
1
x f(x) 1 e 2 2
2
E ( x )m V ( x ) 2
si X N(m;) X m N(0;1)
Loi limite de caractéristiques issues d’un échantillon de
grande taille.
On a les convergences suivantes (souvent abusées dans les
sondages !):
B(n;p)N(np;np(1-p)) (np et n(1-p) supérieurs à 5)
P()N(; ) (avec >18)
Loi du Chi 2 (Khi-deux de Pearson)
Si Z1,Z2,...,Zk N(0;1)
k
Z
i 1
i
2 (2k)
Dite « chi2 à k degrés de liberté »
Loi de Student
Si Z N(0;1) Z t(k)
2k
k
Dite « Student à k degrés de liberté »
Loi de Fisher-Snédécor
2k
k F(k;l)
l2
l
Dite « Fisher à k, l degrés de liberté »
Exemple 1
• Un système de prise de décision binaire comprend trois modules
indépendants et pend une décision positive s’il y unanimité chez les
trois modules. Sachant que la probabilité d’une décision négative
par un module est 0.02, 0.05 et 0.10, respectivement, quelle est la
probabilité que le système prenne une décision positive?
P (décisio positive ) P ( A et B et C ) P ( A B C )
P ( A ) P ( B ) P (C )
1 P( A) 1 P( B) 1 P(C ) 0.98 0.95 0.90 0.8379
Exemple 2
Une machine utilise quatre dispositifs D1, D2, D3, D4 dont la défaillance
peut intervenir de manière indépendante. La machine tombe en panne si
D1 est défaillant ou que deux de D2, D3, D4 les sont.
Si Ai dénote le fait que Di fonctionne sans défaillance pendant un
intervalle T, quelle est la probabilité de fonctionnement correct de la
machine durant l’intervalle si P(A1)=0.80, P(A2)=0.85, P(A3)=0.90 P(A4)=0.90 ?
A( A1 A2 A3 A4 )
( A1 A2 A3 A4 )
( A1 A2 A3 A4 )( A1 A2 A3 A4 )
P(A)0.800.850.900.900.800.150.900.90...0.7704
Exemple 3
Un système S se présente de manière aléatoire sous deux états, 0 et 1,
avec P(S=0)= 0.4 et P(S=1)=0.6. Une station T1 fournit des informations
potentiellement erronées sur l’état de S. La probabilité que T1 soit juste
pour l’état 0 est 0.98 ; la probabilité qu’elle le soit pour l’état 1 est 0.95.
A un instant donné, T1 reporte S dans l’état 0. Quelle est la probabilité
que S soit vraiment dans l’état 0 ?
Posons E1 : {S est dans l’état 0}, O1 : {S est observé dans l’état 0 par T1 }
P(E1 )=0.4 P(O1 | E1 )=0.98 P(O1 | cE1 )=0.05
P(O1 / E1 ) P( E1 )
P( E1 / O1 ) 0.929
P(O1 / E1 ) P( E1 ) P(O1 / E1 ) P( E1 )
T1=0 T1=1
S=0 0.392 0.008 0.4 0.39
P( E1 / O1 ) 0.93
S=1 0.03 0.57 0.6 0.42
0.422 0.578 1
Exemple 4
Un système S se présente de manière aléatoire sous deux états, 0 et 1,
avec P(S=0)= 0.4 et P(S=1)=0.6. Deux stations T1 et T2 fournissent des
informations sur l’état de S. La probabilité d’erreur de T1 est 0.02 et celle
de T2 est 0.06
A un instant donné, T1 donne S dans l’état 0 et T2 donne S dans l’état 1.
Quelle est la probabilité que S soit dans l’état 0 ?
Posons E0 {S est dans l’état 0} et E1 {S est dans l’état 1}
O:{S est observé dans l’état 0 par T1 et dans l’état 1 par T2 }
P(E0 )=0.4 P(E1 )=0.6
P(O | E0 )=0.98*0.06 (= prob. que T1 soit vraie et T2 soit fausse sachant que S
est dans l’état 0)
P(O | E1 )=0.02*0.94
P (O / E0 ) P ( E0 ) 0.0588 0.40
P ( E0 / O ) 0.68
P (O / E0 ) P ( E0 ) P (O / E1 ) P ( E1 ) 0.0588 0.4 0.0188 0.60
Exemple 5
Une machine tombe en panne selon la loi exponentielle avec un facteur
=0.5/heure. Quelle est la probabilité que la machine tombe en panne entre
la première et deuxième heure après le démarrage.
P(1hr T 2hr ) P(T 2hr ) P(T 1hr )
1 e 0.5 / hr 2 hr 1 e 0.5 / hr 1hr 0.24
La durée de vie d'un composant d'un système est supposée suivre une loi
exponentielle de paramètre . Un grand nombre de ces composants sont
testés et on a observé que 5% ne durent pas plus de 100 heures.
Estimer la probabilité qu'un composant pris au hasard dure plus de 200
heures, ou T est la durée de la vie en heures
Le taux global de défaillance d’un processus est la somme des taux de chaque
composant et ceux-ci suivent une loi de mortalité exponentielle. Les taux
élémentaires sont donnés par des documents fournis par le designer.
Pour un taux de défaillance = 12 10-6 h-1 et pour un fonctionnement continu
pendant 208 jours par an, donnez la probabilité théorique que le processus
fonctionne encore au bout de ces 208 jours.