I) Rappel
1- Les ensembles
a) Définition
Un ensemble considéré comme un regroupement d’objets ou d’êtres est parfaitement défini lorsqu’on
dispose d’un critère permettant de dire : tel élément appartient (∈) ou n’appartient pas (∉) à l’ensemble.
L’usage veut qu’on désigne les ensembles par des lettres majuscules (E, F, G, Ω,…) et les éléments par des
lettres minuscules (x, y, z,…).
Remarque :
Exemple :
E={ 1 ,2 , 3 }
P ( E ) : { ∅ ; {1 } ; { 2 } ; {3 } ; {1 , 2 } ; {2 , 3 } ; { 1, 3 } ; { 1 ,2 , 3 } }
Théorème :
si E est dénombrable et fini (c'est-à-direCard ( E ) est fini) alors P ( E ) est aussi dénombrable et fini. On a :
Card [ P ( E ) ]=2Card (E)
c) complémentarité
Soit E un ensemble et A une partie de E. On appelle complémentaire de A dans E l’ensemble des éléments
A
de E qui n’appartiennent pas ( ∉ ) à A . on le note : C E ou A ou A E ou E\A.
A
Remarque : ∁ EE=E ; C EE =∅ ; C CE =A E
d) Réunion et intersection
A U B = { x / x ∈ A ou x ∈ B }
A ∩ B = { x / x ∈ A ou x ∈ B }
Propriétés
A ∪ A= A
A ∪∅= A
A ⊂ A ∪B
A ∩ A=A
A ∩∅=∅
( A ∪B ¿ ∪ C= A ∪(B ∪C)
( A ∩ B)∩C= A ∩(B ∩C )
A ∪ ( B ∩C )=( A ∪ B ) ∩( A ∪ C)
A ∪B=B ∪ A
A ∩ B=B ∩ A
A∪B A B
C E =C E ∩C E
A∩B A B
C E =C E ∪C E
A ∩ B⊂ A
B A
A ⊂B ⇒ C E ⊂C E
Notation
¿ 1 ≤i ≤n Ai =A 1 ∪ A 2 ∪ … ∪ An
¿ 1 ≤i ≤n Bi=B 1 ∩ B2 ∩ … ∩B n
2) Tribus
Dans la suite du cours on utilisera un ensemble Ω que l’on appellera univers. Il contient tous les aléatoires
possibles : c’est l’ensemble des possibles
a) Définition
Soit Ω un univers et P(Ω) l’ensemble des parties de Ω. Une partie de P ( Ω ) , τ (est une famille de parties de
Ω) est une tribu sur Ω si elle vérifie :
- Ω ∈τ
A
- A ∈ τ ⇒C Ω ∈ τ
- Si A1 ; A 2 ; … A n sont des éléments de τ alors
¿ 1 ≤i ≤n Ai ∈ τ
Exemple :
Ω={ 1 , 2, 3 } ⇒ P ( Ω )= { ∅ ; {1 } ; { 2 } ; {3 } ; {1 , 2 } ; {2 , 3 } ; {1 , 3 } ; { 1, 2 , 3 } }
τ ¿ { ∅ ; { 1 ,2 } ; { 3 } ; ; { 1, 2 ,3 } }
τ est une tribu (à vérifier par l’étudiant)
τ 1 ={ ∅ , {1,2,3 } } est aussi une tribu.
b) Conséquences
Soitτ une tribu de Ω
∅ ∈τ
A1 , A 2 ,… , An des éléments de τ alors ¿ 1 ≤i ≤n Ai ∈ τ
Preuve :
Ai
Exercice d’application
Soit τ 1 et τ 2 deux tribus définies sur Ω. Montrer que τ 1 ∩τ 2 est une tribu.
Résolution
Ω ∈ τ 1 et Ω ∈ τ 2 ⟹Ω ∈ τ 1 ∩ τ 2
Soit B∈ τ 1 ∩τ 2 . Donc B∈ τ 1 et B∈ τ 2 par conséquent :
B ∈τ 1 et B ∈τ 2 d’où B ∈τ 1 ∩τ 2
Soit B1 , B2 , … Bn ∈ τ 1 ∩ τ 2. Donc B1 , B2 … Bn ∈ τ 1 et B 1 , B 2 … Bn ∈τ 2 par suite
¿ 1 ≤i ≤n Bi ∈τ 1 et ¿ 1 ≤i ≤ n Bi ∈ τ2 par conséquent :¿ 1 ≤i ≤n Bi ∈τ 1 ∩τ 2
.
Question :
Contre exemple :
Soit Ω={ 1 , 2, 3 }
τ 1 ={ ∅ ; {3 } , { 1,2 } ; { 1,2,3 } }
τ 2 ={ ∅ ; {2 } , { 1,3 } ; { 1,2,3 } }
τ 1 ∪ τ 2= { ∅ ; ; {2 } ; { 3 } ; {1 , 2 } ; ; {1 , 3 } ; { 1 ,2 , 3 } }
{ 2 } ∪ { 3 }= {2 , 3 } ∉ τ 1 ∪ τ 2
Réponse :
D’une manière générale, l’union de deux (2) tribus n’est pas forcement une tribu.
c) Tribu borélienne
Soit R la droite achevée : R=[−∞;+ ∞ ] ={−∞ } ∪ R∪ {+ ∞ }
Soit P( R) l’ensemble des parties de R
Soit β l’ensemble des parties formées des intervalles ouverts et des réunions des intervalles ouvertes de R .
β=¿ ¿ a , b ¿
I ∈β ⇒¿
β est une tribu de R et elle est appelée la tribu borélienne de R . les éléments de β sont appelé les
boréliens.
E=R ; a= ¿
β ( R )=σ ¿
3) Notion de mesure
a) Espace mesurable
Soit Ω un ensemble et τ une tribu définie sur Ω. Le couple (Ω , τ ) est appelé « espace mesurable ».
b) Définition de la mesure
Soit (Ω , τ ) un espace mesurable
Soit μ : P ( Ω ) → R+¿¿
A → μ (A )
μ est une mesure positive définie surτ ssi elle vérifie :
- μ ( ∅ )=0
- μ ( A ∪ B ) =μ ( A )+ μ ( B ) lorsque A ∩B=∅
(( )
n
μ ∪ Ai ) =∑ μ( Ai )
i=1
c) fonction mesurable
Soit (Ω , τ );(Ω ' , τ ') deux espace mesurables et soit f :Ω → Ω '
f est dite mesurable ssi pour tout A ' ∈ τ ' , f −1 ( A' )∈ τ
f ( A ) ={ x ∈Ω / f (x )∈ A ' }
(− 1 ) '
b) Définition
Un processus aléatoire (stochastique ou encore dirigé par le hasard) est une famille ( X t , t ∈T ) de variables
aléatoires définies sur un espace probabilisé (Ω , τ , p ¿ à valeur dans un espace probabilisable(E , τ ' ).
(Souvent dans (R , β ( R ) )
Lorsque T ⊂ R , t désigne le temps et le processus est dit à « temps continu ».
Lorsque T ⊂ N , le processus est une suite de Variables aléatoires et est appelé processus à « temps
discret » : c’est le cas de Martingale et des chaines de Markov que nous allons étudier dans la suite du
cours.
c) Filtration
Soit ( X t , t ∈T ) un processus aléatoire définie sur un espace probabilisé (Ω , τ , p ¿ à valeur dans un espace
( Ω' , τ ' ) .On appelle filtration de Ω la donné d’une suite croissante (τ¿ ¿ n)n ≥ 0 ¿ de sous tribu de τ .
∀ n , τ n ⊂τ
τ n est une tribu, ∀ n
τ n ⊂τ n+1
d) Martingale
Soit X =¿ un processus adapté.
Si ∀ n ≥ 0 , E( X n+ 1 /τ n)=X n, alors le processus est appelé une martingale ou une τ martingale.
Si ∀ n ≥ 0 , E( X n+ 1 /τ n)≤ X n, alors le processus est appelé une sur martingale.
Si ∀ n ≥ 0 , E( X n+ 1 /τ n)≥ X n, alors le processus est appelé une sous martingale.
Définition
Un processus ( X ¿ ¿ n)n ≥ 0 ¿ sur un espace de probabilité filtré est dit taux prévisible.
Ω→ Univers, τ → tribus, (τ n ¿ ¿n ≥ 0 → filtration, P → probabilité.
Si pour tout n , X n est τ n−1 mesurable.
5) Fiabilité
a) Introduction
La théorie de la fiabilité a pour objectif d’étudier l’aptitude des dispositifs techniques (machines,
équipements, composants, éléments…) à accomplir une fonction requise dans des conditions données et
pendant une durée donnée. En générale chaque dispositif se trouve dans l’un des cas suivants :
Apte à fonctionner ;
Inapte à fonctionner
Nous admettons qu’au départ chaque dispositif est en état de fonctionner et nous excluons toute
possibilité de réparer des éléments tombés en panne. Les défaillances se produisant de façon aléatoire, il
est alors logique de faire appel au calcul stochastique pour résoudre des problèmes de fiabilité au sens
restreint. Nous définissons donc la fiabilité d’un dispositif comme étant la probabilité qu’il fonctionne
correctement pendant un intervalle de temps donné, c’est à dire qu’il n’a pas de défaillance pendant cet
intervalle.
La plupart des produits industriels représentent des systèmes formés d’un grand nombre de composants
en interaction qui peuvent être regrouper en sous systèmes. Pour évaluer la fiabilité d’un système, il faut
donc connaitre :
Les fiabilités des éléments constituants ;
La structure des fiabilités du système.
Cette dernière définit l’état du système en fonction des états de ces composants.
Sauf indication contraire, nous admettons que les composants fonctionnent indépendamment les uns les
autres. Soit les évènements S= le système fonctionnent , Ak = le kème élément fonctionne avec
k ∈ {1,2 ; … n }
Le problème consiste à déterminer P(s) en fonction des P( A k ).
Un système en série ne fonctionne que si tous ces éléments fonctionnent. La défaillance d’un
élément quelconque entraine donc la défaillance du système. Il en résulte que :
S= A 1 ∩ A 2 ∩… ∩ A n et P ( s )=P( A¿ ¿1)× P ( A 2 ) ×… × P( A ¿¿ n)¿ ¿
n
P ( s )=∏ P(A k )
k=1
n
P ( s )=1−∏ ( 1− p( A k ) ¿ )¿
k=1
Un système k-de-n ne fonctionne que si au moins k de ses éléments fonctionnent. Si on admet que
tous les éléments ont la même fiabilité
P ( Ak )=P alors :
n
P ( s )=∑ C in Pi (1−P) n−i
i=k
i n!
Avec C n=
i! ( n−i ) !
n
R s ( t )=∏ R k (t)
k =1
Un système en parallèle
T s=max (T ¿ ¿ k )¿
k
n
R s ( t )=1−∏ ( 1−R k (t) )
k=1
Un système k-de-n
n
R s ( t )=∑ C in R i1 ( t ) ¿ ¿
i=k
c) Redondance à commutation
Un terme souvent utilisé en théorie de fiabilité est celui de redondance.
On parle de redondance si un ou plusieurs éléments peuvent tomber en panne sans pour autant que le
système cesse de fonctionner.
Ce surnombre des composants est utile essentiellement pour améliorer la fiabilité d’un système. Le
système en parallèle et le système k-de-n réalisent donc les redondances qu’on appelle souvent
redondance active puisque tous les éléments impliqués fonctionnent en permanence.
Par l’opposition, on parle de redondance à commutation si un seul élément est en service à la fois. Lorsqu’il
tombe en panne, un organe de commutation décèle la défaillance et effectue la commutation sur un
élément de réserve en état de fonctionner.
Si l’on ne tient pas compte d’une défaillance éventuelle de l’organe de commutation, on obtient alors pour
un système ayant n-1 éléments de réserve, une durée de vie T s=T 1 +T 2 +… T n .
Proposition
Considérons un système de type redondance à commutation comprenant deux éléments identiques dont la
−dt
fonction de fiabilité est R K ( t ) =e avec ( t> 0 ) . La densité de défaillance du système se calcule alors par la
formule :
+∞
f ( t )= ∫ f 1 ( t−u ) f 2 ( u ) du
−∞
6) Calcul de probabilité
a) Loi discrète
Loi de Bernouilli
Model
On effectue un tirage dans une urne contenant deux catégories de boule, des blanches en
proportion P(0< P< 1), et des noires en proportionsq (q+ p=1).
Soit X la variable aléatoire égale au nombre de blanche. On dit que X suit la loi de Bernouilli de
paramètre (1 , P) et on écrit X → β ( 1 , p ) .
Ω = { 0 ,1 }
'
P ( X=1 ) =P
P ( X=0 )=q
Espérance
n
E ( X ) =∑ X i P ( X= X i )
i=1
¿ 1 P ( X =1 ) +0. P ( X =0 )
¿ 1∗P+ 0.q
E ( X ) =P
Variance
n
V ( X )=∑ X i P ( X =i )−¿ ¿
i=1
=1 × P+02 q−P2
2
2
¿ P−P
¿ P(1−P)
V ( X )=Pq
Loi binominale
Modèle
On effectue n tirage avec remise dans une urne contenant deux catégories de boule, des blanches en
proportion P(0< P< 1) et des noires en proportion q ( P+q=1) soit X le nombre de boules
blanches.
Ω' = { 0 ,1 , 2, … , n }
Dans ce cas
k k n−k
P ( X=k )=C n P q
E ( X ) =nP
V ( X )=npq
On effectue un tirage dans une urne contenant deux catégories de boule, des blanches en
proportion P(0< P< 1), et des noires en proportionq (q+ p=1). Soit X la variable aléatoire égale au
nombre de tirage nécessaire pour obtenir : r boules blanches.
Ω = {r , r +1 , .. }
'
r−1 r k−r
P ( X=k )=C k−1 P q
r rq
E ( X )= , V ( X )= 2
p p
Loi hypergéométrique
Modèle
On effectue n tirage sans remise dans une urne contenant deux catégories de boule, N 1 (N 1 ≠0). N 1
boules blanches et N 2 boules noires. On pose N=N 1+ N 2 . X la variable aléatoire égale aux nombres
de boules blanches.
Ω' =¿
C kN C n−k
N
P ( x=k ) = 1 2
C nN
N1 N1
E ( x )=n =np avec p=
N N
N−n N2
V ( x )=npq avec p=
N−1 N
Rappels
Card ( A)
P ( A )=
Card (Ω)
P ( A ) + P ( A )=1
P ( A ∪ B ) =P ( A )+ P ( B )−P( A ∩ B)
P ( Ω )=1, P ( ∅ )=0
P ( )
A P ( A ∩B )
B
=
P (B)
P ( A )=P ( A ∩B )+ P (A ∩B)
0 ≤ P( A )≤ 1
b) loi continue
Fonction de densité
Rappels :
Intégrale impropre
+∞ β
∫ f ( x ) dx = lim β →+ ∞ a
∫ f ( x ) dx
a
b b
∫ f ( x ) dx=αlim
→−∞
∫ f ( x ) dx .
−∞ α
+∞ 0 +∞
∫ f ( x ) dx= ∫ f ( x ) dx+∫ f ( x ) dx .
−∞ −∞ 0
Calcul de probabilité
Soit X une variable aléatoire continue de densité de probabilité f .
b
P [ a ≤ x ≤b ] =∫ f ( x ) dx
a
+∞
P [ a ≤ x ] =∫ f ( x ) dx
a
b
P ( x ≤ b )= ∫ f ( x ) dx
−∞
Espérance mathématique
+∞
E ( x )=∫ xf ( x ) dx
−∞
Variance
(∫ )
+∞ +∞ 2
V ( x )=∫ x f ( x ) dx−
2
xf ( x ) dx
−∞ −∞
Ecart type σ ( x)
σ ( x ) =√ V ( x )
Médiane
M e est le nombre tel que :
Me
1
∫ f ( x ) dx= 2
−∞
B1 Loi uniforme
X ↝ ⨆( [ a , b ] )
{
1
si x ∈ [ a , b ]
f ( x )= b−a
0 si x ∈ [ a ,b ]
+∞
E ( x )=∫ xf ( x ) dx
−∞
a b +∞
¿ ∫ xf ( x ) dx+∫ xf ( x ) dx+ ∫ xf ( x ) dx
−∞ a b
b
x
¿∫ dx
a b−a
b
1
¿ ∫ xdx
b−a a
[ ]
b
1 1 2
¿ x
b−a 2 a
1 1 2 2
¿ × (b −a )
b−a 2
b+a
E ( x )=
2
V ( x )=¿ ¿
B2 Loi exponentielle
{
−dx
f α ( x )= ⋋ e si x ≥ 0
0 si x <0
1
E ( x )=
⋋
1
V ( x )= 2
⋋
X ↝ N (m , σ ).
−1
1 2
¿¿
f α ( x )= e
σ √2 π
E ( x )=m
V ( x )=σ 2
Réponse importante
+∞ −1 2
x
∫e 2
dx=√ 2 π
−∞
B4 Fonction Gamma et loi Khi-deux
On appelle fonction Gamma associée à tout réel r strictement positif, l’intégrale absolument
convergente.
+∞
Γ ( r ) =∫ x
r−1 −x
e dx
0
Résolution
+∞
Γ ( r ) =∫ x
r−1 −x
e dx
0
Γ ( 1 )=1
2) Vérifions que ∀ a ≥ 0 , Γ ( a+1 )=a Γ (a)
+∞
Γ (a+1)=∫ x
( a +1) −1 −x
e dx
0
+∞
¿ ∫ x a e−x dx
0
2 ' (a−1)
soit U =x ; U =a x
' −x −x
V =e ; V =−e
∫ U V ' =U V ' −∫ U ' V
+∞
a −∞
Γ (a+1)=[ −e x ] −∫ −a x
−x (a −1 ) − x
0 e dx
0
+∞
Γ ( a+1 ) =a ∫ x
(a −1 ) − x
e dx
0
Γ (a+1)=a √ a
3) La densité de probabilité de la loi Gamma
¿
On doit justifier que la fonction
f est continue, positif (f ( x)≥ 0) et que
+∞
∫ f ( x ) dx=1
−∞
∫ f ( x ) dx= ∫ f ( x ) dx+ ∫ f ( x ) dx
−∞ −∞ 0
+∞ +∞
1
∫ f ( x ) dx=∫ n
¿¿¿
−∞ 0
2 Γ( )
2
+∞
1
¿
n
∫¿¿
2Γ ( ) 0
2
x
On pose : = X ⇒ x=2 X ⇒ dx=2 dX
2
+∞ +∞
1
∫ f ( x ) dx= n ∫ ¿ ¿
−∞
2Γ ( ) 0
2
+∞
2
¿
n
∫¿¿
2Γ ( ) 0
2
1 n
¿ × Γ ( )=1
n 2
Γ( )
2
[∫ ]
+∞
f ( x ) dx=1 alors la fonction f ( x) est une fonction de densité.
−∞
Calculons E ( x )
+∞ +∞ 0 +∞
E ( x )=∫ f ( x ) dx=1⇒ ∫ f ( x ) dx= ∫ f ( x ) dx+ ∫ f ( x ) dx
−∞ −∞ −∞ 0
+∞ +∞
1
E ( x )=∫ f ( x ) dx=∫ ¿¿¿
n
−∞ 0
2Γ ( )
2
+∞
1
¿
n
∫¿¿
2Γ ( ) 0
2
x
On pose : X = donc dX =2 dx
2
+∞
1
E ( x )=
n
∫ ¿¿
2Γ ( ) 0
2
+∞
2
¿
n 0
∫¿¿
2Γ ( )
2
2 n
¿ Γ ( +1)
Γ
n
2 () 2
2 n n
× Γ( )
= n 2 2
Γ( )
2
E ( x )=n
+∞
V ( x )=∫ x f ( x ) dx−E ( x)
2 2
−∞
0 +∞
¿ ∫ x f ( x ) dx−E ( x ) + ∫ x f ( x ) dx−E ( x )
2 2 2 2
−∞ 0
+∞
¿ ∫ x f ( x ) dx−E ( x )
2 2
0
+∞
1
V ( x )= ∫ x
2
׿¿
n
0
2 Γ( )
2
+∞ 2
1 x
¿
n
∫ 2
¿¿
Γ( ) 0
2
+∞ 2
2 x
¿ ∫ .¿¿
n 0 4
Γ( )
2
+∞
2
n 0
∫ ¿¿
Γ( )
2
+∞
2
n 0
∫ ¿¿
Γ( )
2
x
Posons : X = donc dX =2 dx
2
+∞
2
V ( X )=
n 0
∫ ¿¿
Γ( )
2
+∞
4
¿
n 0
∫ ¿¿
Γ( )
2
4 n 2
¿ . Γ ( +2)−n
n 2
Γ( )
2
¿ Γ (a+1)=a Γ (a)
n n
Γ ( +2)=Γ ( +1+1)
2 2
= ( n2 +1) Γ ( n2 +1)
Γ ( +2)=( +1 )( ) Γ ( )
n n n n
2 2 2 2
D’où
V ( X )=
4
Γ( )
n
n
× +1
2 ( )( )
n
2
n
. Γ ( )−n
2
2
2
(n+ 2) n 2
¿ 4. . −n
2 2
2 2
V ( X)=n +2 n−n
V ( X )=2n
Exercices d’application
EXERCICE 1
La durée de vie des ampoules « lumineux » est une variable aléatoire continue T dont la densité de
probabilité f est définie par :
{
−0,05 t
f ( t )= 0,05 e si t ≥ 0 t en année
0 si t< 0
{
2
−t
2
f k ( t )= at e si t ≥ 0.
0 sit ≤ 0.
a) Déterminer la valeur de a.
b) Déterminer la fonction de fiabilité Rk (t ) d’un composant ainsi que la fiabilité R ( t ) du système.
' ' ''
c) Etablir une relation entre les durées des vies moyennes τ k d 'un composant et τ du système .
EXERCICE 3
Un système S tombe en panne si ou bien un élément A ne fonctionne pas ou bien deux éléments B et
C tombent en panne simultanément.
a) Etablir une relation liant les 4 évènements S, A, B, C où par exemple S : « le système
fonctionne ».
b) Esquisser le diagramme de fiabilité du système.
c) Si les fiabilités des éléments A, B et C sont respectivement égales à 0,7 ; 0,8 ; 0,8 calculer la
fiabilité de S.
d) De quel pourcentage peut-on augmenter P(s) en ajoutant en parallèle à A un élément de même
fiabilité que A ?