Vous êtes sur la page 1sur 16

CALCUL STOCHASTIQUE

I) Rappel
1- Les ensembles
a) Définition
Un ensemble considéré comme un regroupement d’objets ou d’êtres est parfaitement défini lorsqu’on
dispose d’un critère permettant de dire : tel élément appartient (∈) ou n’appartient pas (∉) à l’ensemble.
L’usage veut qu’on désigne les ensembles par des lettres majuscules (E, F, G, Ω,…) et les éléments par des
lettres minuscules (x, y, z,…).

b) Partie ou sous ensemble


Soit E un ensemble, A est un sous ensemble de E ssi x ∈ A
⇒ x ϵ E , on écrit : A ⊂ E .

Remarque :

- ∅ ⊂ E ; ∀ E ; ∅ est appelé la partie vide de E ;


- E ⊂ E ; ∀ E ; E est appelé la partie pleine de E ;
- si A ≠ E et A ≠ ∅ alors A est appelé une partie propre de E. l’ensemble des parties de
E est noté P ( E ) .

Exemple :
E={ 1 ,2 , 3 }
P ( E ) : { ∅ ; {1 } ; { 2 } ; {3 } ; {1 , 2 } ; {2 , 3 } ; { 1, 3 } ; { 1 ,2 , 3 } }

Théorème :

si E est dénombrable et fini (c'est-à-direCard ( E ) est fini) alors P ( E ) est aussi dénombrable et fini. On a :
Card [ P ( E ) ]=2Card (E)

c) complémentarité
Soit E un ensemble et A une partie de E. On appelle complémentaire de A dans E l’ensemble des éléments
A
de E qui n’appartiennent pas ( ∉ ) à A . on le note : C E ou A ou A E ou E\A.
A

Remarque : ∁ EE=E ; C EE =∅ ; C CE =A E

d) Réunion et intersection
 A U B = { x / x ∈ A ou x ∈ B }
 A ∩ B = { x / x ∈ A ou x ∈ B }

Propriétés
 A ∪ A= A
 A ∪∅= A
 A ⊂ A ∪B
 A ∩ A=A
 A ∩∅=∅
 ( A ∪B ¿ ∪ C= A ∪(B ∪C)
 ( A ∩ B)∩C= A ∩(B ∩C )
 A ∪ ( B ∩C )=( A ∪ B ) ∩( A ∪ C)
 A ∪B=B ∪ A
 A ∩ B=B ∩ A
A∪B A B
 C E =C E ∩C E
A∩B A B
 C E =C E ∪C E
 A ∩ B⊂ A
B A
 A ⊂B ⇒ C E ⊂C E

Notation

¿ 1 ≤i ≤n Ai =A 1 ∪ A 2 ∪ … ∪ An

¿ 1 ≤i ≤n Bi=B 1 ∩ B2 ∩ … ∩B n

2) Tribus
Dans la suite du cours on utilisera un ensemble Ω que l’on appellera univers. Il contient tous les aléatoires
possibles : c’est l’ensemble des possibles

a) Définition
Soit Ω un univers et P(Ω) l’ensemble des parties de Ω. Une partie de P ( Ω ) , τ (est une famille de parties de
Ω) est une tribu sur Ω si elle vérifie :
- Ω ∈τ
A
- A ∈ τ ⇒C Ω ∈ τ
- Si A1 ; A 2 ; … A n sont des éléments de τ alors
¿ 1 ≤i ≤n Ai ∈ τ

Exemple :

Ω={ 1 , 2, 3 } ⇒ P ( Ω )= { ∅ ; {1 } ; { 2 } ; {3 } ; {1 , 2 } ; {2 , 3 } ; {1 , 3 } ; { 1, 2 , 3 } }
 τ ¿ { ∅ ; { 1 ,2 } ; { 3 } ; ; { 1, 2 ,3 } }
τ est une tribu (à vérifier par l’étudiant)
 τ 1 ={ ∅ , {1,2,3 } } est aussi une tribu.

b) Conséquences
Soitτ une tribu de Ω
 ∅ ∈τ
 A1 , A 2 ,… , An des éléments de τ alors ¿ 1 ≤i ≤n Ai ∈ τ

Preuve :
Ai

Il suffit d’écrire¿ 1 ≤i ≤n ∁∁Ω =¿ 1≤ i≤ n Ai


Ω

Exercice d’application

Soit τ 1 et τ 2 deux tribus définies sur Ω. Montrer que τ 1 ∩τ 2 est une tribu.

Résolution
 Ω ∈ τ 1 et Ω ∈ τ 2 ⟹Ω ∈ τ 1 ∩ τ 2
 Soit B∈ τ 1 ∩τ 2 . Donc B∈ τ 1 et B∈ τ 2 par conséquent :
B ∈τ 1 et B ∈τ 2 d’où B ∈τ 1 ∩τ 2
 Soit B1 , B2 , … Bn ∈ τ 1 ∩ τ 2. Donc B1 , B2 … Bn ∈ τ 1 et B 1 , B 2 … Bn ∈τ 2 par suite
¿ 1 ≤i ≤n Bi ∈τ 1 et ¿ 1 ≤i ≤ n Bi ∈ τ2 par conséquent :¿ 1 ≤i ≤n Bi ∈τ 1 ∩τ 2

En conclusion : τ 1 ∩τ 2 est une tribu

.
Question :

Est-ce que la réunion de 2 tribus est-il une tribu ?

Contre exemple :

Soit Ω={ 1 , 2, 3 }
τ 1 ={ ∅ ; {3 } , { 1,2 } ; { 1,2,3 } }
τ 2 ={ ∅ ; {2 } , { 1,3 } ; { 1,2,3 } }
τ 1 ∪ τ 2= { ∅ ; ; {2 } ; { 3 } ; {1 , 2 } ; ; {1 , 3 } ; { 1 ,2 , 3 } }
{ 2 } ∪ { 3 }= {2 , 3 } ∉ τ 1 ∪ τ 2

Réponse :

D’une manière générale, l’union de deux (2) tribus n’est pas forcement une tribu.

c) Tribu borélienne
Soit R la droite achevée : R=[−∞;+ ∞ ] ={−∞ } ∪ R∪ {+ ∞ }
Soit P( R) l’ensemble des parties de R
Soit β l’ensemble des parties formées des intervalles ouverts et des réunions des intervalles ouvertes de R .
β=¿ ¿ a , b ¿
I ∈β ⇒¿
β est une tribu de R et elle est appelée la tribu borélienne de R . les éléments de β sont appelé les
boréliens.

Tribu engendrée par une famille de parties


Soit E une ensemble et P ( E ) l ' ensemble des parties de E ; L ⊂ P(E) On appelle Tribu engendrée par L ,
l’intersection de toutes les tribus contenant L .on note σ ¿
Alors σ ¿ est la plus petite tribu contenant L.
Exemple :

E=R ; a= ¿
β ( R )=σ ¿

3) Notion de mesure
a) Espace mesurable
Soit Ω un ensemble et τ une tribu définie sur Ω. Le couple (Ω , τ ) est appelé « espace mesurable ».

b) Définition de la mesure
Soit (Ω , τ ) un espace mesurable
Soit μ : P ( Ω ) → R+¿¿
A → μ (A )
μ est une mesure positive définie surτ ssi elle vérifie :
- μ ( ∅ )=0
- μ ( A ∪ B ) =μ ( A )+ μ ( B ) lorsque A ∩B=∅

(( )
n
μ ∪ Ai ) =∑ μ( Ai )
i=1

Avec Ai ∩ A j=∅ ssi i≠ j


Le triplet (Ω , τ , μ) est appelé espace mesuré.
Remarque :
 Si μ ( Ω )=1alors μ est appelée une probabilité.
 Si μ ( Ω ) <+∞ alors μ est appelée une mesure finie.
Propriétés :
 A ⊂B ⇒ μ(A)≤ μ(B)
 μ ( A ∪ B ) ≤ μ ( A )+ μ (B)
 L’ensemble E est dit μ négligeable s’il existe A ∈ τ tel que E ⊂ A et μ ( A ) =0
 E=F μ pp ( μpresque partout) ssi il existe A ∈ τ tel que E ¿ ⊂ A et μ ( A )=0

c) fonction mesurable
Soit (Ω , τ );(Ω ' , τ ') deux espace mesurables et soit f :Ω → Ω '
f est dite mesurable ssi pour tout A ' ∈ τ ' , f −1 ( A' )∈ τ
f ( A ) ={ x ∈Ω / f (x )∈ A ' }
(− 1 ) '

f ( A ) est appelé image réciproque de A par f.


−1 '

d) Tribu engendrée par une fonction


Soit Ω un espace, ( Ω' , τ ' ) un espace mesurable et f :Ω → Ω ' une application. On appelle tribu engendrée
Par f la plus petite tribu définie sur Ω qui fait de f une fonction mesurable. On la note σ (f ) et on a :
σ ( f )= { f ( A' ) , A ' ∈τ ' }
−1
4) Processus stochastique
a) Variable aléatoire
Nous appelons variable aléatoire réelle toute application x : ( Ω , τ ) →(R , β ( R ) ) mesurable.

b) Définition
Un processus aléatoire (stochastique ou encore dirigé par le hasard) est une famille ( X t , t ∈T ) de variables
aléatoires définies sur un espace probabilisé (Ω , τ , p ¿ à valeur dans un espace probabilisable(E , τ ' ).
(Souvent dans (R , β ( R ) )
Lorsque T ⊂ R , t désigne le temps et le processus est dit à « temps continu ».
Lorsque T ⊂ N , le processus est une suite de Variables aléatoires et est appelé processus à « temps
discret » : c’est le cas de Martingale et des chaines de Markov que nous allons étudier dans la suite du
cours.

c) Filtration
Soit ( X t , t ∈T ) un processus aléatoire définie sur un espace probabilisé (Ω , τ , p ¿ à valeur dans un espace
( Ω' , τ ' ) .On appelle filtration de Ω la donné d’une suite croissante (τ¿ ¿ n)n ≥ 0 ¿ de sous tribu de τ .
 ∀ n , τ n ⊂τ
 τ n est une tribu, ∀ n
 τ n ⊂τ n+1

d) Martingale
Soit X =¿ un processus adapté.
 Si ∀ n ≥ 0 , E( X n+ 1 /τ n)=X n, alors le processus est appelé une martingale ou une τ martingale.
 Si ∀ n ≥ 0 , E( X n+ 1 /τ n)≤ X n, alors le processus est appelé une sur martingale.
 Si ∀ n ≥ 0 , E( X n+ 1 /τ n)≥ X n, alors le processus est appelé une sous martingale.

Définition

Un processus ( X ¿ ¿ n)n ≥ 0 ¿ sur un espace de probabilité filtré est dit taux prévisible.
Ω→ Univers, τ → tribus, (τ n ¿ ¿n ≥ 0 → filtration, P → probabilité.
Si pour tout n , X n est τ n−1 mesurable.

5) Fiabilité

a) Introduction
La théorie de la fiabilité a pour objectif d’étudier l’aptitude des dispositifs techniques (machines,
équipements, composants, éléments…) à accomplir une fonction requise dans des conditions données et
pendant une durée donnée. En générale chaque dispositif se trouve dans l’un des cas suivants :
 Apte à fonctionner ;
 Inapte à fonctionner
Nous admettons qu’au départ chaque dispositif est en état de fonctionner et nous excluons toute
possibilité de réparer des éléments tombés en panne. Les défaillances se produisant de façon aléatoire, il
est alors logique de faire appel au calcul stochastique pour résoudre des problèmes de fiabilité au sens
restreint. Nous définissons donc la fiabilité d’un dispositif comme étant la probabilité qu’il fonctionne
correctement pendant un intervalle de temps donné, c’est à dire qu’il n’a pas de défaillance pendant cet
intervalle.
La plupart des produits industriels représentent des systèmes formés d’un grand nombre de composants
en interaction qui peuvent être regrouper en sous systèmes. Pour évaluer la fiabilité d’un système, il faut
donc connaitre :
 Les fiabilités des éléments constituants ;
 La structure des fiabilités du système.
Cette dernière définit l’état du système en fonction des états de ces composants.
Sauf indication contraire, nous admettons que les composants fonctionnent indépendamment les uns les
autres. Soit les évènements S= le système fonctionnent , Ak = le kème élément fonctionne avec
k ∈ {1,2 ; … n }
Le problème consiste à déterminer P(s) en fonction des P( A k ).
 Un système en série ne fonctionne que si tous ces éléments fonctionnent. La défaillance d’un
élément quelconque entraine donc la défaillance du système. Il en résulte que :
S= A 1 ∩ A 2 ∩… ∩ A n et P ( s )=P( A¿ ¿1)× P ( A 2 ) ×… × P( A ¿¿ n)¿ ¿

n
P ( s )=∏ P(A k )
k=1

 Un système en parallèle ne fonctionne que si au moins un de ces éléments fonctionne. Une


défaillance du système se produit donc que si tous les éléments sont défaillants. Il en résulte que
s= A 1 ∪ A2 ∪ … ∪ A n et

n
P ( s )=1−∏ ( 1− p( A k ) ¿ )¿
k=1
 Un système k-de-n ne fonctionne que si au moins k de ses éléments fonctionnent. Si on admet que
tous les éléments ont la même fiabilité
P ( Ak )=P alors :
n
P ( s )=∑ C in Pi (1−P) n−i
i=k
i n!
Avec C n=
i! ( n−i ) !

b) Durée de vie ; fonction de fiabilité et densité de défaillance


soit T k la durée de vie du k ième élément Rk la fonction de fiabilité du k ième élément, f k la densité de
défaillance du k ième élément.
 Un système en série
T s=min (T k )
k

n
R s ( t )=∏ R k (t)
k =1
 Un système en parallèle
T s=max (T ¿ ¿ k )¿
k

n
R s ( t )=1−∏ ( 1−R k (t) )
k=1
 Un système k-de-n
n
R s ( t )=∑ C in R i1 ( t ) ¿ ¿
i=k

c) Redondance à commutation
Un terme souvent utilisé en théorie de fiabilité est celui de redondance.
On parle de redondance si un ou plusieurs éléments peuvent tomber en panne sans pour autant que le
système cesse de fonctionner.
Ce surnombre des composants est utile essentiellement pour améliorer la fiabilité d’un système. Le
système en parallèle et le système k-de-n réalisent donc les redondances qu’on appelle souvent
redondance active puisque tous les éléments impliqués fonctionnent en permanence.
Par l’opposition, on parle de redondance à commutation si un seul élément est en service à la fois. Lorsqu’il
tombe en panne, un organe de commutation décèle la défaillance et effectue la commutation sur un
élément de réserve en état de fonctionner.
Si l’on ne tient pas compte d’une défaillance éventuelle de l’organe de commutation, on obtient alors pour
un système ayant n-1 éléments de réserve, une durée de vie T s=T 1 +T 2 +… T n .
Proposition
Considérons un système de type redondance à commutation comprenant deux éléments identiques dont la
−dt
fonction de fiabilité est R K ( t ) =e avec ( t> 0 ) . La densité de défaillance du système se calcule alors par la
formule :
+∞
f ( t )= ∫ f 1 ( t−u ) f 2 ( u ) du
−∞

6) Calcul de probabilité
a) Loi discrète
Loi de Bernouilli
Model

On effectue un tirage dans une urne contenant deux catégories de boule, des blanches en
proportion P(0< P< 1), et des noires en proportionsq (q+ p=1).
Soit X la variable aléatoire égale au nombre de blanche. On dit que X suit la loi de Bernouilli de
paramètre (1 , P) et on écrit X → β ( 1 , p ) .

Ω = { 0 ,1 }
'

P ( X=1 ) =P
P ( X=0 )=q

Espérance
n
E ( X ) =∑ X i P ( X= X i )
i=1
¿ 1 P ( X =1 ) +0. P ( X =0 )
¿ 1∗P+ 0.q
E ( X ) =P

Variance

n
V ( X )=∑ X i P ( X =i )−¿ ¿
i=1
=1 × P+02 q−P2
2

2
¿ P−P
¿ P(1−P)
V ( X )=Pq

 Loi binominale
Modèle

On effectue n tirage avec remise dans une urne contenant deux catégories de boule, des blanches en
proportion P(0< P< 1) et des noires en proportion q ( P+q=1) soit X le nombre de boules
blanches.
Ω' = { 0 ,1 , 2, … , n }
Dans ce cas
k k n−k
P ( X=k )=C n P q
E ( X ) =nP
V ( X )=npq

 Loi de Poisson : X ↝ P(⋋)


Ω’= N
⋋ k e−⋋
P ( X=k )=
k!
E ( X ) =⋋
V ( X )=⋋

 Loi de pascal : X ↝Pascal (⋋ , P ¿


Modèle

On effectue un tirage dans une urne contenant deux catégories de boule, des blanches en
proportion P(0< P< 1), et des noires en proportionq (q+ p=1). Soit X la variable aléatoire égale au
nombre de tirage nécessaire pour obtenir : r boules blanches.
Ω = {r , r +1 , .. }
'

r−1 r k−r
P ( X=k )=C k−1 P q
r rq
E ( X )= , V ( X )= 2
p p

 Loi hypergéométrique
Modèle

On effectue n tirage sans remise dans une urne contenant deux catégories de boule, N 1 (N 1 ≠0). N 1
boules blanches et N 2 boules noires. On pose N=N 1+ N 2 . X la variable aléatoire égale aux nombres
de boules blanches.
Ω' =¿

C kN C n−k
N
P ( x=k ) = 1 2

C nN
N1 N1
E ( x )=n =np avec p=
N N
N−n N2
V ( x )=npq avec p=
N−1 N

Rappels

Card ( A)
P ( A )=
Card (Ω)
P ( A ) + P ( A )=1
P ( A ∪ B ) =P ( A )+ P ( B )−P( A ∩ B)
P ( Ω )=1, P ( ∅ )=0

P ( )
A P ( A ∩B )
B
=
P (B)
P ( A )=P ( A ∩B )+ P (A ∩B)
0 ≤ P( A )≤ 1

b) loi continue

Fonction de densité

f est une fonction de densité de probabilité ssi


- f est continue
- f est positive ( f (x)>0 , ∀ x)
+∞
- ∫ f ( x ) dx=1
−∞

Rappels :

 Intégrale impropre
+∞ β

∫ f ( x ) dx = lim β →+ ∞ a
∫ f ( x ) dx
a
b b

∫ f ( x ) dx=αlim
→−∞
∫ f ( x ) dx .
−∞ α
+∞ 0 +∞

∫ f ( x ) dx= ∫ f ( x ) dx+∫ f ( x ) dx .
−∞ −∞ 0

 Calcul de probabilité
Soit X une variable aléatoire continue de densité de probabilité f .
b
P [ a ≤ x ≤b ] =∫ f ( x ) dx
a
+∞
P [ a ≤ x ] =∫ f ( x ) dx
a
b
P ( x ≤ b )= ∫ f ( x ) dx
−∞

 Espérance mathématique
+∞
E ( x )=∫ xf ( x ) dx
−∞

 Variance

(∫ )
+∞ +∞ 2

V ( x )=∫ x f ( x ) dx−
2
xf ( x ) dx
−∞ −∞

 Ecart type σ ( x)

σ ( x ) =√ V ( x )

 Médiane
M e est le nombre tel que :
Me
1
∫ f ( x ) dx= 2
−∞

 B1 Loi uniforme

X ↝ ⨆( [ a , b ] )

{
1
si x ∈ [ a , b ]
f ( x )= b−a
0 si x ∈ [ a ,b ]
+∞
E ( x )=∫ xf ( x ) dx
−∞
a b +∞
¿ ∫ xf ( x ) dx+∫ xf ( x ) dx+ ∫ xf ( x ) dx
−∞ a b
b
x
¿∫ dx
a b−a
b
1
¿ ∫ xdx
b−a a

[ ]
b
1 1 2
¿ x
b−a 2 a
1 1 2 2
¿ × (b −a )
b−a 2
b+a
E ( x )=
2
V ( x )=¿ ¿

 B2 Loi exponentielle

X ↝ E(d) avec d >0

{
−dx
f α ( x )= ⋋ e si x ≥ 0
0 si x <0

1
E ( x )=

1
V ( x )= 2

 B3 Loi normale de Gauss

X ↝ N (m , σ ).
−1
1 2
¿¿
f α ( x )= e
σ √2 π
E ( x )=m
V ( x )=σ 2

 Réponse importante
+∞ −1 2
x
∫e 2
dx=√ 2 π
−∞
 B4 Fonction Gamma et loi Khi-deux

On appelle fonction Gamma associée à tout réel r strictement positif, l’intégrale absolument
convergente.
+∞
Γ ( r ) =∫ x
r−1 −x
e dx
0

1) Vérifie que Γ ( 1 )=1


2) Vérifier que ∀ a ≥ 0 , Γ ( a+1 )=a Γ (a)
2
3) Une variable aléatoire continue x suit la loi x n (K hi −deux) à n degré de liberté si elle admet pour
densité de probabilité :
¿
Calculer E ( x ) et V ( x ) .

Résolution

+∞
Γ ( r ) =∫ x
r−1 −x
e dx
0

1) Vérifions que Γ ( 1 )=1


+∞
−x +∞
Γ ( 1 )=∫ x e dx= [− e ] =[ 1−(0) ] =1
0 −x
0
0

Γ ( 1 )=1
2) Vérifions que ∀ a ≥ 0 , Γ ( a+1 )=a Γ (a)
+∞
Γ (a+1)=∫ x
( a +1) −1 −x
e dx
0

+∞
¿ ∫ x a e−x dx
0
2 ' (a−1)
soit U =x ; U =a x
' −x −x
V =e ; V =−e
∫ U V ' =U V ' −∫ U ' V
+∞
a −∞
Γ (a+1)=[ −e x ] −∫ −a x
−x (a −1 ) − x
0 e dx
0
+∞
Γ ( a+1 ) =a ∫ x
(a −1 ) − x
e dx
0

Γ (a+1)=a √ a
3) La densité de probabilité de la loi Gamma
¿
On doit justifier que la fonction
f est continue, positif (f ( x)≥ 0) et que
+∞

∫ f ( x ) dx=1
−∞

La continuité et la positivité sont évidentes


+∞ 0 +∞

∫ f ( x ) dx= ∫ f ( x ) dx+ ∫ f ( x ) dx
−∞ −∞ 0

+∞ +∞
1
∫ f ( x ) dx=∫ n
¿¿¿
−∞ 0
2 Γ( )
2
+∞
1
¿
n
∫¿¿
2Γ ( ) 0
2

x
On pose : = X ⇒ x=2 X ⇒ dx=2 dX
2
+∞ +∞
1
∫ f ( x ) dx= n ∫ ¿ ¿
−∞
2Γ ( ) 0
2
+∞
2
¿
n
∫¿¿
2Γ ( ) 0
2
1 n
¿ × Γ ( )=1
n 2
Γ( )
2

[∫ ]
+∞
f ( x ) dx=1 alors la fonction f ( x) est une fonction de densité.
−∞

Calculons E ( x )
+∞ +∞ 0 +∞
E ( x )=∫ f ( x ) dx=1⇒ ∫ f ( x ) dx= ∫ f ( x ) dx+ ∫ f ( x ) dx
−∞ −∞ −∞ 0

+∞ +∞
1
E ( x )=∫ f ( x ) dx=∫ ¿¿¿
n
−∞ 0
2Γ ( )
2
+∞
1
¿
n
∫¿¿
2Γ ( ) 0
2

x
On pose : X = donc dX =2 dx
2
+∞
1
E ( x )=
n
∫ ¿¿
2Γ ( ) 0
2
+∞
2
¿
n 0
∫¿¿
2Γ ( )
2
2 n
¿ Γ ( +1)
Γ
n
2 () 2

2 n n
× Γ( )
= n 2 2
Γ( )
2

E ( x )=n
+∞
V ( x )=∫ x f ( x ) dx−E ( x)
2 2

−∞
0 +∞
¿ ∫ x f ( x ) dx−E ( x ) + ∫ x f ( x ) dx−E ( x )
2 2 2 2

−∞ 0
+∞
¿ ∫ x f ( x ) dx−E ( x )
2 2

0
+∞
1
V ( x )= ∫ x
2
׿¿
n
0
2 Γ( )
2
+∞ 2
1 x
¿
n
∫ 2
¿¿
Γ( ) 0
2
+∞ 2
2 x
¿ ∫ .¿¿
n 0 4
Γ( )
2
+∞
2
n 0
∫ ¿¿
Γ( )
2
+∞
2
n 0
∫ ¿¿
Γ( )
2
x
Posons : X = donc dX =2 dx
2
+∞
2
V ( X )=
n 0
∫ ¿¿
Γ( )
2
+∞
4
¿
n 0
∫ ¿¿
Γ( )
2

4 n 2
¿ . Γ ( +2)−n
n 2
Γ( )
2
¿ Γ (a+1)=a Γ (a)
n n
Γ ( +2)=Γ ( +1+1)
2 2

= ( n2 +1) Γ ( n2 +1)
Γ ( +2)=( +1 )( ) Γ ( )
n n n n
2 2 2 2

D’où
V ( X )=
4
Γ( )
n
n
× +1
2 ( )( )
n
2
n
. Γ ( )−n
2
2

2
(n+ 2) n 2
¿ 4. . −n
2 2
2 2
V ( X)=n +2 n−n

V ( X )=2n

Exercices d’application
EXERCICE 1
La durée de vie des ampoules « lumineux » est une variable aléatoire continue T dont la densité de
probabilité f est définie par :

{
−0,05 t
f ( t )= 0,05 e si t ≥ 0 t en année
0 si t< 0

1) Calculer l’espérance de vie de cette ampoule


2) Calculer la variance de T
3) Quelle est la probabilité pour que la durée de vie d’une ampoule soit supérieure à 2 ans.
4) On suppose qu’un lot de 12 ampoules commandées ont chacune une durée de vie supérieure à 2
ans.
a) On place douze (12) ampoules en série. Quelle est la fiabilité du dispositif.
b) Déterminer la fiabilité d’un dispositif plaçant 6 ampoules es séries et en dérivation avec 6
autres.
EXERCICE 2
Un système est formé de deux (2) composants identiques indépendants montés en parallèle.
La durée de vie T R (K =1 ,2) de chacun d’eux obéit à la densité de probabilité.

{
2
−t
2
f k ( t )= at e si t ≥ 0.
0 sit ≤ 0.
a) Déterminer la valeur de a.
b) Déterminer la fonction de fiabilité Rk (t ) d’un composant ainsi que la fiabilité R ( t ) du système.
' ' ''
c) Etablir une relation entre les durées des vies moyennes τ k d 'un composant et τ du système .

EXERCICE 3
Un système S tombe en panne si ou bien un élément A ne fonctionne pas ou bien deux éléments B et
C tombent en panne simultanément.
a) Etablir une relation liant les 4 évènements S, A, B, C où par exemple S : « le système
fonctionne ».
b) Esquisser le diagramme de fiabilité du système.
c) Si les fiabilités des éléments A, B et C sont respectivement égales à 0,7 ; 0,8 ; 0,8 calculer la
fiabilité de S.
d) De quel pourcentage peut-on augmenter P(s) en ajoutant en parallèle à A un élément de même
fiabilité que A ?

Vous aimerez peut-être aussi