Vous êtes sur la page 1sur 29

Chapitre 2 

:
Modèles de changements bayésiens

2.1. Introduction
La fréquence des changements de situation dans plusieurs domaines scientifiques
explique l’intérêt porté à l’analyse statistique des points de rupture et de l’estimation.
En effet, dans la pratique, lorsque les structures de contrôle révèlent qu’il y a des
ruptures quelque part dans l’évolution du phénomène étudié, il est naturel que l’on
veuille localiser la position de ces ruptures qui est à l’origine du changement de
régime. Un lieu ou un temps de sorte que les observations suivent une distribution
jusqu’à ce point et suivent une autre distribution après celui-ci. Plusieurs problèmes
peuvent être définis similairement. Ainsi l’approche est double : on peut se contenter
de vérifier s’il y a rupture (souvent considérer comme un problème de test
d’hypothèse) ou bien de localiser le point de rupture s’il y a lieu (vu parfois comme
un problème d’estimation). Une rupture d’un modèle paramétrique est définie par un
changement de l’une ou plusieurs de ces caractéristiques. Il peut s’agir par exemple de
la moyenne, de la variance, du moment d’ordre r, de la famille de la distribution...
Quand ce modèle paramétrique change de structure, il est important de connaître le
point où a eu lieu le changement ainsi que les valeurs des paramètres du modèle avant
et après la rupture.
Notre étude est basée sur la méthodologie bayésienne. Dons, nous cherchons a
prouvé sa capacité à fournir de solution flexible et fiable. Dans ce chapitre, nous
présentons quelqu’un des modèles de changement le plus important utiliser dans le
domaine de la mesure économétrique, sociologique et sanitaire, dans la fin en parle de
la problématique de changements dans un point de vue bayésien en analyse de survie.
2.2. Modes de changements et les travaux bayésiens
On sait depuis longtemps que le sujet de la détection des points de changement a
gagné une attention considérable dans la littérature en raison de son importance dans
de nombreuses applications. L'analyse des points de changement peut être attribuée à
l'origine qui développe un test pour un changement dans un paramètre se produisant à
un point inconnu. Par la suite, le problème de détection de les changements ont été
largement étudiés dans un large éventail de disciplines, notamment la finance, la bio-
informatique, la climatologie, l'économétrie, l'analyse du trafic réseau, etc.
Exemple,pour créer l'environnement d'investissement le plus sûr, les investisseurs
financiers accordent souvent beaucoup d'attention à la volatilité du marché boursier et
de développer des modèles économiques efficaces pour surveiller l'emplacement d'un
point de changement s'il existe.Les variations dans le nombre de copies d'ADN sont
des phénomènes courants dans le génome d'un individu, mais ces variations peuvent
également jouer un rôle important dans le développement du cancer. Les biologistes
peuvent utiliser des modèles de détection de points de changement pour identifier les
régions du génome où ces variations significatives se produisent. Ces modèles sont
basés sur l'hypothèse que les variations du nombre de copies d'ADN apparaissent
comme des points de changement abrupts dans les données génomiques, qui sont des
endroits où il y a une augmentation ou une diminution significative dans le nombre de
copies d'ADN. En identifiant ces points de changement, les chercheurs peuvent mieux
comprendre les mécanismes sous-jacents du cancer et développer de nouveaux
traitements ou thérapies ciblées pour cette maladie.
Parmi les recherches bayésiens. Chernoff et Zacks (1964) et Kander et Zacks
(1966) ont étudié une série de variables aléatoires gaussiennes et indépendantes et ont
proposé un test bayésien (paramétrique) pour démontrer un changement de la
moyenne. Manzefricke (1981) a étudié une suite de variables aléatoires indépendantes
et gaussiennes, où les densités de probabilité a postériori du point de rupture et le
rapport des variances ont été déterminés dans trois cas. Abdelli (1993) s'est penché sur
le problème de la rupture des séries chronologiques. Ilmakunnas et Tsurumi (1984)
ont étudié un modèle de régression d'erreur autocorrélée où le changement est lié au
coefficient d'autocorrélation. Récemment, de nouveaux résultats théoriques sont
apparus, comme ceux de Fotopoulos et al (2010). Fearnhead (2006) et Rigaill et al
(2012) qui s'intéressent au problème des ruptures multiples.
2.3. Le modèle gaussien
2.3.1. Point de rupture
Définition 2.1: Nous dirons qu’il y a rupture dans une suite de variables aléatoires
X 1 , X 2 , X 3 ,... , X ns’il existe un entier m (1 ≤ m ≤ n − 1); tel que les variables aléatoires

X 1 , X 2 , X 3 ,... , X msuivent une loi de probabilité de fonction de répartition F 1( x ∖ θ1) et

les variables aléatoires X m+1 ,... , X n suivent une autre loi de probabilité de fonction de
répartition F 2(x ∖ θ2) , ou θ1 et θ 2 sont des paramètres inconnue réels ou vectoriels (
θ1 ≠θ 2) .

Le point m est appellé point de rupture ou point de changement . Dans la


littérature anglo-saxonne il est connu sous le nom de shift point ou change point.
2.3.2. Les différents modèles de rupture
2.3.2.1. Rupture unique
Nous dirons qu’il y a rupture dans une suite de variables aléatoires X 1 , ... , X n de
fonction de répartition F i( x ∖ θi ), i=1 , n, s’il existe un entier m(1 ≤m ≤ n− 1) telque :

Xi
{F 1 ( x ∖ θ1 ), i=1 , ..., m
F 2 ( x ∖θ 2) ,i=m+1 , ... ,n

Avec θ1 et θ 2 sont des paramètres inconnus réels ou vectoriels (θ1 ≠θ 2).

la figure représente une rupture dans une loi normale.


2.3.2.2. Ruptures multiples
Nous dirons qu’une suite de variables aléatoires admet des ruptures multiples s’il
existe des entiers m..... q , avec (1 ≤ m≤...... ≤ q ≤ n −1) telque:

θ1=...=θm ≠ θm+1 =...=θq +1=...=θn

La figure représente une séries ayant subi plusieurs rupture par rapport au seuil
adaptatif.
2.3.2.3. Rupture épidémique
Soit X 1 , ... , X ndes variables aléatoires réelles de répartition continues respective
F 1 , ... , F n. Considérons le modèle épidémique suivant :
Il existe des entiers m et q (1≤ m ≤q ≤n) tels que
F 1=F2 ...=F m=F q+1 =...=F n=F
F m+1=...=Fq =G et F ≠ G
Nous notons l=q −mla longueur de l’épidémie. Et m , q les bornes de localisation.
Parmi les chercheurs qui se sont intéressés au problèmes de rupture épidémique,
citons Rackauskas et Suquet .

La figure indique une rupture épidémique.


2.3.3 Rupture dans la moyenne
Nous nous intéressons dans cette section à une analyse Bayésienne d’une suite de
variables aléatoires Gaussiennes, ayant subit un changement dans la moyenne à un
instant inconnu. Soient X 1 , X 2 ,... , X n cette suite de moyennes φ i, i=1 , ..., n et de
variance σ 2.
2.3.3.1 Présentation du modèle
Considérons le modèle suivant :

{ X i=φ0 +ε i ; i=1,2 , … , m
X i=φ1 +ε i ; i=m+ 1, … , n
(2.1)

où:
φ 0 et φ 1 sont des constantes réelles, inconnues et différentes. Elles représentent les

moyennes des variables aléatoires X i avant et après le changement respectivement.


Les ε ireprésentent les erreurs aléatoires, qui peuvent êtres indépendantes où auto-
corrélées.
Le paramètre m représente le point de rupture. C’est un entier qui varie entre 1 et n
étant la taille de l’échantillon.
2.3.3.2 Cas où les erreurs sont indépendantes
Nous considérons le modèle (2.1) et nous supposons que les erreurs aléatoires
i=1 , ..., n sont gaussiennes, indépendantes et identiquement distribuées de moyenne
nulle et de variance constante et inconnue σ 2 ; ε i N(0, σ 2))
La fonction de vraisemblance
Comme
X i ∼ N (φ 0 , σ 2) pour i=1 , ..., m ,

et 2
X i ∼ N (φ 1 , σ ) pour i=m+1 ,... , n .

Alors la fonction de vraisemblance L associée aux variables X 1 , X 2 ,... , X n est donnée


par :

{ [ ]}
m n

∑ ( X i − ϕ 0)2 + ∑
−n /2
L(m , σ 2i , ϕ 0 , ϕ 1 / X )∝ ( σ 2i ) exp − 1/(2 σ 2i ) ( X i − ϕ1 )2
i=1 i=m+ 1

L’analyse a posteriori
La densité conjointe a posteriori des paramètres (m; σ2; ϕ 0 ; ϕ 1) est donnée en vertu du
théorème de Bayes par :
π 1 (m ,σ 2i , ϕ 0 , ϕ 1) ∝ L(m , σ 2i , ϕ 0 , ϕ1 / X ) π 0(m, σ 2i , ϕ 0 , ϕ 1)

avec 2 la densité conjointe a priori des déférents paramètres du


π 0 (m , σ i , ϕ 0 , ϕ 1 )

modèle.
Premier cas :
En assignant des lois a priori impropres aux paramètres et (ϕ , ϕ ) et une loi
σ 2i 0 1

uniforme
sur 1 ,2 , ... , n− 1 pour le point de rupturem. Le théorème suivant nous détermine la
masse de probabilité marginale a posteriori du point de rupture m.
Théorème 2.3.(Broemeling L.D et Holbert D,1977)
Étant donné le modèle (2.1):

{ X i=φ0 +ε i ; i=1,2 , … , m
X i=φ1 +ε i ; i=m+ 1, … , n

où φ ≠ φ et Avec ϕ , ϕ et sont des paramètres inconnues.


ε i N ( 0 , σ ) , σ >0.
2
0 1 0 1 σ

Si les densités a priori des paramètres 2 , (φ , φ ) et du point de rupture m sont


σi 0 1

données
respectivement par :

2 2
π 0 (σ i )∝1/σ i

π 0 (φ 0 , φ 1) ∝constante sur IR2

π 0 ( m) ∝1/ ( n −1 )

pour m=1,2, … , n −1 et σ 2i ,(φ0 , φ1 )et m sont indépendants .

alors la masse de probabilité a posteriori du point de rupture k est donnée par:


−(n − 2)/2
π 1 ( m )=π (m/ X)∝ [ m(n − m) ]
−1 /2
[ S m1 + Snm +1 ]
N
où : N 2
S =∑ ( X i − X j )
N
j
i= j

N
et 1
X Nj = ∑ X , pour N=1,2, … , n .
N − j+ 1 i= j i

Corollaire 2.1. (Broemeling L.D et Holbert D, 1977)


Sous les hypothèses du théorème précédent, les densités a posteriori marginales φ 0 , φ 1
et σ i sont données respectivement par :

n− 1
où est la densité
a ¿ π (φ 0 / X )∝ ∑ π 1 ( m ) t(n− 2 , y ) √m(Sm1 + S nm+1 )− 1/ 2 t (n −2 , y)
m− 1

d’une loi de student à (n −2) degrés de liberté de variable y, avec :

y= √ m ( n −2 ) ( (X j − ϕ0 )/ √( S1 + Sm +1) )
m m n

n −1
où est la densité
b ¿ π (φ 1 / X) ∝ ∑ π 1 ( m ) t (n −2 , z) √ n− k (S1m+ S nm+1 )−1 /2 t (n −2 , z)
m=1

d’une loi de student à ( n −2 ) degré de liberté de variable z , avec :


z=√ n − m¿
n−1
c)
π (σ i / X) ∝ ∑ π 1 ( m ) g(r , a , S 1 +S m+1 )
∗ m n

m =1

où : r =σ − 2 et g est la densité d’une loi de gamma de paramètresa ∗=a+n /2 et

( S m1 + S nm+1 )
Deuxième cas :
Après avoir assigné une densité a priori non informative à la variance σ2,
intéressons-nous au cas où nous assignons à la précision des erreurs (R = 1=σ 2) une
densité a priori propre, par exemple une loi gamma de paramètres a, b strictement
positifs. D’où le théorème suivant :
Théorème 2.2. (Broemeling L.D. et Holbert D, 1977)
Reprenons le même modèle (2.1) en gardant les mêmes hypothèses pour les
paramètres m , φ0 , φ1et assignons à la précision des erreurs

strictement positifs comme densité a


ε i( R=1=σ 2 )une loi gamma de paramè tres a , b

priori, ie Alors la masse de probabilité a posteriori du point de


π 0 ( r ) ∝ ba r a − 1 e −br .

rupture m est donnée par:


1
− ∗
− (a − 1)
π 1 ( m ) ∝ [ m ( n− m ) ]
2
[ 2b+ S m
1 +S
n
m +1]
où a ∗=a+n /2.
2.3.3.3 Cas où les erreurs sont auto-corrélées
Supposons que les moyennes φ 0 et φ 1 du modèle (2.1) sont différentes et inconnues.
Les ε i, i = 1,.., n suivent un processus auto-régressif d’ordre un.
et sont inconnus.
ε i=ρ ε i −1 +e i ; ei N ( 0 , σ 2i ) , i=1,2 , … , n; ρ σ 2i

La dépendance des variables X i , i=1,2 , … ,n intervient dans la corrélation des erreurs


ε i , i=1,2 , … , n.
La fonction de vraisemblance
Comme les alors :
ε i N (0 , σ 2)

− (n2 +1) 1
L(θ / X)∝ σ 2 exp ⁡(− 2
A (θ))

avec :

k
A ( θ )=∑ ( X i − ρ X i − 1 − φ0 (1 − ρ) ) +( X k+1 − ρ X k − φ1+ ρϕ0 )2
2

i=1

n
+ ∑ ( X i − ρ X i − 1 − φ1 (1− ρ)) 2
i=k +2

Pour une loi a priori impropre aux paramètres . nous déterminons la


m , σ 2 , φ0 , φ1 , ρ

masse de probabilité marginale a posteriori du point de rupture k .


L’analyse a posteriori
En assignant une densité conjointe a priori impropre aux paramètres m , φ0 , φ1, ρ et σ 2
nous déterminons la masse de probabilité marginale a posteriori du point de rupture m
. Soit le théorème suivant :
Théorème 2.3. (Broemeling L.D et Holbert D,1977)
Considérons le modèle (2:1) :

{ X i=φ0 +ε i ; i=1,2 , … , m
X i=φ1 +ε i ; i=m+ 1, … , n

où:

ε i=ρ ε i −1 + ε i , e i N ( 0 , σ ) , i=1,2 , .., n .


2

ρ et σ 2 sont inconnue. On suppose que la densité conjointe a priori des paramètres

2 est :
m , σ , φ0 , φ1 , ρ

π 0 (m , σ , φ0 , φ1 , ρ)∝ 1/ (( n− 1)σ )
2 2

alors la masse de probabilité a posteriori du point de rupture k est donnée par:

[ ]
n
1 β 22 −( − 1)
2
π 1 ( m )=∫ + ((α 2 a+ β 1 β 2)/ √ α 2 a + β 1 a )
2 2
α − dρ
IR √ α 1 a − β1
3
2 a

a=m(1− ρ)2+ ρ2

2
α 1=(n− m− 1) ( 1− ρ ) +1

n
α 3=∑ ( X i − ρ X i −1 )
2

i=2

β 1=ρ

k n
β 2=( 1− ρ) ∑ ( X i − ρ X i− 1 ) + ρ(X m+1 − ρ X m )+ ∑ ( X i − ρ X i −1 −φ 1(1 − ρ))2
i=2 i=m+2

2.3.4. Rupture dans la variance


Dans cette section, nous considérons le modèle précédent et nous nous intéressons
au cas où une rupture dans la variance apparaît à un instant inconnu m. Il s’agit donc
d’un modèle du type :

{ X i=φ0 +ε i ; i=1,2 , … , m
X i=φ1 +ε i ; i=m+ 1, … , n

Le point de rupture m est supposé inconnu, φ 0 , φ 1représentent la moyenne des


variables aléatoires Xi avant et après le changement respectivement.
Les ε i sont des variables aléatoires gaussiennes et indépendantes de moyenne nulle et

de variances 2 si et 2 si ,( ).
σ1 i=1,2 , … , m σ2 i=m+1 , … , n σ 21 ≠ σ 22

i .e ε i
{
N ( 0 , σ 21)
2
i=1,2, … , m
N ( 0 , σ ) i=k +1 , … , n
2

1
σ 2j = désigne la précision des erreurs pour j=1,2où t j , j=1,2.
tj
En assignant des densités de probabilité a priori aux paramètres m , φ0 , φ1 ,t 1 et t 2,
Menzeefricke en 1981 a déterminé les lois de probabilité a posteriori du point de

rupture m et du rapport des précisions t 1 dans les trois cas suivants :


τ=
t2

a) φ 0 , φ 1sont connues.
b) φ 0=φ 1=φ inconnue.
c) φ 0 , φ 1sont distincts et inconnues.
Supposons que la densité de probabilité conjointe a priori des paramètres
m , φ0 , φ1 ,t 1 et t 2 de ce modèle est donnée par :
π 0 (m ,t 1 ,t 2 , ϕ 0 , ϕ 1 )∝ π 0 (m)π 0 (t 1 ) π 0 (t 2) π 0 (ϕ 0 /t 1) π 0( ϕ 1 / t 2 )
où :
est toute masse de probabilité sur (2.2)
π 0 ( m) {1,2 , … n }

(
π 0 ( φ0 /t 1 )=N ϑ 1 ,
1
γ 1t 1 )
(2.3)
(
π 0 ( φ1 /t 2) =N ϑ 2 ,
1
γ 2t2 )
(2.4)

π 0 ( t j )=Γ ( α2 , β2 ) j=1 ,2.(2.5)


j j

où : ϑ j , γ j et α j et β j , j=1,2. Sont des constantes connus, avec α j >0 et β j >0.


Premier cas :φ 0 , φ 1sont connues.
Les lois de probabilité a priori sont et telle que définies dans
π 0 ( m) , π 0 ( t1 ) π 0 ( t2 )

(2.2) et (2.5). Alors:


1) La masse de probabilité a postériori du point de rupture k est donnée par :

[ ]
α 1+m α 2+n −m
α 1+ m α 2+ n− m
π ( m/ X , φ0 , φ1 ) ∝ π 0 ( m) . β , B1 m2 B 2 m 2
2 m

2) La densité a postériori marginale de t 2 est :


τ=
t1

α 2+n −m
−1
n 2
τ
π ( τ / X , φ 0 , φ1 ) ∝ ∑ π 0 ( m ) α1 +α 2+n
m=1
[ B1 m +τ B 2 m ] 2

3) La densité a postériori conditionnelle de t 2 est :


τ=
t1

α 1+m α 2+n − m
−1
1 / [ B1 k ] 2
τ B2 m 2
π ( τ /m , φ0 , φ1 , X ) ∝ ∗
[ ]
α 1+α 2+ n
α 1 +m α 2+ n− m
β
2
,
2
[ B1 m + τ B2 m ] 2

où :

B1 m=m . s12m + β 1 , B2 m=(n − m). s22 m + β 2

avec :

m n

∑ ( X i − φ0 ) 2
∑ ( X i −φ 1) 2 ,
s21 m= i=1 , s22 k = i=m +1
m n −m
Deuxième cas :φ 0=φ 1=φ inconnue.
Les densités de probabilité a priori utilisées sont π ( m ) , π φ / t et π t , j=1,2.
0 0 ( 0 1) 0 ( j)

telles que définies dans (2.2),(2.3) et (2.5) avec ϑ 1 =ϑ 1=ϑ et γ 1=γ 1=γ .Alors :

1) La densité de probabilité conditionnelle de t 2 sachant est :


τ= k
t1

α2 +n −m α 1+α 2+n − 1

τ 2
[ γ + m+ τ (n − m)] 2
π ( τ /m , X ) ∝ α 1+α 2+n

[ am τ 2
+b m τ+ c m ] 2

a k =(n− m) [ ( n − m ) s 22 m + β 2 ]

b k =( γ +m ) [ ( n− m ) s22 k + β 2 ]

+(n −m) [ m s 1 m + β 1+ γ ( X 2 m − ϑ ) + m( X 1 m − X 2 m ) ]
2 2 2

c m= ( γ + m) ( ms 1 m + β − 1 ) +γ m (X 1 m −ϑ )
2 2

avec

m n

∑ ( X i − X 1 m )2 ∑ ( X i − X 2 m )2
2 i=1 2 i=m+1
s1 m= , s 2 m=
m n −m

m n

∑ ( Xi) 2
∑ (X i )
2

i=1 i=m+1
X1m= , X 2 m=
m n −m

2) La masse de probabilité a postériori du point de rupture m est :


+∞
π ( m/ X )=π 0 (m) ∫ π ( τ /m, X ) dτ
0

Troisième cas : φ 0 et φ1 sont distinctes et inconnues.


La loi a priori conjointe des paramètres m , φ0 , φ1 ,t 1 et t 2 est
π 0 (m ,t 1 ,t 2 , ϕ 0 , ϕ 1 )∝ π 0 (m)π 0 (t 1 ) π 0 (t 2) π 0 (ϕ 0 /t 1) π 0( ϕ 1 / t 2 )
alors :
1) La masse de probabilité a postériori du point de rupture k est :

π ( m/ X ) ∝
π0 ( m ) . β [ α 1+ m α 2+ n −m
2
.
2
α 1+ m
]
α 2+n − m
1
1/ 2
[ γ 1 +m ] [ γ2 +n −m ] 2 B́1 m2 B́2 m 2
2) La densité de probabilité conditionnelle de τ sachant m est :
α1 +m α 2+ n− m
1/τ [ B m ] 2
[ τ B2 m ] 2
π ( τ /m , X ) ∝
[ ]
α 1+ α2 +n
α 1 +m α 2 +n −m
β
2
.
2
[ B́1 m + τ B́2 m ] 2

mγ1 2
B́1 m= ( ϑ 1 − X 1 m ) +m s 21 m+ β1
γ 1+ m

(n − m) γ 2 2 2
B́2 m=
γ 2+ n− m
( ϑ 2 − X 2m ) +(n −m) s2 m + β 2

avec

2 2 ont été définis précédemment.


s1 m , s 2m , X 1 m et X 2 m

2.4. Le modèle de changements pour les données d’inter-défaisance


Nous considérons la présence de deux ou plusieurs points de changement pour le
temps de vie avec des risques constants, en généralisant des travaux antérieurs (voir
par exemple Achcar et Bolfarine (1989).
Considérons un processus de Poisson homogène avec un ou plusieurs points de
changement à des moments inconnus. Avec un seul point de changement, le taux
d'occurrence au temps s est donné par

λ (s)=
{ λ1 0≤ s ≤ τ
λ2 s> τ
(2.6)

L'analyse du processus de Poisson est basée sur les données de comptage dans la
période [0 ,T ] où N (T )=n est le nombre d'événements qui se produisent aux temps
ordonnés t 1 , t 2 , ... t n .
Avec deux points de changement à des moments inconnus τ 1 et τ 2le taux
d'occurrence est donné par

{
λ1 0<s ≤ τ 1
λ (s)= λ2 τ 1 <s ≤ τ 2 (2.7)
λ 3 τ 3< s ≤ T

Nous pouvons également avoir des processus de Poisson homogènes avec plus de
deux points de changement.
L'utilisation de méthodes bayésiennes a été considérée par de nombreux auteurs
pour les processus de Poisson homogènes ou non homogènes en présence d'un point
de changement (voir par exemple Raftery et Akman (1986) ou Ruggeri et
Sivaganesan (2005). Observez que les temps entre deux défaillances pour un
processus de Poisson homogène suivent une distribution exponentielle.
Nous présentons une analyse bayésienne pour les données inter-défaillances avec
une fonction de risque constante, en supposant plus d'un point de changement et en
utilisant des méthodes MCMC (voir par exemple (Gelfand, A. E; Smith, A. F. M.
(1990)).
La fonction de vraisemblance
Soit x i=t i − t i −1 , i=1,2 ,... , n où t 0=0 , sont les temps d'inter-faillite et supposent
un modèle à point de changement unique (2.6). De cette manière, nous observons que

i
x i a une distribution exponentielle avec le paramètre λ 1pour ∑ xk ≤ τ et une
k =1

i
distribution exponentielle avec un paramètre λ pour
2 ∑ x k > τ ,i=1,2 , ... ,n .En
k =1

supposant que le point de changement τ prend les valeurs t i, la fonction de


vraisemblance pour λ 1, λ 2et τ est donnée par

N (T )
L( λ 1 , λ2 , τ )= ∏ (λ1 e
− λ1 x i ϵ i − λ2 xi 1− ϵ i
) ( λ2e ) ( 2.8)
i=1
i i
où ϵ =1 si et ϵ =0 si
i ∑ x j≤ τ i ∑ x j ≥ τ . C'est-à-dire,
j=1 j

N (T ) − λ1 τ N (T )− N(τ ) − λ 2(T − τ)
L( λ 1 , λ2 , τ )=λ 1 e λ2 e (2.9)

N (T) N (T ) N (T)
où , , et .
N ( τ)= ∑ ϵ i N (T )=n τ = ∑ x i ϵ i T − τ= ∑ x i (1 −ϵ ¿¿ i)¿
i=1 i=1 i =1

Supposons un modèle à deux points de changement (2.7), les points de


changement τ 1 et τ 2prenant des valeurs discrètes τ 1 =t i , τ 2=t j (t i< t j , i≠ j¿ avec

et . La fonction de vraisemblance pour , , , et est donnée


k 1=N (τ 1 ) k 2=N (τ 2 ) λ1 λ2 λ2 τ1 τ 2

par

n
L(λ 1 , λ2 , λ3 , τ 1 , τ 2)=∏ ( λ1 e
− λ1 x i ϵ1 ,i − λ2 x i ϵ2 ,i − λ3 x i ϵ3 ,i
) (λ2 e ) ( λ3 e )
i=1

{
i
1 si ∑ x k ≤ τ
ϵ 1 ,i = k=1 ( 2.10)
i
0 si ∑ x k >τ
k=1

{
j
1 if τ 1< ∑ xk ≤ τ 2
ϵ 2 ,i = k=1 +1 (2.11)
j j
0 si ∑ x k ≤ τ 1 où ∑ x k >τ 2
k=1 +1 k=1+1

{
i
1 si τ 2< ∑ x k ≤ τ
ϵ 3 ,i = k=1 (2.12)
i
0 si τ 2 < ∑ x k ≥ τ
k=1

c'est-à-dire,
L( λ 1 , λ2 , λ3 , τ 1 , τ 2)=¿

N (τ 1) − λ1 τ 1 N (τ 2)− N (τ 1) − λ2 (τ 2 −τ 1) N (T )− N (τ 2) − λ 3(T − τ 2)
λ1 e λ2 e λ3 e (2.13)
N(T ) N(T ) N(T )

∑ ϵ 1 ,i =N (τ 1 ), ∑ ϵ 2 ,i =N (τ 2 )− N (τ 1 ), ∑ ϵ 3 ,i =N (T )− N ( τ 2) et
N (T )=n
.
i=1 i=1 i=1

N (T)n N (T )n N (T )n
Observez que , et .
τ 1 = ∑ xi ϵ 1 ,i τ 2 − τ 1= ∑ x i ϵ 2 ,i T − τ 2= ∑ x i ϵ 3 ,i
i=1 i=1 i=1

De même, nous pourrions généraliser pour plus de deux points de changement.


Analyse Bayésienne
Supposons le modèle de point de changement (2.6) avec un seul point de
changement τ . Supposons que τ est indépendant de λ 1et λ 2, et aussi que λ 1est
conditionnellement indépendant λ 2, étant donné τ =t i. En considérant une distribution
préalable non informative pour λ 1 et λ 2 étant donné τ . (voir par exemple Box et Tiao
(1973)), on a
1
π ( λ 1 , λ2 , τ =t i )=π (λ 1 , λ2 ∖ τ =t i ) π ( τ=t i)∝ π (τ=t i)(2.14 )
λ1 λ2
où λ 1 , λ2 >0 .
En supposant une distribution a priori uniforme π 0 (τ =t i)=1 /n , ta distribution
postérieure conjointe pour λ 1 , λ2 et τ est donnée par

π ( λ 1 , λ2 , τ ∖ D)∝ λ N1 (τ )−1 e− λ τ λn2 − N (τ)− 1 e − λ (T − τ) (2.15)


1 2

où D représente l'ensemble des données.


Observez que nous utilisons une distribution a priori dépendant des données pour
le point de changement discret (voir par exemple Achcar et Bolfarine (1989)).

Observez aussi que l'événement τ=t est équivalent à


{ i} { N (t i )=i }, où t i sont les

époques d'occurrence ordonnées des défaillances. Nous pouvons également considérer


une distribution a priori informative suit la loi gamma pour les paramètres λ 1 et λ 2.
La distribution marginale a posteriori pour τ are, d’aprés (2.15), donnée par

Γ [ N (τ)] Γ [ n− N (τ ) ]
π (τ ∖ D)∝ N (τ ) n− N (τ )
(2.16)
τ (T − τ )
En supposant que τ =τ ∗ connu, la distribution marginale a posteriori de λ 1 et λ 2 est
donnée par

(i ) λ 1 ∖ τ , D ∼ Gamma [ N (τ ) , τ ]
∗ ∗ ∗

(ii) λ2 ∖ τ , D∼ Gamma [ n − N (τ ),T − τ ] (2.17)


∗ ∗ ∗

où Gamma[ a , b ] représente une distribution gamma avec une moyenne a /bet variance
a /b2.
En supposant que τ inconnu, puisque la distribution marginale postérieure de τ est
obtenue analytiquement (voir (2.16)), nous utilisons un algorithme mixte
d'échantillonnage de Gibbs et de Metropolis-Hastings pour générer les distributions
postérieures de λ 1 et λ 2. Les distributions conditionnelles a posteriori pour
l'algorithme d'échantillonnage de Gibbs sont données par

(i) λ 1 ∖ λ2 , τ , D∼Gamma [ N (τ ) , τ ]

(ii) λ2 ∖ λ 1 , τ , D ∼ Gamma [ n − N ( τ ), T − τ ] (2.18)

En commençant par les valeurs initiales (0) et (0) , nous suivons les étapes
λ1 λ2

suivantes:

(i)G énérer τ (i) selon( 2.16).

(i+1) (i ) (i)
(ii)G énérer λ1 selon π ( λ1 ∖ λ2 , τ , D) .

(iii)G énérer λ (i+


2
1)
selon π ( λ 2 ∖ λ(i+1)
1 , τ (i) , D).

Nous pouvons contrôler la convergence des échantillons de Gibbs à l'aide de la


méthode de Gelman et Rubin qui utilise la technique de l'analyse de la variance pour
déterminer si des itérations supplémentaires sont nécessaires (voir (Gelman, A. E;
Rubin, D. (1992) pour plus de détails)).
Pour obtenir les résumés a posteriori intéressants pour le modèle à fonction de
risque constante en présence d'un point de changement, il est très simple d'utiliser le
logiciel WinBugs (voir Spiegelhalter et al. (1999)) qui ne nécessite que la
spécification de la distribution pour les données et des distributions a priori pour les
paramètres.
Considérons maintenant le modèle à points de changement (2.7) avec deux points
de changement τ 1 et τ 2 (avec τ 1 ¿ τ 2 ). La densité a priori pour λ 1, λ 2, λ 3, τ 1 et τ 2 est
donnée par
π ( λ 1 , λ2 , λ3 , τ 1 , τ 2)=¿

¿ π (λ 1 , λ2 , λ3 ∖ τ 1=t i , τ 2=t j ) π 0 (τ 1=t i , τ 2=t j) I {t <t } (2.19) i j

étant donné τ 1 =t i , τ 2=t j, (t i ¿ t j , i≠ j).


En supposant τ 1 et τ 2 indépendants de λ 1, λ 2et λ 3, et que λ 1, λ 2 et λ3 sont
conditionnellement indépendants étant donné τ 1 et τ 2, une distribution a priori
conjointe non informative pour λ 1, λ 2, λ 3, τ 1 et τ 2 est donnée par
1
π ( λ 1 , λ2 , λ3 , τ 1=t i , τ 2=t j )∝ π (τ =t , τ =t )I (2.20)
λ 1 λ 2 λ 3 0 1 i 2 j {t <t } i j

où λ , λ , λ >0 , I =1 si t i< t j et I {t <t } =0 sinon, pour tous les i≠ j.


1 2 3 {t <t } i j i j

En supposant une distribution a priori uniforme pour les variables discrètes τ 1 =t i


et τ 2=t j , où t i ¿ t j , i, j=1,2, ... , n c'est-à-dire π 0 (τ 1=t i , τ 2=t j)=2 /n(n −1), la
distribution postérieure conjointe pour λ 1, λ 2, λ 3, τ 1 et τ 2 est donnée par
π ( λ 1 , λ2 , λ3 , τ 1 , τ 2 ∖ D)∝
N (τ 1 )−1 − λ 1 τ 1 N (τ 2)− N (τ 1)−1 − λ2(τ 2− τ 1) N (T)− N (τ 2 )− 1 − λ 3(T − τ 2)
∝ λ1 e λ2 e λ3 e (2.21)
où λ 1, λ 2, λ 3 ¿ 0 et τ 1 ¿ τ 2 .
La distribution marginale conjointe a posteriori pour τ 1 et τ 2 est donnée par

Γ [ N ( τ 1) ] Γ [ N (τ 2 )− N (τ 1 ) ]
π (τ 1 , τ 2 ∖ D)=
N (τ 1) N (τ 2)− N (τ 1)
Γ [ N (τ 2 )− N (τ 1 ) ]
τ1 (τ 2 − τ ¿ ¿ 1) N (T)− N (τ 2)
¿
(T − τ ¿¿ 2) (2.22) ¿

Nous utilisons l'algorithme de Metropolis-Hastings pour générer τ 1 ,τ 2 à partir de la


distribution marginale conjointe de la postériorité (2.22) et l'algorithme
d'échantillonnage de Gibbs pour générer λ 1, λ 2, et λ 3. La distribution conditionnelle de
la postériorité pour l'algorithme d'échantillonnage de Gibbs est donnée par

λ 1|λ 2 , λ 3 , τ 1 , τ 2 , D ∼ Gamma [ N (τ 1) , τ 1 ] (2.23)


λ 2|λ 1 , λ 3 , τ 1 , τ 2 , D ∼Gamma [ N (τ 2) − N (τ 1) , τ 2 −τ 1 ] (2.24 )

λ 3| λ1 , λ 2 , τ 1 , τ 2 , D ∼ Gamma [ N (T )− N (τ 2 ), T − τ 2 ] (2.25)

Ce processus de marginalisation doit être effectué en choisissant soigneusement


les limites inférieures et supérieures de la somme ainsi que le nombre de points
minimums entre τ 1 et τ 2. Nous considérons τ 1 ¿ t i pour i=1 , ..., m1 − 1, τ 2 ¿ t i pour

, où et est un entier positif tel que . Notez


i=m2 +1 ,... ; n τ1< τ2 m j ( j=1,2) t mj=τ j

qu'une fois τ 1 , (τ¿ ¿2) ¿est connu, les candidats possibles de τ 1 , (τ¿ ¿2) ¿ sont limités à

{t 1 ,... , tm − 1 } ,({t m +1 ,... , t n }).


1 2

En commençant par les valeurs initiales , et , nous suivons les étapes:


λ 01 λ 02 λ 03

(i)G énérer τ (i) (i)


1 et τ 1 selonla distribution marginale a posteriori(2.22) .

(ii)G énérer λ(i+1)


1 selon π ( λ1 ∖ λ(i2 ) , λ(i) (i ) (i)
3 , τ 1 , τ 2 , D) .

(iii) G énérer λ (i+


1
1)
selon π ( λ 2 ∖ λ(i+1)
1 , λ(i) (i) (i )
3 , τ 1 , τ 2 , D).

(iv) Générer λ(i+1)


3 selon π ( λ 3 ∖ λ(i+1)
1 , λ(i2 +1) , τ (i) (i)
1 , τ 2 , D) .

Il convient de noter que les choix de m1 et de m2 pourraient avoir été faits de


manière empirique sur la base d'une analyse préliminaire de l'ensemble des données
(méthodes bayésiennes empiriques). De cette manière, nous pourrions utiliser les
graphiques du nombre cumulé de défaillances en fonction du temps d'occurrence pour
obtenir des informations sur le point de changement.
2.5. Le modèle bayésien de changements avec une fonction risque constante

La distribution des temps de survie est généralement décrite ou caractérisés en


termes de trois fonctions:
- La fonction de survie.
- La fonction de densité de probabilité.
- La fonction de risque.
Ces trois fonctions sont mathématiquement équivalentes - si l'un d'entre eux est
donné, l'autre les deux peuvent être dérivées (Collett, D. (1994); Kalbfeisch, J. D,
Prentice, R.L. (1980); Lee, E.T. (1980)) .
Notre but dans cette étude est de considérer le risque constant modèle avec un
changement de point de et d'utiliser l'analyse Bayésienne pour estimer les paramètres
de ce modèle. Nous considérons également une application avec des données réelles.
Souvent, les recherches dans le domaine médical sont intéressés à risque constant
des modèles impliquant un seul point de changement. Laissez T  une variable aléatoire
représentant le temps de quelques cas, le risque constant modèle avec changement de
point est donnée par:

{
ℎ(t )= λ t ≤ τ ( 2.26)
ρλ t> τ
où λ , ρ , τ >0 . Ici λ et ρλ ‚ sont les taux de risque et τ est le point de changement. Le
risque ℎ(t ) est donc supposé être une constante λ ‚jusqu'à ce que le temps τ et une

constante ρλ ‚ après le temps τ .


Modèle (2.26) a fait l'objet d'études approfondies dans la littérature. Matthews et
Farewell (1982) ont examiné le modèle étudié dans le présent document, en utilisant
des données obtenues dans le cadre du traitement de patients atteints de leucémie. Ils
ont considéré le problème du test de l'hypothèse de τ =0 sur la base de la statistique
du test du rapport de vraisemblance et a utilisé des simulations pour trouver la
distribution des statistiques de ce modèle.
Dans un article, Matthews, Farewell et Pyke (1985) ont présenté un score
asymptotique statistique pour tester l'existence d'un risque constant τ =0 par rapport à
une alternative de point de changement τ > 0. Nguyen, Rogerse et Walker (1984) ont
discuté de l'estimation des paramètres dans le modèle à risque constant avec un point
de changement. Dans leur article, un estimateur cohérent du point de point de
changement a été obtenu en examinant les propriétés de la densité représentée sous
forme de mélange.
Yao (1986) a étudié le problème de l'estimation des paramètres dans les modèles
de taux de hasard avec un point de changement. Yao (1986) a proposé un estimateur
du maximum de vraisemblance du point de changement soumis à une contrainte
naturelle. Worsley (1986) a utilisé des méthodes de maximum de vraisemblance pour
tester un changement dans une séquence de variables aléatoires indépendantes de la
famille exponentielle, en mettant particulièrement l'accent sur la distribution
exponentielle. Les distributions exactes nulle et alternative des statistiques de test ont
été trouvées, et la puissance a été comparée à un test basé sur une statistique de
tendance linéaire. Les régions de confiance exactes et approximatives pour le point de
changement ont été basées sur les valeurs acceptées par un test de rapport de
vraisemblance de niveau.
Worsley (1988) a examiné le test selon lequel le taux de hasard des données de
survie ou de temps d'échec est constant par rapport à l'alternative d'un changement de
hasard après un temps non spécifié. Le ratio de vraisemblance n'était pas borné, mais
la distribution nulle exacte d'une statistique de test du ratio de vraisemblance restreint
a été trouvée.
Loader (1991) a discuté de l'inférence basée sur le processus du ratio de
vraisemblance pour un point de changement du taux de hasard. Loader (1991) a
dérivé des régions de confiance approximatives pour le point de changement et des
régions de confiance conjointes pour le point de changement et la taille du
changement. L'effet de la censure a également été discuté. Les méthodes ont été
illustrées à l'aide des données de Stanford sur les transplantations cardiaques.
Dans les études mentionnées ci-dessus, l'estimation du maximum de
vraisemblance pour le point de changement est prise en compte. Comme alternative à
ces solutions classiques, Achcar et Bolfarine (1989) ont présenté une analyse
bayésienne du modèle (2.26) en supposant qu'il est soit connu, soit inconnu. Achcar et
Loibel (1998) ont présenté des inférences bayésiennes pour le modèle (2.26) en
utilisant différentes densités préalables.
2.5.1. Les fonctions de densité de probabilité, de survie et de vraisemblance
Les fonctions de densité de probabilité et de survie avec point de changement pour
une variable aléatoire T sont respectivement les suivantes

f (t )=
{ λexp(− λt) t ≤ τ
ρλexp { − λτ − ρλ(t − τ ) } t >τ
(2.27)

et

S(t )=
{ exp (− λt )t ≤ τ
exp { − λτ − ρλ(t −τ ) } t > τ
(2.28)

(Achcar, J. A, Boufarine, H. (1989); Achcar, J. A, Loibel, S. (1998); Loader, C. R.


(1991); Matthews, D. E, Farewell. (1982); Matthews, D.E, Farewell. (1982);
Matthwes, D. E, Farewell. (1985); Yao, Y. C. (1986)).
Soit T , T , ... ,T un échantillon aléatoire de (2.26) et 0 0 0 les temps de
1 2 n T 1 ,T 2 ,... , T n

survie réels de n individus considérés comme un échantillon aléatoire de taille n, et


soit C 1 , C2 , ... ,C n les temps de censure fixes associés à chaque individuel. Les

données sont données par T = min( 0 ), et est le temps de survie


i T i ,C i i=1 , 2 ,... , n t i

observé du ième patient. Une variable indicatrice δ est définie parδ si 0


i i=1 T i¿T i

(échec) et 0 (censure). Soit ϵ =1 si T ≤ τ et ϵ =0 si T > τ , .


T i≤ Ti i i i i i=1 , ..., n

La fonction de vraisemblance est alors

n
L( λ , ρ , τ )={( λ e } × ∏ {(e }
1 −ϵ i δ i 1 − ϵi 1 −δ i
) [ λρexp(− λτ − ρλ(t i − τ))]
− λ ti ϵi
) [ exp( − λτ − ρλ(t i − τ ))]
− λt i ϵ i
(2.29)
i =1

c'est-à-dire,

L(λ , ρ , τ )=λ d ρd − d (τ) exp { − λ W 1 (τ )− ρW 2 (τ ) }


3 3 1

× exp¿

n
d 1 (τ)=∑ δ i ϵ i
i=1

est ≤nombre d ' observations non censurées qui satisfont T i ≤ τ ,

n
d 2 (τ)=∑ ϵ i
i=1

est le nombre d’observations qui satisfontT 1 ≤ τ , et

n
d 3=∑ δ i
i=1

est ≤nombre d ' observations non censurées

n n
W 1 ( τ)=∑ δ i ϵ i t i + ∑ (1− δ i )ϵ i t i
i=1 i=1

est la somme des temps de survie des observations qui satisfont à T i ≤ τ .


Ici,

∑ δi ϵ i t i
i=1

est la somme des temps de défaillance des observations non censurées satisfaisant à
T i ≤ τ , et

∑ (1− δ i) ϵ i t i
i=1

est la somme des temps de censure des observations non censurées avec T i < τ .
Aussi,

n n
W 2 (τ)=∑ δ i(1− ϵ i)t i + ∑ (1− δ i)(1 −ϵ ¿¿ i)t i ¿
i=1 i=1

la somme des temps de survie des observations qui satisfont à T i ≤ τ , où

∑ δi (1 −ϵ i )t i
i=1

est la somme des temps de défaillance des observations non censurées satisfaisant à
T i ≤ τ , et

∑ (1− δ i)(1 −ϵ ¿¿ i)t i ¿


i=1

la somme des temps de censure des observations non censurées avec satisfaction T i> τ
(Achcar, J. A; Bolfarine, H. (1989), Achcar, J. A; Loibel, S. (1998), Nguyen, H. T;
Rogers, G. S; Walker, E. A.(1984), Yao, Y. C. ( 1986)).
2.5.2. Estimateurs du maximum de vraisemblance pour λ ‚ et ρ
Étant donné t, Achcar et Bolfarine (1989), Loader (1991) , Nguyen, Rogers et
Walker (1984) et Yao (1986) trouvés ^λ e t ^ρ qui maximise L¿) en dérivant la log-
vraisemblance par rapport à λ et ρ . À partir de ∂ L/∂ λ=0 et ∂ L/∂ λ=0 , ils ont
obtenu les estimateurs du maximum de vraisemblance pour λ et ρ comme suit :

^λ= d 3 (τ )
( 2.21)
W 1 (τ )=τ (n −d 2 (τ))

et

(d 3 − d 1 (τ )) [ W 1 ( τ)+ τ (n −d 2 ( τ)) ]
^ρ = (2.22)
d1 (τ) [ W 2 (τ)− τ (n −d 2 (τ)) ]

(Achcar, J. A; Bolfarine, H. (1989), Loader, C. R. (1991), Nguyen, H. T, Rogers, G. S;


Walker, E. A. (1984), Yao, Y. C. (1986)).
2.5.3. Analyse bayésienne
2.5.3.1. Une analyse bayésienne en supposant τ et λ ‚ connus
Avec τ et λ ‚ connus, et en supposant qu'il n'y a pas de censure, la fonction de
vraisemblance pour ρ est:

L(ρ)∝ ρd − d (τ) exp { − λρZ (τ ) } (2.23)


3 1

où ρ>0 , d 3 , d 1 (τ ) et d 2 (τ ) sont donnés dans (2.30), et Z(τ )=W 2 (τ)−(n −d 2 (τ)).


Une densité a priori non informative pour ρ est ρ− 1 . Ainsi, la densité a posteriori
pour ρ est

d3 −d 1(τ )−1
π ( ρ ∖ D) ∝ ρ exp {− ρλ Z ( τ) } (2.24 )

où ρ>0 , Z(τ ) est indiqué dans (2.23) et désigne l'ensemble des données. La valeur qui
maximise la densité a posteriori est appelée mode de la densité a posteriori, et ce
mode correspond à la valeur estimée. Ainsi, le mode de la densité a posteriori donné
dans (2.24) est

d 3 −d 1 (τ)−1
^ρ = (2.25)
λZ (τ)

(Achcar, J. A; Bolfarine, H. (1989)).


2.5.3.2. Une analyse bayésienne en supposant que τ connu
Avec τ connu, une densité préalable non informative pour λ et ρ est donnée par
π (λ , ρ)∝ 1/ λρ
où λ , ρ>0 dans le cas de données complètes.
La densité a posteriori pour λ et ρ est donc la suivante

π ( λ , ρ ∖ D)∝ λ d − 1 ρd
3 3 −d1 (τ)− 1
exp { − λ W 1 (τ )− ρλ W 2 ( τ) }

× exp { − λτ (1 − ρ)(n − d 2(τ )) } (2.26)

d'où il découle que le mode de la densité a posteriori pour ρ est donné par

(d3 − d1 (τ) −1) [W 1 (τ )+ τ (n − d 2 (τ )) ]


^ρ =
(d ¿ ¿ 2(τ )+1) [ W 2 ( τ) − τ (n −d 2 ( τ)) ] (2.27)¿

De (2.26), il découle également que le mode de la densité a posteriori pour λ est

^λ= d 1(τ )−1


(2.28)
W 1 (τ )+τ ( n− d 2 (τ ))

(Achcar, J. A; Bolfarine, H. (1989)).


2.5.3.3. Analyse Bayésienne en supposant que τ inconnu
Supposons que est inconnu et prendre des valeurs discrètes τ , avec des
τ i =¿ t ¿ i

probabilités a priori π 0 (τ i=t i ) ,(i=1 ,... , n), où n est la taille de l'échantillon.


Supposons également que les données ne sont pas censurées. La densité a priori pour
λ , ρ et τ i est
π (λ , ρ , τ i )=π ( λ , ρ ∖ τ i=t i )π 0 (τ i=t i)
Par conséquent, la densité postérieure pour λ , ρ et τ i est
π ( λ , ρ , τ i=t i ∖ D) ∝ λ d −1 ρd − d (τ )−1 π 0( τ i=t i)exp { − λ W 1 (τ i )− ρ W 2 (τ i ) }
3 3 1 i

× exp { − λ τ i( 1− ρ)(n− d 2 (τ i )) } (2.29)

où λ , ρ>0 .
La densité a posteriori pour τ i est donnée par

Γ ( d3 − d1 (τ i)) π 0 ( τ i=t i)
π (τ i =t i ∖ D) ∝ d 3 −d 1(τ i )
[ W 2 (τ i) −τ i ( n− d 2 (τ i )) ]
× Γ d1 ( τ i)¿ π 0 ¿ (2.30)
d (τ )
[ W 1 (τ i)−τ i (n− d 2 (τ i )) ]1 i

où i=1 , ..., n .La valeur de t qui maximise cette densité postérieure correspond
l’estimation de τ (Achcar, J. A. and Bolfarine, H. (1989)).
Conclusion
Dans ce chapitre, nous avons introduit quelques méthodes d’estimation
bayésienne pour les points de changements. Tout d’abord, on a commencé par le
modèle gaussien d’une seule point de changement. Ensuit, on a présenté un modèle
plus générale basé sur les donnés d’inter-défaillance et une brève discussion de
l’approche bayésienne des points de rupture pour la fonction de risque constante est
fourni.
References
 Chernoff, H., Zacks, S. (1964). Estimating the current mean of a normal
distribution which is subjected to changes in time. Ann. Math. Statist. 35(3),
999-1018
 Kander, Z., zacks, S.(1966). Test procedures for possible changes in parameters
of statistical distribution occuring at unknown time points, Ann. Math. Stat., 37,
1196-1210.
 Abdelli, Z. (1993). Problème de rupture dans les séries chronologiques, Thèse de
magister, USTHB.
 Ilmakunnas, P., Tsurumi, H. (1984). Testing for parameter shifts in a regression
model with two regimes of autocorrelated errors. The Economic Studies
Quarterly (Tokyo. 1950), 35(1), 46-56.
 Fotopoulos, S.B., Jandhyala,V.K., Khapalova, E. (2010). Exact asymptotic
distribution of change-point model for change in the mean of Gaussian
sequences. Annals of Applied Statistics, 4(2), 1081-1104.
 Fearnhead, P. (2006).Exact and efficient bayesian inference for multiple change
point problems. Statistics and computing, 16 (2), 203-213.
 Rigaill, G., Lebarbier, E., Robin, S. (2012). Exact posterior distributions and
model selection criteria for multiple change-point detection problems. Statistics
and computing, 22(4), 917-929.
 Ait Youcef, M. (2019). Problèmes De Rupture Dans Les Séries Chronologiques
[Mémoire de Master, Université Mouloud Mammeri - Tizi Ouzou].
 Broemeling L.D., Holbert D. (1977). Bayesian inference related to shifting
sequences and two-phases regression. Commun.Stat.Theo.Meth, A6(3), 265-275.
 Achcar, J.A. and Bolfarine, H. (1989). Constant hazard against a changepoint
alternative: a Bayesian approach with censored data, Communications in
Statistics — Theory and Methods, 18, 10, 3801–3819.
 Raftery, A.E. and Akman, V.E. (1986). Bayesian analysis of a Poisson process
with a change-point, Biometrika, 73, 1, 85–89.
 Ruggeri, F. and Sivaganesan, S. (2005). On modelling change-point in
nonhomogeneous Poisson process, Statistical Inference for Stochastic Processes,
8, 311–329.
 Gelfand, A.E. and Smith, A.F.M. (1990). Sampling-based approaches to
calculating marginal densities, Journal of the American Statistical Association,
85, 398–409.
 Box, G.E. and Tiao, G.C. (1973). Bayesian Inference in Statistical Analysis,
Addison-Wesley, New York.
 Gelman, A.E. and Rubin, D. (1992). Inference from iterative simulation using
multiple sequences, Statistical Science, 7, 457–472.
 Spiegelhalter, D.J.; Thomas, A. and Best, N.G. (1999). WinBugs: Bayesian
Inference Using Gibbs Sampling, Cambridge: MCR Biostatistics Unit.
 Collett, D. Modelling survival data in medical research, (Chapman and Hall,
1994).
 Kalbfleisch, J. D. and Prentice, R. L. The statistical analysis of failure time data,
(John Wiley and Sons, 1980).
 Lee, E. T. Statistical methods for survival data analysis, (Lifetime Learning
Publications, 1980).
 Matthews, D. E. and Farewell, V. T. On testing for a constant hazard against a
change-point alternative, Biometrics 38, 463{468, 1982.
 Matthews, D. E. and Farewell, V. T. and Pyke, R. Asymptotic score-statistic
processes and tests for constant hazard against a change-point alternative, The
Annals of Statistics 13 (2),583{591, 1985
 Nguyen, H. T., Rogers, G. S. and Walker, E. A. Estimation in change-point hazard
rate models, Biometrika 71 (2), 299{304, 1984.
 Yao, Y. C. Maximum likelihood estimation in hazard rate models with a change-
point, Commun. Statist.-Theory Meth. 15 (8), 2455{2466, 1986.
 Worsley, K. J. Confldence regions and tests for a change-point in a sequence of
exponential family random variables, Biometrika 73 (1), 91{104, 1986.
 Worsley, K. J. Exact percentage points of the likelihood-ratio test for a change-
point hazardrate model, Biometrics 44, 259{263, 1988.
 Loader, C. R. Inference for a hazard rate change point, Biometrika 78 (4),
749{757, 1991.
 Achcar, J. A. and Bolfarine, H. Constant hazard against a change-point
alternative: A Bayesian approach with censored data, Commun. Statist.-Theory
Meth. 18 (10), 3801{3819,1989.
 Achcar, J. A. and Loibel, S. Constant hazard function models with a change point:
A Bayesian analysis using markov chain monte carlo methods, Biometrical
Journal 40 (5), 543{555, 1998.

Vous aimerez peut-être aussi