Académique Documents
Professionnel Documents
Culture Documents
:
Modèles de changements bayésiens
2.1. Introduction
La fréquence des changements de situation dans plusieurs domaines scientifiques
explique l’intérêt porté à l’analyse statistique des points de rupture et de l’estimation.
En effet, dans la pratique, lorsque les structures de contrôle révèlent qu’il y a des
ruptures quelque part dans l’évolution du phénomène étudié, il est naturel que l’on
veuille localiser la position de ces ruptures qui est à l’origine du changement de
régime. Un lieu ou un temps de sorte que les observations suivent une distribution
jusqu’à ce point et suivent une autre distribution après celui-ci. Plusieurs problèmes
peuvent être définis similairement. Ainsi l’approche est double : on peut se contenter
de vérifier s’il y a rupture (souvent considérer comme un problème de test
d’hypothèse) ou bien de localiser le point de rupture s’il y a lieu (vu parfois comme
un problème d’estimation). Une rupture d’un modèle paramétrique est définie par un
changement de l’une ou plusieurs de ces caractéristiques. Il peut s’agir par exemple de
la moyenne, de la variance, du moment d’ordre r, de la famille de la distribution...
Quand ce modèle paramétrique change de structure, il est important de connaître le
point où a eu lieu le changement ainsi que les valeurs des paramètres du modèle avant
et après la rupture.
Notre étude est basée sur la méthodologie bayésienne. Dons, nous cherchons a
prouvé sa capacité à fournir de solution flexible et fiable. Dans ce chapitre, nous
présentons quelqu’un des modèles de changement le plus important utiliser dans le
domaine de la mesure économétrique, sociologique et sanitaire, dans la fin en parle de
la problématique de changements dans un point de vue bayésien en analyse de survie.
2.2. Modes de changements et les travaux bayésiens
On sait depuis longtemps que le sujet de la détection des points de changement a
gagné une attention considérable dans la littérature en raison de son importance dans
de nombreuses applications. L'analyse des points de changement peut être attribuée à
l'origine qui développe un test pour un changement dans un paramètre se produisant à
un point inconnu. Par la suite, le problème de détection de les changements ont été
largement étudiés dans un large éventail de disciplines, notamment la finance, la bio-
informatique, la climatologie, l'économétrie, l'analyse du trafic réseau, etc.
Exemple,pour créer l'environnement d'investissement le plus sûr, les investisseurs
financiers accordent souvent beaucoup d'attention à la volatilité du marché boursier et
de développer des modèles économiques efficaces pour surveiller l'emplacement d'un
point de changement s'il existe.Les variations dans le nombre de copies d'ADN sont
des phénomènes courants dans le génome d'un individu, mais ces variations peuvent
également jouer un rôle important dans le développement du cancer. Les biologistes
peuvent utiliser des modèles de détection de points de changement pour identifier les
régions du génome où ces variations significatives se produisent. Ces modèles sont
basés sur l'hypothèse que les variations du nombre de copies d'ADN apparaissent
comme des points de changement abrupts dans les données génomiques, qui sont des
endroits où il y a une augmentation ou une diminution significative dans le nombre de
copies d'ADN. En identifiant ces points de changement, les chercheurs peuvent mieux
comprendre les mécanismes sous-jacents du cancer et développer de nouveaux
traitements ou thérapies ciblées pour cette maladie.
Parmi les recherches bayésiens. Chernoff et Zacks (1964) et Kander et Zacks
(1966) ont étudié une série de variables aléatoires gaussiennes et indépendantes et ont
proposé un test bayésien (paramétrique) pour démontrer un changement de la
moyenne. Manzefricke (1981) a étudié une suite de variables aléatoires indépendantes
et gaussiennes, où les densités de probabilité a postériori du point de rupture et le
rapport des variances ont été déterminés dans trois cas. Abdelli (1993) s'est penché sur
le problème de la rupture des séries chronologiques. Ilmakunnas et Tsurumi (1984)
ont étudié un modèle de régression d'erreur autocorrélée où le changement est lié au
coefficient d'autocorrélation. Récemment, de nouveaux résultats théoriques sont
apparus, comme ceux de Fotopoulos et al (2010). Fearnhead (2006) et Rigaill et al
(2012) qui s'intéressent au problème des ruptures multiples.
2.3. Le modèle gaussien
2.3.1. Point de rupture
Définition 2.1: Nous dirons qu’il y a rupture dans une suite de variables aléatoires
X 1 , X 2 , X 3 ,... , X ns’il existe un entier m (1 ≤ m ≤ n − 1); tel que les variables aléatoires
les variables aléatoires X m+1 ,... , X n suivent une autre loi de probabilité de fonction de
répartition F 2(x ∖ θ2) , ou θ1 et θ 2 sont des paramètres inconnue réels ou vectoriels (
θ1 ≠θ 2) .
Xi
{F 1 ( x ∖ θ1 ), i=1 , ..., m
F 2 ( x ∖θ 2) ,i=m+1 , ... ,n
La figure représente une séries ayant subi plusieurs rupture par rapport au seuil
adaptatif.
2.3.2.3. Rupture épidémique
Soit X 1 , ... , X ndes variables aléatoires réelles de répartition continues respective
F 1 , ... , F n. Considérons le modèle épidémique suivant :
Il existe des entiers m et q (1≤ m ≤q ≤n) tels que
F 1=F2 ...=F m=F q+1 =...=F n=F
F m+1=...=Fq =G et F ≠ G
Nous notons l=q −mla longueur de l’épidémie. Et m , q les bornes de localisation.
Parmi les chercheurs qui se sont intéressés au problèmes de rupture épidémique,
citons Rackauskas et Suquet .
{ X i=φ0 +ε i ; i=1,2 , … , m
X i=φ1 +ε i ; i=m+ 1, … , n
(2.1)
où:
φ 0 et φ 1 sont des constantes réelles, inconnues et différentes. Elles représentent les
et 2
X i ∼ N (φ 1 , σ ) pour i=m+1 ,... , n .
{ [ ]}
m n
∑ ( X i − ϕ 0)2 + ∑
−n /2
L(m , σ 2i , ϕ 0 , ϕ 1 / X )∝ ( σ 2i ) exp − 1/(2 σ 2i ) ( X i − ϕ1 )2
i=1 i=m+ 1
L’analyse a posteriori
La densité conjointe a posteriori des paramètres (m; σ2; ϕ 0 ; ϕ 1) est donnée en vertu du
théorème de Bayes par :
π 1 (m ,σ 2i , ϕ 0 , ϕ 1) ∝ L(m , σ 2i , ϕ 0 , ϕ1 / X ) π 0(m, σ 2i , ϕ 0 , ϕ 1)
modèle.
Premier cas :
En assignant des lois a priori impropres aux paramètres et (ϕ , ϕ ) et une loi
σ 2i 0 1
uniforme
sur 1 ,2 , ... , n− 1 pour le point de rupturem. Le théorème suivant nous détermine la
masse de probabilité marginale a posteriori du point de rupture m.
Théorème 2.3.(Broemeling L.D et Holbert D,1977)
Étant donné le modèle (2.1):
{ X i=φ0 +ε i ; i=1,2 , … , m
X i=φ1 +ε i ; i=m+ 1, … , n
données
respectivement par :
2 2
π 0 (σ i )∝1/σ i
π 0 ( m) ∝1/ ( n −1 )
N
et 1
X Nj = ∑ X , pour N=1,2, … , n .
N − j+ 1 i= j i
n− 1
où est la densité
a ¿ π (φ 0 / X )∝ ∑ π 1 ( m ) t(n− 2 , y ) √m(Sm1 + S nm+1 )− 1/ 2 t (n −2 , y)
m− 1
y= √ m ( n −2 ) ( (X j − ϕ0 )/ √( S1 + Sm +1) )
m m n
n −1
où est la densité
b ¿ π (φ 1 / X) ∝ ∑ π 1 ( m ) t (n −2 , z) √ n− k (S1m+ S nm+1 )−1 /2 t (n −2 , z)
m=1
m =1
( S m1 + S nm+1 )
Deuxième cas :
Après avoir assigné une densité a priori non informative à la variance σ2,
intéressons-nous au cas où nous assignons à la précision des erreurs (R = 1=σ 2) une
densité a priori propre, par exemple une loi gamma de paramètres a, b strictement
positifs. D’où le théorème suivant :
Théorème 2.2. (Broemeling L.D. et Holbert D, 1977)
Reprenons le même modèle (2.1) en gardant les mêmes hypothèses pour les
paramètres m , φ0 , φ1et assignons à la précision des erreurs
− (n2 +1) 1
L(θ / X)∝ σ 2 exp (− 2
A (θ))
2σ
avec :
k
A ( θ )=∑ ( X i − ρ X i − 1 − φ0 (1 − ρ) ) +( X k+1 − ρ X k − φ1+ ρϕ0 )2
2
i=1
n
+ ∑ ( X i − ρ X i − 1 − φ1 (1− ρ)) 2
i=k +2
{ X i=φ0 +ε i ; i=1,2 , … , m
X i=φ1 +ε i ; i=m+ 1, … , n
où:
2 est :
m , σ , φ0 , φ1 , ρ
π 0 (m , σ , φ0 , φ1 , ρ)∝ 1/ (( n− 1)σ )
2 2
[ ]
n
1 β 22 −( − 1)
2
π 1 ( m )=∫ + ((α 2 a+ β 1 β 2)/ √ α 2 a + β 1 a )
2 2
α − dρ
IR √ α 1 a − β1
3
2 a
où
a=m(1− ρ)2+ ρ2
2
α 1=(n− m− 1) ( 1− ρ ) +1
n
α 3=∑ ( X i − ρ X i −1 )
2
i=2
β 1=ρ
k n
β 2=( 1− ρ) ∑ ( X i − ρ X i− 1 ) + ρ(X m+1 − ρ X m )+ ∑ ( X i − ρ X i −1 −φ 1(1 − ρ))2
i=2 i=m+2
{ X i=φ0 +ε i ; i=1,2 , … , m
X i=φ1 +ε i ; i=m+ 1, … , n
de variances 2 si et 2 si ,( ).
σ1 i=1,2 , … , m σ2 i=m+1 , … , n σ 21 ≠ σ 22
i .e ε i
{
N ( 0 , σ 21)
2
i=1,2, … , m
N ( 0 , σ ) i=k +1 , … , n
2
1
σ 2j = désigne la précision des erreurs pour j=1,2où t j , j=1,2.
tj
En assignant des densités de probabilité a priori aux paramètres m , φ0 , φ1 ,t 1 et t 2,
Menzeefricke en 1981 a déterminé les lois de probabilité a posteriori du point de
a) φ 0 , φ 1sont connues.
b) φ 0=φ 1=φ inconnue.
c) φ 0 , φ 1sont distincts et inconnues.
Supposons que la densité de probabilité conjointe a priori des paramètres
m , φ0 , φ1 ,t 1 et t 2 de ce modèle est donnée par :
π 0 (m ,t 1 ,t 2 , ϕ 0 , ϕ 1 )∝ π 0 (m)π 0 (t 1 ) π 0 (t 2) π 0 (ϕ 0 /t 1) π 0( ϕ 1 / t 2 )
où :
est toute masse de probabilité sur (2.2)
π 0 ( m) {1,2 , … n }
(
π 0 ( φ0 /t 1 )=N ϑ 1 ,
1
γ 1t 1 )
(2.3)
(
π 0 ( φ1 /t 2) =N ϑ 2 ,
1
γ 2t2 )
(2.4)
[ ]
α 1+m α 2+n −m
α 1+ m α 2+ n− m
π ( m/ X , φ0 , φ1 ) ∝ π 0 ( m) . β , B1 m2 B 2 m 2
2 m
α 2+n −m
−1
n 2
τ
π ( τ / X , φ 0 , φ1 ) ∝ ∑ π 0 ( m ) α1 +α 2+n
m=1
[ B1 m +τ B 2 m ] 2
α 1+m α 2+n − m
−1
1 / [ B1 k ] 2
τ B2 m 2
π ( τ /m , φ0 , φ1 , X ) ∝ ∗
[ ]
α 1+α 2+ n
α 1 +m α 2+ n− m
β
2
,
2
[ B1 m + τ B2 m ] 2
où :
avec :
m n
∑ ( X i − φ0 ) 2
∑ ( X i −φ 1) 2 ,
s21 m= i=1 , s22 k = i=m +1
m n −m
Deuxième cas :φ 0=φ 1=φ inconnue.
Les densités de probabilité a priori utilisées sont π ( m ) , π φ / t et π t , j=1,2.
0 0 ( 0 1) 0 ( j)
telles que définies dans (2.2),(2.3) et (2.5) avec ϑ 1 =ϑ 1=ϑ et γ 1=γ 1=γ .Alors :
α2 +n −m α 1+α 2+n − 1
τ 2
[ γ + m+ τ (n − m)] 2
π ( τ /m , X ) ∝ α 1+α 2+n
[ am τ 2
+b m τ+ c m ] 2
où
a k =(n− m) [ ( n − m ) s 22 m + β 2 ]
b k =( γ +m ) [ ( n− m ) s22 k + β 2 ]
+(n −m) [ m s 1 m + β 1+ γ ( X 2 m − ϑ ) + m( X 1 m − X 2 m ) ]
2 2 2
c m= ( γ + m) ( ms 1 m + β − 1 ) +γ m (X 1 m −ϑ )
2 2
avec
m n
∑ ( X i − X 1 m )2 ∑ ( X i − X 2 m )2
2 i=1 2 i=m+1
s1 m= , s 2 m=
m n −m
m n
∑ ( Xi) 2
∑ (X i )
2
i=1 i=m+1
X1m= , X 2 m=
m n −m
π ( m/ X ) ∝
π0 ( m ) . β [ α 1+ m α 2+ n −m
2
.
2
α 1+ m
]
α 2+n − m
1
1/ 2
[ γ 1 +m ] [ γ2 +n −m ] 2 B́1 m2 B́2 m 2
2) La densité de probabilité conditionnelle de τ sachant m est :
α1 +m α 2+ n− m
1/τ [ B m ] 2
[ τ B2 m ] 2
π ( τ /m , X ) ∝
[ ]
α 1+ α2 +n
α 1 +m α 2 +n −m
β
2
.
2
[ B́1 m + τ B́2 m ] 2
où
mγ1 2
B́1 m= ( ϑ 1 − X 1 m ) +m s 21 m+ β1
γ 1+ m
(n − m) γ 2 2 2
B́2 m=
γ 2+ n− m
( ϑ 2 − X 2m ) +(n −m) s2 m + β 2
avec
λ (s)=
{ λ1 0≤ s ≤ τ
λ2 s> τ
(2.6)
L'analyse du processus de Poisson est basée sur les données de comptage dans la
période [0 ,T ] où N (T )=n est le nombre d'événements qui se produisent aux temps
ordonnés t 1 , t 2 , ... t n .
Avec deux points de changement à des moments inconnus τ 1 et τ 2le taux
d'occurrence est donné par
{
λ1 0<s ≤ τ 1
λ (s)= λ2 τ 1 <s ≤ τ 2 (2.7)
λ 3 τ 3< s ≤ T
Nous pouvons également avoir des processus de Poisson homogènes avec plus de
deux points de changement.
L'utilisation de méthodes bayésiennes a été considérée par de nombreux auteurs
pour les processus de Poisson homogènes ou non homogènes en présence d'un point
de changement (voir par exemple Raftery et Akman (1986) ou Ruggeri et
Sivaganesan (2005). Observez que les temps entre deux défaillances pour un
processus de Poisson homogène suivent une distribution exponentielle.
Nous présentons une analyse bayésienne pour les données inter-défaillances avec
une fonction de risque constante, en supposant plus d'un point de changement et en
utilisant des méthodes MCMC (voir par exemple (Gelfand, A. E; Smith, A. F. M.
(1990)).
La fonction de vraisemblance
Soit x i=t i − t i −1 , i=1,2 ,... , n où t 0=0 , sont les temps d'inter-faillite et supposent
un modèle à point de changement unique (2.6). De cette manière, nous observons que
i
x i a une distribution exponentielle avec le paramètre λ 1pour ∑ xk ≤ τ et une
k =1
i
distribution exponentielle avec un paramètre λ pour
2 ∑ x k > τ ,i=1,2 , ... ,n .En
k =1
N (T )
L( λ 1 , λ2 , τ )= ∏ (λ1 e
− λ1 x i ϵ i − λ2 xi 1− ϵ i
) ( λ2e ) ( 2.8)
i=1
i i
où ϵ =1 si et ϵ =0 si
i ∑ x j≤ τ i ∑ x j ≥ τ . C'est-à-dire,
j=1 j
N (T ) − λ1 τ N (T )− N(τ ) − λ 2(T − τ)
L( λ 1 , λ2 , τ )=λ 1 e λ2 e (2.9)
N (T) N (T ) N (T)
où , , et .
N ( τ)= ∑ ϵ i N (T )=n τ = ∑ x i ϵ i T − τ= ∑ x i (1 −ϵ ¿¿ i)¿
i=1 i=1 i =1
par
n
L(λ 1 , λ2 , λ3 , τ 1 , τ 2)=∏ ( λ1 e
− λ1 x i ϵ1 ,i − λ2 x i ϵ2 ,i − λ3 x i ϵ3 ,i
) (λ2 e ) ( λ3 e )
i=1
où
{
i
1 si ∑ x k ≤ τ
ϵ 1 ,i = k=1 ( 2.10)
i
0 si ∑ x k >τ
k=1
{
j
1 if τ 1< ∑ xk ≤ τ 2
ϵ 2 ,i = k=1 +1 (2.11)
j j
0 si ∑ x k ≤ τ 1 où ∑ x k >τ 2
k=1 +1 k=1+1
{
i
1 si τ 2< ∑ x k ≤ τ
ϵ 3 ,i = k=1 (2.12)
i
0 si τ 2 < ∑ x k ≥ τ
k=1
c'est-à-dire,
L( λ 1 , λ2 , λ3 , τ 1 , τ 2)=¿
N (τ 1) − λ1 τ 1 N (τ 2)− N (τ 1) − λ2 (τ 2 −τ 1) N (T )− N (τ 2) − λ 3(T − τ 2)
λ1 e λ2 e λ3 e (2.13)
N(T ) N(T ) N(T )
où
∑ ϵ 1 ,i =N (τ 1 ), ∑ ϵ 2 ,i =N (τ 2 )− N (τ 1 ), ∑ ϵ 3 ,i =N (T )− N ( τ 2) et
N (T )=n
.
i=1 i=1 i=1
N (T)n N (T )n N (T )n
Observez que , et .
τ 1 = ∑ xi ϵ 1 ,i τ 2 − τ 1= ∑ x i ϵ 2 ,i T − τ 2= ∑ x i ϵ 3 ,i
i=1 i=1 i=1
Γ [ N (τ)] Γ [ n− N (τ ) ]
π (τ ∖ D)∝ N (τ ) n− N (τ )
(2.16)
τ (T − τ )
En supposant que τ =τ ∗ connu, la distribution marginale a posteriori de λ 1 et λ 2 est
donnée par
(i ) λ 1 ∖ τ , D ∼ Gamma [ N (τ ) , τ ]
∗ ∗ ∗
où Gamma[ a , b ] représente une distribution gamma avec une moyenne a /bet variance
a /b2.
En supposant que τ inconnu, puisque la distribution marginale postérieure de τ est
obtenue analytiquement (voir (2.16)), nous utilisons un algorithme mixte
d'échantillonnage de Gibbs et de Metropolis-Hastings pour générer les distributions
postérieures de λ 1 et λ 2. Les distributions conditionnelles a posteriori pour
l'algorithme d'échantillonnage de Gibbs sont données par
(i) λ 1 ∖ λ2 , τ , D∼Gamma [ N (τ ) , τ ]
En commençant par les valeurs initiales (0) et (0) , nous suivons les étapes
λ1 λ2
suivantes:
(i+1) (i ) (i)
(ii)G énérer λ1 selon π ( λ1 ∖ λ2 , τ , D) .
Γ [ N ( τ 1) ] Γ [ N (τ 2 )− N (τ 1 ) ]
π (τ 1 , τ 2 ∖ D)=
N (τ 1) N (τ 2)− N (τ 1)
Γ [ N (τ 2 )− N (τ 1 ) ]
τ1 (τ 2 − τ ¿ ¿ 1) N (T)− N (τ 2)
¿
(T − τ ¿¿ 2) (2.22) ¿
λ 3| λ1 , λ 2 , τ 1 , τ 2 , D ∼ Gamma [ N (T )− N (τ 2 ), T − τ 2 ] (2.25)
qu'une fois τ 1 , (τ¿ ¿2) ¿est connu, les candidats possibles de τ 1 , (τ¿ ¿2) ¿ sont limités à
{
ℎ(t )= λ t ≤ τ ( 2.26)
ρλ t> τ
où λ , ρ , τ >0 . Ici λ et ρλ ‚ sont les taux de risque et τ est le point de changement. Le
risque ℎ(t ) est donc supposé être une constante λ ‚jusqu'à ce que le temps τ et une
f (t )=
{ λexp(− λt) t ≤ τ
ρλexp { − λτ − ρλ(t − τ ) } t >τ
(2.27)
et
S(t )=
{ exp (− λt )t ≤ τ
exp { − λτ − ρλ(t −τ ) } t > τ
(2.28)
n
L( λ , ρ , τ )={( λ e } × ∏ {(e }
1 −ϵ i δ i 1 − ϵi 1 −δ i
) [ λρexp(− λτ − ρλ(t i − τ))]
− λ ti ϵi
) [ exp( − λτ − ρλ(t i − τ ))]
− λt i ϵ i
(2.29)
i =1
c'est-à-dire,
× exp¿
où
n
d 1 (τ)=∑ δ i ϵ i
i=1
n
d 2 (τ)=∑ ϵ i
i=1
n
d 3=∑ δ i
i=1
n n
W 1 ( τ)=∑ δ i ϵ i t i + ∑ (1− δ i )ϵ i t i
i=1 i=1
∑ δi ϵ i t i
i=1
est la somme des temps de défaillance des observations non censurées satisfaisant à
T i ≤ τ , et
∑ (1− δ i) ϵ i t i
i=1
est la somme des temps de censure des observations non censurées avec T i < τ .
Aussi,
n n
W 2 (τ)=∑ δ i(1− ϵ i)t i + ∑ (1− δ i)(1 −ϵ ¿¿ i)t i ¿
i=1 i=1
∑ δi (1 −ϵ i )t i
i=1
est la somme des temps de défaillance des observations non censurées satisfaisant à
T i ≤ τ , et
la somme des temps de censure des observations non censurées avec satisfaction T i> τ
(Achcar, J. A; Bolfarine, H. (1989), Achcar, J. A; Loibel, S. (1998), Nguyen, H. T;
Rogers, G. S; Walker, E. A.(1984), Yao, Y. C. ( 1986)).
2.5.2. Estimateurs du maximum de vraisemblance pour λ ‚ et ρ
Étant donné t, Achcar et Bolfarine (1989), Loader (1991) , Nguyen, Rogers et
Walker (1984) et Yao (1986) trouvés ^λ e t ^ρ qui maximise L¿) en dérivant la log-
vraisemblance par rapport à λ et ρ . À partir de ∂ L/∂ λ=0 et ∂ L/∂ λ=0 , ils ont
obtenu les estimateurs du maximum de vraisemblance pour λ et ρ comme suit :
^λ= d 3 (τ )
( 2.21)
W 1 (τ )=τ (n −d 2 (τ))
et
(d 3 − d 1 (τ )) [ W 1 ( τ)+ τ (n −d 2 ( τ)) ]
^ρ = (2.22)
d1 (τ) [ W 2 (τ)− τ (n −d 2 (τ)) ]
d3 −d 1(τ )−1
π ( ρ ∖ D) ∝ ρ exp {− ρλ Z ( τ) } (2.24 )
où ρ>0 , Z(τ ) est indiqué dans (2.23) et désigne l'ensemble des données. La valeur qui
maximise la densité a posteriori est appelée mode de la densité a posteriori, et ce
mode correspond à la valeur estimée. Ainsi, le mode de la densité a posteriori donné
dans (2.24) est
d 3 −d 1 (τ)−1
^ρ = (2.25)
λZ (τ)
π ( λ , ρ ∖ D)∝ λ d − 1 ρd
3 3 −d1 (τ)− 1
exp { − λ W 1 (τ )− ρλ W 2 ( τ) }
d'où il découle que le mode de la densité a posteriori pour ρ est donné par
où λ , ρ>0 .
La densité a posteriori pour τ i est donnée par
Γ ( d3 − d1 (τ i)) π 0 ( τ i=t i)
π (τ i =t i ∖ D) ∝ d 3 −d 1(τ i )
[ W 2 (τ i) −τ i ( n− d 2 (τ i )) ]
× Γ d1 ( τ i)¿ π 0 ¿ (2.30)
d (τ )
[ W 1 (τ i)−τ i (n− d 2 (τ i )) ]1 i
où i=1 , ..., n .La valeur de t qui maximise cette densité postérieure correspond
l’estimation de τ (Achcar, J. A. and Bolfarine, H. (1989)).
Conclusion
Dans ce chapitre, nous avons introduit quelques méthodes d’estimation
bayésienne pour les points de changements. Tout d’abord, on a commencé par le
modèle gaussien d’une seule point de changement. Ensuit, on a présenté un modèle
plus générale basé sur les donnés d’inter-défaillance et une brève discussion de
l’approche bayésienne des points de rupture pour la fonction de risque constante est
fourni.
References
Chernoff, H., Zacks, S. (1964). Estimating the current mean of a normal
distribution which is subjected to changes in time. Ann. Math. Statist. 35(3),
999-1018
Kander, Z., zacks, S.(1966). Test procedures for possible changes in parameters
of statistical distribution occuring at unknown time points, Ann. Math. Stat., 37,
1196-1210.
Abdelli, Z. (1993). Problème de rupture dans les séries chronologiques, Thèse de
magister, USTHB.
Ilmakunnas, P., Tsurumi, H. (1984). Testing for parameter shifts in a regression
model with two regimes of autocorrelated errors. The Economic Studies
Quarterly (Tokyo. 1950), 35(1), 46-56.
Fotopoulos, S.B., Jandhyala,V.K., Khapalova, E. (2010). Exact asymptotic
distribution of change-point model for change in the mean of Gaussian
sequences. Annals of Applied Statistics, 4(2), 1081-1104.
Fearnhead, P. (2006).Exact and efficient bayesian inference for multiple change
point problems. Statistics and computing, 16 (2), 203-213.
Rigaill, G., Lebarbier, E., Robin, S. (2012). Exact posterior distributions and
model selection criteria for multiple change-point detection problems. Statistics
and computing, 22(4), 917-929.
Ait Youcef, M. (2019). Problèmes De Rupture Dans Les Séries Chronologiques
[Mémoire de Master, Université Mouloud Mammeri - Tizi Ouzou].
Broemeling L.D., Holbert D. (1977). Bayesian inference related to shifting
sequences and two-phases regression. Commun.Stat.Theo.Meth, A6(3), 265-275.
Achcar, J.A. and Bolfarine, H. (1989). Constant hazard against a changepoint
alternative: a Bayesian approach with censored data, Communications in
Statistics — Theory and Methods, 18, 10, 3801–3819.
Raftery, A.E. and Akman, V.E. (1986). Bayesian analysis of a Poisson process
with a change-point, Biometrika, 73, 1, 85–89.
Ruggeri, F. and Sivaganesan, S. (2005). On modelling change-point in
nonhomogeneous Poisson process, Statistical Inference for Stochastic Processes,
8, 311–329.
Gelfand, A.E. and Smith, A.F.M. (1990). Sampling-based approaches to
calculating marginal densities, Journal of the American Statistical Association,
85, 398–409.
Box, G.E. and Tiao, G.C. (1973). Bayesian Inference in Statistical Analysis,
Addison-Wesley, New York.
Gelman, A.E. and Rubin, D. (1992). Inference from iterative simulation using
multiple sequences, Statistical Science, 7, 457–472.
Spiegelhalter, D.J.; Thomas, A. and Best, N.G. (1999). WinBugs: Bayesian
Inference Using Gibbs Sampling, Cambridge: MCR Biostatistics Unit.
Collett, D. Modelling survival data in medical research, (Chapman and Hall,
1994).
Kalbfleisch, J. D. and Prentice, R. L. The statistical analysis of failure time data,
(John Wiley and Sons, 1980).
Lee, E. T. Statistical methods for survival data analysis, (Lifetime Learning
Publications, 1980).
Matthews, D. E. and Farewell, V. T. On testing for a constant hazard against a
change-point alternative, Biometrics 38, 463{468, 1982.
Matthews, D. E. and Farewell, V. T. and Pyke, R. Asymptotic score-statistic
processes and tests for constant hazard against a change-point alternative, The
Annals of Statistics 13 (2),583{591, 1985
Nguyen, H. T., Rogers, G. S. and Walker, E. A. Estimation in change-point hazard
rate models, Biometrika 71 (2), 299{304, 1984.
Yao, Y. C. Maximum likelihood estimation in hazard rate models with a change-
point, Commun. Statist.-Theory Meth. 15 (8), 2455{2466, 1986.
Worsley, K. J. Confldence regions and tests for a change-point in a sequence of
exponential family random variables, Biometrika 73 (1), 91{104, 1986.
Worsley, K. J. Exact percentage points of the likelihood-ratio test for a change-
point hazardrate model, Biometrics 44, 259{263, 1988.
Loader, C. R. Inference for a hazard rate change point, Biometrika 78 (4),
749{757, 1991.
Achcar, J. A. and Bolfarine, H. Constant hazard against a change-point
alternative: A Bayesian approach with censored data, Commun. Statist.-Theory
Meth. 18 (10), 3801{3819,1989.
Achcar, J. A. and Loibel, S. Constant hazard function models with a change point:
A Bayesian analysis using markov chain monte carlo methods, Biometrical
Journal 40 (5), 543{555, 1998.