Académique Documents
Professionnel Documents
Culture Documents
d’hétérogénéité
Cas : étude d’insertion des chômeurs inscrits à l'Agence Locale de
l’Emploi d’Ain El Benian (janvier 2011-juillet 2013)
Ahmed Hamimes1, université de Constantine 3.
ahmedhamimes@yahoo.com
Rachid Benamirouche, École nationale de la statistique et d'économie appliquée.
rbena2002@hotmail.com
Résumé
Une approche bayésienne de la survie basée sur le modèle à mélange fini des
lois de bêta offre des solutions pratiques, simples et relativement faciles à
exploiter numériquement. On s'appuyer sur la structure des données
manquantes pour réaliser une approximation de la distribution a postériori
basée sur l'échantillonnage de Gibbs et évité le problème de label switching.
Dans notre étude, on essaie essentiellement de focaliser l’attention sur
l’application des modèles bayésiennes de Kaplan Meier dans l’estimation des
durées de chômage des inscrits à l’Agence locale de l’Emploi d’Ain El
Benian, dans le but de déterminer le rôle de l’hétérogénéité dans
l’amélioration de la qualité d’estimation.
Mots-clés : l’approche bayésienne, le modèle à mélange fini, des durées de
chômage, l’Agence locale de l’Emploi d’Ain El Benian.
ملخص
حناول تركيز اًلهتمام بشكل أساسي على تطبيق مناذج كابالن، يف دراستناlabel switching وجتنب مشكلة
) وفق النهج البايزي يف تقدير فرتات البطالة للمسجلني لدى وكالة التوظيف احمللية يف عنيKaplan Meier( ماير
1
Auteur correspondant.
. وكالة التوظيف احمللية يف عني البنيان، فرتات البطالة، منوذج اخلليط احملدود، النهج البايزي:الكلمات المفتاحية
1. Introduction
Un modèle bayésien est constitue d’un modèle statistique paramétré
(𝔛, ℱ, 𝑃𝜃 , 𝜃 ∈ 𝛩) avec 𝑓(𝑥 𝜃 ) densité de 𝑃𝜃 et d’une loi 𝜋(𝜃) sur le
paramètre, où toute l’inférence est basé sur la distribution a postériori.
Face { la complexité des phénomènes observés. Il est possible d’utiliser des
hypothèses minimales, dans ce contexte en ayant recours en général aux
méthodes non paramétrique où 𝑓(𝑥 𝜃) est un mélange infinie de
distribution par contre l’approche paramétrique qui suppose que
l’ensemble des paramètres Θ est un sous ensemble de 𝐼𝑅. Dans l’approche
bayésienne non paramétrique la modélisation repose sur les travaux de
Ferguson (1973) et utilisent les processus de Dirichlet, dans cette
représentation le modèle bayésien est basé sur 𝑔(𝑃𝜃 ) un prior sur la loi des
observations et non plus 𝜃 ou 𝑃𝜃 . Cette dernier prior considérer comme
une mesure aléatoire. En revanche, l’estimateur de Kaplan- Meier (1958)
dans l'approche fréquentiste est une méthode fonctionnelle pour estimer la
fonction de survie et prend en compte la présence d’une censure { droit. De
plus cet estimateur est convergent, cohérent et asymptotiquement
gaussien et il est biaisé positivement. Plusieurs travaux ont été fondés sur
l’amélioration de cet estimateur. Khizanov et Maĭboroda (2015), ont
proposé une modification basé sur un modèle de mélange avec des
concentrations variées, Rossa et Zieliński (2006), introduisent un
estimateur de Kaplan-Meier basé sur une approximation par la loi de
Weibull, Shafiq Mohammad et al (2007), ont présenté une pondération de
l'estimateur de Kaplan Meier sous la fonction sinus.
L’utilisation de l’estimateur de Kaplan Meier nécessite le traitement du
problème d’hétérogéniste qui constitue une limite dans cette méthode. Un
autre problème dans l'estimateur de Kaplan Meier, parfois même si la
déférence entre deux points du temps 𝑡1 et 𝑡2 est considérablement large
on trouve que 𝐾𝑀 𝑡1 = 𝐾𝑀( 𝑡2 ), Bien qu'il s'agisse d'un problème
général d'estimation d'une fonction de distribution lisse et monotone à
partir d'échantillons petits ou modérés, dans le contexte de l'estimation
des probabilités de survie, l'inconvénient est particulièrement gênant.
Dans cet article, nous discutons d'un lissage général de l’estimateur de
Kaplan-Meier basé sur l’approche bayésienne. Ces deux problèmes
nécessitent un lien avec l’approche paramétrique qui prend en
considération la facilité de mise en ouvre. En revanche, une modélisation
non paramétrique est n’est pas pragmatique par rapport { la modélisation
paramétrique parce qu’elle vise { estimer un nombre infinie de paramètres
par un nombre fini d’observation mais dans la majorité des modèles de
durées notre échantillon est n’est pas suffisamment grande { cause de la
complexité de des phénomènes observés et la contrainte des ressource
(voir Field et Ronchetti, 1990).
On compare dans cet article les différentes structures a priori pour
l’estimateur de Kaplan-Meier { travers le critère de déviance d’information
dans un exemple réel décrit les durée de sortie du chômage de 1064
individu dans une agence d’emploi { Alger. Cette étude montre clairement
l’efficacité d’un mélange bêta basée sur une modification du reparamétrage
de Diebolt et Robert (1994).
2. La conception bayésienne de l’estimateur de Kaplan-Meier
2.1. L’estimateur de Kaplan-Meier
Soit 𝔛, ℱ, 𝑃 un espace probabilisé. 𝑇1 , … , 𝑇𝑚 une suite de variables
aléatoires 𝑖. 𝑖. 𝑑 positives et de fonction de répartition commune 𝐹, expriment le
temps entre le début de l’étude et l'arrivée d'un événement pour le ième
individu. L’échantillon réellement observé sera donc composé de m-couples
(𝑌𝑖 , 𝛿𝑖 ), où 𝛿𝑖 est l’indicateur de censure, qui détermine si 𝑇a été censuré ou
non. Kaplan et Meier (1958) ont introduit un estimateur non-paramétrique écrit
de deux manières différentes selon qu’on est en absence d’exo aequo ou en
présence d’exo aequo comme suit :
Cas d’absence d’ex aequo :
L’estimateur de Kaplan-Meier est donné par :
𝛿𝑖
𝑑𝑖
1− si 𝑡 ≥ 𝑡1
𝑆 𝑡 = 𝑛𝑖
𝑇(𝑖) ≤ 𝑡
1 si 𝑡 < 𝑡1
avec
1 événement réalisé,
𝛿𝑖 =
0 sujet censuré.
Cas de présence d’ex aequo :
Dans le cas d’application, on est confronté à la présence des
évènements de natures différentes, on considère que les observations non
censurées ont lieu avant les censurées, on a :
𝑑𝑖
1− = 1 − 𝑞𝑖 = 𝑝𝑖 si 𝑡 ≥ 𝑡1
𝑆 𝑡 = 𝑛𝑖
𝑇(𝑖) ≤ 𝑡 𝑡𝑖 ≤ 𝑡 𝑡𝑖 ≤ 𝑡
1 si 𝑡 < 𝑡1
L’estimateur de Kaplan-Meier est convergeant formé une fonction constante
par morceaux, continue à droite et limite à gauche, avec un saut à chaque temps
de décès observé.
2.2. Sur la conception bayésienne du modèle de Kaplan-Meier
On suppose que le nombre de décès dans l’intervalle du temps est une
réalisation d’une loi Binomiale s'écrit par
𝑑𝑖 ~𝛽𝑖𝑛 𝑛𝑖 , 𝑞𝑖 ,
lorsque les sorties dans les intervalles 𝑡𝑖 , 𝑡𝑖+1 étant indépendantes les unes des
autres, on écrit
𝑚
𝑑
𝑓 𝑑 𝑞𝑖 = 𝐶𝑛 𝑖𝑖 𝑞𝑖 𝑑 𝑖 1 − 𝑞𝑖 𝑛 𝑖 −𝑑 𝑖
,
𝑖=1
𝑓(𝑞𝑖 𝑑1 , … , 𝑑𝑛 ) ∝ 𝑓 𝑑𝑖 𝑞𝑖 𝜋(𝑞𝑖 )
𝑖=1
= 𝐵 𝑑𝑖 , 𝑛𝑖 − 𝑑𝑖 ,
pour 𝑑𝑖 = 0, 𝑛𝑖 cette dernière fonction est n'est pas définie, et lorsque la
constant de normalisation elle n’a pas d’impacte sur la loi a posteriori on utilise
une loi a prioi 𝜋 ∗ d’une limite de lois de bêta dénormalisées lorsque 𝛼, 𝛽 tend
vers 0, comme suit
α−1 β−1
𝜋 𝑞𝑖 = 𝑞𝑖 1 − 𝑞𝑖 ; 0 < 𝑞𝑖 < 1,
dans la loi a postériori 𝜋 𝑞𝑖 𝑑𝑖 , on trouve
ℬℯ 𝛼 + 𝑑𝑖 , 𝛽 + 𝑛𝑖 −𝑑𝑖
ce qui représente une bonne résolution du problème des valeurs limites.
L’inconvénient de cette procédure est que dans les lois impropres comme celui
de notre cas et en présence d’un espace paramétrique multidimensionnel, cela
peut introduire le paradoxe de marginalisation.
Une autre manière de résoudre le problème de l'incertitude dans la mesure a
priori de bêta est le recoure à l’échantillon 𝑑1 , … , 𝑑𝑚 et l’utilisation des
méthodes statistiques classiques à traverse la loi marginale 𝑓𝜋 𝑑𝑖 𝛼, 𝛽 , cette
méthode est appelée approche bayésienne empirique. Morris (1983) introduit le
concept paramétrique de cette approche. Pour une loi binomial et une loi apriori
conjuguée on pose
1
𝑓𝜋 𝑑𝑖 𝛼, 𝛽 = 𝑓(𝑑𝑖 𝑞𝑖 ) 𝜋 𝑞𝑖 𝛼, 𝛽 𝑑𝑞𝑖
0
1
−1 𝑑 𝑖 𝑑 𝑖 𝑛 𝑖 −𝑑 𝑖
= 𝑞𝑖 1 − 𝑞𝑖 𝐶𝑛 𝑖 𝑞𝑖 1 − 𝑞𝑖 𝑑𝑞𝑖
0
1
𝑑 1
= 𝐶𝑛 𝑖𝑖 𝑞𝑖 𝑑 𝑖 +𝛼−1 1 − 𝑞𝑖 𝑛 𝑖 −𝑑 𝑖 +𝛽−1
𝑑𝑞𝑖
𝐵(𝛼, 𝛽)
0
𝑑 𝐵(𝛼 + 𝑑𝑖 , 𝑛𝑖 + 𝛽 − 𝑑𝑖 )
= 𝐶𝑛 𝑖𝑖
𝐵(𝛼, 𝛽)
Ce qui fournit une loi bêta–binomial pour estimer 𝛼 , 𝛽 , afin de calculer
𝜋 𝑞𝑖 𝑑𝑖 , 𝛼 , 𝛽 . Les paramètres de bêta binomial peuvent êtres estimées par
plusieurs méthodes paramétriques comme la méthode de maximum de
vraisemblance qui nécessiter des méthodes itératifs pour résoudre la valeur des
paramètres de 𝑓𝜋 𝑑𝑖 𝛼, 𝛽 (voir Barsotti et Paroli, 1991), aussi des méthodes
basées sur l’estimateur des moments, Tripathi et al (1993) ont proposé plusieurs
estimateurs dans ce cadre, l’estimateur basé sur les deux premiers moments
s’écrit par
𝜉0 (𝑚 − 1 − 𝜉1 ) 𝑚 − 𝜉0 (𝑚 − 1 − 𝜉1 )
𝛼= , 𝛽=
𝜉0 + 𝑚(𝜉1 − 𝜉0 ) 𝜉0 + 𝑚(𝜉1 − 𝜉0 )
où
𝜇 𝑗 +1
𝜉𝑗 = , 𝑗 = 1,2
𝜇𝑗
et
𝜇 𝑗 est le moment généralisé d’ordre 𝑗, calculé par
(−𝑚)𝑗 (𝛼)𝑗
𝜇𝑗 = (−1)𝑗 , 𝑗 = 1,2, …
𝛼+𝛽 𝑗
Dans l’autre coté les méthodes empiriques non paramétriques sont fondée sur
les travaux de Robbins (1952, 1955, 1964,1983) et de Von Misses (1943). Nous
suppose que les 𝑞𝑖 sont tous été tires selon la même priori 𝜋 (de nature
inconnue). La loi marginale 𝑓𝜋 𝑑𝑖 𝛼, 𝛽 utilisée pour estimer les paramètres
inconnue de 𝜋𝑚 (𝑞𝑚 +1 ) où le problème porte sur cette dernière. On écrit donc
𝜋 𝑞𝑚 +1 𝑑𝑚 +1 , 𝛼, 𝛽 ∝ 𝑓(𝑑𝑚 +1 𝑞𝑚 +1 )𝜋𝑚 (𝑞𝑚 +1 )
l’estimateur bayésienne non paramétrique empirique de la survie s’écrit de la
manière suivante
𝑚 𝑛 𝑚 −𝑑 𝑚 +1
𝑖=1 𝑛𝑖 𝑞𝑖 1 − 𝑞𝑖 𝑑 𝑚
𝑆𝑒𝑚𝑝𝑖𝑟𝑖𝑞𝑢𝑒 = 𝑚 𝑛 𝑚 −𝑑 𝑚
𝑖=1 𝑛𝑖 𝑞𝑖 1 − 𝑞𝑖 𝑑 𝑚
𝑛 𝑚 −𝑑 𝑚 +1
𝑚 𝑑 𝑑𝑖 𝑑 𝑚
𝑖=1 𝑛𝑖 1 − 𝑛𝑖
𝑖 𝑛𝑖
= 𝑛 𝑚 −𝑑 𝑚
𝑑 𝑑𝑖 𝑑 𝑚
𝑚
𝑖=1 𝑛𝑖 1 − 𝑛𝑖
𝑖 𝑛𝑖
où 𝑞𝑖 est l’estimateur classique de Kaplan-Meier. La variance de cette
estimateur s’écrit par
𝑛 𝑚 −𝑑 𝑚 +2
𝑚 𝑑 𝑑𝑖 𝑑 𝑚
𝑖=1 𝑛𝑖 1 − 𝑛𝑖
2 𝑖 𝑛𝑖
𝜎𝑒𝑚𝑝𝑖𝑟𝑖𝑞𝑢𝑒 = 𝑛 𝑚 −𝑑 𝑚 − 𝑆𝑒𝑚𝑝𝑖𝑟𝑖𝑞𝑢𝑒
𝑑 𝑑𝑖 𝑑 𝑚
𝑚
𝑖=1 𝑛𝑖 1 − 𝑛𝑖
𝑖 𝑛𝑖
mais dans le cas où 𝑑𝑖 = 0, l’estimateur 𝑆𝑒𝑚𝑝𝑖𝑟𝑖𝑞𝑢𝑒 est inexact, pour cela on
utilise une loi a priori uniforme pour remplacer l’estimation de Kaplan-Meier
dans 𝑆𝑒𝑚𝑝𝑖𝑟𝑖𝑞𝑢𝑒 par
𝑑𝑖 𝑗 𝑑𝑖
𝑗 =0(−1) 𝑑𝑖 − 𝑗 ! 𝑗! 𝑛𝑖 + 𝑗 + 2
𝑞𝑖 =
𝑑𝑖 𝑗 𝑑𝑖
𝑗 =0(−1) 𝑑𝑖 − 𝑗 ! 𝑗! 𝑛𝑖 + 𝑗 + 1
et à partir de cette équation et pour 𝑑𝑖 = 0,
𝑑𝑖 1
1− = 𝑞𝑖 = 1 −
𝑛𝑖 𝑛𝑖 − 1
Ces méthodes empiriques souffrent de plusieurs inconvénients :
Ces techniques ne sont pas bayésienne parce qu’elles utilisent les
données deux fois pour trouver un estimateur sous la loi pseudo a
postériori.
La sous-optimalité des estimateurs empiriques pose des problèmes sur
les procédures utilisées.
l’approximation d’une loi apriori inconnue par une loi marginale n’est
pas justifiable sauf dans le cas d’un échantillon de taille important, le
problème restera le même dans un grand échantillon car l’inférence basé
sur ce paradigme ne correspond qu’une seule observation.
Dans l’estimateur empirique non paramétrique et dans le cas où 𝑞 est un
mélange de lois, l’estimation fréquentiste d’une loi marginale est souvent
basique2.
2.2.2. Le prior d'un mélange de distributions
Dans l’estimation d’une densité, l’analyse bayésienne utilise souvent des
modèles de mélange de lois de probabilités élémentaires. Les premiers articles
dans l’estimation bayésienne des mélanges par la méthode MCMC (Monte
Carlo par Chaine de Markov) ont été les traveaux de Diebolt et Robert
(1990,1994), Gelman et King (1990), Verdinelli et Wasserman (1991) et Lavine
et Wasserman (1992). Cette approche de mélange permet de construire une
modélisation flexible contient un ensemble de sous-populations. Les modèles
de mélanges se situent à la frontière des modélisations paramétrique et non
paramétrique et permettent la description de phénomènes plus complexes
(robert (2006)). L’estimation bayésienne de mélange est possible depuis peu à
travers le développement des outils informatiques et les modèles de simulations
statistiques avancées comme celui d’MCMC. Pour 𝑖 = 1, … 𝑛, on pose un
modèle de mélange à k-composantes.
La loi a priori de mélange s’écrit de la manière suivante
𝑘
𝐿(𝑞𝑖 𝑤, 𝛼, 𝛽 ) = 𝑤𝑗 𝑓(𝑞𝑖 𝑑𝑖 , 𝛼𝑗 , 𝛽𝑗 )
𝑗 =1
𝑘
et 0 ≤ 𝑤𝑗 ≤ 1, 𝑗 =1 𝑤𝑗 = 1
on considère que les probabilités 𝑞 = (𝑞1 , … 𝑞𝑚 ) sont i.i.d dans la
vraisemblance est
𝑚 𝑘
𝐿 𝑞, 𝑤 𝑑, 𝛼, 𝛽 = 𝑤𝑗 𝑓(𝑞𝑖 𝑑𝑖 , 𝛼𝑗 , 𝛽𝑗 )
𝑖=1 𝑗 =1
𝑚 𝑘
∝ 𝑤𝑗 𝑞𝑖 𝑑 𝑖 1 − 𝑞𝑖 𝑛 𝑖 −𝑑 𝑖
𝑖=1 𝑗 =1
2
À cause du support fini de la loi marginale.
si on pose le vecteur des paramètres indépendantes 𝜃 = 𝛼𝑗 , 𝛽𝑗 , dans l’analyse
bayésienne où l’inférence repose sur la loi a postériori donnée par
𝜋(𝜃, 𝑤 𝑞 ) ∝ 𝐿 𝑞, 𝑤 𝑑, 𝛼, 𝛽 𝜋(𝛼𝑗 𝜉𝑗 , 𝜈𝑗 )𝜋(𝛽𝑗 𝜉𝑗∗ , 𝜈𝑗∗ )𝜋(𝑤 𝜑1 , … , 𝜑𝑘 )
𝑚 𝑘
∝ 𝑤𝑗 𝑞𝑖 𝑑 𝑖 1 − 𝑞𝑖 𝑛 𝑖 −𝑑 𝑖
𝜋(𝛼𝑗 𝜉𝑗 , 𝜈𝑗 )𝜋(𝛽𝑗 𝜉𝑗∗ , 𝜈𝑗∗ )𝜋(𝑤 𝜑1 , … , 𝜑𝑘 )
𝑖=1 𝑗 =1
𝐿(𝑞, 𝑤 𝑑, 𝛼, 𝛽, 𝑧) = 𝑤𝑧 𝑖 𝑓 𝑞𝑖 𝑑𝑖 , 𝛼𝑧 𝑖 , 𝛽𝑧𝑖 ,
𝑖=1
𝔍= 𝑤1 , … , 𝑤𝑘 ∈ 0,1 𝑘 ; 𝑤𝑗 = 1
𝑗 =1
∝ 𝑤𝑖 𝑛 𝑗 𝑞𝑖 𝑑 𝑖 1 − 𝑞𝑖 𝑛 𝑖 −𝑑 𝑖
𝜋(𝛼𝑗 𝜉𝑗 , 𝜈𝑗 )𝜋(𝛽𝑗 𝜉𝑗∗ , 𝜈𝑗∗ ) 𝜋(𝑤𝑧𝑖 𝜑1 , … , 𝜑𝑘 ),
𝑖=1 𝑖:𝑍𝑗 =𝑖
on pose 𝑚𝑗 = # 𝑍𝑖 = 𝑗 , 𝑗 𝑚𝑗 = 𝑚.
Le problème célèbre des modèles de mélanges est la non-identifiabilité qui
causer la présence de 𝑘! modes dans la distribution a postériori, ceci est à
l’origine de label-swetching (le changement d’indice) dans l’analyse
bayésienne, car la multimodalité de la vraisemblance et dans l’utilisation des
lois a priori symétriques elle influe sur la distribution a postériori à partir de la
relation entre eux.
Définition 1.
Soit pour toutes ∈ 1, 𝑚 :
𝑘 𝑘
la famille 𝓒 est identifiable si, pour tous 𝑓(𝑑𝑖 𝑞𝑖𝑗 ) et 𝑓 ∗ (𝑑𝑖 𝑞𝑖𝑗 ) dans 𝓒 tels
que :
𝑐
∗
𝑓 𝑑 𝑞 = 𝑤𝑗 𝑓𝑗 𝑑 𝑞𝑖𝑗 𝑒𝑡 𝑓 𝑑 𝑞 = 𝜆𝜐 𝑓𝜐 𝑑 𝑞𝑖𝑗
𝑗 =1 𝜐=1
on a
=𝑐
∗
𝑓 𝑑 𝑞𝑖𝑗 = 𝑓 𝑑 𝑞𝑖𝑗 ⇔ et
∀𝑗 = 1 à , ∃ 𝜐 ∶ 𝑤𝑗 = 𝜆𝜐 , 𝑓 ∗ 𝑑 𝑞𝑖𝑗 = 𝑓 𝑑 𝑞𝑖𝑗
Etape 2 :
(𝑡+1) (𝑡+1)
Générer 𝛼𝑖 en simulant selon la loi 𝜋 𝛼𝑖 𝑑𝑖 , 𝑧 (𝑡)
(𝑡+1) (𝑡+1) (𝑡+1)
Générer 𝛽𝑖 en simulant selon la loi 𝜋 𝛽𝑖 𝑑𝑖 , 𝛼𝑖
𝒌 2 3 4 6 7
DIC 964.5 964.4 964.5 965.4 1124.4
model
{
P[1:2] ~ ddirich(phi[])
for (i in 1:m) {
d[i]~dbin(q[i],n[i])
q[i]~dbeta(alpha[w[i]],beta[w[i]])
w[i] ~ dcat(P[])
}
for (i in 1:m){
ce[i]~dbin(qc[i],n[i])
}
for (i in 1:m){
qc[i]~dbeta(0.1,0.1)
}
for (i in 1:m){
pp[i]<-1-q[i]
}
n[1]<- 1064
phi[1] <- 1
phi[2] <- 1
theta1~ dunif(0, 1)
alpha[2] <- alpha[1] + theta1
alpha[1]~dgamma(0.01, 0.01)
theta2 ~ dunif(0, 1)
beta[2] <- beta[1] + theta2
beta[1]~ dgamma(0.01, 0.01)
for(i in 2:m){
n[i]<-n[i-1]-d[i-1]-ce[i-1]
}
for (i in 2:m){
s[i]<-s[i-1]*pp[i]
}
s[1]<-pp[1]
}
list( m=227,
w=c(NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,N
A,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,N
A,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,N
A,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,N
A,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,N
A,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,N
A,NA,NA),
ce=c(0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0
,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,
0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0
,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,
0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,36,39,29,42,30,6,5,0,1,
1),
d=c(28,31,23,18,14,20,18,18,16,8,14,15,20,12,7,9,5,11,15,12,11,13,7,10,16,11,6,13,11
,9,9,7,5,4,14,9,9,4,5,6,7,12,7,5,3,5,5,11,5,5,3,1,3,1,2,1,8,2,5,4,5,4,4,5,3,1,3,3,6,3,3,4,3,
4,1,4,4,1,4,2,1,3,2,1,1,5,4,4,2,2,1,2,3,4,3,4,2,3,2,2,1,3,1,1,2,4,1,1,1,1,1,3,3,2,3,1,2,2,1,2
,2,1,1,2,4,2,1,2,1,3,1,2,3,1,2,2,1,1,1,2,2,1,2,1,1,3,1,1,2,1,1,2,1,2,2,1,2,1,2,1,2,1,3,1,1,1,
2,1,2,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,2,1,1,1,2,2,1,1,1,1,1,1,1,1,1,1,1,1,1,1,2,1,1,1,1,1,1,1
,1,1,1,1,0,0,0,0,0,1,0,1,0,0))
list(theta1=1, theta2=1, alpha = c(1, NA), beta= c(1, NA),
q=c(0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,
0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0
.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.
5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5
,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,
0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0
.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.
5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5
,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,
0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5,0.5))
list(theta1=0.1, theta2=0.1, alpha = c(3, NA), beta= c(3, NA),
q=c( 0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,
0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,
0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,
0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,
0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,
0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,
0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,
0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,
0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,
0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,
0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,
0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,
0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,
0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9,0.9))