Vous êtes sur la page 1sur 18

ESTIMATION NON-PARAMÉTRIQUE

DE LA FONCTION DE HASARD AVEC


VARIABLE EXPLICATIVE FONCTIONNELLE:
CAS DES DONNÉES SPATIALES

ALI LAKSACI et BOUBAKEUR MECHAB

In this paper, we study a kernel estimator of the conditional hazard function when
the covariates take values in some abstract function space. The almost completely
convergence (with rate) of this estimate is obtained when the sample considered
is collected in spatial order with mixing structure. These results are extensions
to spatial dependent data of the results given by Ferraty et al. (Rev. Roumaine
Math. Pures Appl. 53 (2008), 1–18).
AMS 2010 Subject Classification: 62G05, 62G20, 62N02.

Key words: données spatiales, champ aléatoire fonctionnel, estimation non-para-


métrique, fonction de hasard conditionnelle, probabilités de petites
boules.

1. INTRODUCTION

Les problèmes statistiques liés à la modélisation et à l’étude de données


spatiales connaissent ces derniers temps un grand intérêt en statistique. L’im-
portance de ce thème de recherche est motivée par la croissance du nombre
de problèmes concrets pour lesquels les données sont récoltées dans un ordre
spatial. De tels problèmes se rencontrent dans de nombreux domaines tels
l’épidémiologie, l’économétrie, les sciences de l’environnement et de la terre,
l’agronomie, l’imagerie, . . . . En statistique non paramétrique la modélisation
des données spatiales est relativement récente par rapport au cas paramétrique.
En effet, les premiers résultats ont été obtenus par Tran [21], tandis que les
références les plus récentes incluent celles de Dabo-Niang et Yao [6], Carbon et
al. [4] et Li et Tran [17]. L’objectif de ce travail est d’étudier l’estimation non
paramétrique de la fonction de hasard conditionnelle lorsque les observations
sont à la fois spatialement dépendantes et la coraviable est dans un espace
semi-métrique de dimension éventuellement infinie.
L’estimation de la fonction de hasard joue un rôle très important en
statistique. En effet, elle est utilisée dans l’analyse de risque ou pour l’étude
REV. ROUMAINE MATH. PURES APPL., 55 (2010), 1, 35–51
36 Ali Laksaci et Boubakeur Mechab 2

des phénomènes de survie dans de nombreux domaines tels (médecine, géophy-


sique, fiabilité, . . .). La littérature sur l’estimation de la fonction de hasard est
très abondante, lorsque les observations sont vectorielles. Citons, par exemple,
Watson et Leadbetter [22], Roussas [20], Lecoutre et Ould-Said [15], Estèvez
et al. [7] et Quintela-del-Rio [13] pour des références récentes. Dans tous ces
travaux les auteurs considèrent des observations indépendantes ou des données
dépendantes issues de séries temporelles. Dans le cas spatial, la littérature est
très restreinte, il n’y a qu’un seul travail de Li et Tran [16]. Ces derniers ont
obtenu, dans un contexte spatial, la normalité asymptotique d’un estimateur
à noyau de la fonction de hasard. Les premiers résultats sur l’estimation non
paramétrique de ce modèle, en statistique fonctionnelle, ont été obtenus par
Ferraty et al. [9]. Ils ont étudié la convergence presque complète d’un es-
timateur à noyau pour la fonction de hasard d’une variable aléatoire réelle
conditionnée par une variable explicative fonctionnelle. La normalité asymp-
totique de ce dernier estimateur a été obtenue, dans le cas α-mélangeant,
par Quintela-del-Rio [14]. Nous renvoyons à Ferraty et al. [10] pour la conver-
gence presque complète uniforme sur la composante fonctionnelle de ce modèle
non paramétrique.
L’apport principal de ce travail est la généralisation des résultats de
Ferraty et al. [9] au cas des observations spatialement dépendantes. Sous
des conditions de mélange assez générales, on établit la convergence presque
complète (avec vitesse) d’un estimateur à noyau pour la fonction de hasard
d’une variable aléatoire réelle conditionnée par une variable explicative fonc-
tionnelle. Notons que, comme toutes les propriétés asymptotiques en statis-
tique non paramétrique fonctionnelle, notre résultat est lié au phénomène de
concentration de la mesure de probabilité de la variable explicative et à la
régularité de l’espace fonctionnel du modèle. Mentionnons également qu’en
statistique spatiale, on distingue deux types d’asymptotiques (voir Cressie [5]).
L’asymptotique extensive et l’asymptotique intensive. La première traite le
cas où la taille des observations croı̂t avec celle du domaine d’observation.
En pratique, cette asymptotique est utilisée lorsque les observations sont
collectées par des stations de mesure séparées. On trouvera des exemples
de données fonctionnelles, adaptées à cet asymptotique, en économie (les
courbes de consommation d’un produit quelconque dans différentes villes), en-
vironnement (les courbes de concentration d’un gaz polluant dans différentes
régions) ou en agronomie (les courbes de pluviométrie dans différentes lo-
calités). L’asymptotique intensive examine la situation d’observations qui
se densifient dans un domaine borné fixé. Cela est le cas, par exemple, en
prospection minière ou en analyse radiographique.
Nous présentons l’estimateur de notre modèle spatial dans le Paragra-
phe 2. Dans le Paragraphe 3 nous donnons les hypothèses, puis nous étudions
3 Fonction de hasard spatiale et variable fonctionnelle 37

la convergence presque complète de cet estimateur. Comme application, nous


traitons, dans le Paragraphe 4, l’estimation de risque maximum condition-
nellement à une variable explicative fonctionnelle.

2. LE MODÈLE ET SON ESTIMATEUR

Soit N un entier naturel dans N∗ . On considère le champ aléatoire Zi =


(Xi , Yi ), i ∈ NN à valeurs dans F × R, où (F, d) est un espace semi-métrique
de dimension éventuellement infinie. Dans ce contexte, (Xi )i∈NN peut être
une variable aléatoire fonctionnelle. Notons que, depuis une bonne dizaine
d’années, la communauté statistique s’est préoccupée du développement de
modèles et méthodes adaptés à ce contexte de données fonctionnelles. Alors
que les premières études dans cette direction se sont essentiellement con-
centrées sur des modèles linéaires (voir Bosq [2], Ramsay et Silverman [19]),
les développements récents (voir Ferraty et Vieu [11]) font état de modèles
non-paramétriques adaptés à ce type de données.
Par la suite, on fixe un point x dans F (respectivement, un compact
S ∈ R), on suppose que les observations spatiales (Xi , Yi )i∈NN ont la même
distribution que Z := (X, Y ) et que la version régulière de la probabilité condi-
tionnelle de Y sachant X = x existe et admet une densité bornée par rapport
à la mesure de Lebesgue sur R, notée f x . Le paramètre fonctionnel étudié
dans cet article, noté hx , est défini, pour tout y ∈ R tel que F x (y) < 1, par
f x (y)
hx (y) = ,
1 − F x (y)
où F x est la fonction de répartition conditionnelle de Y sachant X = x.
Par ailleurs, nous supposons que le champ aléatoire fonctionnel est ob-
servé sur l’ensemble In = i = (i1 , . . . , iN ) ∈ NN , 1 ≤ ik ≤ nk , k = 1, . . . , N ,


n = (n1 , . . . , nN ) ∈ NN et on estime la fonction de répartition conditionnelle par


K(h−1 d(x, Xi ))H(h−1
P
H (y − Yi ))
Fb (y) = i∈In P K
x
−1 ∀y ∈ R,
i∈In K(hK d(x, Xi ))
où K est un noyau, H une fonction de répartition et hK = hK,n (respective-
ment, hH = hH,n ) une suite de nombres réels positifs.
De Fbx , on déduit un estimateur de la densité conditionnelle, noté fbx ,
défini par
h−1 −1 0 −1
P
x H i∈In K(hK d(x, Xi ))H (hH (y − Yi ))
f (y) =
b P −1 ∀y ∈ R,
i∈In K(hK d(x, Xi ))
où H 0 est la dérivée de H. Notons que, si N = 1, on obtient les mêmes
estimateurs de Ferraty et al. [8]. L’estimateur naturel de la fonction de hasard
38 Ali Laksaci et Boubakeur Mechab 4

hx , est
conditionnelle, noté b
fbx (y)
hx (y) =
b ∀y ∈ R.
1 − Fbx (y)
Le but de ce travail est d’étudier la convergence presque complète de
hx vers hx , lorsque le champ aléatoire fonctionnel (Zi )i∈NN vérifie
l’estimateur b
la condition de mélange suivante.

 Il existe une fonction ϕ (t) ↓ 0 quand t → ∞, telle que
 ∀ E, E 0 sous ensemble de NN de cardinal fini


α (B(E), B(E 0 )) = sup |P (B ∩ C) − P (B) P (C)| ≤
B∈B(E), C∈B(E 0 )



≤ ψ (Card (E) , Card(E 0 )) ϕ (dist (E, E 0 )) ,

où B(E) (resp. B(E 0 )) la tribu borélienne engendrée par (Zi , i ∈ E) resp.
(Zi , i ∈ E 0 ) , Card(E) resp. Card(E 0 ) est le cardinal de E resp. E 0 ,
 

dist(E, E 0 ) désigne la distance euclidien entre E et E 0 et ψ une fonction


symétrique : N2 → R+ , décroissante par rapport aux deux variables séparément
et satisfait l’une des conditions suivantes
(1) ψ (n, m) ≤ C min (n, m) , n, m ∈ N
ou
(2) ψ (n, m) ≤ C (n + m + 1)β , n, m ∈ N
e

pour certains βe ≥ 1 et C > 0.


Notons que ces conditions ont été utilisées par Tran [21] et elle sont
vérifiées par de nombreux modèles spatiaux (voir Guyon [12]).

3. PROPRIÉTÉS ASYMPTOTIQUES

Dans la suite, nous noterons par C et/ou C 0 des constantes strictement


positives quelconques et nous supposons que: ∀y ∈ S, F x (y) < 1. Rappelons
que dans ce contexte spatial, n → ∞ signifie que min{nk } → ∞ et que pour
n
chaque 1 ≤ j, k ≤ N on a | nkj | < C < ∞. Introduisons les hypothèses suivantes
(H1) P(X ∈ B(x, r)) = φx (r) > 0 où B(x, r) est la boule fermée, centrée
en x et de rayon r.

iδ ϕ(i) < ∞, δ > 5N .
P
(H2) La fonction ϕ vérifie
i=1
(H3) 0 < sup P [(Xi , Xj ) ∈ B(x, h) × B(x, h)] ≤ C(φx (h))(a+1)/a , avec
i6=j
1 < a < δN −1 .
5 Fonction de hasard spatiale et variable fonctionnelle 39

(H4) Il existe un voisinage de x, noté Nx , tel que: ∀(x1 , x2 ) ∈ Nx2 ,


∀(y1 , y2 ) ∈ S 2

|F x1 (y1 ) − F x2 (y2 )| ≤ C db1 (x1 , x2 ) + |y1 − y2 |b2 , b1 > 0, b2 > 0




|f x1 (y1 ) − f x2 (y2 )| ≤ C db3 (x1 , x2 ) + |y1 − y2 |b4 , b3 > 0, b4 > 0.




(H5) K est de support [0, 1], vérifie C1I[0,1] (·) ≤ K(·) ≤ C 0 1I[0,1] (·), où
1I[0,1] est la fonction indicatrice de [0, 1].
(H6) H est une fonction de classe C 2 et à support compact.
(H7) Il existe 0 < α < (δ − 5N )/3N et η0 > 0, tels que:
(5+3α)N −δ
b α hH = ∞
lim n et Cn
b δ
+η0
≤ hH φx (h),
n→∞

où n
b = n1 . . . n N .
Nos hypothèses sont relativement standard, puisque les conditions (H1),
(H3)–(H7) sont très similaires à celles utilisées par Ferraty et al. [9], tandis
que l’hypothèse (H2) est la même que dans Tran [21].

Théorème 1. Sous les hypothèses (1), (2) et (H1)–(H7), on a,


 1 !
  log n 2
hx (y) − hx (y)| = O
sup |b hbK1 hbH2
b
+ +O , p.co.
y∈S n
b hH φx (hK )

Il est intéressant de noter que si N = 1 on obtient la même vitesse de


convergence de Ferraty et al. [9].
Démonstration. On considère la décomposition

1 h i hx (y) h bx i
hx (y) − hx (y) =
b x x
f (y) − f (y) +
b x
F (y) − F (y) .
1 − Fbx (y) 1 − Fbx (y)

La démonstration du Théorème 1 repose sur les résultats suivants


 1 !
x x

b b
 log n 2
sup |Fb (y) − F (y)| = O hK + hH + O
1 2
b
p.co.
y∈S n
b φx (hK )
 1 !
  log n 2
sup |fbx (y) − f x (y)| = O hbK1 + hbH2 + O
b
p.co.
y∈S n
b hH φx (hK )
X  
x
∃η > 0 tel que P inf |1 − Fb (y)| < η < ∞,
y∈S
n∈NN
40 Ali Laksaci et Boubakeur Mechab 6

dont les démonstrations sont basées, respectivement, sur les décompositions


x x 1 n bx x
 
x x
o
F (y) − F (y) =
b FN (y) − EFN (y) − F (y) − EFN (y) +
b b
FbDx
F x (y)  bx 
+ EFD − FbDx
FbDx
et
1 n bx   o
fbx (y) − f x (y) = fN (y) − EfbNx
(y) − f x (y) − EfbN
x
(y) +
FbDx
f x (y)  bx 
+ EFD − FbDx
FbxD
où
1 X
FbDx =  −1
 K(h−1
K d(x, Xi )),
n
b E K(hK d(x, X1 )) i∈I
n

1 X
FbNx (y) =  −1
 K(h−1 −1
K d(x, Xi ))H(hH (y − Yi ),
b E K(hK d(x, X1 )) i∈I
n
n

et
1 X
x
fbN (y) = K(h−1 0 −1
K d(x, Xi ))H (hH (y − Yi ),
b hH E K(h−1
 
n K d(x, X 1 )) i∈I n

où 1 est l’indice spatial des composantes fixées à 1.


Finalement, le Théorème 1 est une conséquence des résultats suivants.
Lemme 2. Sous les hypothèses (1), (2), (H1)–(H3), (H5) et (H7), on a,
 1 !
log n 2
FbDx − EFbDx = O
b
, p.co.
n
b φ(hK )
Corollaire 3. Sous les hypothèses du Lemme 2, on a,
X  
P FbDx < 1/2 < ∞.
n∈NN

Lemme 4. Sous les hypothèses (H1) et (H4)–(H7), on a,


 
sup F x (y) − EFbNx (y) = O hbK1 + hbH2 .

y∈S

Lemme 5. Sous les conditions du Théorème 1, on a,


 1 !
log n 2
sup FN (y) − EFbNx (y) = O
bx b
, p.co.

y∈S n
b φ(hK )
7 Fonction de hasard spatiale et variable fonctionnelle 41

Lemme 6. Sous les hypothèses (H1) et (H4)–(H7), on a,


 
sup f x (y) − EfbN
x
(y) = O hbK3 + hbH4 .

y∈S

Lemme 7. Sous les conditions du Théorème 1, on a,


 1 !

bx x
log n 2
sup fN (y) − EfbN (y) = O
b
, p.co.

y∈S n
b hH φx (hK )

Lemme 8. Sous les conditions du Théorème 1, on a,


X  
x
∃η > 0 tel que P inf |1 − F (y)| < η < ∞.
b 
y∈S
n∈NN

4. APPLICATION: ESTIMATION DU POINT À HAUT RISQUE

Dans cette section, on se propose d’estimer le point à haut risque dans


S, noté θ(x), défini par
(3) hx (θ(x)) = max hx (y).
y∈S

Ce modèle a un grand intérêt en statistique, notamment dans l’analyse de


risque sismique (voir Quintela-del-Rio [13]). Dans notre contexte fonctionnel,
on suppose qu’il existe un point unique θ(x) dans S vérifiant (3). L’estimateur
naturel de θ(x) , noté θ(x),
b est tel que
(4) hx (θ(x))
b b hx (y).
= max b
y∈S

En général, cet estimateur n’est pas unique. Ainsi, dans toute la suite de cet
article θ(x)
b désignera toute variable aléatoire vérifiant (4).
Afin d’étudier la convergence presque complète de l’estimateur θ(x),
b on
garde les hypothèses de la section précédente et on suppose que la fonction hx
est de classe C 2 par rapport à y et telle que
0 00
(5) hx (θ(x)) = 0 et hx (θ(x)) > 0.
Finalement, le théorème précédent nous permet de conclure le corollaire
suivant:
Corollaire 9. Sous les conditions (1), (2), (H1)–(H7) et (5), on a,
 1 !

b /2
b − θ(x) = O h 1 + h 2 b /2
 log n
b 4
θ(x) K H + O , p.co.
n
b hH φx (hK )
42 Ali Laksaci et Boubakeur Mechab 8

5. APPENDICE

Dans les preuves suivantes nous noterons pour tout i ∈ In


Ki (x) = K(h−1
K d(x, Xi )), Hi (y) = H(h−1
H (y − Yi ))

et
Hi0 (y) = H 0 (h−1
H (y − Yi )).

Démonstration du Lemme 2. La démonstration est basée sur des idées


similaires à celles utilisées par Carbon et al. [3]. En effet, on a
1 X
FbDx (x) − E[FbDx (x)] = ∆i (x)
n
b E [K1 (x)]
i∈In

où ∆i (x)Ki (x) − E [Ki (x)]. On considère la décomposition spatiale de Tran [21]
sur les variables ∆i (x), définie, pour un entier pn fixé, de la manière suivante
2jkX
pn +pn
U (1, n, x, j) = ∆i (x),
ik =2jk pn +1
k=1,...,N

2jkX
pn +pn 2(jN +1)pn
X
U (2, n, x, j) = ∆i (x),
ik =2jk pn +1 iN =2jN pn +pn +1
k=1,...,N −1

2jkX
pn +pn 2(jN −1 +1)pn 2jNX
pn +pn
X
U (3, n, x, j) = ∆i (x),
ik =2jk pn +1 iN −1 =2jN −1 pn +pn +1 iN =2jN pn +1
k=1,...,N −2

2jk pn 2(jN −1 +1)pn 2(jN +1)pn


X X X
U (4, n, x, j) = ∆i (x),
ik =2jk pn +1 iN −1 =2jN −1 pn +pn +1 iN =2jN pn +pn +1
k=1,...,N −2

et ainsi de suite. Les deux derniers termes sont


2(jk +1)pn 2jNX
pn +pn
X
N −1
U (2 , n, x, j) = ∆i (x),
ik =2jk pn +pn +1 iN =2jN pn +1
k=1,...,N −1

2(jk +1)pn
X
U (2N , n, x, j) = ∆i (x).
ik =2jk pn +pn +1
k=1,...,N
9 Fonction de hasard spatiale et variable fonctionnelle 43

Pour ri = 2−1 ni p−1 n , i = 1, . . . , N et J = {0, . . . , r1 − 1} × . . . ×


{0, . . . , rN − 1}, on pose
X
T (n, x, i) = U (i, n, x, j).
j∈J

Sans perte de généralité, on peut écrire


2N
1 X
(6) |FbDx (x) − E[FbDx (x)]| = T (n, x, i),
n
b E [K1 (x)]
i=1

parce que même si ni n’est pas exactement égal à 2ri pn , on regroupe les
variables restantes dans un bloc T (n, x, 2N + 1) (ceci ne changera pas la
démonstration voir Biau et Cadre [1]).
Maintenant, en vertu de la dernière équation (6), pour chaque η > 0 on a
 
P |FbDx (x) − E[FbDx (x)]| ≥ η ≤ 2N max P (T (n, x, i) ≥ ηb
nE [K1 (x)]) .
i=1,...

Ainsi, il suffit de calculer


P (T (n, x, i) ≥ ηb
nE [K1 (x)]) pour chaque i = 1, . . . , 2N .
On traite seulement le cas i = 1. Pour cela, on re-numérote les variables
(U (1, n, x, j); j ∈ J ) et on applique le Lemme 4.5 de Carbon et al. [3] sur les
variables re-numérotées. Les Qvariables avec la nouvelle numérotation seront
notées Z1 , . . . , ZM où M = N k=1 r k = 2−N n
b p −N ≤ n
n b p−N
n . Remarquons que,
pour chaque Zj il existe un certain j dans J tel que
X
Zj = ∆i (x)
i∈I(1,n,x,j)

où I(1, n, x, j) = {i : 2jk pn + 1 ≤ ik ≤ 2jk pn + pn ; k = 1, . . . , N } . La distance


séparant ces ensembles est supérieure à pN n et chaque ensemble contient pn
N

éléments.
Le Lemme 4.5 de Carbon et al. [3] nous permet d’approximer Z1 ,Z2 , . . .,
ZM par des variables aléatoires indépendantes Z1∗ , . . . , ZM ∗ de même loi que

Zj=1,...,M et telle que


M
X
E|Zj − Zj∗ | ≤ 2CM pN N N

n ψ(M − 1)pn , pn ϕ(pn ).
j=1

Alors, d’après les inégalités de Bernstein et de Markov, on a


P (T (n, x, i) ≥ ηb
nE [K1 (x)]) ≤ B1 + B2 ,
44 Ali Laksaci et Boubakeur Mechab 10

où
 
XM
M ηb
nE [K1 (x)] 
Zj∗ ≥

B1 = P  ≤
2M
j=1

nE [K1 (x)])2
 
(ηb
≤ 2 exp − ,
M Var [Z1∗ ] + CpN
n ηb
nE [K1 (x)]
 
M M
X ηb
n E [K 1 (x)] C X
B2 = P  |Zj − Zj∗ | ≥ ≤ E|Zj − Zj∗ | ≤
2 ηb
nE [K1 (x)]
j=1 j=1

≤ CM pN nE [K1 (x)])−1 ψ((M − 1)pN


n (ηb
N
n , pn )ϕ(pn ).
q
log n
b = 2N M pN
Comme n N N N
n et ψ((M − 1)pn , pn ) ≤ pn alors pour η = η0 n
b
b φx (hK )

B2 ≤ n b pN b )−1/2 (b
n (log n nφx (hK ))−1/2 ϕ(pn ).

b x (hK ) 1/2N
 
On prend pn C nφlog n
b , alors

(7) b )−1 n
B2 ≤ (log n b ϕ(pn ).
P
D’après (H7), on montre que b ϕ(pn ) < ∞.
n
n∈In
On va traiter, maintenant, B1 . Pour cela, il suffit d’évaluer Var [Z1∗ ].
En effet,
" #
X X

Var [Z1 ] = Var ∆i (x) = |Cov(∆i (x), ∆j (x))| .
i∈I(1,n,x,1) i,j∈I(1,n,x,1)
P P
Posons Qn = Var [∆i (x)] et Rn = |Cov(∆i (x), ∆j (x))|.
i∈I(1,n,x,1) i6=j∈I(1,n,x,1)
En vertu de (H1), on a Var[∆i (x)] ≤ C(φx (hK ) + (φx (hK ))2 ), donc Qn =
O pNn φx (hK ) . En ce qui concerne Rn , on utilise les techniques de Masry [18]
et on considère les ensembles
S1 = {i, j ∈ I(1, n, x, 1) : 0 < ki − jk ≤ cn },
S2 = {i, j ∈ I(1, n, x, 1) : ki − jk > cn },
où cn est une suite réelle tendant vers +∞. Ainsi,
X X
Rn = |Cov (∆i (x), ∆j (x))| + |Cov (∆i (x), ∆j (x))| = Rn1 + Rn2 .
(i,j)∈S1 (i,j)∈S2
11 Fonction de hasard spatiale et variable fonctionnelle 45

D’ une part, on a
X
Rn1 = |E [Ki (x)Kj (x)] − E [Ki (x)] E [Kj (x)]| ≤
(i,j)∈S1
 
1/a
≤ CpN cN
φ
n n x K(h ) (φ (h
x K )) + φ (h
x K ) ≤ CpN N
n cn φx (hK )
(a+1)/a
.

D’autre part, on a Rn2 =


P
|Cov (∆i (x), ∆j (x))| . Comme le noyau K est
(i,j)∈S2
borné, du Lemme 2.1(ii) de Tran [21] on obtient
|Cov (∆i (x), ∆j (x))| ≤ Cϕ (ki − jk) .
Ainsi
X X X
Rn2 ≤ C ϕ (ki−jk) ≤ CpN
n ϕ (kik) ≤ CpN −N a
n cn kikN a ϕ (kik) .
(i,j)∈S2 i:kik≥cn i:kik≥cn

On prend cn = (φx (hK ))−1/N a , alors


X X
Rn2 ≤ CpN −N a
n cn kikN a ϕ (kik) ≤ CpN
n φx (hK ) kikN a ϕ (kik) .
i:kik≥cn i:kik≥cn

D’après (H2) on peut écrire Rn2 ≤ CpN n φx (hK ). De plus, avec ce choix de cn
on a
Rn1 ≤ CpNn φx (hK ).
D’où
Var [Z1∗ ] = O pN

n φx (hK ) .
En utilisant ce dernier résultat, avec les définitions de pn , M et η, on montre
B1 ≤ exp (−Cη0 log n
b) .
Par conséquent, un choix approprié de η0 permet de déduire le résultat du
Lemme. 
Démonstration du Corollaire 3. On a, E FbDx (x) = 1, donc
 
   
P FbDx (x) ≤ 1/2 ≤ P FbDx (x) − E FbDx (x) > 1/2
 

et Corollaire 3 devient est une conséquence du Lemme 2. 


Démonstration du Lemme 4. Du fait que les variables aléatoires sont
identiquement distribuées, on a
∀y ∈ S, F x (y) − EFbNx (y) = E K1 (x)1IB(x,hK ) (X) [E [H1 (y)/X] − F x (y)] .
 

En intégrant par parties, on montre que


Z Z
−1 −1
E (H1 (y)/X) = X
H(hH (y − z))f (z)dz = hH H 0 (h−1 X
H (y − z))F (z)dz.
R R
46 Ali Laksaci et Boubakeur Mechab 12

En considérant le changement de variable usuel t = y−z


hH on obtient
Z
E (H1 (y)/X) = H 0 (y)F X (y − hH t)dt,
R

donc
Z
|E(H1 (y)/X) − F (y)| ≤ x
H 0 (y)|F X (y − hH t) − F x (y)|dt.
R

Sous (H4), on a
Z
x
H 0 (y) hbK1 + |t|b2 hbH2 dt.

∀y ∈ S, 1IB(x,hK ) (X)|E(H1 (y)/X) − F (y)| ≤
R

Comme H0est une densité de probabilité, alors, l’hypothèse (H6) achève la


démonstration du Lemme 4. 
Démonstration du Lemme 5. On considère le recouvrement
zn
[
S⊂ (tj − ln , tj + ln )
k=1

−α− 12 α+ 12
avec ln = n
b et zn ≤ n
b . En posant, j(y) = arg minj∈{1,2,...,zn } |y − tj |,
on obtient la décomposition

bx
FN (y) − EFbNx (y) ≤


≤ FbNx (y) − FbNx (tj(y) ) + FbNx (tj(y) ) − EFbNx (tj(y) ) + EFbNx (tj(y) ) − EFbNx (y) .

| {z } | {z } | {z }
T1 T2 T3

• En ce qui concerne (T1 ) et (T3 ) on utilise le fait que H 0 est bornée pour
démonter

bx
1 X
FN (y) − FbNx (tj(y) ) ≤

Ki (x) Hi (y) − Hi (tj(y) ) ≤

n
b E [K1 (x)]
i∈In
1 X ln b x
≤C Ki (x) Hi (y) − Hi (tj(y) ) ≤ C F .
n
b E [K1 (x)] hH D
i∈In
q 
log n
De la définition de ln et sous l’hypothèse (H7), on a hlnH = o b φ(hK ) .
n
b

Ainsi, la convergence presque complète de FbDx , nous permet d’écrire


s !

bx
log n
FN (y) − FbNx (tj(y) ) = o
b
(8) , p.co.

n
b φ(hK )
13 Fonction de hasard spatiale et variable fonctionnelle 47

et
s !

bx x
log n
EFN (tj(y) ) − EFN (y) = o
b
(9) .
b
n
b φ(hK )
• Pour (T3 ), ∀ η > 0, on a
s !
log n
P sup FbNx (tj(y) ) − EFbNx (tj(y) ) > η
b
=

y∈S n
b φ(hK )
s !

bxk x
log n
FN (tj ) − EFbN (tj ) > η ≤
k
b
=P max

j∈{1,2,...,zn } n
b φ(hK )
s !
log n
P FN (tj ) − EFbNxk (tj ) > η
b xk
≤ zn
b
max .

j∈{1,2,...,zn } n
b φ(hK )
Posons
∆0i = Ki (x)Hi (tj ) − E [Ki (x)Hi (tj )] .
Il est clair que

0
|∆i | ≤ C |∆i (x)| ,

Var [∆0i ] ≤ CVar [∆i (x)] et
Cov(∆0i , ∆0j ) ≤ CCov(∆i (x), ∆j (x)) ∀ i 6= j.

En utilisant les mêmes arguments que dans le Lemme 2, on montre


s !

bx  x
 log n
P max FN (z) − E FbN (z) > η0 ≤ zn (B1 + B2 ) .
b
z∈Gn n
b φx (hK )
La définition de zn , l’équation (7) et l’hypothèse (H7) nous permettent d’écrire
X 1
b α+ 2 B2 < ∞.
n
n∈In
Tandis qu’un choix convenable de η0 donne
X 1
b α+ 2 B1 < ∞.
n
n∈In
Finalement, le Lemme 5 est une conséquence de ces deux derniers résultats
combinés avec les équations (8) et (9). 
Démonstration du Lemme 6. En utilisant la stationnarité des observa-
tions, le conditionnement par la variable explicative et le changement de varia-
ble usuel t = y−z
hH , on obtient
Z
−1 0 −1
H 0 (y)f X (y − hH t)dt,

hH E H1 (y)/X = hH
R
48 Ali Laksaci et Boubakeur Mechab 14

et on en déduit
Z
|h−1 0 x
H E(H1 (y)/X) − f (y)| ≤ H 0 (y)|f X (y − hH t) − f x (y)|dt.
R

Sous la deuxième partie de (H4)


Z
∀y ∈ S, 1IB(x,hK ) (X)|h−1 0
H E(H1 (y)/X)
x
− f (y)| ≤ H 0 (y)(hbK3 + |t|b4 hbH2 )dt.
R

L’hypothèse (H6) achève la démonstration du Lemme 6. 


Démonstration du Lemme 7. La démonstration est S très similaire à celle
du Lemme 5. En effet, on considère le recouvrement S ⊂ zk=1 n
(tj − ln , tj + ln )
3 1 3 1
− 2 α− 2 α+
avec ln = n
b b 2 2 . En posant j(y) = arg minj∈{1,2,...,zn } |y−tj |,
et zn ≤ n
on obtient la décomposition

bx x
fN (y) − EfN (y) ≤
b

bx x bx x bx x
≤ fN (y) − fN (tj(y) ) + fN (tj(y) ) − EfN (tj(y) ) + EfN (tj(y) ) − EfN (y) .
b b b
| {z } | {z } | {z }
S1 S2 S3

• Étude de S1 et S3 . De même que pour T1 et T3 dans le Lemme 5, on


utilise le fait que H est une fonction de classe C 2 et à support compact. On a

h−1 X
Ki (x) Hi0 (y) − Hi0 (tj(y) ) ≤
bx x H

fN (y) − fbN (tj(y) ) ≤

n
b E [K1 (x)]
i∈In

h−1 X ln
H
Ki (x) Hi0 (y) − Hi0 (tj(y) ) ≤ C 2 FbDx .

≤C
n
b E [K1 (x)] hH
i∈In

q 
ln log n
La définition de ln et l’hypothèse (H7) nous permet d’écrire h2H
o n
b
b hH φ(hK ) .
La convergence presque complète de Fbx implique D
s !

bx x
log n
fN (y) − fbN
b
(10) (tj(y) ) = o , p.co.

n
b hH φ(hK )
s !

bx x
log n
EfN (tj(y) ) − EfbN
b
(11) (y) = o .

n
b hH φ(hK )
15 Fonction de hasard spatiale et variable fonctionnelle 49

• En ce qui concerne (S2 ), on suit les mêmes étapes de T3 ; ∀ η > 0, on a


s !

bx x
log n
P sup fN (tj(y) ) − EfbN
b
(tj(y) ) > η =

y∈S n
b hH φ(hK )
s !

bxk x
log n
fN (tj ) − EfbNk (tj ) > η ≤
b
=P max

j∈{1,2,...,zn } n
b hH φ(hK )
s !

xk xk
log n
≤ zn (tj ) − EfbN
b
max P fbN (tj ) > η .

j∈{1,2,...,zn } n
b hH φ(hK )

Posons
∆00i = Ki (x)Hi0 (tj ) − E Ki (x)Hi0 (tj ) .
 

Alors
 |∆00i | ≤ C |∆i (x)| ,

Var [∆00 ] = O(hH φ(hK )) et
 EH 0 Hi 0 |(X , X ) = O(h2 ) ∀ i 6= j.
i j i j H
En utilisant les mêmes étapes du Lemme 2, avec une légère modification dans
le choix de cn , on montre que
Cov(∆0i , ∆0j ) = O(hH φ(hK )) ∀ i 6= j.
Ainsi,
s !
 x  log n
≤ zn B10 + B20
x 
(z) − E fbN
b
P max fbN (z) > η0
z∈Gn n
b hH φx (hK )

où B10 ≤ exp (−C(η0 ) log n


b ) et

B20 ≤ n b pN
n (log nb )−1/2 (bnhH φx (hK ))−1/2 ϕ(pn ).
 1/2N
Prenons pn C nhHlogφx (hK )
, la définition de zn sous l’hypothèse (H7), un
b
n
b
choix convenable de η0 nous permettent d’écrire
X 3 1
nb 2 α+ 2 (B20 + B10 ) < ∞.
n∈In

Par conséquent, le Lemme 7 est une conséquence de ce dernier résultat


combiné avec les équations (10) et (11). 
Preuve du Lemme 8. Il suffit de remarquer que
   
inf |1−Fbx (y)| ≤ 1−sup F x (y) /2 ⇒ sup |Fbx (y)−F x (y)| ≥ 1−sup F x (y) /2.
y∈S y∈S y∈S y∈S
50 Ali Laksaci et Boubakeur Mechab 16

En termes de probabilité, on obtient


   
x x
P inf |1 − F (y)| < 1 − sup F (y) /2 ≤
b
y∈S y∈S
  

x x x
≤ P sup |F (y) − F (y)| ≥ 1 − sup F (y) /2 < ∞.
b
y∈S y∈S
 
Il suffit, donc, de prendre η = 1 − sup F x (y) /2 et appliquer les résultats des
y∈S
Lemmes 2–5 pour achever la démonstration du Lemme 8. 
Démonstration du Corollaire 9. Sous l’hypothèse (5), le développement
de Taylor de la fonction hx au voisinage de θ(x), en particulier pour le point
θ(x),
b est
x00 ∗
hx (θ(x))
b b − θ(x))2 h (θ ) ,
= hx (θ(x)) + (θ(x)
j!

où θ est entre θ(x)
b et θ(x), il est donc nécessairement dans le compact S.
Ainsi
b − θ(x)|2 ≤ 2!
|θ(x) 00 |hx (θ(x))
b − hx (θ(x))|
min hx (y)
y∈S
et à l’aide d’arguments analytiques on montre que
|hx (θ(x))
b − hx (θ(x))| ≤ 2 sup |b
hx (y) − hx (y)|.
y∈S

D’où
b − θ(x)|2 ≤ C
|θ(x) x00
hx (y) − hx (y)|.
sup |b
min h (y) y∈S
y∈S
En utilisant le résultat du Théorème 1, on montre que
 1 !
2

b b
 log n 2
|θ(x)
b − θ(x)| = O h + h 1 2
b
K H +O . 
n
b hH φx (hK )

Remerciements. Le rapporteur anonyme est vivement remercié pour ses commen-


taires pertinents.

REFERENCES

[1] G. Biau and B. Cadre, Nonparametric spatial prediction. Stat. Inference Stoch. Process
7 (2004), 327–349.
[2] D. Bosq, Linear Processes in Function Spaces: Theory and Applications. Lecture Notes
in Statistics 149, Springer, 2000.
17 Fonction de hasard spatiale et variable fonctionnelle 51

[3] M. Carbon, L.T. Tran and B. Wu, Kernel density estimation for random fields. Statist.
Probab. Lett. 36 (1997), 115–125.
[4] M. Carbon, C. Francq and L.T. Tran, Kernel regression estimation for random fields.
J. Statist. Plann. Inference 137 (2007), 778–798.
[5] N.A. Cressie, Statistics for Spatial Data. Wiley, New York, 1991.
[6] S. Dabo-Niang and A.F. Yao, Kernel regression estimation for continuous spatial pro-
cesses. Math. Methods Statist 16 (2007), 298–317.
[7] G. Estévez-Pérez, A. Quintela-del-Ro and Ph. Vieu, Convergence rate for cross-
validatory bandwidth in kernel hazard estimation from dependent samples. J. Statist.
Plann. Inference 104 (2002), 1–30.
[8] F. Ferraty, A. Laksaci and Ph. Vieu, Estimating some characteristics of the conditional
distribution in nonparametric functional models. Stat. Inference Stoch. Process 9 (2006),
47–76.
[9] F. Ferraty, A. Rabhi and Ph. Vieu, Estimation non-paramétrique de la fonction de
hasard avec variable explicative fonctionnelle. Rev. Roumaine Math. Pures Appl. 53
(2008), 1–18.
[10] F. Ferraty, A. Tadj, A. Laksaci and Ph. Vieu, Rate of uniform consistency for nonpara-
metric estimates with functional variables. J. Statist. Plann. Inference. (accepté)
[11] F. Ferraty and Ph. Vieu, Nonparametric Functional Data Analysis. Springer Series in
Statistics. Springer, New York, 2006.
[12] X, Guyon, Estimation d’un champ par pseudo-vraisemblance conditionnelle: Etude
asymptotique et application au cas Markovien. Proceedings of the Sixth Franco-Belgian
Meeting of Statisticians, 1987.
[13] A. Quintela-del-Ro, Nonparametric estimation of the maximum hazard under depen-
dence conditions. Statist. Probab. Lett. 76 (2006), 1117–1124.
[14] A. Quintela-del-Ro, Hazard function given a functional variable: Non-parametric esti-
mation under strong mixing conditions. J. Nonparametr. Stat. 20 (2008), 413–430.
[15] J.P. Lecoutre and E. Ould-Said, Estimation de la densité et de la fonction de hasard
conditionnelle pour un processus fortement mélangeant avec censure. C.R. Math. Acad.
Sci. Paris 314 (1992), 295–300.
[16] J. Li and L.T. Tran, Hazard rate estimation on random fields. J. Multivariate Anal. 98
(2007), 1337–1355.
[17] J.Li and L.T. Tran, Nonparametric estimation of conditional expectation. J. Statist.
Plann. Inference 139 (2009), 164–175.
[18] E. Masry, Recursive probability density estimation for weakly dependent stationary pro-
cesses. IEEE Trans. Inform. Theory 32 (1986), 254–267.
[19] J.O. Ramsay and B.W. Silverman, Applied Functional Data Analysis; Methods and Case
Studies. Springer-Verlag, New York, 2002.
[20] G. Roussas, Hazard rate estimation under dependence conditions. J. Statist. Plann.
Inference 22 (1989), 81–93.
[21] L.T. Tran, Kernel density estimation on random fields. J. Multivariate Anal. 34 (1990),
37–53.
[22] G.S. Watson and M.R. Leadbetter, Hazard analysis. Sankhyia 26 (1964), 101–116.

Received 29 March 2009 Université Djilali Liabes


Laboratoire de Mathématiques
BP 89, Sidi Bel Abbes, 22000, Algérie
alilak@yahoo.fr

Vous aimerez peut-être aussi