Académique Documents
Professionnel Documents
Culture Documents
1 Introduction 5
1.1 Notions de mélange . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2 Notions d’association . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.1 Cas de variables aléatoires Hilbertiennes . . . . . . . . 19
1.3 Quelques inégalités utiles . . . . . . . . . . . . . . . . . . . . . 23
1.3.1 Inégalité de Markov . . . . . . . . . . . . . . . . . . . . 23
1.3.2 Inégalité de Hölder . . . . . . . . . . . . . . . . . . . . 23
1.3.3 Inégalité de covariance . . . . . . . . . . . . . . . . . . 23
1.3.4 Inégalité de type Fuk-Nagaev . . . . . . . . . . . . . . 23
1.3.5 Inégalité de Kallabis et Neumman(2006) [60] . . . . . . 25
1
2 TABLE DES MATIÈRES
5
6 CHAPITRE 1. INTRODUCTION
— Dans [87], l’aspect fonctionnel des données est pris en compte par
l’étude et la comparaison de courbes de croissance. L’auteur envisage
l’analyse en composantes principales (ACP) et l’analyse factorielle de
données fonctionnelles dans des situations où les courbes de crois-
sances deviennent presque linéaires par la transformation de l’axe du
temps. Bien d’autres travaux ont été consacrés à l’étude fonctionnelle
de courbes de croissance comme dans [86], [43], [56] et [84].
— Dans le domaine de la médecine, grâce aux progrès effectués au ni-
veau des appareils et des méthodes de mesure, une grande palette de
méthodes liées à la statistique fonctionnelle est mise en œuvre dans
l’étude de certains phénomènes comme dans l’évolution de certains
cancers (voir [26] et [38]), l’étude des déformations de la cornée [65]
ou l’effet placebo [105].
— La climatologie est un autre domaine qui a historiquement contribué
au développement de certains outils/modèles statistiques propres aux
données fonctionnelles, pour étudier les variations de la température
mensuelle moyenne au cours de l’année en différents points du pays.
On retrouve cette approche dans l’étude du phénomène El niño ; pro-
posée dans [80] ; où l’évolution de diverses mesures correspondent à
des individus pour lesquels la série temporelle est étudiée dans une
modélisation auto-regressive fonctionnelle.
— Les méthodes géophysiques permettent de visualiser et d’explorer des
données fonctionnelles. On étudie par exemple l’évolution de diverses
mesures géophysiques d’une zone donnée pendant une année. On peut
évoquer notamment le travail de Dabo-Niang et al. [29] qui s’intéresse
8 CHAPITRE 1. INTRODUCTION
Ces différents champs de recherche ont trouvé un réel écho au sein du cercle
statistique où un grand nombre de travaux ; aussi bien théoriques que pra-
tiques ; ont été produits. On pourrait citer à cet égard les travaux de Grenan-
der [46], Dauxois et al. [30] et Ramsay [85] dans lesquels on retrouve l’étude
des variables aléatoires fonctionnelles. Les ouvrages de Ramsay et Silverman
[57], Ramsay et Silverman [83], Ramsay et Silverman [84] et Ferraty et Vieu
[6] présentent un large éventail de méthodes statistiques développées pour le
traitement de divers problèmes d’estimation dans lesquels interviennent les
variables statisiques fonctionnelles. Dans [8], D. Bosq propose une approche
faisant apparaître une suite de données fonctionnelles dépendantes qui modé-
lisent la série chronologique observée. Le processus discret est alors présenté
comme un processus à temps continu qu’il découpe en un échantillon de
courbes successives. On pourra se référer à [11], comme l’un des principaux
travaux théoriques utilisé dans l’étude des estimateurs issus de modèles à
variables fonctionnelles. Pour les données longitudinales, issues de mesures
répétées, en quelques points choisis, d’un phénomène temporel, les approches
utilisées sont différentes de la méthode de variables aléatoires fonctionnelles.
Une riche littérature existe dans ce domaine et on peut citer en particulier
[31] et [48], pour une comparaison des deux méthodes. Cependant, certains
outils de la statistique fonctionnelle s’adaptent facilement à l’étude de ce type
de données (voir [31], [48], [55], [56] et [73]).
Dans de nombreux champs d’applications, notamment en sismologie (voir
les données étudiées dans Estévez-Pérez et al [44]), en économétrie (voir les
articles traités par Engle et Russell [82] et Nielson et Linton [53]) ou en-
core dans le domaine de la santé publique, la condition d’indépendance entre
les variables observées est souvent subjective, voir erronée. De par la pro-
bable existence de corrélation entre les données d’observations, il est très
peu réaliste de supposer leur indépendance. Toutefois, il serait intéressant de
modéliser l’indépendance mais aussi d’introduire une structure probabiliste
9
Nous rappelons brièvement la définition liée à l’α− mélange ainsi que les
outils fondamentaux qui interviendront dans notre étude pour le cas d’une
famille de variables aléatoires algébriquement α− mélangeantes, à savoir l’in-
égalité de covariance.
1
On montre que : 0 ≤ α(A, B) ≤ 4
.
Définition 1.1.2 (Rosenblatt (1956)[92]) Soit (Xn )n≥1 une suite de va-
riables aléatoires définies sur le même espace probabilisé (Ω, F, P). On appelle
coefficients de mélange fort, les réels α(n) définis par :
α(n) = sup{α(Fk1 , F∞ ∗
n+k ), k ∈ N }.
Où Flj désigne la tribu engendrée par les variables (Xi , j < i < l).
lim α(n) = 0.
n→∞
α(n) ≤ Cn−a .
Définition 1.1.5 S’il existe deux constantes s ∈ R∗+ et t ∈]0, 1[ telles que
les coefficients de mélange vérifient
α(n) ≤ stn ,
Définition 1.2.3 (Esary et al.(1967) [39])) On dit que cette famille est
associée ; ou positivement dépendante ; si pour des sous-ensembles finis I, J ⊂
T et toutes fonctions f et g croissantes f : R|I| → R et g : R|J| → R,
à chaque fois que la covariance existe, avec |I| et |J| les cardinaux de I et J.
∞
X
alors pour tout n ∈ Z, Xn = 2−i εn−i presque sûrement ainsi le processus
i=0
linéaire (Xn )n∈Z est associé.
Avec
|f (x) − f (y)|
(1.4) lip(f ) = sup < ∞,
x6=y k x − y k1
m
X
(1.5) k x k1 = |xs | pour x = (x1 , · · ·, xm ) ∈ Rm .
s=1
les concepts mentionnés ci-dessus seront généralisés pour des familles de va-
riables aléatoires à valeurs vectorielles (voir : Burton et al .[23], Bulinski[18]
, et Bulinski Shahkin [20] ).
Soit (H, < ·, · >) un espace de Hilbert séparable muni d’une base orthonor-
mée {ek , k ≥ 1}.
Définition 1.2.7 Une famille (Xn )n∈N de variables aléatoires à valeurs dans
H est dite quasi-associée par rapport à la base orthonormale {ek , k ≥ 1}
si, pour tout d ≥ 1, la séquence des vecteurs aléatoires {(< Xn , e1 >, ..., <
Xn , ed >)} est quasi-associée.
Il s’agit de modéliser des processus à temps continu par des processus à temps
discret à valeurs dans un espace fonctionnel de Hilbert. Un tel modèle est
l’unique solution stationnaire de l’équation :
(1.7) Xn = ρ(Xn−1 ) + n , n ∈ Z.
∀k ≥ 0, ρ(vk ) = αk vk , avec αk ≥ 0,
alors si (εn )n∈Z est associée par rapport à la base (vk , k ≥ 0), (Xn )n∈Z est
associéé par rapport à la même base.
1. On dit que (εn , n ∈ Z) est un H-bruit blanc fort si, les εn sont des variables
aléatoires
à valeurs dans H, indépendantes et de même loi, telles que : ∀ n ∈ Z, 0 < E k εn k2 <
+∞ ∧ E[εn ] = 0 .
22 CHAPITRE 1. INTRODUCTION
Alors (Xk )k∈N est une suite de variables aléatoires quasi-associées à valeurs
dans L2 ([0, 1]).
1.3. QUELQUES INÉGALITÉS UTILES 23
E[X]
P(X ≥ a) ≤ .
a
1 1 1
Soient p, q et r trois réels positifs tels que + + = 1 et E[Γp ] <
p q r
∞ (resp. E[Γ0q ] < ∞), alors :
1 1 1
(1.9) ∃C > 0, Cov(Γ, Γ0 ) ≤ C (E[Γp ]) p (E[Γ0q ]) q (α(n)) r .
Proposition 1.3.2 S’il existe p > 2 et M > 0 tel que ∀t > M, P(|X1 | >
t) ≤ t−p , alors :
n
! ( −r r p(a+1)
)
X ε2 2 (a+p)
∀ ε > 0, ∀ r ≥ 1, P Xi > ε ≤C 1+ 2 + nr−1 .
i=1
rsn ε
(1.10)
Théorème 1.3.1 (Rio([90])) Soit {X1, ..., Xn} une famille de variables
aléatoires réelles indépendantes telle que E[Xi ] = 0. Supposons qu’il existe
des constantes positives V et K telles que, pour tout t positif,
V t2
log E [exp(tSn )] ≤ .
2(1 − Kt)
avec (Sn )n une martingale adaptée à la filtration (Fn )n telle que S0 = 0,
alors :
t2
∗
P(Sn ≥ t) ≤ exp − ,
2(V + Kt)
où Sn∗ = max(0, S1 , ..., Sn ).
1.3. QUELQUES INÉGALITÉS UTILES 25
16nk 2
2(K ∨ M )
où An ≤ σn2 et Bn = ∨1 .
1 − exp(−β) 9An (1 − exp(−β))
26 CHAPITRE 1. INTRODUCTION
Bibliographie
27
28 BIBLIOGRAPHIE
the Euler Math. Inst., March 1993, Probability Theory and Mathematical
Statistics. Gordon and Breach, London, 3-14.
[18] Bulinski, A.V. (2000) Asymptotic normality of quasi-associated vector
random fields. Obozr. Prom. i Prikl. Mat., 7, 482-483 (in Russian).
[19] Bulinski, A.V., Shabanovich, E. (1998) Asymptotical behaviour of some
functionals of positively and negatively dependent random fields. Fundam.
Appl. Math., 4, 479-492 (in Russian).
[20] Bulinski, A.V., Shashkin, A.P. (2003) : Rates in the CLT for vector-
valued random fields. Prépublications no. 3/24 de Mathématiques de l’Uni-
versité Paris-X Nanterre. 16 pp.
[21] Bulinskii, Alexander ; Doukhan, Paul. Inégalités de mélange fort uti-
lisant des normes d’Orlicz. (French) [Strong mixing moment inequalities
using Orlicz norms] C. R. Acad. Sci. Paris Sér. I Math. 305 (1987), no. 19,
827–830.
[22] Bulinski, Alexander ; Suquet, Charles. Normal approximation for quasi-
associated random fields. Statist. Probab. Lett. 54 (2001), no. 2, 215–226.
[23] Burton, R., Dabrowski, A.R., Dehling, H. (1986) An invariance principle
for quasiassociated random vectors. Stochastic Process. Appl., 23, 301-306.
[24] Cai, Z., Roussas, G. G. (1998). Kaplan-Meier estimator under associa-
tion. J. Multivariate Anal. 67 : 318-348.
[25] Campbell, M. Karen ; Donner, Allan. Classification efficiency of multi-
nomial logistic regression relative to ordinal logistic regression. J. Amer.
Statist. Assoc. 84 (1989), no. 406, 587-591.
[26] Cao, J. et Ramsay, J.O. (2007) Parameter cascades ans profiling in func-
tional data analysis Comp. Stat. 22 (3) 335-351.
[27] Cardot, H., Crambes, C. and Sarda, P. (2006) Ozone pollution fore-
casting using conditional mean and conditional quantiles with functional
covariates. Statistical methods for biostatistics and related fields, Hĺardle,
Mori and Vieu (Eds.), Springer.
30 BIBLIOGRAPHIE
[28] Cox, J. T., Grimmett, G. (1984). Central limit theorem for associated
random variables and the percolation model. Ann. Probab. 12 : 514-528.
[34] Doosti, H., Dewan, I. (2010). Wavelet linear density estimation for as-
sociated stratified size-biased sample.
[37] Doukhan, Paul ; Louhichi, Sana. A new weak dependence condition and
applications to moment inequalities. Stochastic Process. Appl. 84 (1999),
no. 2, 313-342.
BIBLIOGRAPHIE 31
[49] Henriques, C., Oliveira, P. E. (2005). Exponential rates for kernel density
estimation under association. Statist. Neerlandica 59 (4) : 448-466.
[50] Hoeffding,W. (1963). Probability inequalities for sums of bounded ran-
dom variables. J. Amer. Statist. Assoc., 58, 15-30.
[51] Ibragimov, I. A. On the spectrum of stationary Gaussian sequences sa-
tisfying a strong mixing condition. II. Sufficient conditions. Rate mixing.
(Russian)Teor. Verojatnost. i Primenen 15 1970 24-37. Welsch, Roy E.
A weak convergence theorem for order statistics from strong-mixing pro-
cesses. Ann. Math. Statist. 42 (1971), 1637-1646.
[52] Ioannides, D. A., Roussas, G. G. (1999). Exponential inequality for as-
sociated random variables. Statist. Probab. Lett. 42 : 423-431.
[53] J.P. Nielson and O. Linton, Kernel estimation in a nonparametric marker
dependent hazard model. Ann. Statist. 23 (1995), 1735-1748.
[54] Jabbari, H., Azarnoosh, H.(2006). Almost sure convergence rates
for the estimation of a covariance operator for negatively associated
samples.JIRSS (2006) Vol. 5, Nos. 1-2, pp 53-67
[55] James, G.M., Hastie, T.J. and Sugar, C.A. (2000) Principal component
models for sparse functional data Biometrika 87 587-602.Watson, Geoffrey
S. Smooth regression analysis. Sankhya Ser. A 26 1964 359-372.
[56] James, G.M. et Sugar, C.A. (2003) Clustering for sparsely sampled func-
tional data. J. Amer. Statist. Assoc. 98 (462) 397-408.
[57] Jim Ramsay et Bernard Silverman. Functional Data Analysis. Springer
Series in Statistics. Springer Verlag, June 1997.
[58] Joag-Dev, Kumar ; Proschan, Frank. Negative association of random
variables, with applications. Ann. Statist. 11 (1983), no. 1, 286–295.
[59] Jones, M. C. ; Park, Heungsun ; Shin, Key-Il ; Vines, S. K. ; Jeong, Seok-
Oh. Relative error prediction via kernel regression smoothers. J. Statist.
Plann. Inference 138 (2008), no. 10, 2887-2898.
[60] Kallabis, R. S. et Neumann, M. H. (2006). An exponential inequality
under weak dependence. Bernoulli, 12(2), 333-350.
BIBLIOGRAPHIE 33
[72] Mi-Hwa Ko. On the marcinkiewicz zygmund laws of large numbers for
negatively dependent random fields. Honam Mathematical J. 33 (2011),
No. 2, pp. 163-171.
[73] Müller, H.-G. (2005) Functional modelling and classification of longi-
tudinal data. With discussions by Ivar Heuch, Rima Izem, and James O.
Ramsay and a rejoinder by the author. Scand. J. Statist. 32 (2) 223-246.
[74] Newman, C. M. (1980). Normal fluctuations and the FKG inequalities.
Comm. Math. Phys. 74 : 119-128.
[75] Newman, C. M. (1984). Asymptotic independence and limit theorems for
positively and negatively dependent random variables, in :Tong,Y. L. (Ed.)
Inequalities in statistics and probability, IMS Lecture Notes-Monograph
Ser., vol. 5 Inst. Math. Statist., Hayward, CA : 127-140.
[76] Newman, C. M. , Wright, A. L. (1981). An invariance principle for cer-
tain dependent sequences. Ann. Probab. 9 : 671-675.
[77] Oliveira, P. E. (2005). An exponential inequality for associated variables.
Statist. Probab. Lett. 73(2) : 189-197.
[78] Park, Heungsun ; Stefanski, L. A. Relative-error prediction. Statist. Pro-
bab. Lett. 40 (1998), no. 3, 227-236.
[79] Peligrad, M., Shao, Q.-M. (1995) Estimation of variance of partial sums
of an associated sequence of random variables. Stochastic proc. Appl., 56,
307-319.
[80] Philippe Besse, Hervťe Cardot, et David Stephenson. Autoregressive fo-
recasting of some functional climatic variations. Scandinavian Journal of
Statistics, 4 :673-688, 2000.
[81] Pitt, L. D. (1982). Positively correlated normal variables are associated.
Ann. Probab. 10 (3) : 496-499.
[82] R.F. Engle and J. Russell, Autoregressive conditional duration : A new
model for irregulary spaced transaction data. Econometrica 66 (1988),
1127-1162.
BIBLIOGRAPHIE 35
[107] Welsch, Roy E. Limit laws for extreme order statistics from strong-
mixing processes. Ann. Math. Statist. 43 (1972), 439-446.
[108] Xing, G. On the exponential inequalities for strictly stationary and
negatively associated random variables J. Statist. Plann. Inference, 139
(2009), pp. 3453-3460.
[109] Xing, G., Yang, S. (2010b). Some exponential inequalities for positively
associated random variables and rates of convergence of the Strong Law
of Large Numbers.J. Theo. Probab. 23 : 169-192.
[110] Zhang, L. (2001). A law of the iterated logarithm for negatively asso-
ciated random fields, (Technical report).
38 BIBLIOGRAPHIE
Chapitre 2
Régression non-parametrique relative
(2.1) Y = r(X) + ε
39
40 CHAPITRE 2. RÉGRESSION NON-PARAMETRIQUE RELATIVE
E[Y −1 |X = x]
r(x) = .
E[Y −2 |X = x]
ĝ1 (x)
(2.3) r̂(x) =
ĝ2 (x)
avec
n
1 X −1 x − Xi
ĝ1 (x) = Y K
nh i=1 i h
et
n
1 X −2 x − Xi
ĝ2 (x) = Y K .
nh i=1 i h
2.2. CONVERGENCE PRESQUE COMPLÈTE DE L’ESTIMATEUR 41
nh
lim = ∞.
n→∞ log n
Donc
x−z
Z
1
E [ĝ1 (x)] = K g1 (z)dz.
h R h
x−z
En utilisant le changement de variables t = , on obtient
h
Z
E [ĝ1 (x)] = K(t)g1 (x − ht)dt.
R
(th)2 (2)
g1 (x − th) = g1 (x) − thg10 (x) + g (x) + o(h2 ).
2 1
Sachant que K est un noyau symétrique, alors
h2
Z
E [ĝ1 (x)] = g1 (x) + t2 K(t)g (2) (x) + O(h2 ).
2
D’où on conclut que
Egˆ1 (x) − g1 (x) = O h2 .
n
" n #
1 X −1 x − Xi 1 X −1 x − Xi
ĝ1 (x) − Eĝ1 (x) = Y K( )−E Y K
nhn i=1 i hn nhn i=1 i hn
n
1X 1 x − Xi x − Xi
= Yi−1 K( ) − E Yi−1 K
n i=1 hn hn hn
alors :
1 −2 2 x − Xi
E[µ2i ] = E 2
Y K
h h
1 −2 2 x − Xi
= E 2
E(Y /Xi )K
Zh h
1 x − u
= φ(u)f (u)K 2 du
h2 h
où :
φ(u) = E Yi−2 /Xi = u .
x−z
En utilisant le changement de variables t = , on aura :
hn
Z
1
E(µ2i ) = φ(x − zh)f (x − zh)K 2 (z)dz.
h
2.3. DÉMONSTRATION DU THÉORÈME 45
En remarquant que
g2 (x) g2 (x)
ĝ2 (x) ≤ ⇒ |ĝ2 (x) − g2 (x)| ≥ .
2 2
Alors, on peut écrire
g2 (x) g2 (x)
P |ĝ2 (x)| ≤ ≤ P |ĝ2 (x) − g2 (x)| > .
2 2
Donc n X n
X g2 (x) g2 (x)
P |ĝ2 (x)| ≤ ≤ P |ĝ2 (x)| ≤ < ∞.
i=1
2 i=1
2
g2 (x)
Il suffit maintenant de prendre δ = . 2
2
Chapitre 3
Régression relative pour variables
associées
3.1 Introduction
Dans une vaste panoplie de sujets à la pointe des recherches dans divers
domaines tels que la finance, la biologie et la médecine, de nombreux ma-
thématiciens et statisticiens s’appliquent assidûment aux mécanismes de la
dépendance entre deux ou plusieurs variables aléatoires. Cependant on dis-
tingue deux types de dépendance : le mélange et l’association. Dans le cadre
d’une estimation non-paramétrique, nous évoquons une notion plus large que
celle de l’association négative et positive appelée quasi-association. Ce terme
qui fut utilisé comme objet en 1967 dans le travail de Esary, Proschan et
Walkup [39] qui contient la définition de la quasi association et qui avait
pour intérêt initial d’apporter une application de la fiabilité en statistiques .
En 1971, Fortuyn,Kastelyn et Ginibre écrivirent un article [42] qui se voulait
une application du concept de La notion de dépendance positive ou asso-
ciation à la mécanique statistque ainsi qu’au modèle mathématique de la
percolation. On retrouve aussi des résultats à la base des variables négative-
ment associées dans l’article de Joag Dev, Kumar et Subhash en 1983 [58]
47
48CHAPITRE 3. RÉGRESSION RELATIVE POUR VARIABLES ASSOCIÉES
d X
X d Xd Xd
λi,j = |Cov(Xik , Xjl )|+ |Cov(Xik , Yj )|+ |Cov(Yi , Xjl )|+|Cov(Yi , Yj )|.
k=1 l=1 k=1 l=1
r !
log n
(3.1) r(x) − r(x)| = O(h2 ) + Oa.co.
sup |e a.co.
x∈S n1−γ hd
où
n
1 X −l
gel (x) = d
Yi K(h−1 (x − Xi )) pour l = 1, 2.
nh i=1
On utilise la décomposition :
1 h i r(x)
(3.2) re(x) − r(x) = ge1 (x) − g1 (x) + [g2 (x) − ge2 (x)]
ge2 (x) ge2 (x)
où
g1 (x) = r1 (x)f (x) and g2 (x) = r2 (x)f (x).
Ainsi, le théorème 3.2.1 est une conséquence des résultats intermédiaire sui-
vants (cf. Lemmes 3.2.1 and 3.2.2).
Lemme 3.2.1 Sous les conditions (H1), (H2), (H4) et (H5), on a, pour
l = 1, 2 :
|E gel (x) − gl (x)| = O(h2 ).
n o
−3 2 −4
2
A = x ∈ S, g2 (x) − 2r(x)E[Y |X = x] + r (x)E[Y |X = x] g2 (x) 6= 0
D
et → désigne la convergence en loi.
dn
[
S⊂ B(xk , τn ),
j=1
où β = δ(d+2)
2
γ
+ 12 + 18 et δ ≥ (9 − γ − ξ2 )/(d + 2).
Pour tout x ∈ S, on pose :
n
xk(x) − Xi −l
X 1
= d
k( )Yi 1I|Y −l |<µn −
i=1
nhn hn i
xk(x) − Xi −l
−E k( )Yi 1I|Y −l |<µn
hn i
Xn
= ∆i
i=1
d
Pour u ∈ R , v ∈ R, on pose
xk(x) − u −l xk(x) − u −l
χl (u, v) = k( )Yv 1I|Yv−l |<µn − E k( )Yv 1I|Yv−l |<µn .
hn hn
Donc
1
∆i = χl (Xi , Yi )
nhdn
Par suite, la fonction χ satisfait :
−1
||χl ||∞ ≤ Cµln ||K||∞ et Lip(χl ) ≤ Cµl+1
n h Lip(K).
Sous (H6), on a
1 1
V ar (∆1 ) ≤ IE[|Y1−l K1 (xk )|2 ] ≤ C 0 2 2d IE[|K1 (xk )|2 ]
n2 h2d Z nh
≤ C 0 n−2 h−d K 2 (u)f (xk − hu)du
d
IR
(3.12) = O n−2 h−d .
où (mn ) est une suite d’entiers qui tend vers l’infini lorsque n tend vers
l’infini. En ce qui concerne le cas |i − j| ≤ mn , on utilise (H1) et (H6) pour
arriver à
1
IE[|∆i ∆j |] ≤ C 2 2d IE Yi−l Ki (xk Yj−l Kj (xk ) + (IE Y −l K1 (xk ) )2
nh
1
≤ C 2 2d IE[Ki (xk )Kj (xk )] + (IE[K1 (xk )])2
nhZ Z
C
≤ k(u)k(v)f (Xi , Xj )(xk(x) − hn u, xk(x) − hn v)dudv+
n2 Rd Rd
Z 2 )
+ k(u)f (xk(x) − hn u)du
Rd
= O n−2 .
n o
Ainsi, Ainsi, sur l’ensemble E1 = (i, j)/|i − j| ≤ mn nous obtenons
56CHAPITRE 3. RÉGRESSION RELATIVE POUR VARIABLES ASSOCIÉES
n
X n
X
Cov(∆i , ∆j ) ≤ nmn (IE[∆i ∆j ]) .
i=1 j=1
0<|i−j|≤mn
≤ Cn−1 mn .
Donc,
n X
X n
Cov(∆i , ∆j ) ≤ C n−1 mn + µ6n n−1 h−2(d+1) e−amn .
i=1 j=1
i6=j
1
log aµ6n h−2(d+1) et sous (H5), il résulte que
Au final, pour mn = a
n X
X n
(3.13) nhd Cov(∆i , ∆j ) → 0.
i=1 j=1
i6=j
— Pour t1 = su , on a
u+v
Cµ3n kKk∞
|Cov(∆s1 . . . ∆su , ∆t1 . . . ∆tv )| ≤ IE K12 (xk )
nhd
3 u+v
d Cµn
(3.14) ≤ h .
nhd
D’autre part, on a
u+v−2
2Cµ3n kKk∞
|Cov(∆s1 . . . ∆su , ∆t1 . . . ∆tv )| ≤ (|IE∆su ∆t1 |)
nhd
u+v
Cµ3n
(3.16) ≤ h2d .
nhd
d d+2
En combinant (3.15) à la puissance 2d+2
et (3.16) à la puissance 2d+2
, on
trouve la majoration finale
u+v
Cµ3n
ad
|Cov(∆s1 , . . . ∆su , ∆t1 , . . . ∆tv )| ≤ h d
ve− 2d+2 (t1 −su ) .
nhd
3
En appliquant le théorème de Kallabis et Neumann pour Kn = Cµ
√ nd ,
n hn
58CHAPITRE 3. RÉGRESSION RELATIVE POUR VARIABLES ASSOCIÉES
Cµ3n
et An = V ar( ni=1 ∆i ) = O nh1d , nous obtenons
P
Mn = nhdn n
r ! n
r !
log n X log n
P g̃l∗ (xk(x) ) − E[g̃l∗ (xk(x) )] > η =P ∆i > η
n1−γ hd i=1
n1−γ hd
( 2 )
−t
2
≤ exp 1 5
An + Bn t 3
3
q 2
log n
− η
n1−γ hd
2
≤ exp 53
h i 13 q
Pn 16nK 2(K ∨M ) log n
V ar( i=1 ∆i ) + 9A (1−exp{−β})
n
n
∨ 1 n
1−exp{−β}
n
η n1−γ h d
η 2 log n/(2n1−γ hd )
≤ exp − 56
V ar ( ni=1 ∆i ) + Cµ3n (nhd )− 13 1−γ log n
P
n hd
η 2 log n
≤ exp − 1
Cn−γ + µ3 n−γ/6 log5 n 6
n nhd
≤ C 0 exp{−Cη 2 log n}.
En utilisant le fait que, dn ≤ nβ , on aura
r !
∗ ∗ log n 2
IP max |e
gl (xk ) − IE[e
gl (xk )]| > η ≤ C 0 nβ−Cη .
1≤k≤dn nhd
Le choix convenable de η achèvera la démonstration de la partie T2 .
• Nous traitons maintenant les termes T1 et T3 : Pour cela, on utilise la
condition de Lipschitz sur le noyau K. On aura alors ; pour tout x ∈ S,
n n
∗ ∗ 1 X −l X
gel (x) − gel (xk(x) ) = d
Yi Ki (x)1I|Yi−1 |<µn − Yi−l Ki (xk(x) )1I|Yi−1 |<µn
nh i=1 i=1
n
C X
≤ kx − x k(x) k Yi−l 1I|Yi−1 |<µn
nhd+1 i=1
Cτn
≤
µn nhd+1
l
Cτn
≤ .
µn nhd+1
3.4. DÉMONSTRATION DES RÉSULTATS PRÉLIMINAIRES 59
r !
Cτn log n
(3.17) =O a.co.
µn hd+1 nhd
donc
r !
∗ ∗ log n
(3.18) T1 = sup g̃N (x) − g̃N (xk(x) ) = O
x∈S n1−γ hd
et
r !
log n
(3.19) T3 = sup E[g̃l∗ (xk(x) )] − E[g̃l∗ (x)] = O .
x∈S n1−γ hd
≤ nIP |Y −l | > µn
≤ Cn exp −µln .
Alors,
r !
X log n X
P sup |g̃l∗ (x) − g̃l (x)| > ε ≤C nexp(−µn ).
n≥1
x∈S n1−γ hd n≥1
Alors,
inf x∈S g2 (x) inf x∈S g2 (x)
IP inf |ge2 (x)| ≤ ≤ IP sup |g2 (x) − ge2 (x)| ≥ .
x∈S 2 x∈S 2
Bn = Bn − Bn∗ + Bn∗
où
1 hh ∗ i h i i
Bn∗ = ge1 (x) − E ge1 ∗ (x) g2 (x) + E ge2 ∗ (x) − ge2 ∗ (x) g1 (x) .
g2 (x)
avec σ12 (x) = (g2 (x))2 σ 2 . Pour ce faire on utilise les techniques de Doob
(1953)(page 228-231). En effet, on considère les deux suites p = pn et q = qn
telles que
et on pose
k
X k
X
Sn = Tn + Tn0 + ζk avec Tn = ηj , et Tn0 = ξj
j=1 j=1
où n
X X X
ηj := Zni , ξj := Zni , ζk := Zni .
i∈Ij i∈Jj i=k(p+q)+1
avec
et
(3.22) Tn → N (0, σ12 (x)).
et
X
(3.24) kV ar(ξ1 ) ≤ qkV ar(Zn1 ) + 2k |Cov(Zni , Znj )|.
1≤i<j≤q
Le premier terme dans la partie à droite de (3.24) est obtenue par les mêmes
arguments de (3.12) combinés avec le fait que kqn
→ 0. En effet,
d kq
qkV ar(Zn1 ) = h nkqV ar(Λ1 ) = O
(3.25) → 0, quand n → ∞.
n
Donc,
X kq
(3.26) k |Cov(Zni , Znj )| = o → 0, quand n → ∞.
1≤i<j≤q
n
3.4. DÉMONSTRATION DES RÉSULTATS PRÉLIMINAIRES 63
Ckpµ4n
≤ λp
nhd+2
Ckpµ4n −ap
≤ e → 0.
nhd+2
Alors,
E(ζk )2 → 0, quand n → ∞.
La démonstration de (3.22) est conséquence des assertions suivantes
k
Pk Y
it ηj
E eitηj
(3.27) E e j=1 − → 0,
j=1
et
Démonstration de (3.27) :
On a
Pk Y k
E eit j=1 ηj − E eitηj ≤
j=1
et successivement, on a
k Pk−1
Pk Y
it ηj
E eitηj ≤ Cov eit j=1 ηj , eitηk
E e j=1 −
j=1
Pk−2
it ηj itηk−1
+ . . . + Cov eitη2 , eitη1
(3.30) + Cov e j=1 ,e .
Ct2 µ4n X X
Cov eitη2 , eitη1
≤ λi,j
nhd+2 i∈I j∈I
1 2
3.4. DÉMONSTRATION DES RÉSULTATS PRÉLIMINAIRES 65
Il est clair que pour tout 2 ≤ l ≤ k−1, (i, j) ∈ Il ×Il+1 , on a |i−j| ≥ q+1 > q,
alors
X X
λi,j ≤ pλq .
i∈I1 ∪...∪Il−1 j∈Il
σ12 (x)
1
(3.31) V ar(Λ1 ) = 2 d + o .
nh n2 hd
Donc,
kpσ12 (x)
kp
kV ar(η1 ) = +o → σ12 (x).
n n
Pour la deuxième partie de (3.28), on utilise le fait que |η1 | ≤ Cp|Zn1 | ≤
Cµ2 p
√ n et l’inégalité de Tchebychev pour arriver à
nhd
Cµ4n p2 k
kE(η12 1I{η1 >σ1 (x)} ) ≤ E(η1 > σ1 (x))
nhd
Cµ4n p2 k V ar(η1 )
≤
nhd 2 σ 2 (x)
4 2 1
µn p
= O
nhd
Ce que achèvera cette démonstration.
Démonstration du Lemme 3.3.2. Pour la première limite, on a d’après
le Lemme (3.2.1)
E [g̃2 (x) − g2 (x))] → 0
et par les mêmes arguments que ceux utilisés dans (3.11), on montre que
V ar [g̃2 (x)] → 0
d’où
g̃2 (x) − g2 (x) → 0 en probabilité .
Par ailleurs, il est claire que la deuxième limite est une conséquence de cette
dernière convergence. Ainsi, il suffit de traiter
et
Vn = O(hp ) (voir , Lemme (3.2.1) ).
3.4. DÉMONSTRATION DES RÉSULTATS PRÉLIMINAIRES 67
Références
Chen, K., Guo, S., Lin, Y., and Ying, Z. (2010). Least absolute relative error
estimation.J. Am. Statist. Assoc. 105, 1104–1112.
Barlow, R.E. & Proschan, F. (1975). Statistical Theory of Reliability and Life
Testing. Probability Models. Holt, Rinehart & Winston, New York.
Lin, Zhengyan ; Li, Degui. (2007). Asymptotic normality for L1 -norm kernel
estimator of conditional median under association dependence. J. Multiva-
riate Anal. 98, 1214–1230
Narula, S.C., Wellington, J.F., (1977). Prediction, linear regression and the
minimum sum of relative errors. Technometrics. 19, 185Ű190.
Jones,M. C., Park, H., Shinb K. Vines, S. K. and Jeong, S.O., (2008) Rela-
tive error prediction via kernel regression smoothers. Journal of Statistical
Planning and Inference 138, 2887-2898
Shen, V.Y., Yu, T., Thebaut, S.M., (1985). Identifying error-prone softwa-
reŮan empirical study. IEEE Trans. Software Eng. 11, 317Ű324.
Yang, Ying and Ye, Fei. (2013) General relative error criterion and M-estimation.
Front. Math. China 8, 695–715.
Chapitre 4
Régression relative fonctionnelle
69
70 CHAPITRE 4. RÉGRESSION RELATIVE FONCTIONNELLE
(4.1) Y = r(X) +
gb1 (x)
rb(x) =
gb2 (x)
avec n
1 X d(x, Xi )
gb1 (x) = h i K Yi−1
nE K d(x,Xi )
i=1
hn
hn
4.2. CONVERGENCE DE L’ESTIMATEUR 71
et n
1 X d(x, Xi )
gb2 (x) = h i K Yi−2 .
nE K d(x,Xi )
i=1
hn
hn
(H4) Le paramètre de lissage hn est tel que : lim hn = 0 et lim log n/nφx (hn ) =
n→∞ n→∞
0.
(H5) La variable réponse Y est telle que : |Y | > C > 0.
(H6) (Xi , Yi )1≤i≤n est une suite algébriquement α− mélangeante, dont le
coefficient de mélange vérifie
gb1 (x)
(4.4) rb(x) =
gb2 (x)
et
E[Y −1 |X = x] g1 (x)
r(x) = −2
:= .
E[Y |X = x] g2 (x)
On utilise la décomposition suivante :
Posons
d(x, Xi ) d(x, Xi )
∆i = Yi−1 K −1
− E Yi K .
h h
On peut écrire
comme E[∆1 ] = 1, on a
Ainsi,
Egb1 (x) − g1 (x) = O(hk ).
= Sn2∗ + nvar∆1 .
Pour Sn2∗ , on utilise les techniques de Masry (1986) et on divise cette somme
comme suit
E1 = {(i, j) tel que 1 ≤ |i − j| ≤ mn }
et
E2 = {(i, j) tel que mn + 1 ≤ |i − j| ≤ n − 1},
donc,
X
J2,n = |Cov(Ki (x), Kj (x))| ≤ n2 m−a
n .
E2
4.3. DÉMONSTRATION DU THÉORÈME 75
−1/a
φx (h)
Ainsi, pour mn = on aura :
n
−r a+1
20 logn 2
8r a+1
≤4 1+ +2ncr −1
(nϕx (h)logn)−( 2 ) .
16r 0
Prenons r = C (log(n))2 . Nous obtenons alors :
−r
20 logn 2 −2 logn
(4.14) A1 = 1 + ≤ c exp 0 .
16r 32
76 CHAPITRE 4. RÉGRESSION RELATIVE FONCTIONNELLE
D’autre part,
a+1 a+1
A2 ≤ cε−(a+1) n−( 2
)+1+ab
(ϕx (h))( 2
)
.
Par suite, par les résultats (4.14 ) et (4.15 )et sous un choix convenable de
ε0 , on aura s
" #
X logn
P |Egb1 (x) − gb2 (x)| > ε0 <∞
n=1
nϕ x (h)
Pour (4.16) on a
D’où,
Egb1 (x) − g1 (x) = O(hk ).
Donc " s #
n n
X log n X −ε20
P |Eĝ2 (x) − ĝ2 (x)| > ε0 ≤ 2n 4C .
i=1
nϕx (h) i=1
ε2
Pour que la série converge, il suffit de choisir 0 > 1.
4C
Enfin pour achever la démonstration du théorème, il nous suffit de mon-
trer qu’il existe un réel ε strictement positif tel que
X
(4.18) P (| ĝ2 (x) |< ε) < ∞.
n>0
Ainsi n X n
X g2 (x) g2 (x)
P |b
g2 (x)| ≤ ≤ P |b
g2 (x)| ≤ < ∞.
i=1
2 i=1
2
g2 (x)
Il suffit donc de prendre δ = pour obtenir (4.3.3).
2
En conclusion, le résultat du théorème se déduit des résulltats intérmédiaires
précédents. 2
Chapitre 5
Application sur des données réelles
79
80 CHAPITRE 5. APPLICATION SUR DES DONNÉES RÉELLES
Comme toute autre méthode d’estimation, cette pratique exige deux éléments
le noyau K et le paramètre de lissage h. Même si le choix du noyau s’avère
82 CHAPITRE 5. APPLICATION SUR DES DONNÉES RÉELLES
être anodin sur le comportement de l’estimateur, ceci n’est pas tout à fait
pareil pour l’ordre de grandeur du paramètre de lissage qui régit le niveau
de lissage des courbes estimées, et donc le critère de choix de la fenêtre de
lissage optimale reste la question centrale. On convient encore que pour bien
tester la validité du modéle en question, on a utilisé la méthode de validation
croisée. Sur ce fait, nous comparons notre modèle à la régression classique
(C.R.) en calculant l’erreur absolue qui sera donnée par
[6] Ferraty, F., P. Vieu. Non parametric functional Data analysis, Theory
and practice. 2006, Springer-Verlag.,
[7] Ferraty, F., Tadj, A., Laksaci, A. and Vieu, P. (2008). Rate of uniform
consistency for nonparametric estimates with functional variables. (Pre-
print)
83
84 BIBLIOGRAPHIE
[9] Gyorfi L., Hardle W., Sarda P., Vieu P., Nonparametric Curve Estimation
for Time Series, Springer-Verlag, Berlin, 1989.
[13] Sarda, P., Vieu, Ph., (2000), Kernel regression., Schimek, Michael G.
(ed.), Smoothing and regression. Approaches, computation and applica-
tion. Chichester : Wiley. Wiley Series in Probability and Statistics. 43-70.
[16] Vieu, Ph., (1991), Quadratic errors for nonparametric estimates under
dependence. J. Multivariate Anal. 39, No.2, 324-347.
[17] Watson, G.S. Smooth regression analysis Sankhya, Ser. A 26, (1964),
359-372.