Vous êtes sur la page 1sur 76

L'ANALYSE FACTORIELLE DES

CORRESPONDANCES

PAR

LIONEL STROIS

mémoire présenté au Département de mathématiques en vue


de l'obtention de la maîtrise es, sciences (M. Se.)

FACULTE DES SCIENCES

UNIVERSITE DE SHERBROOKE

Sherbrooke, Québec, août 1972


REMERCIEMENTS

Je voudrais d'abord remercier sincèrement Monsieur Bernard Colin,

professeur a la Faculté des Sciences. C'est lui qui a suggéré le sujet de

ce mémoire. Ses connaissances approfondies dans ce domaine m'ont égale

ment été d'une grande utilité. Il a manifesté beaucoup de compréhension

face à mes suggestions et se montra toujours d'une grande disponibilité

lorsque j'eus recours a ses services.


SOMMAIRE

ce «â.^lre trait, de l'aaalyae fattorlelle dea cotrespondaneea


et de aa formallaation au caa continu. Soua traitercna d'abord de la
théorie générale de l'analyae dea correapondancea dana le cas continu. Le
.renier chapitre y est consacré et en développe le langage et la technique.
Le second chapitre élabore la théorie dea éguations de yPEDHOM. cette
Chéorie nous étant nécessaire pour extraire les valeurs propres dea opé
rateurs de type intégral. Enfin, dana un dernier chapitre, noua appli
querons la théorie vue précédennent â deux cas particuliers, alors que
noua définirons sur les enaenbles 1 et 1 des lois de probabilités.
TABLE DES MATIERES

REMERCIEMENTS

SOMMAIRE

TABLE DES MATIERES

INTRODUCTION 1
CHAPITRE 1: THEORIE GENERALE DE L'ANALYSE DES CORRESPONDANCES. .. 4

a) techniques de résolution 4
b) approximation 9
CHAPITRE 2: LA METHODE DE FREDHOLM 11
a) noyau séparable H
b) noyau non séparable 12
c) premier théorème de Fredholm 14
d) deuxième théorème de Fredholm 30
e) convergences des vecteurs propres et des valeurs
propres 34

CHAPITRE 3; APPLICATION DE LA THEORIE A DEUX EXEMPLES PARTICULIERS 38

a) la loi normale 38
b) étude dans le cas d'une densité particulière 52
CHAPITRE 4: LIMITE DE LA GENERALISATION AU CAS CONTINU 60
CONCLUSION 65
APPENDICE i 66

BIBLIOGRAPHIE 72
INTRODUCTION

En guise d'introduction, donnons quelques généralités sur l'ana


lyse factorielle et plus précisément sur l'analyse des correspondances.
Auparavant, nous allons d'abord définir l'analyse factorielle en général,
Indiquons ici la définition de Madame CORDIER:

"L'analyse factorielle a pour objet de traiter des informations


obtenues dans les domaines les plus divers, dans des situations
très complexes où un grand nombre de variables sont correlées.
Elle détermine des paramètres ou facteurs en fonction desquels
on peut exprimer d'une manière condensée les informations. La
diminution du volume des données facilite les manipulations pos
térieures."

Bien souvent, dans l'étude des sciences humaines, nous sommes a-


menés à considérer un nombre important de variables qui peuvent la plupart
du temps se subdiviser en aptitudes (intellectuelles, physiques, génétiques
ou psychologiques). Il s'agit alors d'étudier non seulement les variables

de chaque groupe mais aussi de faire le lien entre deux groupes de varia
bles. En effet, souvent nous nous intéressons davantage au comportement
d un groupe de variables en fonction de certaines autres que du comporte
ment des variables prises individuellement.

Les diverses méthodes d'analyse des données se proposent de four


nir des représentations synthétiques de vastes ensembles quantitatifs ou qua

litatifs. L'analyse factorielle veut aller, au" delà des apparences en es

sayant de mettre en évidence des variables qui échappent à l'observation

directe. Par exemple, les nombreuses notes obtenues par des sujets â des
tests psychologiques peuvent être expliquées par un petit nombre de "facteurs"

cachés, tels que la mémoire, la résistance physique, la capacité intellec


tuelle .

L'anaJyse des correspondances permet d'analyser de vastes tableaux


de dépendance où deux ensembles jouant des rôles symétriques sont mis en
correspondance. Parce qu'elle ne distingue pas variables et observations,
cette méthode peut être utilisée pour étudier les tableaux de valeurs numé

riques les plus divers.

Jusqu ici, l'analyse factorielle des correspondances a été cons


truite dans le cas où les ensembles en relation, sont tous finis. Nous al
lons maintenant essayer de généraliser la théorie au cas où les ensembles
sont continus. Ceci est justifiable pour la raison suivante. En effet,
il arrive souvent que l'expérience donne une correspondance finie alors
qu'en réalité, la correspondance a lieu entre des ensembles infinis.

Dans le présent mémoire, nous essaierons de construire la théorie

dans le cas de deux ensembles probabilisés I et J. Ensuite, nous pré


ciserons quels sont les liens entre les vecteurs et les valeurs propres de
la correspondance continue et ceux obtenus ù partir d'une approximation de
cette correspondance. Nous omettrons de rappeler la théorie discrète

mais nous construirons la théorie continue de façon parallèle.

Ce mémoire comporte un premier chapitre donnant la théorie géné


rale de 1 analyse factorielle des correspondances étendue au cas continu.
Nous avons adopté le langage et la théorie de J.C. NAOURI, nous inspirant
principalement de son article paru en 1970 dans la revue de l'Institut de

statistique de l'Université de Paris et intitulé Analyse factorielle des


correspondances continues.

Le chapitre 2 donne la théorie nécessaire 1 la résolution des équa


tions de type intégral de la forme

g(s) = f(s) + ^ j K(s,t) g(t) dt ,


Cette théorie, appelée théorie des équations de FREDHOLM, nous sera néces
saire pour trouver les valeurs propres et les vecteurs propres qui sont les
fondements de l'analyse des correspondances.

Dans le chapitre 3, nous appliquerons la théorie de l'analyse des


correspondances continues à des exemples particuliers. D'abord, nous re
prendrons sommairement un des exemples traité par NAOURI où I et J sont
des espaces de probabilité sur lesquels sont distribuées des lois normales.
Ensuite, nous traiterons un exemple dans lequel nous utiliserons une autre
densité de probabilité. Ceci nous amènera, en conclusion, à traiter briève
ment des limites de la généralisation au cas continu de l'analyse des
correspondances.
CHAPITRE 1

THEORIE GENERALE DE L'ANALYSE DES CORRESPONDANCES

a) TECHNIQUES DE RESOLUTION

Soient deux ensembles I et J, tels que I = J = [0,1]. Nous


disons qu'il y a correspondance entre i et J, si l'on s'est donne une
fonction T(x,y) définie sur le produit I x J. Si l'on suppose de plus
que T(x,y) > 0,\/x e I et Vy e J, et que jj T(x,y) dx dy = 1, alors
représente la densité conjointe. Les lois marginales sont dé
finies par;
1

T^(x) = I T(x,y) dy ,
T^Cy) = T(x,y) dx

Dans la théorie discrète, on peut facilement supposer que les lois margina
les ne s'annulent pas. Ici, il est évident que l'on ne peut faire cette
supposition, étant donné que dans le cas continu la mesure.d'un point
est nulle. Néanmoins, nous supposerons que les ensembles où les lois mar
ginales s'annulent sont d'intérieurs vides, c'est-â-dire que ces ensembles
sont de mesure de LEBESGUE nulle. Avec ceci, nous pouvons définir presque
partout les lois conditionnelles suivantes;

T(y|x) = et T(x|y) = T(x,y) .


T^Cy)
Ces deux fréquences définissent deux transitions probabilistes et de
I vers J et de J vers I.

Munissons maintenant I de la mesure de probabilité T (x) et J


1
de celle définie par T^Cy). On dit qu'une fonction f mesurable sur I
est un facteur relatif â la valeur propre X si l'on a:

(^ ° ^^ (1.1)
à condition naturellement que le premier membre soit défini. Notant

° per P^ P^ f, on peut réécrire (1.1) de la façon suivante:


A f(z) = P^ P^ f(z) = jj T(y|z) T(x|y) f(x) dx dy

Supposons que les fonctions f(x) recherchées appartiennent â L^([0,i:) pour


la mesure de densité T^. Faisons maintenant l'analyse spectrale de l'opé
rateur intégral U = P^ ° ^2" Montrons que cet opérateur est auto
adjoint. En notant par dp et d v les mesures définies par les densités
et T^, nous obtenons:

(P P ()(2) = D f(z) = ff I(z,y) T(^,V)


^ ^ il Ti(2) TjCy) T^(x) IjCy) ™ '
car d p = T^(x) dx et d v = T^(y) dy.
Posons maintenant:

J(x,y) =I(xzjiO .
T^(x) T^Cy)
(1.3) devient alors:

U f(z) = Jj J(x,y) J(z,y) f(x) dp du (1.4)


= j(| J(x,y) j(z,y) dv) f(x) dy (1.5)

Soit ^ (x,z) J(x,y) J(z,y) dv . (1.6)

On obtient alors:

U f(z) '^(x,2) f(x) dy . (1,7)

"V (x,z) est donc le noyau de l'operateur U. A partir de (1.6), on vérifie


facilement que ^(x,z) est symétrique i.e. que «i('(x,z) =^(z,x). . Nous
pouvons vérifier aussi que

U = T o T
(1.8)

oîi T désigne l'opérateur intégral dont J(x,y) est le noyau. Ceci sera
démontré en appendice. De l'équation (1.8), on déduit que U est auto
adjoint.' En effet

U* = (ToT*)* = T** o T* = T o T* = U.

Maintenant, supposons que J(x,y) appartienne a l'espace pour


le carre [0,1] x [0,1]. Nous allons étudier l'opérateur T qui opère une
transition de L^(I) dans L^(J). Montrons que T est borné; en effet:
T f = j T(x,y) f(x) dy
- f)^ = (jT(x,y) f(x) dy)^
^( T(x,y)^ dy) J f(x)^ dy ,
en vertu de l'inégalité de SCHMAaz,

Donc (Tf(x))2 dv £ j f(x)^ dy I T(x,y)^ dy dv


ou encore ||Tf||^ <||f||2 l |T||^^ Vf
L^(J) L^(I) L^Clxj)

Or si f = 1, on obtient:

|T| 1^ < I |T||2 (l.S)


L'^(lxj)

T est également un opérateur compact de L^(I) dans L^(J). Montrons ce


ci. En effet, la limite uniforme d'une suite d'opérateurs compacts est
compacte. De plus, les opérateurs intégraux de rang fini sont compacts. On
sait aussi que toute fonction K(x,y) appartenant a peut être approchée d'aus
si près que l'on veut par un noyau de rang fini, au sens de la métrique de
2
L (en moyenne). Une démonstration sommaire de ce théorème est la suivan
te: nous approchons au sens de L , K(x,y) par sa tronquée K (x,y) égale
N
a K(x,y) si |K| < N et â 0 ailleurs. Ensuite, nous approchons
Kjg(x,y) par des fonctions en escalier. Cependant, toute fonction en esca
lier de deux variables peut se mettre sous la forme d'un noyau de rang fini
et s'écrire:

î fJ-iCx) y^Cy) ,
T est compact. Par le fait même, en vertu de (1.8), U sera éga
lement un opérateur compact et borné de L^(I) dans L^(I). Enfin, étant
donné que U = U*, nous aurons toutes les propriétés de dualité bien connues
dans le cas discret. Nous avons précédemment cherché les valeurs propres et
les vecteurs propres dans L^(I), c'est-è-dire que nous avons fait l'analy
se sur I. Nous pouvons les chercher dans 1^(1) et nous obtiendrons les
mêmes résultats.

L'analyse sur J se fait en cherchant les valeurs et vecteurs


propres du produit des deux transitions P^. Nous obtenons alors au lieu
de (1.1), l'équation;

^2 ^ • (1.10)

D'autre part

= Il - (i.u)
Comme précédemment, l'intégrale devient:

'V. = JJf^fytrvx) T,(.)


ou encore (P^ P^ f)(u) = Vf(u) = |j J(x,u) J(x,y) f(y) dy dv . (1.13)
De (1.13), on voit que l'opérateur V = P^ P^, dofit on veut faire l'analyse
spectrale est égal â T * T. Soient {E , A e A} et {F , y e M} les
A y
sous-espaces propres de dimension finie correspondant aux valeurs propres
A de U et y' de V. Nous obtenons alors

T o* T Fy,'= y Fy

qui donne (To T )oTF = y T F


y y

Par conséquent T F c E
y y •

De la même façon, on a

ToT* E = y E •
(T?T)iT Ey = y T* Ey ,

Donc T* E c F
y y
Or T °T est un Isomorphlsme sur Fy comme nous le verrons en appendice.

Donc T
T *
o T F = F ^
y y •

De ceci, on en déduit que pour y 0, on a

TF =E et T*E =F .
^ y y y

Ceci nous permet de déduire le théorème suivant:

Théorème: La résolution du problème pour I et celle pour J


sont identiques, lorsque l'on écarte la valeur propre
nulle.

b) APPROXIMATION

Abordons maintenant le problème de l'approximation en considérant


Un cas particulier. Cherchons la solution de l'équation aux valeurs pro
pres

X f(z) = j'^(z,x) f(x) dx , (1.14)


0

Utilisons une formule d'interpolation linéaire de la forme:

I (^(x) dx = (^(Xj^) + a (1.15)


0 ^
où a désigne l'erreur. Pour la formule rectangulaire,

X, =^ et /î =1 .
fc n k n

Maintenant, appliquons la formule d'interpolation (1.15) è l'équation (1.14)

X f(x) - f(xij.) = a(x). (1.16)


10

Dans (1.16), posons ^ x^. On obtient alors un système d'équa


tions linéaires par rapport aux inconnues f(x ), f(x ):
1 n*
n

\ f(x^) - K(x^,xj^) f(xj^) = a(x^) = . (1.17)


Si nous négligeons dans le second membre, nous obtenons un système ap
proché par rapport aux inconnues f(x^), ..., f(x^);
n
X f(Xj.) - I/lk K(x^,Xj^) f(xj^.) = 0 . (1.18)
Ce dernier système est un système d'équations aux valeurs propres
pour la matrice de coefficients K(x.,Xj^)}. En résolvant (1.18), on
trouve les valeurs approchées de f(x^,...,f(x^). Nous déterminons alors
la fonction approchée f(x) en posant

Parfois, on aura avantage è remplacer le noyau K par le noyau itéré


que nous définirons plus loin. La résolution du système (1.18) donne aussi
une valeur approchée des valeurs propres X dont on peut estimer l'erreur.
CHAPITRE 2

LA METHODE DE FREDHOLM

La méthode de FREDHOLM sert à résoudre des équations de type in


tégral de la forme

g(s) = f(s) + X j K(s,t) g(t) dt . (2.1)


FREDHOLM donna la solution de l'équation (2.1) pour toutes les valeurs du

paramètre X. 11 y a deux cas à distinguer selon que le noyau K(s,t) est


séparable ou non.

a) NOYAU SEPARABLE

Un noyau K(s,t) est séparable lorsqu'il peut s'écrire sous la

forme

K(s,t) = I a (s) b.(t) j (2.2)


1

ou les fonctions a^(s), ..., a^(s), b^(t), ..., b^(t) sont linéairement
indépendantes. L'équation (2.1) devient alors

g(s) = f(s) + X I a (s) b (t) g(t) dt . (2.3)


i=l J ^

Posons = bj^(t) g(t) dt , (2.4)

On obtient alors
12

g(s) = f(s) + X I c a.(s) (2.5)


1=1 ^ ^

et le problème se résume è déterminer les c^. Pour ceci, remplaçons g(s)


dans (2,3) par sa valeur dans (2.5). On obtient

I aj,(s)'^^ - b^(t) jj(t) + X I °


IC""!

Puisque les fonctions ^j[(s) sont indépendantes, on en conclut que

-i - J
\I ^i*
bjL(t) [f(t) + X I cj^ a (t)] dt = 0
k=l ^
(2.7)

pour i = 1,...,n

Maintenant employons une notation abrégée. Posons:

f bj(t) f(t) dt = et b^(t) aj^(t) dt = a^^ 5 (2.8)

ou et a^^j^ sont connus.

L'équation (2.7) devient alors

11

"i ~ ^ I Cj^ = i = 1,...,n , (2.9)

Nous avons alors un système de n équations algébriques pour les c^^ in


connus. Le déterminant D(X) de ce système est

D(X) = - X a. (2.10)
^ ^ "il "* "l2 In

- X 1 - A .22 - X a
2n

— X a — X a 1 - X a.
ni n2 nn

D(X) n'est jamais identiquement nul puisque pour X = G, il se réduit a 1.


Donc pour toutes les valeurs de X telle que D(X) ^ G, le système (2.9)

et aussi l'équation (2.1) ont une solution unique.

b) NOYAU NON SEPARABLE


13

Considérons le cas ou le noyau K(s,t) est une fonction intégra-


ble, La méthode employée par FREDHOLM consiste â regarder l'équation inté
grale (2.1) comme le cas limite d'un système d'équations algébriques linéai
res. Cette théorie s'applique aussi aux intégrales dans plusieurs dimen
sions. Cependant, nous allons nous limiter aux intégrales simples sur un
intervalle [a,b ] ou a et b sont finis. Divisons d'abord l'intervalle

(a,b) en n parties égales. Soit;

= a, s^ = t^ = a + h s^ = t^ = a + (n-l)h, s^^^ = b et h =^
Nous avons alors la formule d'approximation

K(s,t) g(t) dt ~ h I K(s,s ) g(s.) • (2.11)


j=1 3 3
L'équation (2,1) devient alors

g(s) =: f(s) + Xh I K(s,s ) g(s ) (2.12)


j=l ^ ^
V s E [a,b].

Donc l'équation (2.12) est satisfaite aux n points de division s^, i = 1,


..., n. Ceci donne le système d'équations suivant;

g(sp = f(s^) + Xh K(s^,Sj) g(sj) <2.13)


i -1, •••> n.

Posons f(s^) = f^ ,
g(Si) = s
K(Si,Sj) = Ky .

L'équation (2.13) devient

641 ~ Z ^44
4 ^1 13 S43 "^41 j i=l,,.,,n • (2,14)
14

Les valeurs de obtenues en résolvant ce système sont les solutions


approchées de l'équation intégrale (2.1) aux points s , s , s.
1 2 ^
Nous pouvons aussi déterminer les valeurs propres approchées du noyau.

En effet, le déterminant résolvant du système (2.14) est:

1- - xh - Xh K,
In

- Xh 1 - xh K22 - Xh K
2n
D^(l)
- Xh K - Xh K 1 - Xh K
ni n2 nn

Dn(X) I - Xh K
(2.15)

c) PREMIER THEOREME DE FREDHOLM

Les solutions g^, g^, ,.., g^ du système d * équations ,(2.14) s'ob


tiennent si on emploie la méthode de CRAMER, par le quotient de deux déter
minants en X, dont le dénominateur est le D^(X) de l'équation (2.15) et
le numérateur est un mineur D(i)(X). Il faut se demander
n

si ces deux polynômes °n^^^ D^^^(X) ont une limite quand n


tend vers l'infini et si ces limites fournissent une solution de l'équation
(2.1). Supposons pour le moment qu'ils ont bien une limite. Nous le mon
trerons plus loin.

Développons le déterminant (2.15) en puissance de (-Xh). Le ter


me constant est égal a 1. Le terme contenant (—Xh) â la puissance un

est la somme de tous les déterminants contenant seulement une colonne de

— XhK , p -1, •••) u. En prenant la contribution de toutes les colonnes.


Pv '
n

= 1» •••» n, la contribution totale est - Xh K .


vv
v=l
15

Le facteur contenant le terme (-Xh) â la puissance deux est la


somme de tous les déterminants contenant deux colonnes de - Xh K . On
yv
obtient alors les déterminants de la forme

(-Xh) K K
pp pq

K K
qp qq

où p et q sont des entiers arbitraires tels que p < q. De la même fa


çon, on voit que le terme contenant le facteur (-Xh)^ est la somme des
déterminants de la forme

(-Xh)' K K K
PP pq pr
K K K
qp qq qr
K K K
rp rq rr

où p, q et r sont des entiers positifs tels que p < q < r. Les autres
termes s'obtiennent de façon identique. D^(X) est donc égal a
n - 2 n K K
D (X) = 1 + (-Xh) y K + izAàL y PP pq
" v-1 VV ol
2, ^ -
p,q=l K K
qp qq

K K K
PP pq pr
n
(-Xh)'
3: I K
qp
K
qq
K
qr
P.q,r=l
K K K
rp rq rr

£ K
P P., (2.16)
1n

n P P
(-Xh)^ . 2 1
n!
■P., = 1
K K
P P P P
n 1 n n
16

où les sommations sont effectuées sur toutes les permutations des éléments.
C'est pourquoi, il faut diviser chaque terme de la série par le nombre cor
respondant de permutations.

Introduisons maintenant une notation qui simplifiera l'écriture


des déterminants.

Soit K(s^t^) K(s^t^) ... K(s^t^)


K(s^t^) ... K(s^t^) = K (2.17)
...

Ce déterminant est appelé déterminant de FREDHOLM. Nous pouvons remarquer


que la permutation de deux éléments s., s^ ou celle de deux éléments
1 i+1

'"i* ^i+1 o'^^^sionne un changement de signe pour le déterminant, parce que


la -permutation de deux éléments de la suite (s^) correspond à une per
mutation de lignes tandis que celle de deux éléments de la suite
correspond ù une permutation de colonnes. Avec les nouvelles notations, la
série (2.16) devient:

ï^jj(l) - 1 + (-Xh) ^ K(sp Sp) + 21


J
p=l p,q=l \s_ s

, (-Xh)^ I Sr.' S„ S ,
Kf ^ ^ ^ \ + ... (2.18)

P.q,r=l Vsp Sq s^

Lorsque n tend vers l'infini, h tend vers 0 et chaque terme de (2.18)


tend vers une intégrale simple, double, triple, etc... On obtient alors

D(X) = 1 - X K(s,s) ds + ^ Il 1

ds^ ds_ ds. + ... (2.19)


17

Essayons maintenant de résoudre l'équation (2.1) de FREDHOLM et exprimons

les solutions sous la forme d'un quotient de deux séries de puissances de


paramétre X, où le dénominateur est la fonction de FREDHOLM D(X).

Cherchons une solution de l'équation (2.1) sous la forme

g(s) = g^(s) + Xg^(s) + ... + X^g^(s) ; (2.20)

on voit que
p

gn(s) = J K(s,t) gjj_2(t) dt (2.21)

et g^(s) = f(s).

De (2.21), on obtient

Is^l l ^ (b-a)||gj^_il 1 MkMl


L <*>
00


L
= l±my
p->«o
I (gn(s))P ds]^

Appliquons le critère de d'ALEMBERTà la série (2.20). Cette série conver

ge pour

n
X\(s)
< 1 <==> < 1
,n-l ,.
n-1

8n-l<=> 'W

'n''L
Or
1 1Vil I '
18

Donc il suffit que (b-a)||K|| < —i—


Lco |A|

i.e. |x| <77^- (b-a) . (2.22)


I IKI I
Xj
00

Lorsque X vérifie cette condition, (2.20) est une solution de (2.1).

C est aussi la seule solution. En effet, soit b(s) une autre solution.
Alors y(s) = g(s) - h(s) vérifiera l'équation

y(s) = X I K(s,t) y(t) dt . (2.23)


De (2.23), on déduit que

l lyl lj^ ^ x(b-a) \ \K\ \^ l lyl l <||y|


00 00 00

Cette inégalité n'est possible que pour y(s) =0 Vs,

îîonc g(s) = h(s) Vs .

Introduisons maintenant les noyaux;


b

K^^)(s,t) = K(s,t); ^ j K(s,y) K(y,t) dy


... K^^\s,t) = K^"~^^(s,y) K(y,t) dy , (2.24)
D

Par récurrence, on voit que g^(s) = j K^"^(s,t) f(t) dt . (2.25)


De plus, par récurrence, on obtient
b b

^(s,t) = I ... K(s,y^) K(y^,y2) ... K(y^,t) dy^ ... dy^«


a a

Maintenant, définissons la résolvante r(s,t,X), série entière en X, de la


18

Donc il suffit que (b-a) 1 |K|


| < ^
|X|

|X| < —i (b-a) • (2 22)


I IKI I
L
co

Lorsque X vê-ifie cette condition, (2.20) est une solution de (2.1).


C'est aussi la seule solution. En effet, soit h(s) une autre solution.
Alors y(s) = g(s) - h(s) vérifiera l'équation

y(s) = X I K(s,t) y(t) dt . (2.23)


a

De (2.23), on déduit que

MpI I ^ X(b-a) I IKI I l lyl l < ||y|L .

Cette inégalité n'est possible que pour y(s) = G ^s.

g(s) = h(s) Vs .

Introduisons maintenant les noyaux.


b

K^^)(s,t) =K(s,t); ^ j K(s,y) K(y,t) dy


... K^'^^(s,t) = K^'^"^\s,y) K(y,t) dy . (2.24)
0

Par récurrence, on voit que g^(s) = j K^")(s,t) f(t) dt , (2.25)


De plus, par récurrence, on obtient
b b
^(n)(s,t) - I ... I K(s,y^) K(y^,y2) ... K(y^,t) dy^ ... dy^.
a a

Maintenant, définissons la résolvante r(s,t,x), série entière en X, de la


20

00 M

K(s,t) + \ I K^^"^^(x,t) K(s,x) dx


2 J

K(s,t) + X I X^ ^ K^^^(x,t) K(s,x) dx

r(s,t,X) = K(s,t) + X j r(x,t,X) K(s,x) dx , (2.29)

Il est à noter que l'interversion de l'opérateur intégral et de l'opérateur


sommation est possible en vertu de la convergence uniforme de la série. De
(2.28) et (2.29), on déduit que
b

^(®»t,l) = K(s,t) D(X) + X K(s,x) D(x,t,X) dx , (2.30)

La forme de la série (2.19) pour D(X) nous suggère de chercher une solution
de l'équation (2.30) sous la forme d'une série de puissances en X.

Soit D(s,t,X) =C„(s,t) + I iz^C (s,t) . (2.31)


p=l P* ^

Ecrivons (2.19) sous la forme

oa) =1+ 1 c , (2.32)


p=l Pi

ou

• î- i -C'?■" i')'. -
a a 2 •••
ds (2.33)

Montrons que la série (2.32) est convergente. En vertu de l'inégalité de


HADAMAED , on peut montrer que si A est une matrice complexe, n x n,
21

alors

n n 1
|dét A| s n ( I \a \^y
2\2

1=1 j=i

Ici, majorons 0^. Nous aurons:


r p p
c
P
^ n ( I |k(s.,s.)|2)I ds, ... ds
1=1 j
j=i ^ ^ ^

b
r P p o 1 r p
^ \ n (I M^)^ds^ ... ds < n (pM^)^ ds, ... ds
j 1=1 1 ^ p 1=1

< (b-a)P

ou
H = I |K(s,t)| I

Donc le terme général de D(X) est majoré par:

pP/2 mP (b-a)P = dP
pi

D
P+1 = |X| M (b-a)(p+l)^pI
Or

DP (p+D: pP/2

n+1 P/2 (p+1) 1


= |X| M (b-a) (£li)
P

M (b-a) /(l+i)P
= |X| 2_
/p+l

SI p tend vers l'inflnl, le rapport tend vers zéro. Donc la série avec
22

pour terme général converge. Donc la série D(X) est absolument con

vergente.

Déterminons maintenant les coefficients Cp(s,t) de D(s,t,X).


Pour ceci, subs :ituons dans (2.30) les expressions de D(s,t,X) et D(X)
données par (2.31) et (2.32). Egalons ensuite les coefficients des diver
ses puissances de X dans (2.30). On obtient alors;

CQ(s,t) = K(s,t) (2.34)

C^(s,t) - CP K(s,t) - P [J K(s,x) Cp-1(x,t)\ dx , (2.35)

Vérifions (2.35). De (2.30), on obtient:


oo P
(-X)
+ I (s,t) = K(s,t) 1+ l
p=l P* ^ p=l P: S

+ X K(s,x) (C (x,t) + I C (x,t) dx


p=l

(-X) p+1
= K(s,t) 1+ l K(s,x) y Cp(x,t)
p=l : % -I P=o p-
dx

= K(s,t) (-X)' K(s,x)


1+ 1 - P dx
1 p! P

Maintenant, égalons les coefficients de (-xy


-. On a:

Cp(s,t) = K(s,t) Cp - p K(s,x) Cp_^(x,t) dx


ce qui démontre (2.35). Déduisons par récurrence C (s,t),
b

C^(s,t) = K(s,t) Cj^ - j K(s,x) K(x,t) dx


23

= K(s,t) K(x,x) dx - I K(s,x) K(x,t) dx


a

K(s,t) K(s,x)
dx
K(x,t) K(x,x)

fs x>
Kl ]dx *
it X,

Supposons maintenant que C ,(s.t) soit de la forme précédente.


p-1
Alors on a:

jS t. ••• t - 1
Cp-1
,(s,t) = k/ ^ ] dt. ... dt^ - .
"'1 vJ '
Si on développe

K(s t) K(s t^) .... K(s tp)


K(t^ t) KCt^t^) K(t^t )

K(tp t)..K(tpt^) .... K(t tp)

suivant la première ligne, on obtient:

= K(s t) - K(s tj Kl ^

ft ,,, t
+ K(s t^) K| h Pp K(s t ) ^ P
® ■ «1 t2 i;, ,. t.
24

Maintenant, si on déplace le t de la suite inférieure, cela revient â per


muter les colonnes de la matrice dont on calcule le déterminant. Donc, à
chaque permutation de la colonne contenant t avec la colonne voisine, on
doit changer le signe du déterminant. On a donc:

, K(s t) K(st )
^ Vt.tj Vi-V V2-V

- K(s t ) kM- P I - K(s t ) Kl 1 P


W "3 - V Vi ^2 "4 - ^p,

- ... -K(s tp) *•* 'Pl


Intégrons cette relation en t^, ...tp. On obtient alors;
h

Cp(s,t) = K(s,t) Cp - p I K(s,z) C^_^(z,t) dz .


Il en résulte l'équation (2.35). On peut maintenant écrire (2.31) de la
façon suivante

D(s,t,X) = K(s,t) .p=iî (Z^f...(kA-'vN


p* ' \t ... X y ^
dXp .(2.36)

Cette série converge uniformément pour toutes les valeurs de X, comme

D(X).

Maintenant que nous avons déterminé les deux termes du quotient

(2.28), nous avons établi l'existence d'une solution de l'équation


25

intégrale (2.1) pour un noyau K(s,t) borné et Intégrable, en supposant


évidemment que D(x) 0 pour que r(s,t,x) soit défini. Puisque les deux
termes de ce quotient sont des fonctions entières du paramètre X, alors
le noyau résolvant r(s,t,x) est une fonction méromorphe de x pour

Ul < 11 I— c'est-â-dire une fonction analytique dont les singulari-


tes peuvent etre seulement les pôles qui dans le présent cas sont les zéros

du diviseur D(x). Son prolongement analytique dans tout le plan est éga
lement une fonction iméromcrphe dont les pôles sont les zéros de D(X). En
particulier, le plus petit zéro de D(x) se trouve en dehors du disque
défini par (2.22).

Nous voulons montrer que:

00

D(X) = exp(-J A^X^) (2.37)


1

où A = [ K^^^(x,x) dx . (2.38)
J

Pour ceci, calculons J" D(x^XjX)dx et montrons que:


b

f D(x,x,X)dx =-D'(X) . (2.39)


J
a

De (2.32), nous avons:

D(X) =1-XC, + ^C5-^C +


^ 2'. 31 3

ou les Cp sont donnés par (2.33).


2
Alors , D* (X) = -C.1 + XC„ - 2^ C- + ...
2 21
26

= - J„ ^Su •
■"'ss' >=<'1^^ ••• Su^
Or C
P+l = /•• 1 K(t2t^ KCt^t^) ... K.t^ tp^^) d ... d t
P+l

K(t t ) K(t ,t )
p+l 1
P+l p+l

Remplaçons t^, t^, ..., tp, tp^^ par x, t^, t^, ..., t . Alors:

K(x x) K(x t ) • K(x tp)


= j ... ^
D 1

K(t x) K(t t ) dx dt ... dt •


P+l 1 11 1 P

K(tpX) KCtpt^)

Dans cette intégrale multiple définie, changeons l'ordre d'intégration et


intégrons d'abord en t^ ... tp. On a'.

b b
K(x x) K(x t^) ... K(x t )
K(t x) K(t t ) dt ... dt_ dx
P+l 1 11 1 P
a a

K(tpX)
P P

Cp(x ^)dx en vertu de (2.36).

00 p
DoncJ
i*' (l) = ~ J (-1)^ ~ I c (x,x)dx
P=o p' 4 P
27

J, (~1)^ —}- Cp(xjx) dx est une série uniformément convergente en X.


p=0 P*

Donc on peut permuter l'opérateur J avec l'opérateur dans l'ex

pression de 0*^(1). On écrit alors:

dUx) =
J p=o p* ^

et - D'(X) = f I
} p=o pi
CP(x'x) dx

D(x^x^X) dx en vertu de (2.31),

Nous avons ainsi obtenu (2,39).

Donc; r(x^ x^ X) dx _ D'(X)


"dID"

Si lX| est inférieur au module de la première singularité de f(x x X)


c'est-a-dire au plus petit zéro de D(x), alors le développement en série
de r(x, X, X) converge uniformément et peut être intégré terme â terme.
Ceci donne:

b
n
r(Xj Xj X) dx = J A^X
1

où est défini par (2.38).

Donc; D'(X) n

D(X)
= -l
28

D(x) ± K exp(- I A„x") .


1

Or D(0) = K = 1 .

Oonc; D(X) = exp(- J A^X ) , (2. ,0)

Montrons maintenant que les zéros de D(x) sont les pôles de FCî^î^X).
En effet si D(x) est divisible par (X-Xq)", alors il ne peut en être de
même de D(x,x,X)dx car alors il en serait de même de D'(x) =
b

-| D(x,x,x)dx: ce qui est absurde car D'(x) ne peut être divisible que
a

par (X-Xq)vn-1. Donc, tous les zéros de D(X) sont des pôles de la résol
vante. Lorsque X^ est un zéro de D(X), la relation (2.28) n'a plus de
sens. On peut cependant la généraliser en définissant des mineurs d'ordre
supérieur et en établissant une nouvelle relation parallèle â (2.28) pour
le premier mineur non nul.

Etudions maintenant les valeurs propres et les vecteurs propres


de 1 opérateur K. Si X n'est pas un pôle de la résolvante, on a en ver
tu de (2.27) que la solution unique de l'équation (2.1) pour f = G est
la fonction identiquement nulle. Cependant, pour D(Xq) = G, l'équation (2.1)
a des valeurs propres, lesquelles sont les inverses des zéros de D(X).
Elle a aussi des vecteurs propres non nuls.

Lorsque f = G, l'équation (2.1) devient;

g(s) = X K(s,t) g(t) dt

c'est-à-dire, g = X Ug.

Donc: Ug = 1 g,
A
29

C'est pourquoi les valeurs propres de l'opérateur intégral U sont les in


verses des zéros de D(x).

D'une part, nous avons vu|


que D(x,x,X)dx = - D'(x) et d'autre part
nous pouvons montrer de la même façon que:

... dtp = d(p)(X^) ; (2.41)

tout ceci nous permet d'énoncer le premier théorème de FREDHOLM


qui affirme le fait que l'équation non homogène

g(s) = f(s) + X j K(s,t) g(t) dt


a une solution unique de la forme

g(s) = f(s) + ^ j r(s,t,X) f(t) dt,


f et g étant intégrables. Le noyau résolvant

r(s,t,X) = avec D(X) 0

est une fonction méromorphe de la variable X, et se présente sous la for


me du rapport de deux fonctions entières définies par les séries

D(s,t,X) = K(s,t) + î Slhf. f ... [ 1'"^ dx ... dx


P=1 P- i 1 i P

et D(X) = 1. I
p=l pi J / u xj ^ P
30

Ces deux séries convergent pour toutes les valeurs de x. En particulier,


la solution de l'équation homogene

g(s) = X j K(s,t) g(t) dt


est identiquement nulle,

d) DEUXIÈME THEOREME DE FREDHOLM

Nous avons vu que si Xq est un zéro d'ordre k de D(x), il


est un zéro d'ordre k-1 de D*(x) et alors x^ est un pôle de
r(x,y,x) d'ordre au plus k» En particulier, si Xq est un zéro simple
I'(x)» alors D(x^) = 0, D* (Aq) ?! 0 et x^ est un pôle simple du noyau
résolvant. Puisque pour cette valeur de X d'(x) ?: 0, alors D(s,t,x) ?: 0
en vertu de (2.36). Nous observons â partir de (2.30) que si D(x) = 0
et D(s,t,x) ?! 0, alors D(s,t,x) est une solution de l'équation homogène

g(s) = X K(s,t) g(t) dt (2.42)

qui est un cas particulier de l'équation (2.1) alors que f(s) = 0. On


peut aussi noter que et D(s,t,x) est aussi solution de (2.42), « étant
une constante arbitraire.

Considérons le cas général ou X est un zéro de multiplicité m,


i.e. ®(^q) = 0,...,D^™ (Xq) = 0, D^™^(x^) ?! 0. Par symétrie avec
(2.36), définissons le mineur de FREDHOLM:

^2 '** j \1 *^2 ***

p=i J i ... y ! p
31

{^i}» i sont deux suites de variables arbitraires.


Tout comme (2.36), cette série converge pour toutes les valeurs de X et
est une fonction entière de X. En vertu de (2.41), on affirme que si Xq
est un zéro de multiplicité m de la fonction D(x), alors

®1 ® 2
XqI -^o
^2 ^m

Par conséquent, il peut exister des mineurs d'ordre inférieur à


m qui ne s'annulent pas.

Nous allons développer le déterminant sous l'intégrale dans (2.43),


On a;

K(s^t^) . K(s t )
n n
K(s X ) ... K(s X )
1 p
K(s t ) K(s t )
2 1 2 2 • 2 " 2 1 ••• K(S 2Xp)

K(Snt^) ^(s^t^) • ^^®n ^n^ ^^®n ^i^ •' . (2.44)


K(x^t^) K(x^t2) • tjj) K(x^x^) ., K(XiXp)

K(x t ) K(x
pi P
t) .
2
K(Xpt^) K(XpX^) K(x X)
P P

Si on le développe suivant la première ligne, et si on intègre p fois

P^^ tapport a x , x , ..., x , on a s


1 2 p

■■■ ^ 'n '■l y ■■■


/■ /s^ s„x. x\ n

s ,. s, ..s , X . X
2 k n 1 p
dXi dx^ ... dj
t ,,t t t„ x x
1 k-1 k+1 1 P/
32

s X„ X, X
+ I (-1)
k=l
k+n-1
I "■ t
n 1
X X
2 k
X
P
x„
dx
1
••• dx
P
«
•••
n 1 k-1 k+1 py

(2.45)

Remarquons que les symboles pour le déterminant K du côté droit de (2.44)


ne contiennent pas la variable s^ dans la suite supérieure et les varia-
bles tj^ ou xj^ dans la suite inférieure. Il découle de ceci qu'en sub
stituant la variable Xj^ dans la suite supérieure à la première place au
moyen de (k+n-2) permutations, alors toutes les composantes de la se
conde somme du côté droit sont égales. Ecrivons (2.45) de la façon suivan
te:

• ••
f ri ®n
KI
M
) dxv.dx =
n
y (-l)^"*"^ K(s^ tj^)

"A f... dx

\^1 \-l \+l ^n

- P K(s^x) Vi. dx
ti Xi":=p.i '1' p-1

(2.46)

ou nous avons remplacé x^ par x.


Substituons (2.46) dans (2.43). Nous obtenons

k=l
^1 Vl ^k+1 ^
33

+ X f K(s^x) X dx . (2.47)

Cette relation est valide pour toutes les valeurs de X. A l'aide de (2.47),
nous pouvons trouver la solution de l'équation homogène (2.42) pour le cas
où X = Xq est une valeur propre. A cette fin, supposons que Xq soit un
zéro d'ordre m de D(X). Alors le mineur ne s'annule pas et meme
les mineurs D^, D^, ..., peuvent ne pas s'annuler. Soit D^., le pre
mier mineur qui ne s'annule pas. Ceci implique que D j ~ 0.
Alors l'équation intégrale (2.47) implique que:

s s2 ... Sj.
gl(s) = D^l Xq j est une solution de (2.42),

En substituant s aux différents endroits de la suite supérieure dans le


mineur D^, nous obtenons r solutions non triviales g^(s), i = l,...,r,
de l'équation (2.42). Ces solutions s'écrivent habituellement sous la
forme

(s) =
(2.48)
^i-1 ®i ®i+i

i =1, 2, ... r.

Nous avons supposé au départ que ce dénominateur ne s'annule pas. Les


solutions (p^ sont linéairement indépendantes. En effet, dans le dé
terminant (2.44), égalons deux arguments s^; ceci revient à rendre
34

deux lignes identiques et alors le déterminant s'annule. Donc, dans (2.48),


on voit que (|.j^(s^) = 0 pour i k et = 1. Montrons que s'il
existe une relation comme I Cj^ = 0, pour tout s, alors ceci implique
k

que = 0. Eii effet, posons s = s^. Puise ue <}ijç.(sj^) = 1, alors

Ceci implique que = 0,\/k et prouve l'indépendance des (f)^.


Nous pouvons aussi voir que toute combinaison linéaire des est aussi

solution de (2,42), Ces considérations nous permettent d'énoncer le second


théoreme de FREDHOLM qui est le suivant; si est un zéro de multipli
cité m de la fonction D(x), alors l'équation

ë(s) = K(s,t) g(t) dt


j 1-

possède au moins uiie et au plus m solutions linéairement indépendantes

gi(s) = D^f 1 i-1* ' i+l' •••' r


» tj.

i — Ij ,,,, rj 1 ^ r ^ m

et non identiquement nulles, ■ Toute autre solution de cette équation est


une combinaison linéaire de ces solutions,

e) CONVERGENCE DES VECTEURS PROPRES ET DES V^T.KURS PROPRES

Etudions la convergence des vecteurs propres et des valeurs pro


pres lorsque le noyau de l'équation aux valeurs propres est borné. On a;

X f(z) = j K(z,x) f(x) dx.


35

Supposons donc que {K^(z,x)} soit une suite de noyaux approchés au sens
suivant; sup|K(z,x) - K (z,x)| tend vers 0. Utilisons la méthode de
X, z e [0,1] "
FREDHOLM que nous venons de voir. Affectons d'up indice n les grandeurs
relatives au noyau Kj^(z,x). Montrons d'aborc' que les valeurs propres de
vers celles de K, Nous avons vu que les valeurs caractéristi
ques de K (resp. de K^) sont les racines de la fonction entière déter
minant D(X) (resp, D^(x)), ou encore les pôles de la fonction méromorphe

D*(X) Lresp. D n(X)A or d'après (40), on a:


D(X) \ DnCxV

D(X) = exp(-^ A xP)


1 ^

où ^1 •
G

Si converge uniformément vers K, il est clair que qui est le


noyau itéré de K^, convergera uniformément vers Alors les traces

^(n) tendront, pour n grand, vers les Ap.


00

Ceci montre que la série T A X^


1 P(n)
00

tend vers \ A X^ uniformément sur tout compact.


1 ^
En effet, les termes de chaque série sont inférieurs en valeur absolue aux
termes de même rang d'une série convergente â termes positifs indépen
dants de n. Ue plus, chaque terme de la première série a pour limite le
terme correspondant de la seconde. Nous savons également que si la suite
de séries entières fjj(x) tend uniformément sur tout compact vers f(x),
alors les pôles de f^Cx) tendent vers ceux de f(x). Donc les pôles de
36

DUx)
tendent vers ceux de ,
»n<^) D (X)
D'où le théorème:

Théorème: Les valeurs caractéristiques de K tendent vers cel-


n

les de K, avec la multiplicité convenable.

Montrons maintenant la convergence des vecteurs propres. Nous


allons utiliser
Lliser leur
leur expression
expression déjà
déjj connue par (2.48). Soit X^ une va-

leur caractéristique de K et soit:

Xq 0

Nous pouvons montrer comme on vient de le faire plus haut pour D (X), que

les mineurs D Xj tendent uniformément sur tout compact vers

le mineur D pour x^ x^, y^, ..., fixés. Pour n assez grand,


dans un voisinage de Xq. Les vecteurs propres de seront
n

données par:

^ ^2 ^
s7i
X. X
1 P

comme dans (2.48). Nous pouvons rendre ces expressions aussi yoisines que
37

X X X
l'on veut de D( 2 P
ni
•^1 "p
x^ x_

en vertu de la convergence des valeurs propres. Or ces dernières expres


sions tendent vers les vecteurs propres de K.
CHAPITRE 3

APPLICATION DE LA THEORIE A DEUX EXEMPLES PARTICULIERS

a) LA LOI NORMALE

Nous allons résoudre le problème dans le cas où la correspondan


ce est normale, c'est—è—dire lorsque I et J sont égaux â R et que
T(x,y) suit une loi normale définie sur R^,

Nous avons alors:

yij(x,y) =J^exp( - I ^(x,y) A(x,y)) (3.1)


2ïï

a b
A = =/ I avec b = c j

e étant la matrice des variances—covariances.

.A = dét A = ad - bc s

\ï î I21 22
aI
Les lois marginales sont alors données par les expressions suivantes, si
on suppose que la loi de départ est centrée:

p (x) = N(0, I ) = ^1 e- I X ^11 X ,


11 /2ïï dét I
11
39

après transformations élémentaires, nous obtenons;

- Ml
2d
_

(3.2)
/2ïïd

- Ay
De meme yj(y) =4=-e
/2Tra
= N(0,^ )
22

Comme nous l'avons vu au chapitre 1, calculons:

X <j)(z) = [[ T(2,y) T(x,y)


J) T^(z) T2(y)

On obtient:

- i Q(x,y) e- è Q(z,y)
X (f>(z) = e
<f)(x) dx dy (3.3)
(2Tr) Ay2
/Xe-^/X
I

1/ 2Trd V 2Tra
I
Za

ou
Q(x»y) = (x,y) A(x,y).

Notons K(x,y,z), le noyau sous le signe d'intégration. La relation (3.3)


devient alors:

X (p(z) = Il K(x,y,z) ())(x) dx dy , (3.4)

Après simplifications, on obtient:

K(x,y,z) =^exp ^ J Q(x.y) + f Q(z,y) + (3.5)

2 2
Or Q(x,y) - = ax^ + (b+c)xy + dy^ - M—
40

~ ~ y)^

De même:

Q(2.y) -^= d(y + z)2 ,d(y ^ b ^)2_

La relation (3.5) devient:

_ a Cv 4. ,r^ 2 d , b+c .2
K(x,y,.) - î 2a ^ " 2 ^ 2d

2Tr

Maintenant, calculons I(x,z) = j K(x,y,z) dy.


Pour ceci, considérons cette intégrale comme une intégrale de convolution.
Notons •

2
X

Ç.(x) = -4=r e 2ot2


a (3.7)
av^

Alors, nous avons 1

^"'h'^jrS—2
/et +6^ • (3.8)

Vérifions (3.8).
+00

h(t) = j Ç^(x) Çg(t-x) dx


41

^CO (t-x)^
2a^ 1 e 20^ dx
=I a/lir 3v^27r

+00 _ x^ _ (t-x)-
2a 2g
2TTa3

+" ^ , 2££ _ 2tx


a^ 32 g2 g2 dx
2ira3 •

■!■ a2t2 _ 2cj2


3
+"
~
1
2
3^x^ +
—j
2ïïa3
T7a3 J
a232 dx

1 t
2 +00 x2(32+a2) _ 2a2tx
2 —
- 1 a232 dx
21703

.1 t2 1 o.^t2 +- , f"x2(32+a2) _ 2a2tx +


(32+a2)
=^e ^ f a L W" dx
2ira3 J
—00

a^t
I- 9 ' -1+00 x/32+a2-
/3^+a^
_ 1 i 3^
2 2 f
32(32+a2) j e a 3
dx
Lm —j —00
2ira3

1 t' 1
2 — ~ 2

=^^ - 0®
a 3
U dx

xv/^-^
Soit y =
a 6
42

dy =
dx/g^+g^
gg

Alors;
+00

1 ± 2
— 11^
gg
h(t) = e ^ g^+g^ .'■dy
Zîrgg/g^+g^

1 t2
2

(32+g2)
2Tr/a2+32

1 t'

- ^ e " (01^+32)
"2

/2Ïr A +g2

= ?, (t)

C est le résultat que nous voulions démontrer,

Posons maintenant y = y + dans l'expression (3.6). Nous


2d
obtenons;

(b+c)•
4ad
dy

_ dy£
Or
= ^ =/l■i 'l//d
et l'autre exponentielle est égale â

2»/2ii r (b+c 2a \
TTT - H? " - p) .
b+c
143

+"

Alors I(x,z) _ S 2y^


✓ad
_ 2ax _ dy
2Tr V d b+c b+c
^OO

b+c

bTE" I
- 2a
^IS - -bt# - ^' dp ♦
En utilisant (3.8), on obtient:

I(x,z) = 2a
exp
y 2d ^ h+c)
(3.9)
(,h+c)'/2vj
V H
— + itS_
(b+c)' . (b+c)./

2ar/d
exp
-((b+c)^z - Aadx)'
(3.10)
/(b+c)^ + 4ad âd((b+c)^ + 4ad)

L'équation aux valeurs propres devient alors;

2a ✓T -((b+c)2z - Aadx")^
X(j)(z) = (fi(x) exp dx . (3.11)
i(2Tr Aad + (b+c)^ 8d((b+c)^ + 4ad)

Simplifions les notations et faisons entrer la constante qui précède le si


gne d'intégration dans la valeur propre X. On obtient alors;

(

X(f)(z) = [ K(z,x) ({i(x) dx (3.12)


J
—00

OU K(z,x) = exp
-((b+c)^z - 4adx)
(3.13)
8d((b+c)^ + 4ad)

J.C.NAOURI a déduit certaines propriétés de (j). Il a montré que si (j) est


bornée, <j) est aussi continue et que si (j) est localement bornée, alors 4"
est dérivable a tous les ordres.
44

Appliquons maintenant la théorie de FREDHOLM. Cette méthode in

dique que les valeurs propres sont les inverses des zéros du déterminant

D(x), Calculons donc ces valeurs propres.

D'abord, cherchons les noyaux itérés

On a K^^^(x,y) = j K(x,z) K(z,y) dz


et ^\x,z) K(z,y) dz

où K(z,x) est donné par (3.9) i. e. par

KCz.x) =|S_
h+c
ç ^ 4a
(b+ç ^ _ 2^
V 2d b+cy
^ (b+c)2

Transformons (3.10). Nous obtenons que

exp [^((b+c)2z - 4adx)2/8d((b+c)^ + 4ad^


= exp f- ((b+c)^ (z - ))" .
1— (b+c)^ (b+c)^ _J

Soit k = —
(b+c)2

Or b - c; donc k = = M. > 1 car ad - bc étant le


4b 2 bc

déterminant de A définie positive, est lui même positif.

Soit a2 = .
(b+c)2

Après transformations, on a ;
45

K(z,x) = exp (z-kx)'


k Ç (z-kx) ,
et/2Tr 2 a
2a

Incorporons la constante k â la valeur propre. Il nous reste:

K(z,x) = ç (z-kx),
a

Calculons K^^^(z,y),

K^^^(z»y) = [ K(z,x) K(x,y) dx

= I ^^^(z-kx) Ç^(x-ky) dx ,
Or Ç (z-kx) = — exp
- (z-kx)^
et /^ %/
2a2

exp -k2(zk"^-x)^
2a2

Soit
^ zk ^ - X.

Alors K^^^(z,y) =- ?ot (2k ^-ky-vi) dy.


k J

Maintenant, en employant (3.8), on a:

K^2)(z,y) = 1 (zk-^-ky)

= ç (z-k2y)

De même:
46

K^^\x,y) = Ç^(x-kz) Ç (z-k^) dz


aVlUk^

3^
k
(xk ^-zX (z-k^) dz ,
a/l+k2

Si l'on pose y = xk ^ - z on obtient comme précédemment

^ \x,y) Ç J—5—— (xk -k^y)


^ aA4k +L-
k^

= ç (x-k y) ,
otA+k^+k^

Par récurrence, on montre que

r(n)
K^"^(x.y) = Ç (x-kM » (3.14)

Vk2-1

00 .

Calculons D(X). Nous savons que: = r n-1


D(X)
- î1 ^ %

ou
= j K^"^(x,x) dx ,
+00

Ici, K^"^(x,x) dx = [ Ç (x-k"x) dx


L
^ k2-l
+~ _ (x-k"x)2(k2-i)
Vk2_i
e 2a 2 (k2'^l) ^jx
aÀ^^-1 AT

Soit y = x(-H-k") A2-1 j


aA2n_3_
47

dp P dx (-1-*°)

+eo ^2
Alors K^"-'(x,x) dx = e 2
■' ctA^n-i ^ (k" 1)
2
+" - JL_
~ ^ [ e ^2 du
/2Tr (k"-l) J

k'^-l

On en déduit que;

D'(X) ^ y X°"^
D(X) " { j.n.^

Cette série converge pour |X| < k.

Nous savons également que k > 1, Nous pouvons donc écrire que

P-(>) - _ y x-^ _ .1 y x°
D(x) 1 k"-l X 1

- ,n 00 00 n
= _ 1^ h =- y y -
^ 1 k"(l-l-) X p=i n=l k'^P
k"

" ^ pL V'^k^p *** k"p ^


1 1P - 00
- i. Y k - ~ JL V ^
~ ~ ^ p=l 1 - ^ ~ X P=1
^ kP-X
kp
oo

= l • (3.16)
p=l X-kP
48

La série (3.16) converge dans tout compact du plan ne contenant pas les k^;
et cette série sont égales pour |X| < k et ainsi dans tout le plan.
D(X) ,
Il s'ensuit que les singularités de sont des pôles simples aux points
kp. Les zéros
- de D(x) sont donc tous^(x)
simples et sont situés aux points
k^. Ce sont les inverses des valeurs propres de l'opérateur K(x,y). A
chaque valeur propre correspond une et une seule fonction propre. Nous
kP

allons déterminer ces fonctions propres pour chaque valeur propre -î


kP

Ecrivons l'équation (3.12)


+CO

X ^(.z) = K(z,x) (j)(x) dx ;


I

I — CO

celle-ci devient;

X (|i(z) =1 Ç^(z-kx) ({)(x) dx . (3.17)


Etant donné le fait que nous savons que la convolution laisse invariante
les fonctions Ç, cherchons une solution de la forme Ç (x).
3

è (2k"^-x). (3.18)
(3.17) devient alors;

X <j.(z) =1 Sa/k
, (zk~^-x)ÇP(x) = X ÇP(z) . (3.19)
k J

Par (3.8), l'intégrale donne:

^k ^/3^+a^/k^
/'o 2/ 2 (zk"^) k/ZiT /32+a2/k2
exp (- z^/2(k^3^+a^))

Alors (3,19) devient;

e 232« I — exp(- 2^/2(k232+a2)) ^


k/5ÎT /3 +a /k
49

fin égalant les exposants de e, nous obtenons:

3^ = k^3^ + ct^

et 32, - "
1-k'

Puisque k > 1, 3 est alors négatif, ç n'est pas bornée et l'intégrale


p

de (3.19) diverge. Cette solution est donc à rejeter. Nous avons vu pré

cédemment que (J) est indéfiniment dérivable. Dérivons alors (3.17) par

rapport a z.

On a X (j)^(z) = F (z-kx) (i)(x) dx


a
(3.20)

(z-kx) K (z-kx) (i)(x) dx , (3.21)


a

De (3.17) et (3.18), nous avons

X (j)(z) -"1 ^ct/k 'j'(x) dx (3.22)

1
k" <t' (zk ^-x) dx.

Dérivons les deux membres de cette égalité par rapport à z. Nous avons

X (j)^(z) Ç a/k^^^ ^-x) dx (3.23)

j ^ct <fi^(x) dx , (3.24)

Soit Ep l'espace vectoriel des vecteurs.propres correspondant à la valeur


propre jL_. Nous avons vu qu'il est de dimension un. Par l'équation (3.24),
1
nous voyons que si <() e E , alors ((> e E Ceci nous suggère de
50

chercher des solutions polynomiales.

Nous pouvons vérifier que la fonction constante est dans E .


1

En effet:

g (z-kx) dx = = X .
a k j^p

Ceci implique que p = 1. Essayons maintenant de passer de E à E ,


P P+1
en développant z (j)(z). Multiplions (3.22) par zk-1

Nous aurons:

Azk"^ (()(x) = [zk ^-x+x] (zk~^-x) (|)(x) dx

=II ■x)
-1
(zk -x) (f)(x) dx (3.25)

^a/k xKx) dx.

Or, d'après (3.21)

X (|) .(z) = - — f (z-kx) (zk ^-x) Kx) dx


a^k J

(zk ^-x) Ç^yj^ (zk ^-x) (J)(x) dx.


D'où:

X zk-1 ^(z)
i / ^ = —^
-cx^X «{"^(z) +
Ç^(z-kx) X <j)(x) dx. (3.26)

Par (3.24), nous avons


51

X <t>^(z) = a X 4>Hz) + ^ j Ç^(z-kx) dx (3.27)


où a + b = 1 ,

Introduisons (3.27) dans (3.26):


2

^1(2) = Ç^(z-kx) X(})(x) dx


k k

"^I ?c^(2-kx) (f,^(x) dx , (3.28)


Ceci donneî

i Cz+Cz) + = [j 5"(a-te) ^
k*^

Alors Z(p(z) + a 2a<f> 1(z) est aussi une fonction propre si

2 -a^
a a = —i±— .
k2

Puisque a + b =1, ceci implique que b = IE et a = zi Aussi si


k2-l k2-l*
(j> qui est un polynome non nul est dans E , alors z,f,(z) - ((.^(z) est
^ k2-l
dans Nous pouvons ainsi Ù partir d'un polynôme constant dans E,
engendrer tous les E^. Or, la relation de récurrence ressemble étrangement
à celle qui définit les polynômes d'HERMITE.

En effet pour engendrer un polynôme d'HERMITE a l'ordre (n+1), nous avons


la formule

~ ~ y ' (3.30)

2 =
Il suffit donc de poser - ^ pour que cette relation soit identique
52

"h celle vue plus haut. Nous voyons évidemment que le polynôme d'HERMITE
d'ordre 1 est le polynôme constant et égal à 1. Il en est ainsi de la fonc
tion propre associée 1 la valeur propre 1/k.

Ces considérations nous amènent â. eivOncer le théoreme suivant;

Théoreme: Si nous notons (fip(z), la fonction propre attachée â


la valeur propre l/k? et dont le coefficient du ter
me du plus haut degré est 1, nous avons = H . où
p'
Hp est le polynôme d'HERMITE d'ordre p attaché à
la fonction exp [—x^a^/2(k^—1)], Ces solutions sont
bien convergentes. Nous avons ainsi résolu le pro
blème dans le cas de la loi normale définie sur R^.

J.C. NAOURI a aussi généralisé au cas de la loi normale sur


ou m et n sont supérieurs al. En employant sensiblement la mê

me technique, il a trouvé des valeurs propres et leurs vecteurs cor

respondants.

b) ETUDE DANS LE CAS D'UNE DENSITE PARTICULIERE

Nous avons vu que les deux fréquences conditionnelles T(y/x)


et T(x/y) définissent deux transitions probabilistes et de I vers J
et de J vers I. Munissons I de la mesure de densité T^(x) et J
de celle définie par T^(y). Alors le problème de la détermination des
vecteurs propres et des valeurs propres se ramène a. résoudre l'équation
intégrale

^1^2 ^ (3.31)

U f(z) = Xf(z) .
53

j T(y/z) T(x/y) f(x) dx dy = Xf(z) j


(3.32)

Soit K(z,x) = f T(z,y) T(x,;0 , (3.33)


•' TgCy)

L'équation (3.32) devient

I K(z,x) f(x) dx = X f(z). (3.34)

Appliquons maintenant ceci à une densité T(x,y) donnée. Soit

T(x,y) = pour x^ + y^ <


Tra

2 2 9
=0 pour x +y >a ,

+/a^x2 (■v'a^-x^
Alors T,(x) = I T(x,y) dy = — dy.
Tra"
-/a2-x2

= 2
ïïa

+a

Vérifions que T^(x) dx = 1

En effet, [ Ja?--yp- dx = — f
dx = dx
ira
-a

+a
_ _2
/l-(#)^ dx ,
ira

Soit X = a sin 0 3
54

dx = a COS0 d0.

On a:
TT'J

j (x) dx = I J I cos20 de
-a -ïï

V
r2

~ ^"I J (1+COS20) d0

-ir

1
ïï
0 ^|/2
u

1 , 1 2 sin0 _ /2
1 +-• COS0 I
-ïï,

Déterminons maintenant le noyau K(z,x). En vertu de (3.33), nous avons

a ^ 1 ira^ • i:a2 pour x2 + y2 < q2


K(z.x) = I Tra2 Tra2

- z2 2/^2-72- "
dy
et z2 + y2 5 a2
-a

1. dy
4
y'a^ - z^
-a

dy
4i(a^ - z^
v'a^"—~"y2"
-a

= arc sin (J)| a" J-a

1 /TT . 1T\ ir
4^2 _ ^2 (2 + 2^
hj/s/- — ^

Calculons maintenant les noyaux itérés K^^^(z,y), K^^^(z,y), K^^^^Cz.y),


55

K^^^(z,y) K(z,x) K(x,y) dx


-a

jr
dx
4/a^ - X'
-a

dx

lô/a^ - z"^ ■ /a'^ - x^


-a

^2 a
arc sin (—)
l6/a^ - z^ ^ -a

16y^a?~-~"z^

K^^\z,y) = dx
16/a^ - z^ 4/a'^ - x^
-a

^4 a
TT . /Xx
arc sin (—)
64i/a^ - z^ ^ -a

64/a^ - z^

On voit que
2n-l
Tr(n), s _ ir
K '(z,y)
— z^

Déterminons maintenant les valeurs propres de l'opérateur U dans l'équa

tion

U f(z) = X f(z).
56

00

On sait que =- T A
d(a) 1 "

ou A = J K^'^^Cxjx) dx
n

-a

a
2n-l
TT -- 1 ,
-^== dx
^ 22n
—a
/a2 _ x2

2n-l
dx
22n /n2 - x2
-a

_ /TTs2n
- ^2-'

Donc = _ J
D(a) 1 2

00 O

= - i y (iJ.)""
Ai 4^
tt^A
If 4 ^ si
^
I— A I < 1
^ 1 - '"'^A j '4
i.e. si|xl < ^
ir

JL^ \
Enfin
D*(a) ^ _ if 4 Y TT^ _ 1
"" n 4^2x r A.4 %.^

4 est un zéro de D(A). Donc ~—


On voit aussi que —— 2 est une valeur pro-
Tr2 4

pre de l'opérateur intégral, car les valeurs propres sont les inverses des
zéros de D(A).
57

Cependant, étant donné que le noyau K(z,y) est séparable, nous

pouvons employer une autre technique dont nous avons vu la théorie anté

rieurement, En effet

K(z,y)
4v4^ -

et a^(z) = , b.(y) = 1 ,
4 v42 _ 2p-

Alors
11
bi(y) a^(y) dy
-a

JL ir

4 4
-a
- v^

D'où, puisque D(X) = Il - Xa111 |i-xf-| = 0 ,


4

ir
- est la valeur propre de l'opérateur intégral. Nous

obtenons les mêmes résultats que précédemment.

Déterminons maintenant le vecteur propre correspondant a cette

valeur propre, en se servant de la théorie déjà vue. Nous avons à résoudre

f(z) = X f(t) dt
-a
4/a^ — z^

f(t) dt (3,35)
4/a^ - z^
-a

Or j b^(t) g(t) dt = f^ = G car g(t) = G Vt ,


58

Donc f = 0.
I

On sait que la solution (3.35) sera de la forme:

f(2) = A 5! CjL a^CO. (3.36)

Puisque f(z) n'est pas nul et que tous les a^(z) sont nuls a l'excep
tion de a^(z), ceci implique que c^ est différent de zéro.
Posons alors c^ = k ;

(3.36) devient f(z) = X c a (z).


1 1

Enfin, puisque X =—, on obtient


ir^

f(z) = i- k "
ir^ 4/a^-z^

ir y^a'^-z^

On peut vérifier que f(z) est le vecteur propre correspondant â la


Tr2
valeur propre .

En effet

A U f(z) = f(z)

i-®- U f(z) = jf(z)


a

ou encore j K(z,y) f(y) dy = f(z) .


-a

On a donc successivement
59

I
-a

cL

4v^
-a

^ dy - TT k
4)4^ - z2 1 TT - y2 ^ tt /a2 - z2

_±2 , kîT
4 /a^ - z^ 4/a^ - z2
CHAPITRE 4

LIMITES DE LA GENERALISATION AU CAS CONTINU

Traitons brièvement des limites de la généralisation au cas con


tinu. En effet, nous avons fait d'autres essais en définissant sur le pro
duit I X J certaines densités particulières. Toutefois, en essayant de
déterminer le noyau K(x,2), certaines difficultés ont surgi. Souvent en
intégrant pour trouver le noyau, nous obtenions une intégrale divergente.
Parfois aussi, nous étions incapables de trouver une primitive a l'intégra
le qui donnait l'expression du noyau. Montrons ceci à partir d'exemples.

T(x,y) = si OSy<x<l

= 0 sinon.

Alors T^(x) = dy = e -
I

T (y) = f dx = e - e^ ,
^ J

Nous obtenons que

K(x,y,z) = T(x,v)
Tl(z) T2(y)

y-z+1 y-x+1
- e
' e
(e-e-z+1)(e-ey)
61

2y-z-x+2
_ e

(e-e-^+1)(e-ey)

Déterminons le noyau K(x,z).

K(x,z) j K(x,y,z) dy
-z-x+2 ■; 2y
£ e
dy.
(e-e-^+1) J e-e^
Posons y =

dy = dy = y dy.

Alors K(x,z) devient


1-e
-z-x+2 T 2
K(x,z) = lim dy
e->o e-e~^+^ • y(e-y)

1-e
-z-x+2 ç
- lim (-1 + •^) dy
e-^0 e-e~^+^ • e-y
1

-z-x+2
a

>_fi~2+l
e-e
lim
£->0 L
[[- y]e^"^- [e log (e-y)]el-el
*1
1 J

-z-x+2
e
[1 - e + e log (e-1) -e lim log (e - e^~^)]
e-e~^"*"^ e^O

Or lorsque e tend vers 0, log (e-e^"^) tend vers - Donc, on ne peut


déterminer le noyau K(x,z) pour cet exemple particulier.

Traitons un second exemple.


62

Soit T(x,y) = 2e~*~y si 0 < x < y <

= 0 sinon.
00 00

Alors Il(x) = 2 j dy = 2e-'' j dy


= - 26-= a-y

-2x
= 2e

et TjCy) = 2 I dx = 2a-y
2a"y ]
( e"* dx

-y ^-x
- 2e e

= - 2e-'='+ 2e-y .

Nous avons K(x,y,z) = T(z,y) T(x,v) _ 2e"^"^ 9^


2e-22 2(e-y-e-2y)

+z-x-y
_ e

1-e-y

Par conséquent

K(x,z) = K(x,y,z) dy

z-x

^ L-y '
posons y = 1'- e-y.

alors dy = e~^ dy.


63

K(x,z) = In y I
X

Cette expression diverge. Donc il n'existe pas d'expression pour le noyau


K(x,z).

Enfin traitons un dernier exemple oû il est ardu d'effectuer


1 intégration nous donnant l'expression du noyau,

T(x,y) = —K ^ X > 0, y > 0


(l+x+y)3
= 0 sinon.

Déterminons d'abord K.
00

J T(x,y) dx = K f dx
_ Q (l+x+y)3
J

= -K 1

2 (1+x+y)^ 0

- K

2(l+y)^

et L dy - -K I 3K -
I/tS
^ Q (l+y)^ 2(l+y) 'o 2
h = 1

Ceci implique que K = 2 «

T2(y) = et T (x) = _J,


(1+y)^ ^ (1+x)^

Alots K(x,y,z) = T(z.y)


(z.y) T(x.v)
T(x.^
l(y
T. T^' ■
(z) T*<y5

(1+z)^ (l+y)2 •
(1+y+z)^ (1+x+y)^
64

Comme l'expression du noyau est donnée par K(x,y,z) dy, l'intégration

de K(x,y,z) qui est un quotient de polynômes, est très longue et ne don


ne pas une expression simple. Les noyaux itérés K^^\x,z), K^"^(x,z),
qui sont tous donnés par des intégrales sont très complexes de sorte

que la théorie de FilEDHOLM ne s'applique que très difficilement ici.


CONCLUSION

Il semble donc que la théorie des équations intégrales de FREDHOLM


ne puisse s'appliquer pour toutes les fonctions de densité, mais seulement
pour quelques-unes en particulier. Nous en sommes li'enus à eetee conclusion

après plusieurs essais avec différentes fonctions de densité. Une perspec


tive intéressante è envisager dans ce même champ d'horizon serait d'essayer
de déterminer la classe des fonctions de densité pour lesquelles nous
pouvons appliquer la théorie des équations de FREDHOLM. Ceci pourrait fai
re l'objet d'une étude intéressante pour celui qui voudrait considérer les
aspects futurs de l'analyse factorielle des correspondances.
appendice

Une équation intégrale est une équation dans laquelle une fonc
tion inconnue apparaît sous un ou plusieurs signes d'intégration. Dans
une telle équation, il peut aussi y avoir d'autres termes. Par exemple,
les équations

g(z) = K(z,x) f(x) dx, (1)

g(z) = f(z) + K(z,x) g(x) dx. (2)

g(z) = K(z,x) [g(x)]2 dx, (3)

r-

pour a ^ z ^ b

et a 5 X < b

sont des équations intégrales où g(z) est la seule fonction inconnue.


Les autres fonctions, qui sont connues peuvent être réelles ou complexes.
Les équations intégrales sont fréquemment employées en mécanique et en
physique pour représenter les solutions d'équations différentielles.

Une équation intégrale est linéaire si l'on effectue seulement


des opérations linéaires sur la fonction inconnue qu'elle contient. Les
équations (1) et (2) sont linéaires alors que (3) ne l'est pas.
67

En effet, les équations (1) et (2) peuvent s'écrire sous la forme

LCg(s)]= f(s)

où L est 1 opérateur intégral approprié. Alors, quelles que soient les


constantes c et c , nous avons
1 2

L [c g (s) + c g (s)] = c L g (s) + c L [g (s)].


i j. z z 1 1 2 2

Ceci est le critère général pour vérifier la linéarité des équations in


tégrales.

Le type le plus fréquent d'équations intégrales linéaires est de


la forme

h(z) g(z) = f(2) + 0 j K(z,x) g(x) dx, (4)


a

où la borne supérieure d'intégration peut être fixe ou variable. Les


fonctions f, h et K sont connues alors que g est à déterminer; 0 est
un paramètre non nul réel ou complexe. La fonction K(z,x) est appelée
le noyau. Introduisons maintenant les équations intégrales de FREDHOLM,
lesquelles sont des formes particulières de (4). Ces équations dont la
borne supérieure d'intégration est fixe sont de deux types. Il y a d'a
bord les équations de FREDHOLM dites de première espèce, où h(z) = 0.
Celles—ci sont de la forme

f(z) + Q I K(z,x) g(x) dx = 0 • (5)


a

Les équations de FREDHOLM de seconde espèce, caractérisées par le fait


que h(z) = 1, s'expriment ainsi;
68

g(z) = f(z) + 0 I K(z,x) g(x) dx. (6)


Elaborons davantage sur les équations de seconde espèce dites homogènes.
Ce sont celles que nous utilisons dans l'analyse des correspondances dans
le cas continu. Elles sont caractérisées par le fait que f(z) =0 et
sont de la forme

g(z) = 0 K(z,x) g(x) dx (7)

ou g— = Jr K(z,x) g(x) dx = X g(z)


Cz)
(8)

cù X = i .

Ceci conduit â poser:


b

U g(z) = X g(z) = j K(z,x) g(x) dx (9)


a

où K(z,x) est appelé le noyau de l'opérateur U.

Soit K(z,x) = I J(x,y) J(z,y) dy


où J(x,y) est une densité conjointe de probabilité. (9) devient alors

U g(z) = Il J(x,y) J(z,y) g(x) dx dy. (10)


Si et P^ sont deux transitions probabilistes de I vers J et de
J vers I, où I = J = Ca,b], alors U = P « P . Montrons maintenant
* 1 2
que U = T o T- où T désigne l'opérateur intégral dont J(x,y) est le
noyau.
Ainsi

T f(x) - I J(x,y) f(y) dy (n)


*
= j J(x,:
T g(z) - j J(x,z) g(x) dx.

Donc

(TOT*) (g(z)) = T (T* Cg(z)))

= j J(z,y) T* g(y) dy
Il J(z,y) J(x,y) g(x) dx dy. (12)
Puisque J(x,y) est une densité de probabilité, J(x,y) = J(y,x) = J(x,y)
et d'après (10) on voit que

U-T o T. (13)

De (13) on déduit aisément que

*
U = U;

ainsi, U est donc auto-adjoint.

Maintenant, si au lieu de faire l'analyse spectrale sur I nous


effectuons l'analyse a partir de J; nous obtenons alors

° ë = Më = Vg.

L'opérateur V dont nous voulons faire l'analyse spectrale est égal à


*
T o T. Définissons maintenant deux ensembles particuliers. Soient
{E^, )i e A} et y e M} deux sous-espaces propres de dimension finie
sur un anneau K, correspondant aux valeurs propres X de U et y de V.
70

Alors

VF^ = T o T =y pour y ^ 0.
A
Montrons que T » T est un Isomorphisme sur F^. Vérifions d'abord que
nous avons un homomorphisme.

Soit f et g e F . Alors Vf = yf et Vg = yg, y si G. Comme F est


M y
un espace vectoriel, k f et k g appartiennent à F , quels que soient
1 2 y' ^ ^
k et k E K.
1 2

Par conséquent

k f + k g e F.
1 2 y

Donc

V(k f + k g) = y(k f + k g)
1 2 1 2

= k yf + k yg
1 2

= k Vf + k Vg
I 2

pour tout k , k e K
1 2

et pour tout f, g e

*
/
Donc T o T est un homomorphisme.
A
Montrons d'abord que T <>1 est injectif.

En effet, soit Vf = Vg

alors yf = yg pour y s: 0.

Donc f = g.

A
Il reste à montrer que T » T est surjectif.

Soit h e F^. Alors il existe d e F^ tel que T <> Td = yd = h. En


71

effet, il suffit de prendre ~ y 0. Nous aurons alors

T* o T d = pd = y -^ = h.
*
La démonstration que T o T est un isomorphisme sur F est ainsi termi-
y

née.
BIBLIOGRAPHIE

[1] Dunford (N.) et Schwartz (J.T.), Llnear operators Part II (Interscien


ce Publishers Inc, New-York, 1963).

[2] Froberg (G.), Introduction to numerical analysls (Addison-Wesley,


Reading, 1969).

[3] Gantmacher (F.R.), Théorie des matrices I & II (Dunod, Paris, 1966).

[4] Kanwal (R.P.), Linear Intégral Equations (Académie Press, New-York,


1971).

[5] Kree (P.), Introduction aux mathématiques et à leurs applications


fondamentales (Dunod, Paris, 1969).

[6] Lavoie (P.), De l'analyse factorielle des correspondances, mémoire de


maîtrise (Sherbrooke, 1971).

[7!1 Lebart (L.) et Fénélon (J.P.), Statistique et informatique appliquées


(Dunod, Paris, 1971).

[8] Naouri (J.C.), Analyse factorielle des correspondances continues,


thèse de doctorat d'état, ISUP, 19 (1970) pp. 1-100.

[9] Rahman (N.A.), Exercises in Probability and Statistics (Griffin,


London, 1967).

[10] Rényi (A.), Calcul des probabilités (Dunod, Paris, 1966).

Vous aimerez peut-être aussi