Académique Documents
Professionnel Documents
Culture Documents
Dans tout ce chapitre, E désigne un K-ev non réduit à {0E}, et E* son dual. Rappelons que tout élément de E* est une forme linéaire, donc, une
application linéaire f de E dans K, K considéré comme K-ev de dimension 1. Le noyau et l'image de f ont la signification habituelle. Intéressons
nous d'abord à l'image Im(f), l'étude du noyau Ker(f) demandant plus de préparation.
Im(f) étant un sev du but, ici K, cela ne laisse que deux possibilités : soit Im(f) = {0}, soit Im(f) = K.
Im(f) = {0} x E, f(x) = 0 f = O* (forme nulle).
Im(f) = K f est surjective.
Théorème III - 1.
Toute forme linéaire non nulle est surjective.
Cela signifie que si f est non nulle, pour tout élément a de K, l'équation f(x) = a possède des solutions dans E.
III - 1 - 2. Hyperplans de E
Définition III - 1.
Soit E un K-ev non réduit à {0E}.
On appelle hyperplan de E tout sev H de E, distinct de E vérifiant la propriété suivante : si F est un sev de E contenant H, alors, F = H ou F = E.
Cela signifie que si désigne l'ensemble des sev de E ordonné par inclusion, les hyperplans de E sont les éléments maximaux de \{E}. On
peut dire aussi qu'il n'existe aucun sev de E strictement compris entre H et E. Cette propriété de maximalité donne une caractérisation
fondamentale des hyperplans.
Notation :
Soit a un vecteur non nul de E, la droite vectorielle engendrée par a est le sev D de E formé par les vecteurs du type k.a, où k décrit K. Nous
écrirons : D = K.a.
Théorème III - 2.
E un K-ev non réduit à {0E}, H un sev de E, distinct de E. Si H admet un sous-espace vectoriel supplémentaire de dimension 1, alors H est un
hyperplan de E.
Réciproquement, si H est un hyperplan de E, alors, pour tout a E \ H, E = H K.a.
Preuve :
1°) On suppose donc que H E et qu'il existe une droite vectorielle D telle que E = H D. Si a est un vecteur non nul de D, nous avons D =
K.a, avec a H, puisque E et H sont distincts. Considérons un sev F de E contenant H strictement. Il existe donc un élément b non nul dans F \
H. La décomposition E = H D signifie qu'il existe un unique couple (h,k) H × K tel que b = h + k.a. Comme b n'est pas dans H, k est non
nul, donc inversible dans K et on peut écrire a = k-1(b - h). Mais b et h sont dans F, donc a également par combinaison linéaire. Cela signifie
que E = H D F, donc que F = E. H est bien un hyperplan de E.
2°) Soit H un hyperplan de E. Par définition, H est strictement inclus dans E, donc, il existe a non nul, appartenant à E \ H. La droite vectorielle
D = K.a vérifie H D = {0E}. La somme de H et de D est donc directe et H D est un sev de E contenant H strictement. Par définition des
hyperplans : H D = E.
Tout hyperplan possède des supplémentaires, ces supplémentaires étant des droites vectorielles. Réciproquement, si un sev H de E possède
une droite pour supplémentaire, H est un hyperplan de E.
Si E est de dimension finie n > 0, le théorème III - 2 entraine : les hyperplans de E sont les sev de dimension n-1.
Théorème III - 3.
Si dim(E) = n > 0, les hyperplans de E sont les sev de E de dimension n-1.
Cas particuliers :
Si n = 1, un seul hyperplan H = {0E}. Si n = 2, les hyperplans de E sont tous les sev de E de dimension 1 : ce sont les droites vectorielles de E. Si
n = 3, les hyperplans de E sont les sev de dimension 2 : ce sont les plans vectoriels de E.
Pour un hyperplan H donné, la décompositon E = H D=H K.a n'est pas unique : tout vecteur a de E \ H convient. Par exemple dans
E = R3, H étant un plan vectoriel donné, toute droite vectorielle D non incluse dans H fera l'affaire.
Par contre, pour une décomposition donnée de E : E = H K.a, l'écriture d'un vecteur quelconque x de E est unique : x E, ! (hx ,
kx) H×K, x = hx + kx.a. Les indices indiquent la dépendance des éléments de H et de K par rapport à x. En fait, hx et kx.a sont les images de x
par les deux projecteurs associés à la somme directe.
http://www.ilemaths.net/maths_p-dualite-03.php
Dualité, Orthogonalité et transposition - supérieur Page 2 sur 7
Remarque :
Le fait de ne pas travailler en dimension finie rend les preuves plus difficiles. Par contre, ces théorèmes ont l'avantage de s'appliquer dans
toutes les situations.
III - 2. Conséquences
III - 2 - 1. Exemples
Ex III - 1. E est le C-ev des applications continues de [0,1] dans C. Soit F : E C définie par F(f) = f(t)dt. F est une forme linéaire sur E. De
plus, F est non nulle. En effet, si l'on prend par exemple g dans E telle g(t) = 1, alors, F(g) = 1. En appliquant le théorème III - 4 a), l'ensemble
des applications h de E telles que h(t)dt = 0 est un hyperplan de E. On peut même écrire que E = C.g.
Ex III - 2. E = Mn(K) le K-ev des matrices carrées d'ordre n. Nous savons que ( II - 2.), tr : M tr(M) est une forme linéaire sur E. Elle est non
nulle puisque tr(E11) = 1. Donc, l'ensemble des matrices H de E telles que tr(H) = 0 est un hyperplan de E. Comme ici, dim(E) = n², on
peut même dire que dim( ) = n² - 1.
Ex III - 3. E = C[X] le C-ev des polynômes à une indéterminée à coefficients complexes. Soit a un élément fixé de C. Appelons l'ensemble
des polynômes P de E tels que P(a) = 0 (c'est-à-dire des polynômes ayant a pour racine). On sait que fa : P P(a) est une forme linéaire sur
E. Elle est non nulle puisque fa(1) = 1 est non nul. Or, par construction, = Ker(fa), donc, est un hyperplan de E.
Ex III - 4. Pour n > 1, soit J la matrice de Mn(R) dont tous les coefficients sont égaux à 1 (II - 4 - 5). J est la matrice d'un endomorphisme u de Rn
dans la base canonique Bn de Rn. On sait que u est de rang 1, donc dim(Ker(u)) = n - 1. Ceci prouve que = Ker(u) est un hyperplan de R n.
Il existe donc une forme linéaire f non nulle sur Rn telle que : Ker(u) = = Ker(f). Pour trouver les éléments x de Rn appartenant à Ker(u)
au moyen de leurs coordonnées (x1 , ... , xn) dans Bn, on résout le système matriciel : J.X = O, X = t(x 1 ... xn), O = t(0 , ... , 0). On obtient n
fois la même condition : x1 + ... + xn = 0. Par le théorème I - 4, cette écriture nous donne les coordonnées de f dans la base duale de la base
Bn : f(1 , ... , 1). On remarque que toute forme linéaire g ayant même noyau que f s'écrira k.f, k non nul et donnera donc k.x1 + ... + k.xn = 0,
donc la même condition : x1 + ... + xn = 0.
Soient E un K-ev, E {0E}, H un hyperplan de E, f une forme linéaire (non nulle) telle que H = Ker(f). Nous avons donc : x H f(x) = 0
< x , f > = 0. Si g est une autre forme linéaire de noyau H, alors, g = k.f, (k non nul) et l'équation < x , g > = 0 s'écrira < x , k.f > = 0,
donc : k.< x , f > = 0. Comme k 0, cela donne encore < x , f > = 0. L'équation d'inconnue x : < x , f > = 0 est donc indépendante du choix de la
forme linéaire f de noyau H. Cette équation s'appelle une équation cartésienne de H. Elle est définie à un coefficient non nul près.
Définition III - 2.
http://www.ilemaths.net/maths_p-dualite-03.php
Dualité, Orthogonalité et transposition - supérieur Page 3 sur 7
Soient E {0E} un K-ev, H un hyperplan de E. On appelle équation cartésienne de H l'équation < x , f > = 0, d'inconnue x E, f étant l'une des
formes linéaires de E* vérifiant Ker(f) = H.
La situation la plus intéressante est lorsque dim(E) est finie, égale à n > 0. Prenons une base BE de E et sa duale (BE)* dans E*. Alors, si f a pour
coordonnées (a1 , ... , an) non toutes nulles sur (BE)* et si x a pour coordonnées (x1 , ... , xn) sur BE nous savons (théorème I - 4) que < x , f > =
0 a1x1 + a2x2 + ... + anxn = 0.
Théorème III - 5.
Soient E un K-ev de dimension n > 0, H un hyperplan de E, f une des formes linéaires de E* de noyau H. Si l'on munit E et E* de deux bases
duales BE et (BE)*, l'équation cartésienne de H se présente sous la forme : < x , f > = 0 a1x1 + a2x2 + ... + anxn = 0, où (x1 , ... , xn) et (a1 ,
... , an) sont les coordonnées de x et de f respectivement sur BE et (BE)*. f étant non nulle, les ai sont non tous nuls.
On retrouve ce que l'on sait depuis longemps. Si n = 2, une droite vectorielle s'écrit a.x + by = 0, (a,b) (0,0). Si n = 3, un plan vectoriel
s'écrit : ux + vy + wz = 0, (u,v,w) (0,0,0).
III - 3. Orthogonalité
III - 3 - 1. Définitions
Définition III - 3.
E un K-ev, E* son dual. x E et f E* sont dits orthogonaux ssi f(x) = < x , f > = 0. On dit aussi que x est orthogonal à f ou que f est orthogonal
à x.
Premiers exemples :
0E est orthogonal à toute forme linéaire f de E*. La forme linéaire nulle O* est orthogonale à tout vecteur x de E.
Soit E de dimension finie rapporté à une base B E = (e1 , ... , en) et (BE)* = (e1* , ... , en*) sa base duale dans E*. Alors, ei et ej* sont
orthogonaux pour j i.
La définition relie les éléments de E et de E*. On peut de même parler d'orthogonalité entre E* et E** : f E* et F E** sont orthogonaux ssi <
f , F > = 0. Pour tenir compte de ces différents cas, nous considérerons l'écriture de gauche à droite : E E* E**. Alors, l'orthogonalité
vers la droite se notera : A° et l'orthogonalité vers la gauche se notera : °B.
Définition III - 4 - a) :
E un K-ev, E* son dual. Considérons une partie A non vide de E. On appelle orthogonal de A dans E* le sous-ensemble de E* : A° = {f E*, x
A, < x , f > = 0}. A° est ainsi l'ensemble des formes linéaires f s'annulant sur la partie A de E, donc les formes linéaires dont le noyau contient A.
Définition III - 4 - b).
E un K-ev, E* son dual. Considérons une partie B non vide de E*. On appelle orthogonal de B dans E le sous-ensemble de E : °B = {x E, f
B, < x , f > = 0}. °B est donc l'ensemble des vecteurs de E communs à tous les noyaux des éléments de B.
Définition III - 4 - c).
E un K-ev, E* son dual, E** son bidual. Considérons une partie B non vide de E*. On appelle orthogonal de B dans E** le sous-ensemble de E** :
B° = {F E**, f B, < f , F > = 0}.
Par convention, nous poserons : ( E)° = E* et °( E*) = E.
Finalement : A° = {f E*, A Ker(f)} et °B = Ker(f).
III - 3 - 2. Exemples
{0E}° = {f E*, < 0E , f > = 0} = E*
E° = {f E*, x E, < x , f > = 0} = {O*}
°{O*} = {x E, < x , O* > = 0} = E
°{f} = {x E, < x , f > = 0} = Ker(f). Donc Ker(f) = E si f = O* ou Ker(f) est un hyperplan de E si f est non nulle.
Soit H un hyperplan de E, H° = {f E*, x H, < x , f > = 0} = {f E*, H Ker(f)}. La maximalité de H nous permet de distinguer deux cas :
Ker(f) = E ou Ker(f) = H. Dans le premier cas, f = O*, dans le second cas, f est du type k.f0 où f0 est une forme linéaire non nulle de noyau H, et
k un scalaire non nul. Ces deux cas se résument en un seul : f = k.f0 , f0 forme linéaire non nulle de noyau H, k scalaire quelconque.
Finalement, H° = K.f0 : c'est la droite vectorielle engendrée par f0.
Théorème III - 6.
{0E}° = E* ; E° = {O*} ; °{O*} = E ; °{f} = Ker(f). Pour tout hyperlan H de E, on aura : H° = K.f0 (avec Ker(f0) = H)
http://www.ilemaths.net/maths_p-dualite-03.php
Dualité, Orthogonalité et transposition - supérieur Page 4 sur 7
aussi l'ensemble des combinaisons linéaires finies d'éléments de A. Donc, tout élément x de vec(A) s'écrira : x = ka.xa où les scalaires ka
sont nuls sauf un nombre fini d'entre eux.
f A° xa A, < xa , f > = 0 x vec(A), < x , f > = < ka.xa , f > = ka.< xa , f > = 0. Donc : f [vec(A)]°. D'où A° [vec
(A)]°. Réciproquement, si la forme f appartient à [vec(A)]°, elle prend la valeur 0 sur tous les éléments de vec(A), en particulier sur les
éléments de A. Donc : f A°.
La méthode pour prouver que °B = °[vec(B)] est exactement la même.
Ce résultat est précieux : la recherche de l'orthogonal d'un sev revient à chercher seulement l'orthogonal d'une partie génératrice de ce sev.
Théorème III - 9.
E, un K-ev, E* son dual, A et A' deux parties non vides de E, B et B' deux parties non vides de E*. Alors :
(I) A A' E (A')° A°
et (II) B B' E* °(B') °B.
Preuve :
(I) A A' E. f (A')° a' A', < a' , f > = 0 a A, < a , f > = 0 f A°.
(II) Même méthode pour B et B'.
Remarquer que l'orthogonalité "inverse les inclusions".
Théorème III - 10.
(Ai)i I une famille de parties de E. Alors : ( i Ai )° = i (Ai)°.
Propriété analogue dans E* : (Bi)i I une famille de parties de E*. Alors : °( i Bi ) = i °(Bi).
En clair : l'orthogonal d'une union est égal à l'intersection des orthogonaux.
Preuve :
f i (Ai )° i, f (Ai )° i, x Ai, < x , f > = 0 f ( i Ai )°. Donc : i (Ai)° ( i Ai )°
Réciproquement : i, Ai A
i i i, ( A
i i )° (A i )° (Théorème III - 9) ( i Ai )° i (Ai)°.
La preuve pour les parties de E* est la même.
De plus, y F, f o q(y) = 0, donc, f o q F° et, z G, f o p(z) = 0, donc, f o p G°. D'après ce qui précède, cela signifie que E* = F° + G°
(II). En rassemblant (I) et (II), on a bien E* = F° G°.
Théorème III - 11.
E un K-ev. Alors, E = F G E* = F° G°.
Exemple :
Pour tout hyperplan H de E, on a E = H K.a, a E \ H. Le théorème III - 11 permet alors d'écrire dans ce cas la décomposition E* = H°
(K.a)°. Le théorème III - 6 donne H° = K.f0, avec Ker(f0) = H. Donc, on en déduit que (K.a)° = {a}° est un hyperplan de E*. Une conséquence : il
existe au moins une forme linéaire f ne s'annulant pas sur le vecteur (non nul) a.
Remarque :
On peut se poser des questions d'orthogonaux itérés en effectuant des aller-retours entre E et E*. Soient F un sev de E, F° (sev de E*)
l'orthogonal de F, °(F°) (sev de E) l'orthogonal de F° et enfin, (°(F°))° (sev de E*) l'orthogonal de °(F°). Nous avons donc deux sev de E : F et °
(F°) et deux sev de E* : F° et (°(F°))°. Comparons ces sev.
x F f F°, < x , f > = 0 x °(F°). Donc : F °(F°). La preuve de l'inclusion réciproque est plus délicate à prouver en
dimension non finie. Nous l'admettrons.
III - 4. Transposition
III - 4 - 1. Définition
http://www.ilemaths.net/maths_p-dualite-03.php
Dualité, Orthogonalité et transposition - supérieur Page 5 sur 7
Soient E1 et E2 deux K-ev, u un élément de (E1 , E2). Appelons y* un élément quelconque de (E2)*. Alors, l'application y*° u est linéaire
(composée de deux applications linéaires) de E1 dans K. Donc, y*° u est un élément de (E1)*. Finalement, on construit une application de (E2)*
vers (E1)* définie par : y* y*° u. Appelons tu cette application. Nous avons donc : y* (E 2)*, tu(y*) = y*o u.
(a,b) K², (y*,z*) [(E2)*]², tu(a.y* + b.z*) = (a.y* + b.z*) ° u = a.(y*° u) + b.(z*° u) = a.tu(y*) + b.tu(z*). Ceci montre que tu est élément de
((E2)*, (E1)*).
La formule tu(y*) = y*o u donne aussi : x E1, y* (E2)*, [tu(y*)](x) = [y*° u](x). En utilisant les crochets de dualité : < x , tu(y*) > = < u(x) ,
y* >.
Soit v ((E2)*, (E1)*) telle que x E1, y* (E2)*, < x , v(y*) > = < u(x) , y* >. Alors, x E 1, y* (E2)*, v(y*)(x) = (y*° u)(x) y*
(E2)*, v(y*) = y*° u = tu(y*) v = tu. Cela entraine l'unicité de tu.
Cette propriété sera exploitée ainsi : x E 1, y* (E 2)*, < x , v(y*) > = < u(x) , y* > v = tu.
Définition III - 5.
E1 et E2 deux K-ev. A tout élément u de (E1 , E2) on peut faire correspondre un élément tu de ((E2)*, (E1)*) par la formule : pour tout y*
t
dans (E2)*, u(y*) = y*° u.
L'application linéaire tu ainsi définie s'appelle la transposée de u.
Remarque :
u : E1 E2 donne tu : (E2)* (E1)* : on retourne et on passe aux duaux.
Théorème III - 13.
Etant donné u (E 1 , E2), tu est l'unique élément de ((E 2)*, (E1)*) défini par la formule : x E 1, y* (E2)*, < x , tu(y*) > = < u(x) , y*
>.
a) (a,b) K², (u,v) [ (E 1 , E2)]², < x , t(a.u + b.v)(y*) > = < (a.u + b.v)(x) , y* >
< x , (a.u + b.v)(y*) > = a.< u(x) , y* > + b.< v(x) , y* > = a.< x , tu(y*) > + b.< x , tv(y*) >
t
< x , t(a.u + b.v)(y*) > = a.< u(x) , y* > + b.< v(x) , y* > = < x , a.tu(y*) > + b.tv(y*) >
Donc : t(a.u + b.v) = a.tu + b.tv. (I)
Cela signifie que l'application T : (E1 , E2) ((E2)*, (E1)*), définie par : T(u) = tu, est linéaire.
Théorème III - 14 - a)
T: (E1 , E2) ((E2)*, (E1)*), définie par : T(u) = tu, est linéaire.
b) u (E1 , E2), v (E2 , E3), v°u (E 1 , E3), tu ((E2)*, (E1)*), tv ((E3)* , (E2)*), et enfin t(v ° u) ((E3)*, (E1)
*). Nous avons les schémas suivants :
E1 E2 E3 E1 E3 (E3)* (E1)*
d) Soient E et E' deux K-ev isomorphes, u un isomorphisme de E sur E'. Il existe donc un isomorphisme v de E' sur E tel que : u ° v = IdE' et v ° u =
IdE. Les propriétés précédentes donnent par transposition :
tv t t t tu isomorphisme de E' sur E. (IV).
° u = Id (E')* et u ° v = IdE*. Donc : u isomorphisme de E sur E'
En particulier, si E = E', on en déduit que : t( u-1 ) = ( tu )-1 (V).
Théorème III - 14 - c)
t(Id ) = Id . Si u est un isomorphisme de E sur E', alors, tu est un isomorphisme de (E')* sur E*. u v = Id et v u = Id tv t t
E E* ° E' ° E ° u = Id (E')* et u
t t -1 t -1 t -1
° v = IdE*. En particulier, si E = E', nous aurons : ( u ) = ( u ) . On peut donc écrire u sans ordre d'exécution.
Soient u un élément de (E1 , E2), et F un sev de E1. Alors, l'orthogonal de F : F° est un sev de (E1)*. Il est donc intéressant de regarder les
correspondances. (Un schéma sagittal est très conseillé).
F E1 u(F) E2 (u(F))° (E 2)*. Par ailleurs, F° (E1)* tu-1(F°) (E2)*. Il est donc naturel de vouloir comparer dans (E2)*
les deux sous-espaces : (u(F))° et tu-1(F°).
y* (u(F))° z u(F), < z , y* > = 0. Or, z u(F), il existe x F tel que z = u(x). Ainsi, nous aurons donc : x F, < u(x) , y* > = 0.
Or, x F, < u(x) , y* > = 0 x F, < x , tu(y*) > = 0. Cette dernière égalité signifie que : y* (u(F))° y* tu-1(F°).
Théorème III - 15.
http://www.ilemaths.net/maths_p-dualite-03.php
Dualité, Orthogonalité et transposition - supérieur Page 6 sur 7
Soit u (E1 , E2). Alors, pout tout sev F de E1, (u(F))° = tu-1(F°).
Conséquences :
Prenons F = E1, alors, d'une part u(F) = u(E1) = Im(u), d'autre part (F)° = (E1)° = {O1*} (forme nulle sur E1). Enfin, par définition, tu-1({O1*}) =
Ker( tu ). D'où : (Im(u))° = Ker( tu ). Supposons maintenant que u soit surjective, c'est-à-dire Im(u) = E2, alors : (Im(u))° = (E2)° = {O2*} = Ker
( tu ). Donc tu est injective.
Théorème III - 16.
Soit u (E1 , E2). Alors, (Im(u))° = Ker( tu ) : l'orthogonal de l'image est égal au noyau de la transposée. En particulier : u surjective tu
injective.
Rappelons que si E est un K-ev et F un sev de E, la relation définie dans E par : x y x - y F, est une relation d'équivalence dans
E. La classe de tout élément x est = {x + ?, ? F} = x + F. L'ensemble de ces classes se note E/F. On peut alors munir E/F d'une structure de
K-ev en posant et a. = .
L'application linéaire surjective : E E/F définie par (x) = est appelée la surjection canonique.
Cela étant, il existe un théorème universel très utile dans la pratique.
Théorème III - 17.
E1 et E2 deux K-ev, u (E1 , E2). Pour tout sev F de E1 tel que F Ker(u), il existe une unique application linéaire : E 1/F E2 telle que
III - 5 - 1. Introduction
Dans toute la suite, nous allons travailler dans des K-ev de dimensions finies strictement positives. Nous savons d'après le chapitre I que cela
entraine des résultats remarquables.
dim(E) = dim(E*) = dim(E**) (théorème I - 1)
E et E** sont canoniquement isomorphes (théorème I - 3). Cet isomorphisme T de E sur E** étant défini par : pour tout x dans E, pour tout y*
dans E*, < y* , T(x) > = < x , y* >. On peut se permettre d'identifier E et E** en confondant x et T(x).
La présence de bases duales.
Enfin, dans le chapitre III, nous avons donné la dimension commune à tous les hyperplans de E : si dim(E) = n > 0, tout hyperplan H a pour
dimension n-1.
http://www.ilemaths.net/maths_p-dualite-03.php
Dualité, Orthogonalité et transposition - supérieur Page 7 sur 7
Soit G un sev de E*, °G son orthogonal dans E, (°G)° l'orthogonal de °G dans E*. On dispose ainsi de deux sev de E* : G et (°G)°. Pour les
dimensions : dim((°G)°) = codim(codim(G)) = dim(G). Pour une inclusion : f G x °G, < x , f > = 0 x (°G)°. On en déduit que
G = (°G)°.
Soit G un sev de E*, G° son orthogonal dans E**, °(G°) l'orthogonal de G° dans E*. On a donc encore deux sev de E* : G et °(G°). Pour les
dimensions : dim(°(G°)) = codim(codim(G)) = dim(G). Pour une inclusion : f G F G°, < f , F > = 0 f °(G°). On en déduit que
G = °(G°).
Théorème III - 21.
E un K-ev de dimension n > 0. Pour tout sev G de E* on a : G = (°G)° = °(G°)
Soient E 1 et E2 deux K-ev de dimensions finies n1 et n2, u (E1 , E2). On sait qu'alors tu (E2* , E1*). On peut également considérer t
(tu) (E 1** , E2**). Appelons T1 : E1 E1** et T2 : E2 E2** les isomorphismes canoniques. Nous avons, x1 E1, y2* E2* :
< y2* , t(tu) ° T 1(x) > = < tu(y2*) , T1(x1) > = < x1 , tu(y2*) > = < u(x1) , y2* >
< y2* , T2 ° u(x1) > = < u(x1) , y2* >
On en déduit que t(tu) ° T1 = T2 ° u. Donc que : t(tu) = T2 ° u ° (T 1)-1.
Ceci montre que si l'on identifie E1 et E2 avec leurs biduaux, on a t(tu) = u.
Rappelons que E1 et E2 étant deux K-ev, u un élément de (E1 , E2), y* un élément quelconque de (E2)*, la transposée de u est l'élément tu
de t
((E2)*, (E1)*) défini par : y* (E 2)*, u(y*) = y*° u. Tout ce qui a été vu en dimensions quelconques reste naturellement valable. En
particulier, nous savons déjà que : Ker(tu) = (Im(u))°.
a) Appelons n1 et n2 les dimensions de E1 et E2. Dans (E2)*, dim[(Im(u))°] = codim(Im(u)) = n2 - rg(u). D'autre part, toujours dans (E2)*, dim(Ker
(tu)) = n2 - rg(tu). Conclusion : rg(tu) = rg(u).
b) Im(tu) et (Ker(u))° sont deux sev de (E1)*. D'abord, il est simple de vérifier que ces deux sev de E1* ont même dimension. Montrons une
inclusion. x* Im(tu) il existe y* (E2)* tel que x* = tu(y*). Alors, x Ker(u) : < x , x* > = < x , tu(y*) > = < u(x) , y* > = < 0(E2) , y* > = 0.
Donc, x* Im(tu) x* (Ker(u))°. Ceci montre que Im(tu) = (Ker(u))°.
Théorème III - 22
Si E1 et E 2 sont de dimensions finies, alors, pour tout élément u de (E1 , E2), nous avons les propriétés suivantes : rg(tu) = rg(u), Im(tu) =
(Ker(u))°, Ker(tu) = (Im(u))°. On peut en déduire en particulier que : u injective tu surjective et u surjective tu injective.
c) Posons dim(E1) = p, dim(E2) = q et munissons E1 et E2 de bases B1 = (a1 , ... , ap) et B2 = (b1 , ... , bq). Nous munissons E1* et E2* des bases
duales correspondantes. (B 1)* = (a1* , ... , ap*) et (B2)* = (b1* , ... , bq*). Soient A = Mat(u, B1, B2) = (aij), et A' = Mat( tu, (B 2)*, (B1)*) = (bij).
Nous savons que aij est la coordonnée n°i du vecteur colonne n°j. Cela signifie que aij = < u(aj) , bi* >.
Si nous adaptons ce résultat à A', en notant (B1)** = (a1** , ... , ap**) la base duale de (B1)* dans E1**, cela donne : bij = < tu(bj*) , ai** >. En
identifiant E 1 et son bidual, bij = < ai , tu(bj*) > = < u(ai) , bj* > = aji.
Théorème III - 23.
Mat( tu, (B 2)*, (B1)*) = t [ Mat(u, B1, B 2) ]. En clair : à condition de travailler dans les bases duales, la matrice de la transposée de u est la
transposée de la matrice de u.
III - 5 - 6. Conclusion
Comme nous le voyons, les propriétés concernant la dualité sont très étendues. Ce chapitre III a donné quelques pistes pour faire face à la
plupart des questions concernant cette théorie.
Dans un chapitre IV on trouvera quelques exercices portant sur la dualité.
Il faut savoir que la dualité est également omniprésente en analyse : formes différentielles, mesures, distributions... Cependant, les formes
linéaires utilisées sont continues ou ont des restrictions continues. L'espace des formes linéaires continues sur un R ou un C-espace vectoriel
topologique E s'appelle le dual topologique de E.
http://www.ilemaths.net/maths_p-dualite-03.php