Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
Pour un endomorphisme u d'un espace vectoriel E sur elle donne à E une structure de -
module.
De plus la recherche de polynômes annulateurs permet de déterminer les valeurs propres d'une
matrice sans en calculer le polynôme caractéristique, voire de prouver très simplement la
diagonalisation.
Sommaire
[masquer]
• 1 Intérêt du concept
• 2 Définition et premières propriétés
• 3 Idéaux annulateurs
• 4 Polynôme minimal
o 4.1 Décomposition en somme directe de sous-espaces stables
o 4.2 Cas où le polynôme minimal est scindé
o 4.3 Diagonalisabilité
o 4.4 Théorème de Cayley-Hamilton
• 5 Voir aussi
Ce concept est archétypal d'une démarche souvent féconde en mathématiques. Elle consiste à
établir un pont entre deux théories. Dans cet article le pont est établi entre les polynômes et les
applications linéaires. Il est bâti sous la forme d'un morphisme d'algèbre entre les polynômes et
les endomorphismes. Il permet alors d'exporter les propriétés de commutativité, des idéaux
principaux, d'appliquer l'identité de Bézout ou une interpolation lagrangienne. Par delà l'aspect
élégant d'une telle démarche, l'essentiel des théorèmes strictement associés aux applications
linéaires se démontre sans trop de dédales calculatoires.
On définit par P[u] = a0IdE + a1u + a2u2 + ... + apup. C'est la définition naturelle
d'un polynôme d'endomorphisme.
L'anneau des polynômes peut être considéré comme un espace vectoriel sur . Avec ses trois
opérations : addition, produit scalaire et multiplication, il forme une structure que l'on appelle une
algèbre. Il en est de même pour les endomorphismes munis de la composition comme
multiplication. À la différence des endomorphismes, les polynômes forment une algèbre
commutative. Il n'est pas surprenant que l'application naturelle de l'espace des polynômes dans
l'ensemble des endomorphismes soit un morphisme d'algèbre. Un morphisme d'algèbre est une
application respectant les trois opérations de l'algèbre, l'addition, le produit scalaire et la
multiplication.
• L'application ψu, qui à P associe P[u] est un morphisme de -algèbres de dans L(E).
• L'image de ψu est une sous-algèbre abélienne de L(E).
Cela signifie que deux polynômes du même endomorphisme commutent entre eux. Cette propriété
provient du fait que la commutativité est toujours transportée par un morphisme.
Si x est un vecteur propre de valeur propre λ, alors il est aussi vecteur propre de l'endomorphisme
P[u] avec la valeur propre P(λ). En particulier si P[u] = 0 alors les valeurs propres sont parmi les
racines de P. Cependant la réciproque n'est pas vraie, toutes les racines de P ne sont pas forcément
valeurs propres de u.
[Dérouler]
Démonstration
Un morphisme entre deux structures est un outil puissant. Les propriétés de l'une des structures se
trouvent transportées par le morphisme dans son image. Le paragraphe précédent utilise cette
propriété pour démontrer le caractère commutatif de l'espace des polynômes d'un endomorphisme
particulier. Le noyau d'un morphisme d'algèbre est une sous-algèbre. Cette propriété est un des
éléments permettant d'établir la définition et les propositions suivantes :
L'ensemble des polynômes qui annulent un endomorphisme est un idéal principal non réduit à 0;
on l'appelle Idéal annulateur. On appelle polynôme annulateur un élément de l'idéal
annulateur. Il existe un unique polynôme unitaire qui l'engendre; il est appelé polynôme minimal.
Un idéal est un sous-groupe additif stable par multiplication par tout élément de l'anneau.
Il est possible de remarquer que l'idéal annulateur, qui annule tout vecteur, annule aussi x. L'idéal
annulateur de x contient donc l'idéal annulateur de u. L'intérêt du concept d'idéal annulateur réside
dans le fait qu'il permet de trouver des sous-espaces stables de u. Sur ces sous-espaces stables,
l'endomorphisme peut s'exprimer plus simplement. Cette démarche consistant à décomposer
l'espace E en sous-espaces stables et en somme directe procède de la démarche dit de réduction
d'endomorphisme.
La dernière propriété est essentielle pour la réduction d'endomorphisme. Elle intervient dans la
suite de l'article, pour l'analyse du polynôme minimal et pour l'analyse du cas où il est scindé. Elle
intervient enfin dans la décomposition de Dunford.
[Dérouler]
Démonstration
Le polynôme minimal cache une décomposition en somme directe de sous-espaces stables. Cette
décomposition est au cœur de la compréhension de la structure d'un endomorphisme. Elle
correspond à la décomposition du polynôme en facteurs premiers entre eux. Elle permet d'établir
des théorèmes parmi les plus importants de l'algèbre linéaire pure. Elle nous renseigne sur
l'existence d'un vecteur dont le polynôme minimal est le polynôme minimal de l'endomorphisme,
elle donne un majorant du degré de ce polynôme, elle permet de trouver des réductions puissantes
dans le cas ou le polynôme est scindé, elle donne une condition nécessaire et suffisante de
diagonalisation. Enfin elle permet de démontrer le théorème de Cayley-Hamilton.
Décomposition en somme directe de sous-espaces stables [modifier]
1. Soit (χi) une décomposition en facteurs tous de degré supérieur à 1 et premiers deux à
deux du polynôme minimal χ d'un endomorphisme u. Alors la suite des noyaux (kerχi[u])
est une décomposition en somme directe de l'espace E de sous-espaces stables par
l'endomorphisme.
2. Il existe un vecteur x de E dont le polynôme annulateur est égal au polynôme annulateur
de l'endomorphisme.
3. Le polynôme minimal est de degré inférieur ou égal à n.
[Dérouler]
Démonstration
Dire que le polynôme minimal est scindé signifie qu'il s'exprime comme produit de puissances de
polynômes du premier degré. Si l'on note χ le polynôme minimal, cela signifie que:
Diagonalisabilité [modifier]
Un endomorphisme u est diagonalisable si et seulement son polynôme minimal est scindé sur K et
à racines simples.
C'est en effet un cas particulier du cas précédent. Si les racines sont simples alors la composante
nilpotente est nulle et le résultat est démontré. Si l'endomorphisme est diagonalisable alors les
espaces propres se confondent avec les espaces caractéristiques et toute valeur propre possède une
multiplicité égale à 1.[réf. souhaitée]
Il existe un polynôme important associé à un endomorphisme. C'est celui défini par le déterminant
de l'application u − λId. On l'appelle polynôme caractéristique. Il est important car ses racines sont
les valeurs propres de l'endomorphisme associé. Cette propriété est partagée par le polynôme
minimal. Elle amène donc la question : quel est le rapport entre polynôme caractéristique et
polynôme minimal ? La réponse est le théorème de Cayley-Hamilton :
Pour s'en rendre compte, il est plus simple de plonger le corps dans sa clôture algébrique. Dans ce
contexte, il est possible d'appliquer une Réduction de Jordan à l'endomorphisme. Sa
représentation matricielle est alors triangulaire avec comme valeurs diagonales les valeurs
propres. Leurs ordre de multiplicité dans le polynôme caractéristique est la dimension de l'espace
caractéristique de valeur propre associée. Cette multiplicité est toujours supérieure à celle du
polynôme minimal qui a pour multiplicité l'ordre de l'application nilpotente associée.
Il existe une démonstration qui ne fait pas appel à la construction des polynômes
d'endomorphismes, elle est donnée dans l'article Théorème de Cayley-Hamilton.
Le polynôme minimal est un outil qui permet d'utiliser des résultats de la théorie des polynômes
à l'algèbre linéaire. Il est en effet possible d'appliquer un polynôme à un endomorphisme, comme
expliqué dans l'article intérêt du concept de polynôme d'endomorphisme.
Il est défini comme le polynôme normalisé (son coefficient de plus haut degré est égal à 1) de plus
petit degré qui annule un endomorphisme c'est-à-dire une application linéaire d'un espace
vectoriel dans lui-même.
Il est utilisé essentiellement en dimension finie ; il joue un rôle important dans la réduction
d'endomorphisme. Il dispose de propriétés fortes dont la plus célèbre est probablement le
théorème de Cayley-Hamilton.
Il existe un cas particulier, utilisé dans le cadre de la théorie de Galois et la théorie algébrique
des nombres appelée polynôme minimal d'un nombre algébrique.
Sommaire
[masquer]
• 1 Définition
• 2 Intérêt du concept
• 3 Approche par l'exemple
o 3.1 Existence du polynôme minimal
o 3.2 Valeurs propres et racines
o 3.3 Polynôme minimal et diagonalisation
o 3.4 Polynôme minimal et polynôme caractéristique
• 4 Propriétés
• 5 Théorie de Galois
Définition [modifier]
On suppose que E est un espace vectoriel de dimension finie et égale à n. Soit u un
endomorphisme de E. Nous avons la définition suivante:
La raison du rôle central de cet outil réside dans le fait que la notion de polynôme
d'endomorphisme est le cadre théorique pour la démonstration des théorèmes permettant la
réduction. Le polynôme minimal y joue un rôle clé. Les démonstrations associées à cet article se
trouvent naturellement traitées dans l'article associé.
Par delà son rôle théorique, le polynôme minimal propose une approche appliquée très
opérationnelle. Il joue donc un rôle dans l'analyse des matrices en général et plus particulièrement
dans le cas de la Réduction de matrice, des Matrices diagonales ou nilpotentes.
Sa dimension appliquée sort des frontières de l'algèbre linéaire pour offrir un outil opérationnel de
résolution d'équations différentielles linéaires où il est utilisé dans de cas physiques comme les
systèmes oscillants.
On peut alors remarquer qu'il existe une relation de dépendance linéaire entre u2, u et Id
l'endomorphisme identité. En effet:
Dans cet exemple, nous avons montré l'existence du polynôme minimal et nous avons montré que
son degré est égal à la dimension de l'espace vectoriel. Cette propriété est générale en dimension
finie, le polynôme minimal existe toujours et son degré est inférieur ou égal à la dimension de
l'espace.
Un vecteur propre est un vecteur non nul dont l'image par l'endomorphisme lui est
proportionnelle. Une des propriétés du polynôme minimal réside dans le fait que ses racines sont
les valeurs propres. Recherchons alors des vecteurs propres en utilisant cette propriété. Pour la
valeur propre 2, on trouve:
On peut vérifier de même que est un vecteur propre associé à la valeur propre 3.
Cette approche permet de calculer les valeurs et vecteurs propres sans calcul de déterminant. Plus
la dimension augmente, plus ce mode de calcul devient efficace.
Une telle matrice possède des termes tous nuls en dehors de la diagonale. Cet exemple illustre une
propriété importante du polynôme minimal. L'endomorphisme est diagonalisable si et seulement
si le polynôme possède toutes ses racines et qu'aucune de ses racines ne soit multiple.
Le polynôme caractéristique est égal dans ce cas au polynôme minimal. Il existe toujours une
relation entre les deux, même si l'égalité n'est pas systématique. Dans le cas général, le polynôme
minimal divise le polynôme caractéristique.
Propriétés [modifier]
• En dimension finie, le polynôme minimal existe toujours et il est de degré
inférieur ou égal à la dimension de l'espace.
• Les polynômes qui annulent l'endomorphisme et que l'on appelle
polynômes annulateurs de u forment un idéal principal dans l'anneau des
polynômes.
Toutes ces propriétés sont démontrées dans l'article Polynôme d'endomorphisme qui développe la
théorie mathématique associée à ce concept et présente d'autres propositions plus avancées.
En théorie de Galois, étant donnés une extension de corps et un élément α de qui est
algébrique sur , le polynôme minimal de α est le polynôme normalisé p, à coefficients dans ,
de degré minimum tel que p(α)=0. Le polynôme minimal est irréductible, et tout autre polynôme
non nul q tel que q(α)=0, est multiple de p.
En algèbre linéaire, un endomorphisme laisse stable un sous espace vectoriel F quand les
éléments de F ont pour image un élément de F.
Sommaire
[masquer]
• 1 Définitions
o 1.1 Représentation matricielle
o 1.2 Exemples
o 1.3 Extension de la notion
o 1.4 Stabilité et trigonalisation
o 1.5 Sous -espace caractéristiques
o 1.6 Sous-espaces cycliques
o 1.7 Sous-espaces stables et dualité
o 1.8 Commutation et stabilité
• 2 Voir aussi
Définitions [modifier]
Soient E espace vectoriel et u endomorphisme de E.
Si E est de dimension finie et muni d'une base adaptée à F (c'est-à-dire une base de F complétée
en une base de E), la matrice représentative de u peut être notée par blocs
Exemples [modifier]
Lorsque le polynôme πu est scindé, le théorème de décomposition des noyaux permet d'affirmer
que les sous-espaces caractéristiques sont supplémentaire. Dans ce cas u est diagonalisable ssi
chaque espace caractéristique est égal à l'espace propre correspondant.
On dit que E est un endomorphisme cyclique ssi il existe un vecteur x de E tel que le sous-espace
cyclique engendré par x est égal à E.
En dimension finie, un endomorphisme diagonalisable est cyclique ssi les valeurs propres de cet
endomorphisme sont simples (sont des racines simples du polynôme caractéristique.) Plus
généralement, un endomorphisme est cyclique ssi son polynôme minimal et son polynôme
caractéristique sont égaux (au signe près).
Si deux endomorphismes u et v commutent, tout espace propre pour l'un est stable par l'autre. .
Polynôme caractéristique
Un article de Wikipédia, l'encyclopédie libre.
En algèbre linéaire, à toute matrice carrée ou à tout endomorphisme d'un espace vectoriel de
dimension finie est associé un polynôme appelé polynôme caractéristique. Il renferme
d'importantes informations sur la matrice ou sur l'endomorphisme, comme ses valeurs propres,
son déterminant et sa trace.
Sommaire
[masquer]
• 1 Motivation
• 2 Définition formelle[1]
• 3 Coefficients
• 4 Exemple
• 5 Propriétés
• 6 Matrice compagnon
• 7 Matrice triangulaire
• 8 Notes et références
• 9 Voir aussi
Motivation [modifier]
Étant donné une matrice carrée M d'ordre n, nous voulons trouver un polynôme dont les racines
sont précisément les valeurs propres de M.
Si M est une matrice diagonale ou plus généralement une matrice triangulaire, alors les valeurs
propres de M, λ1, ..., λn sont les coefficients diagonaux de M et nous pouvons définir le polynôme
caractéristique comme étant
Nous remarquons que ce polynôme est le déterminant det(XIn − M) où In est la matrice unité.
Pour une matrice quelconque M, nous pouvons voir que si λ est une valeur propre de M, alors il
existe une colonne propre V non nulle tel que MV = λV, soit (λIn-M)V = 0 (où In est la matrice
unité.) Puisque V est non nulle, cela implique que la matrice λIn-M est singulière, et donc a son
déterminant nul. Nous venons de démontrer que les valeurs propres de M sont des zéros de la
fonction λ ↦ det(λ·In − M) ou des racines du polynôme det(XIn − M).
Remarque
Au lieu de l'expression (2), certains auteurs définissent le polynôme caractéristique
comme étant det(M − XIn). Ceci induit un changement de signe lorsque l'ordre n est
impair, puisque l'on a : . Nous
avons retenu la définition (2), qui présente l'avantage de rendre le polynôme
caractéristique unitaire. De cette façon, lorsque le polynôme caractéristique se laisse
effectivement décomposer en facteurs du premier degré, ses expressions (1) et (2)
coïncident.
Coefficients [modifier]
Le polynôme pM(X) d'une matrice carrée M d'ordre n est unitaire (son coefficient dominant est
égal à 1) et de degré n. Son développement est donné par
où fi(M) est une fonction polynomiale[2] en les coefficients de la matrice M. Deux matrices
semblables ont même polynôme caractéristique. Autrement dit, pour toute matrice inversible P,
fi(PMP − 1) = fi(M). Un développement explicite du déterminant de X-M donne[3] :
La propriété la plus importante des polynômes caractéristiques est que les valeurs propres de M
sont exactement les racines du polynôme pM(X) (une implication a été démontrée dans le
paragraphe Motivation.) En notant les racines de P prises avec multiplicité,
où si désigne le i-ième polynome symétrique élémentaire. (Ici, les racines sont prises dans une
extension finie de K lorsque K n'est pas clos.) Tout fonction polynomiale en les
coefficients de la matrice M et invariante par similitude est une fonction polynômiale en les
coefficients du polynôme caractéristique. Cette propriété est par exemple utilisée dans la
définition et la classification des classes caractéristiques en géométrie différentielle, ce qui
dépasse de loin le niveau de cet article.
Lorsque le corps de base K est de caractéristique nulle (par exemple, K=R ou C), les coefficients
fi (M) s'expriment comme des fonctions polynômiales en
.
Cette égalité est une conséquence d'un résultat de réduction, et dont la démonstration s'appuie sur
le lemme des noyaux.
Exemple [modifier]
Supposons que nous voulions déterminer le polynôme caractéristique de la matrice
Propriétés [modifier]
Le polynôme pM(t) est unitaire (son coefficient dominant est égal à 1) et son degré est égal à n.
où
,
avec ai,j l'élèment en position (i, j) dans la matrice A.
Deux matrices semblables ont le même polynôme caractéristique. La réciproque n'est pas vraie en
général : deux matrices ayant même polynôme caractéristique ne sont pas nécessairement
semblables.
Une matrice M est semblable à une matrice triangulaire si et seulement si son polynôme
caractéristique peut être complètement décomposé en produit de facteurs de degré un à
coefficients dans .
• Cas d'un corps quelconque (avec astuce en utilisant les matrices par blocs) :
Il suffit de prendre le déterminant des deux membres de cette équation pour arriver au résultat.
Le fait de remarquer que l'ensemble des matrices inversibles est dense dans :
permet de conclure.
Le même raisonnement s'applique bien sûr au cas d'une matrice triangulaire inférieure. D'une
façon générale, les valeurs propres d'une matrice triangulaire coïncident donc effectivement avec
ses éléments diagonaux, comme annoncé au début.
En algèbre linéaire, le lemme des noyaux est un résultat sur la réduction des endomorphismes.
Dans un espace vectoriel E sur un corps K, si un opérateur u de E est annulé par un polnôme P(X)
à coefficients dans K, alors ce lemme prévoit une décomposition de E comme somme directe de
sous-espaces vectoriels stables par u. Ces derniers se définissent comme noyaux de polynômes en
u, les projecteurs associés étant eux-mêmes des polynômes en u.
La démonstration traduit l'identité de Bezout portant sur les polynômes à des sous-espaces
vectoriels. Résultat fondamental, le lemme des noyaux conduit à la décomposition de Dunford
puis à la décomposition de Jordan. Plus modestement, le lemme des noyaux montre qu'un
opérateur u est diagonalisable s'il est annulé par un polynôme à racines simples.
Sommaire
[masquer]
• 1 Enoncé
o 1.1 Démonstration
1.1.1 Initialisation
1.1.2 Hérédité
• 2 Applications
Enoncé [modifier]
Lemme des noyaux — Soit E un espace vectoriel sur un corps K et soit f un endomorphisme de
E. Si (avec ) sont premiers entre eux deux à deux, alors les
sous-espaces vectoriels Vi = ker(Pi(f)) (où ) sont en somme directe et
Démonstration [modifier]
Initialisation [modifier]
Soit . On a
, donc
.
Hérédité [modifier]
Applications [modifier]
Le lemme des noyaux sert pour la réduction des endomorphismes. Par exemple :
Réduction à une forme diagonale par blocs — Soit E un espace vectoriel de dimension finie sur
un corps K et soit f un endomorphisme de E. Soit un polynôme annulateur de f (par
où ni = dimkerPi(f).
[Enrouler]
Démonstration
Décomposition de Dunford
Un article de Wikipédia, l'encyclopédie libre.
Ce n'est pas une réduction dans le sens où elle n'est pas maximale. C'est-à-dire qu'il est parfois
possible de pousser la décomposition en sous-espaces vectoriels plus petits.
Elle suppose comme hypothèses que l'espace vectoriel est de dimension finie et que le polynôme
minimal est scindé, c'est-à-dire qu'il s'exprime comme produit de polynômes du premier degré.
C'est toujours le cas si le corps est algébriquement clos, comme par exemple celui des nombres
complexes. Dans le cas ou la propriété n'est pas vérifiée, alors il est possible d'étendre le corps à
sa clôture algébrique, et l'espace vectoriel à ce nouveau corps et dans ce contexte d'appliquer la
décomposition de Dunford. Le corps des nombres réels se voit par exemple très généralement
étendre pour permettre une application de cette décomposition.
La décomposition de Dunford prouve que tout endomorphisme est la somme d'un endomorphisme
diagonalisable et d'un endomorphisme nilpotent, les deux endomorphismes commutant et étant
uniques.
Cette décomposition est largement appliquée. Elle permet un calcul matriciel souvent rapide. C'est
néanmoins souvent sous la forme de la réduction de Jordan qu'elle est utilisée.
Sommaire
[masquer]
• 1 Théorème
• 2 Démonstration
o 2.1 Via les sous-espaces caractéristiques
o 2.2 Via les projecteurs
• 3 Cas d'applications
• 4 Réduction de Jordan
Théorème [modifier]
Le théorème de diagonalisabilité permet de déterminer la structure de u quand il admet un
polynôme annulateur scindé à racines simples. La décomposition de Dunford s'applique à un cas
plus général.
Démonstration [modifier]
Via les sous-espaces caractéristiques [modifier]
L'idée initiale de cette approche est donnée par la proposition suivante, démontrée dans l'article
sur les polynômes d'endomorphismes dans le paragraphe sur les polynômes minimaux :
• La trace est égale à la somme des valeurs propres pondérées par les
dimensions des espaces caractéristiques associés.
[Dérouler]
Démonstration
Un résultat notoire de l'approche par les polynômes d'endomorphismes réside dans le fait que la
connaissance du polynôme minimal permet de définir une algorithmique fournissant à la fois les
projecteurs sur les espaces caractéristiques mais aussi la composante diagonale et nilpotente de
l'endomorphisme.
[Dérouler]
Démonstration
C'est en particulier le cas pour tout endomorphisme d'un espace de dimension finie sur un corps
algébriquement clos ( notamment).
La restriction de n au sous-espace propre admet une matrice formée de blocs de Jordan nilpotents
ce qui donne, en ajoutant λIp, des blocs de Jordan pour d+n dans une base adaptée. Ainsi on
obtient une matrice diagonale par blocs formée de blocs de Jordan en utilisant l'union de ces
bases.
Réduction d'endomorphisme
Un article de Wikipédia, l'encyclopédie libre.
Sommaire
[masquer]
• 1 Motivation
o 1.1 Le concept de réduction
o 1.2 Endomorphisme et vecteur propre
o 1.3 Réduction de Jordan
o 1.4 Endomorphisme et distance
o 1.5 Analyse fonctionnelle et opérateur linéaire
• 2 Histoire
• 3 Cas général de la dimension finie
o 3.1 Réduction et sous-espaces propres
o 3.2 Diagonalisation
3.2.1 Diagonalisation et polynôme caractéristique
3.2.2 Endomorphisme diagonalisable et polynôme minimal
o 3.3 Cas où le polynôme minimal est scindé
3.3.1 Réduction et endomorphisme nilpotent
3.3.2 Décomposition de Dunford
3.3.3 Réduction de Jordan
o 3.4 Cas du corps des réels
o 3.5 Cas d'un corps quelconque
• 4 Utilisation de la réduction en dimension finie
• 5 Réduction et forme bilinéaire en dimension finie
• 6 Réduction et analyse fonctionnelle
• 7 Sources
o 7.1 Liens internes
o 7.2 Références
Motivation [modifier]
Le concept de réduction [modifier]
La technique de réduction en algèbre est fréquente, elle consiste à réduire un concept, en sous-
concepts les plus simples possible et permettant de reconstruire le cas général. Dans le cas des
endomorphismes (c’est-à-dire des applications linéaires d'un espace vectoriel dans lui-même) la
technique consiste à décomposer l'espace vectoriel en espaces plus petits. Cette réduction doit
posséder six propriétés :
1. L'endomorphisme définit par restriction un nouvel endomorphisme sur chacun des sous-
espaces (c'est-à-dire chacun est un sous-espace vectoriel stable), ainsi la petite structure
est une entité intrinsèque avec sa propre cohérence.
2. Les intersections des sous-espaces pris deux à deux sont réduites au vecteur nul, ce qui
assure l'indépendance de chacune des petites structures.
3. Elles engendrent l'espace entier, ce qui offre l'exhaustivité de l'analyse.
4. La réduction décrit l'intégralité de la structure originelle.
5. Elle est maximale, c'est-à-dire qu'il n'existe pas de décomposition en éléments plus petits
et donc plus simple.
6. Elle est aussi simple que possible, c'est-à-dire que pour chacune des sous-structures il
n'existe pas de représentation plus élémentaire.
La structure d'espace vectoriel sur lequel s'applique l'endomorphisme possède des propriétés
différentes selon les cas. Dans l'hypothèse où la dimension est finie, alors la structure du corps
détermine l'essentiel des propriétés de réduction. Une approche très générale, pour établir la
relation entre la structure du corps et la réduction des endomorphismes consiste à analyser la
structure de l'anneau des polynômes associée au corps. Cette approche est analysée dans l'article
polynôme d'endomorphisme. Le cas le plus simple est celui où le corps est dit algébriquement
clos, c'est-à-dire que tout polynôme admet au moins une racine. C'est le cas des nombres
complexes. Alors la réduction est particulièrement efficace. La notion de valeur propre devient le
bon outil dans ce contexte. En fait, l'analyse du polynôme minimal montre qu'il existe un cas,
générique du point de vue topologique, mais qui n'est pas le cas général, où il existe une base de
vecteurs propres. On parle alors de diagonalisation.
Ce qui empêche que le cas générique évoqué ci-dessus, celui de la diagonalisation, soit le cas
général, ce sont essentiellement les endomorphismes nilpotents. Le cas général, comprenant cette
obstruction due aux endomorphismes nilpotents, a été analysé par le mathématicien Camille
Jordan. On montre que tout endomorphisme en dimension finie sur un corps algébriquement clos
se décompose en sous-espaces caractéristiques où l'endomorphisme est la somme d'une
homothétie et d'un endomorphisme nilpotent.
Il existe un cas particulier d'espace vectoriel : ceux qui sont munis d'une distance compatible avec
la structure vectorielle. Un cas important est celui où la distance est euclidienne (ou hermitienne
dans le cas complexe). L'ajout de cette structure offre une nouvelle voie d'accès à la
problématique de la réduction d'endomorphisme. S'il est compatible avec la distance, c'est-à-dire
s'il est normal, alors une nouvelle approche est possible. Dans ce contexte, l'exception nilpotente
est absente. La réduction est plus simple et les techniques algorithmiques associées plus rapides.
Analyse fonctionnelle et opérateur linéaire [modifier]
Ce cas guide Hilbert dans une nouvelle direction. La généralisation de l'approche aux opérateurs
différentiels. Ces opérateurs comme le laplacien ou le d'alembertien sont la clé d'importants
problèmes en physique. Ils peuvent se représenter comme une équation linéaire, mais dans un
espace de dimension infinie. Si l'approche générale de Jordan est vouée à l'échec car les
polynômes ne s'appliquent pas dans ce contexte, en revanche ces opérateurs présentent les bonnes
propriétés de compatibilité vis-à-vis d'une distance qu'il est possible de définir sur l'espace.
Hilbert, propose une approche novatrice, consistant à étudier les propriétés géométriques de ces
espaces de dimension infinie, au lieu de se limiter à une analyse d'un point particulier: la fonction
solution de l'équation. Cette approche ouvre une nouvelle branche des mathématiques devenue
essentielle au siècle dernier: l'analyse fonctionnelle. La physique moderne, aussi bien sous sa
forme quantique que sous sa forme relativiste, utilise largement cette vision des choses.
Histoire [modifier]
Cette section est vide, pas assez détaillée ou incomplète. Votre aide est la bienvenue !
Il existe un premier candidat naturel pour une réduction, elle correspond à une décomposition en
sous-espaces propres. Une présentation complète du concept est proposé dans l'article détaillé.
En résumé, on peut dire qu'un vecteur propre est un vecteur non nul dont l'image par
l'endomorphisme est colinéaire au vecteur d'origine. Le rapport de colinéarité est appelé valeur
propre. L'ensemble des vecteurs propres pour une valeur propre donnée associée au vecteur nul
forme un sous-espace vectoriel appelé sous-espace propre.
Une décomposition en sous-espaces propres représente donc un grand nombre des propriétés
recherchées pour une réduction.
[Dérouler]
Démonstration
Diagonalisation [modifier]
Fig. 4. Endomorphisme diagonalisable en dimension 3 sur les nombres réels: un cube est
transformé en parallélépipède.
Article détaillé : Diagonalisation.
Il suffirait en effet d'une propriété supplémentaire pour permettre une réduction à l'aide de cette
approche: que la somme directe des sous-espaces propres est l'espace vectoriel entier. Cela
signifie qu'il existe une base B de vecteurs propres. Les deux propriétés manquantes sont alors
réunies, la réduction est alors composée de sous-espaces de dimension 1, ceux qui sont engendrés
par les vecteurs de la base. Cette décomposition est maximale car il n'existe pas de décomposition
en somme directe de sous-espaces non réduits au vecteur nul qui contiennent plus de sous-espaces
que la dimension de l'espace.
Le fait que B soit une base garantit que la décomposition engendre bien l'espace entier.
En termes plus formels, si u est un endomorphisme d'un -espace vectoriel de dimension finie
égale à n, où n est un entier strictement positif. Alors les trois propositions suivantes sont
équivalentes. Elles fournissent la définition d'un premier cas de réduction pour u.
• u est diagonalisable
• Il existe une base de vecteurs propres.
• La somme des dimensions des sous-espaces propres est égale à la
dimension de l'espace entier.
• La somme des sous-espaces propres est l'espace entier.
• Toute représentation matricielle de u est diagonalisable.
La démonstration se trouve dans l'article Diagonalisation, sauf pour la dernière équivalence qui
est traitée dans Matrice diagonale.
C'est une condition suffisante, mais non nécessaire. Considérons le cas d'une homothétie dans le
cas où n n'est pas égal à 1. Le polynôme caractéristique ne possède qu'une racine multiple.
Pourtant l'endomorphisme est clairement diagonalisable car toute base est constituée de vecteurs
propres uniquement. Il existe de plus la condition nécessaire suivante:
Dire que le polynôme caractéristique P(X) est scindé signifie qu'il peut s'écrire comme puissance
de monômes:
Pour l'obtention d'une condition nécessaire et suffisante à partir du polynôme caractéristique, une
définition supplémentaire est nécessaire.
[Enrouler]
Démonstration
Si le polynôme caractéristique possède n racines distinctes alors il existe n vecteurs propres aux
valeurs propres associées distinctes. Or l'article sur les valeurs propres nous apprend dans la boîte
déroulante des propriétés supplémentaires des propriétés des valeurs et vecteurs propres' dans le
cas de la dimension finie, qu'ils sont linéairement indépendants. Or une famille libre de cardinal
égal à la dimension de l'espace forme une base. Ce qui démontre la proposition.
Si l'approche par le polynôme caractéristique offre des premiers résultats, elle n'est néanmoins pas
intégralement satisfaisante. En effet, le calcul du polynôme est souvent lourd, et la recherche de la
dimension des sous-espaces propres n'est pas simple.
Le concept de polynôme d'endomorphisme propose un autre candidat, souvent plus pertinent pour
l'analyse des applications linéaires en dimension finie. C'est le polynôme minimal. À l'instar du
polynôme caractéristique, ses racines sont aussi les valeurs propres. Le polynôme minimal est
souvent plus appliqué. Enfin, le polynôme minimal dispose de propriétés théoriques fortes, que
l'on trouve dans l'article Polynôme d'endomorphisme. On y trouve par exemple la condition
nécessaire et suffisante suivante:
Même dans le cas où le polynôme minimal est scindé, il existe au moins un cas où la
diagonalisation est impossible, celui des endomorphismes nilpotents. L'unique valeur propre est 0,
donc l'unique sous-espace propre est son noyau. En conséquence le seul endomorphisme nilpotent
diagonalisable est l'endomorphisme nul.
Les endomorphismes nilpotents disposent néanmoins d'une réduction traitée et démontrée dans
l'article Endomorphisme nilpotent dans le paragraphe nilpotence et réduction en dimension finie.
Si le cas des endomorphismes nilpotents apparaît dans un premier temps comme une exception au
cas diagonalisable, la théorie des polynômes d'endomorphismes nous montre que cette exception
est unique. Plus précisément, dans le cas de la dimension finie et si le polynôme minimal est
scindé, alors la proposition suivante, connue sous le nom de décomposition de Dunford est vraie:
Or une propriété démontrée dans l'article sur les polynômes d'endomorphismes dans le paragraphe
sur les polynômes minimaux indique que la suite des noyaux est une
décomposition en somme directe de l'espace E de sous-espaces stables par l'endomorphisme. Ces
noyaux s'appellent les espaces caractéristiques. Sur chacun de ces sous-espaces la restriction de u
est la somme d'une homothétie et d'un endomorphisme nilpotent. Ces restrictions possèdent donc
une représentation simple.
Les quatre propriétés suivantes résument l'essentiel des propriétés associées à la décomposition de
Dunford:
L'hypothèse sur le fait que le polynôme minimal soit scindé représente une contrainte souvent
faible. La clôture algébrique des nombres complexes garantit déjà la généralité de la condition.
Pour le cas des nombres réels, il est toujours possible d'étendre l'espace vectoriel aux corps des
complexes pour la recherche des solutions, puis dans un deuxième temps de ne choisir que des
solutions réelles. Pour les applications, cette démarche est souvent utilisée par les physiciens.
La décomposition de Dunford n'est néanmoins pas une réduction. En effet, cette décomposition
n'est pas maximale. Un sous-espace caractéristique se décompose encore.
Cette définition nous permet alors de décrire la Réduction de Jordan pour tout endomorphisme sur
un espace vectoriel de dimension finie disposant d'un polynôme minimal scindé:
• Le vecteur x de E non nul est dit vecteur propre de u si et seulement s'il existe un élément
λ de tel que u(x) = λx,
• le scalaire λ élément de est dit valeur propre de u si et seulement s'il existe un vecteur x
non nul de E tel que u(x) = λx,
• soit λ une valeur propre de u alors l'ensemble constitué des vecteurs propres de valeur
propre λ, et du vecteur nul, forme un sous-espace vectoriel de E appelé espace propre de u
associé à la valeur propre λ.
Sommaire
[masquer]
• 2 Dimension quelconque
Cas de la dimension finie [modifier]
Représentation matricielle [modifier]
Les valeurs propres sont solution de l'équation: P(X) = 0, où P(X) est le polynôme caractéristique
associé à l'endomorphisme. Le polynôme caractéristique est donné par la relation :
P(X) = det(A − X * I)
En algèbre linéaire, le projecteur est un endomorphisme qu'on peut présenter de deux façons
équivalentes
• c'est une projection linéaire associée à une décomposition de E comme somme de deux
sous-espaces supplémentaires, c'est-à-dire qu'elle permet d'obtenir un des termes de la
décomposition correspondante
• c'est aussi un endomorphisme idempotent : il vérifie p2=p
On peut aussi définir, dans un espace de Hilbert, le projecteur sur un convexe fermé (notion
topologique et non plus algébrique)
• c'est l'application qui a tout élément de l'espace associe l'élément du convexe le plus
proche
• dans le cas où le convexe est un sous-espace vectoriel, on retrouve un cas particulier de
projection orthogonale
Sommaire
[masquer]
Propriétés [modifier]
• Im(p)=F :
o
o
• Ker(p)=G :
o et
o
•
Tout projecteur de E est une projection, précisément la projection sur Im p parallèlement à Ker p.
Notamment si p est un projecteur Im p et Ker p sont des sous-espaces supplémentaires.
• les deux espaces sont en somme directe : si x est dans leur intersection, x
est de la forme p(y) et vérifie p(x)=0=p2(y)=p(y)=x.
• tout vecteur x de E se décompose, sous la forme (d'ailleurs unique) x = p(x)
+ [x − p(x)]
La projection sur G parallèlement à F est l'application q=Id-p, appelé aussi projecteur associé à p.
Symétries [modifier]
Une symétrie vectorielle est un endomorphisme s tel que s2 est l'identité (ne pas confondre avec
endomorphisme symétrique).
La recherche des endomorphismes tels que p2=p, ou que s2=Id effectuée ici est un cas particulier
simple du traitement de l'équation P(u)=0 pour P polynôme et u endomorphisme, voir l'article
polynôme d'endomorphisme pour des généralisations.
• Sur la diagonale apparaissent uniquement des "1" et des "0", et le nombre de "1" est égal
au rang du projecteur ;
• Les autres coefficients sont nuls.
Par exemple, toute matrice diagonale est diagonalisable, il suffit de prendre P = In (où In est la
matrice identité) dans la définition. Ainsi la matrice nulle est diagonalisable, la matrice identité,
les matrices scalaires, ...
Rappelons que si E est un espace vectoriel de dimension finie, alors un endomorphisme f de E est
diagonalisable lorsqu'il existe une base de E telle que la matrice de f relativement à cette base soit
diagonale.
Notons can(M), l'endormorphisme de Kn canoniquement associé à la matrice M, c'est-à-dire
l'application linéaire de Kn dans Kn qui a pour matrice relativement à la base canonique de Kn, la
matrice M.
La diagonalisation des matrices (ou des endomorphismes) est intéressante parce que les matrices
diagonales sont très faciles à manipuler :
K étant un corps commutatif, nous noterons dans tout l'article l'espace vectoriel des
matrices carrées d'ordre n, et l'espace vectoriel des matrices à n lignes et une
colonne. En diagonalisant une matrice, on se place dans une base où l'on travaille avec une
matrice diagonale, ce que simplifie énormément les calculs. Et en général une réduction
d'endomorphisme permet de simplifier les calculs. On peut donc faire appel à cette méthode pour
les problèmes de résolution de systèmes d'équations linéaires par exemple.
Sommaire
[masquer]
• 5 Voir aussi
Diagonalisation des matrices [modifier]
Définitions [modifier]
L'ensemble des valeurs propres d'une matrice M s'appelle le spectre de M et est noté
généralement Sp(M) ou Spec(M).
Remarque: Il est important de préciser que le vecteur colonne X doit être non nul, sinon tout
scalaire de K serait valeur propre de M puisqu'on a toujours M0 = λ0!
On dit alors que X est une colonne propre associée à la valeur propre λ.
Mais il est quelquefois défini comme étant le noyau de la matrice M − λIn (In étant la matrice unité
d'ordre In), c'est-à-dire l'ensemble:
aussi égal à
Ces définitions correspondent exactement à celles données dans le monde des endomorphismes
(cf Valeur propre).
De ce théorème se déduisent différentes techniques de recherche des valeurs propres. Étant donné
un scalaire λ de K, il est possible de déterminer si M − λIn est inversible ou le rang de M − λIn en
réduisant la matrice par la méthode de Gauss. Cette réduction s'effectue en choisissant si possible,
un pivot indépendant de λ afin d'éviter les distinctions de cas.
Il est parfois plus efficace, lorsque la matrice M − λIn comporte « beaucoup de zéros », de
résoudre le système (M − λIn)X = 0 dans lequel λ est considéré comme paramètre, en recherchant
les solutions non nulles, ce qui a l'avantage de donner en même temps les vecteurs colonnes
propres.
Enfin le calcul du déterminant de M − λIn peut donner les valeurs propres. Cela revient à
déterminer les racines du polynôme caractéristique.
D'autre part, les valeurs propres d'une matrice M, peuvent être obtenues à partir d'un polynôme
annulateur P, c'est-à-dire tel que P(A) = 0. Si λ est une valeur propre de M alors λ est racine du
polynôme P. La réciproque n'étant pas vraie, il faut déterminer les racines de P pour lesquelles M
− λIn n'est pas inversible. Par exemple, si A est une matrice d'un projecteur, alors A2 = A donc le
polynôme P(X) = X2 − X est annulateur de A. Les valeurs propres possibles de A sont alors 0 et 1.
Mais le projecteur nul, n'admet que 0 comme valeur propre.
Les méthodes de recherche des valeurs propres débouchent sur la détermination de racines de
polynômes, ce qui pose généralement des problèmes dans le cas où l'ordre de la matrice est
supérieur à 5 à cause de l'absence de formule générale donnant les racines en fonction des
coefficients.
Donnons maintenant quelques moyens de détection d'erreurs dans la recherche des valeurs
propres.
• Nous savons que les sous-espaces propres associés aux différentes valeurs propres d'une
matrice M d'ordre n sont en somme directe et donc la somme des dimensions reste
inférieure à la dimension de Kn. Ainsi une matrice M d'ordre n ne peut admettre plus de n
valeurs propres distinctes.
• La trace d'une matrice M est un invariant de similitude c'est-à-dire que pour toute matrice
inversible P, tr(P − 1MP) = trM. Donc la trace d'une matrice M est égale à la somme de ses
valeurs propres (comptées avec leur multiplicité). Ainsi lorsqu'une matrice d'ordre n
admet n valeurs propres distinctes, la trace constitue une sorte de somme de contrôle.
Les colonnes propres associées à une valeur propre λ peuvent être obtenues en résolvant le
système (M − λIn)X = 0, mais la connaissance de la dimension du sous-espace propre associé peut
aider à les obtenir plus facilement. Par exemple si on sait qu'il y a n valeurs propres distinctes,
alors la dimension des sous-espaces propres est égale à un, et il suffit de trouver une seule colonne
non nulle solution du système (M − λIn)X = 0, les autres lui seront proportionnelles. Si les valeurs
propres ont été déterminées en réduisant M − λIn par la méthode de Gauss, alors le nombre de
pivots donne le rang de la matrice et d'après le théorème du rang, la dimension du sous-espace
propre associé est égale à n − rg(M − λIn).
Propriétés [modifier]
Les résultats fondamentaux sur la diagonalisation des matrices sont les suivants:
Une matrice A d'ordre n est diagonalisable sur le corps K si elle a n valeurs propres distinctes dans
K, c'est-à-dire si son polynôme minimal a n racines distinctes dans K.
En général, sur presque toutes les matrices sont diagonalisables. Plus précisément: l'ensemble
des matrices complexes d'ordre n qui ne sont pas diagonalisables, considéré comme un sous-
ensemble de , est un ensemble de mesure nulle pour la mesure de Lebesgue. On peut
également signaler que les matrices diagonalisables forment un sous-ensemble dense dans
l'ensemble des matrices pour la topologie donnée par n'importe quelle norme matricielle.
Le résultat ne tient pas sur . À mesure que n augmente, il devient (dans un certain sens) de
moins en moins probable qu'une matrice réelle d'ordre n, aléatoirement choisie, soit
diagonalisable sur .
Exemples [modifier]
Exemple 1 [modifier]
Certaines matrices réelles ne sont pas diagonalisables sur le corps des réels. Considérons par
exemple la matrice
La matrice B n'a pas de valeurs propres réelles, ainsi il ne peut exister de matrice réelle Q
inversible telle que Q − 1BQ soit une matrice diagonale. Mais, il est possible de diagonaliser B sur
le corps des complexes. En prenant,
Cependant, il existe aussi des matrices non diagonalisables, même si le corps des complexes est
utilisé. Cela se produit si les multiplicités algébriques et géométriques des valeurs propres ne
coïncident pas. Par exemple, considérons:
La matrice n'est pas diagonalisable: il n'existe pas de matrice U inversible telle que U − 1CU soit
diagonale. En effet, C a une valeur propre (qui est 0) et cette valeur propre a un ordre de
multiplicité algébrique égal à 2 et géométrique égal à 1.
Exemple 2 [modifier]
Considérons la matrice:
Ainsi A qui est de rang 3, a 3 valeurs propres distinctes, donc est diagonalisable.
Si nous voulons diagonaliser A, nous avons besoin de déterminer les vecteurs propres
correspondants. Il y a par exemple:
Remarquez que les valeurs propres λk apparaîssent sur la diagonale de la matrice dans le même
ordre que nous avons placé les colonnes propres pour former P.
Exemple 3 [modifier]
Soit
(voi
r le calcul d'un déterminant)
Donc les valeurs propres sont :
• 2 de multiplicité 2
• -3 de multiplicité 1
Donc
On procède de même pour et on obtient :
La diagonalisation peut être utilisée pour calculer efficacement les puissances d'une matrice
diagonalisable A. Supposons que nous ayons obtenu:
P − 1AP = D
Ce phénomène peut être expliqué en diagonalisant M. Pour ce faire, nous avons besoin d'une base
de formée de vecteurs colonnes propres de M. Une telle base de colonnes propres est
donnée par:
Soit x un vecteur, alors on appelle indice de x pour l'application nilpotente le plus petit entier p tel
que up(x) = 0.
Si la clôture algébrique du corps n'est plus vraie, alors il est toujours possible d'étendre l'espace
vectoriel sur un corps algébriquement clos. Cette technique est largement utilisée. Pour les réels,
la physique n'utilise pratiquement que cette approche.
Applications [modifier]
Puisqu'il est possible d'étendre à la clôture algébrique, la réduction des endomorphismes dans ce
contexte joue un rôle essentiel en mathématique. Les endomorphismes nilpotents sont donc
nécessaires à divers branches des mathématiques. En algèbre linéaire, ils interviennent
naturellement dans la réduction de Jordan qui correspond à un cas important de réduction des
endomorphismes. Les techniques utilisées sont celles des polynômes d'endomorphismes. Les
conséquences se retrouvent sur la résolution de systèmes d'équations linéaires, dans la résolution
d'équations différentielles linéaires où ils apparaissent comme des cas limites. En mathématiques
appliquées, ils sont importants pour la recherche d'algorithmes, on utilise alors essentiellement les
matrices nilpotentes où des représentations simples sont alors nécessaires.
Propriétés [modifier]
L'exemple illustre l'essentiel des propriétés des endomorphismes nilpotents. On y trouve des
propriétés sur l'indice des endomorphismes et des vecteurs, des conditions nécessaires et
suffisantes grâce aux polynômes. Des réductions avec une décomposition en espaces propres et
l'existence d'une base réduite. Il existe aussi des propriétés calculatoires des matrices nilpotentes
traitées dans l'article Matrice nilpotente.
Les polynômes fournissent non seulement des conditions nécessaires et suffisantes pour la
nilpotence, mais renseignent de plus sur l'indice.
[Enrouler]
Démonstration
En effet le polynôme minimal d'un vecteur divise le polynôme minimal de l'endomorphisme, donc
est un Xk, pour k ≤ p, et si aucun n'était de degré p, Xp − 1 annulerait u.
Cette proposition est une conséquence directe des deux résultats précédents.
À noter que pi > 0, et que les indices pi=1 sont ceux de vecteurs du noyau de u. Démontrons ce
résultat par récurrence sur p l'indice de l'endomorphisme.
Supposons le résultat vrai pour k et démontrons le pour k+1. Soit u un endomorphisme d'indice
k+1. Considérons alors la restriction de u à u(E). C'est un endomorphisme nilpotent d'indice k. Par
hypothèse de récurrence, il existe une suite (Fi) de sous-espaces vectoriels stables par u, non
réduit au vecteur nul, qui engendre par somme directe l'espace u(E), et tel que, pour tout i, il
existe un vecteur u(xi) non nuls d'indice ki pour lequel la famille
est une base de Ei.
Montrons alors que la suite forme une famille libre de E que nous noterons .
Pour cela, considérons une combinaison linéaire nulle de cette famille :
Si nous appliquons l'endomorphisme u à cette égalité, en retranchant tous les termes nuls de la
forme on obtient:
Cette combinaison linéaire est la combinaison linéaire d'une base de u(E), on en déduit la nullité
de tous les coefficients αij pour j différent de ki. En supprimant tous ces termes dans l'égalité (1),
on obtient :
C'est une combinaison linéaire nulle d'éléments d'une base de u(E) (ki ≥ 1), les coefficients
sont donc aussi nuls. Toute combinaison linéaire vérifiant (1) ne possède donc que des
coefficients nuls, ce qui montre que la famille est libre.
La restriction de u à Ei est un endomorphisme nilpotent, son polynôme minimal est une puissance
de X, la seule valeur propre est 0 et comme 0 est valeur propre, le noyau est non nul. Ce
raisonnement s'applique aussi à u sur l'espace vectoriel entier, ce qui démontre la fin de la
proposition.
La seule valeur propre est 0, donc sur sa clôture algébrique, le polynôme caractéristique est scindé
et possède pour racine uniquement 0. Ce polynôme est donc une puissance de X, et de degré n.
Son signe provient du signe du monôme de plus haut degré de tous les polynômes
caractéristiques.
Les résultats théoriques obtenus à l'aide de l'analyse des endomorphismes nilpotents ont des
conséquences importantes sur les matrices nilpotentes. Ces résultats sont traités dans l'article
Matrice nilpotente.
Dans le cas où le corps est algébriquement clos et en dimension finie, les endomorphismes
nilpotents jouent un rôle particulier dans la problématique de la réduction des endomorphismes.
Le cas général, celui où toutes les racines du polynôme minimal sont simples, correspond aux
endomorphismes diagonalisables. Ce cas génère un ensemble d'endomorphismes partout dense.
En revanche, en cas de racine multiple, alors il existe une composante nilpotente.
Cette décomposition joue un rôle important dans les calculs que l'on observe dans l'univers des
matrices. Elle permet par exemple de prouver que toute matrice est trigonalisable et offre une
forme particulièrement simple en bloc de Jordan.
La réduction de Jordan joue un rôle particulier pour les équations différentielles linéaires. Par
exemple, dans le cas où les coefficients sont constants, alors le calcul de l'exponentielle d'une
matrice dans le cas général est largement plus simple dans le cas d'une représentation matricielle
réduite par la méthode de Jordan. Il est alors important de pouvoir calculer l'exponentielle d'une
matrice nilpotente. Ce cas est exposé dans l'article Matrice nilpotente.
Dans l'étude des groupes de Lie, on s'intéresse parfois à ce que l'on appelle groupes de Lie
nilpotents. Comme pour tout groupe de Lie, leur structure est décrite par leur fibré tangent, qui est
muni d'une structure d'algèbre de Lie. Les représentations de ces algèbres dans les
endomorphismes s'obtiennent à partir d'endomorphismes nilpotents.
Réduction de Jordan
Un article de Wikipédia, l'encyclopédie libre.
Elle consiste à exprimer la matrice d'un endomorphisme dans une base où l'expression de
l'endomorphisme est réduite dite base de Jordan. La réduction consiste à déterminer une
décomposition de Dunford c'est-à-dire trouver un endomorphisme diagonalisable et un
endomorphisme nilpotent tel que les deux commutent et que leur somme soit égale à
l'endomorphisme initial, puis sur chaque espace caractéristique une réduction de Jordan sur le
facteur l'endomorphisme nilpotent.
Sommaire
[masquer]
• 1 Construction de la base de Jordan
• 2 Blocs de Jordan
• 3 Jordanisation d'un endomorphisme dans un corps algébriquement clos
o 3.1 Propriétés des blocs
o 3.2 Application aux classes de similitude des matrices
• 4 Exemples de réduction de Jordan
o 4.1 Exemple 1
o 4.2 Exemple 2
o 4.3 Groupe simple d'ordre 168
• 5 Réduction de Jordan et systèmes différentiels
• 6 Voir aussi
• E est la somme directe des espaces caractéristiques de u. Ils sont notés ici
Ei et les valeurs propres associés λi.
Ainsi sur un corps algébriquement clos, et par exemple dans , tout endomorphisme admet une
décomposition de ce type.
Attention : il n'y a pas a priori un bloc de Jordan pour chaque valeur propre, plusieurs λi peuvent
avoir la même valeur.
Prenons un endomorphisme u admettant une telle représentation. On étudie une valeur propre
particulière λ de l'endomorphisme u. On regroupe ensemble les vecteurs associés aux blocs .
Ils forment l'espace caractéristique associé à la valeur propre λ. C'est un espace stable sur lequel
u − λId induit un endomorphisme nilpotent nλ.
On se place sur un corps algébriquement clos. Deux matrices sont semblables si et seulement si
elles ont la même écriture en blocs de Jordan, à l'ordre près des blocs.
Exemples de réduction de Jordan [modifier]
Examinons les méthodes de détermination des matrices de passage par deux exemples.
Exemple 1 [modifier]
Qui nous permettront de déterminer la suite de vecteurs dont les éléments forment les colonnes de
la matrice de passage.
Remarquons alors que 5 est valeur propre et que le premier vecteur de la base de définition de la
matrice possède pour polynôme minimal associé (X-5)4. Son espace caractéristique est donc
l'espace entier. Si nous notons v ce vecteur alors, la famille composée des éléments (A − 5I)3(v),
(A − 5I)2(v), (A − 5I)(v) et v forme une base de Jordan.
Nous remarquons que le vecteur colonne (0,0,−1,1)T a pour image par la matrice (-1,0,1,-1)T. Ces
deux vecteurs colonnes engendrent l'espace caractéristique de valeur propre 4.
On en déduit
et
Forme linéaire
Un article de Wikipédia, l'encyclopédie libre.
En algèbre linéaire, les formes linéaires désignent un type particulier d'applications linéaires.
L'étude spécifique qu'on leur accorde est motivée par le fait qu'elles jouent un rôle primordial en
mathématiques, et en analyse, par exemple dans la théorie des distributions, ou dans l'étude des
espaces de Hilbert.
Les formes linéaires sur un espace vectoriel portent parfois également le nom de covecteur. Ce
terme qui prend sens dans le cadre général des tenseurs et du calcul tensoriel rappelle que si les
formes linéaires peuvent être représentées par un système de coordonnées comparable à celui des
vecteurs, elles s'en distinguent pour ce qui est des formules de transformations.
Sommaire
[masquer]
• 1 Définition
o 1.1 Espace dual
o 1.2 Représentations matricielles
o 1.3 Exemples
• 2 Base duales et antéduales
• 3 Propriétés algébriques
• 4 Formes linéaires continues
• 5 Formes linéaires continues sur un espace de Hilbert
• 6 Référence
• 7 Voir aussi
Définition [modifier]
Une forme linéaire sur un espace vectoriel E sur un corps K (ou covecteur de E) est une
application linéaire définie sur E et à valeurs dans K.
En d'autres termes, on dit que l'application de E dans K est une forme linéaire si :
L'ensemble des formes linéaires sur E est lui-même un K-espace vectoriel. On l'appelle le dual de
E et il est noté E * ou hom(E,K). Ainsi, si φ et ψ sont des formes linéaires et a et b des éléments de
K:
On note parfois (où ) pour φ(x). Cette notation est appelée crochet de dualité.
Une base de E étant donnée, les composantes d'un vecteur sont ordonnées sous forme de
vecteur colonne :
Au contraire, une forme linéaire ou covecteur est représentée par un vecteur ligne à n
composantes :
Le crochet de dualité est le produit matriciel
Selon la convention d'Einstein, ce résultat peut se noter et est un scalaire (en réalité une
matrice (1,1)).
Exemples [modifier]
• L'application
• Si L1(Ω) est le -espace vectoriel des fonctions à valeurs complexes qui sont intégrables
sur l'espace mesuré Ω, alors l'intégrale est une forme linéaire sur L1(Ω). Cela signifie que
Ces formes linéaires sont aussi appelées les projections des coordonnées, l'image d'un vecteur x
par n'est autre que la i-ème coordonnée du vecteur x dans la base . Le résultat
important est que la famille de formes linéaires forme une base de E * ; on appelle
aussi cette base la base duale de la base .
Inversement, si on se donne une base de E * , il existe une unique base
de E telle que:
• Enfin, une propriété importante est que deux formes linéaires ont le même noyau si et
seulement si elles sont proportionnelles.
• Si E est un espace vectoriel normé et est une forme linéaire continue alors elle est
uniformément continue.
On démontre grâce au théorème de représentation de Riesz que les formes linéaires continues sur
E s'expriment alors toutes d'une manière simple en fonction du produit scalaire et plus
précisément :
Espace dual
Un article de Wikipédia, l'encyclopédie libre.
La structure d'un espace et celle de son dual sont très liées. La fin de cet article présente quelques
résultats sur les liens entre espace dual et hyperplans, ce qui permet une compréhension
« géométrique » de certaines propriétés des formes linéaires.
Le dual topologique est une variante très considérée en analyse fonctionnelle, lorsque l'espace
vectoriel est muni d'une structure additionnelle d'espace vectoriel topologique.
Sommaire
[masquer]
• 1 Définitions
o 1.1 Exemples
1.1.1 Cas d'un espace préhilbertien
• 2 Dualité en dimension finie
o 2.1 Exemple
• 3 Orthogonal
• 4 Représentation des sous-espaces
• 5 Voir aussi
Définitions [modifier]
Article détaillé : Forme linéaire.
On appelle forme linéaire sur E toute application linéaire de E vers K, c'est-à-dire toute
application telle que
L'ensemble des formes linéaires sur E est un K-espace vectoriel, dit espace dual de E ;
il est noté E * .
Exemples [modifier]
Si l'espace vectoriel E est un espace préhilbertien, c'est-à-dire muni d'un produit scalaire , on a
un moyen naturel de « plonger » E dans E * , c'est-à-dire d'associer à chaque élément de E un
élément du dual, et ce de manière à former un isomorphisme entre E et un sous-espace de E * : à
chaque élément x de E on associe la forme linéaire . Alors
l'application est une application linéaire injective, donc l'espace E est
isomorphe au sous-espace f(E) de E * .
(où xi est la coordonnée de x correspondant au vecteur ei) définit une base de E * , appelée base
duale. Et par construction, on a
dimE = dimE * .
En dimension finie, un espace a donc la même dimension que son espace dual. Remarquons que
d'après le Théorème de Erdös-Kaplansky, ceci est faux pour tout espace vectoriel de dimension
infinie
Exemple [modifier]
Orthogonal [modifier]
Ici, E est un espace vectoriel quelconque (on ne suppose pas de dimension finie).
Il ne faut pas confondre la notion d'orthogonal d'un sous-espace dans la théorie de dualité avec
l'orthogonalité dans la théorie des espaces euclidiens.
c'est-à-dire
Nota : il ne faut pas confondre la notion de droite ou de plan dans un espace affine (qui
correspond à l'intuition géométrique) et celle, utilisée ici, de droite vectorielle ou de plan
vectoriel. On appelle droite vectorielle un sous-espace de dimension 1, et plan vectoriel un sous-
espace de dimension 2.
q = dimE − p.
Hyperplan
Un article de Wikipédia, l'encyclopédie libre.
En mathématiques, et plus particulièrement en algèbre linéaire, les hyperplans sont des sous-
espaces vectoriels particuliers.
Sommaire
[masquer]
• 1 Définition
• 2 Caractérisation
• 3 Lien avec les formes linéaires
• 4 Exemples
Définition [modifier]
Soit E un -espace vectoriel et H un sous-espace vectoriel de E.
Remarques :
• Dans un espace de dimension finie n, les hyperplans sont donc les sous-espaces vectoriels
de dimension n-1.
• Dans , la notion d'hyperplan est confondue avec celle de plan, mais ce n'est plus vrai
quand la dimension de l'espace est supérieure à 3.
Caractérisation [modifier]
On montre l'équivalence des propriétés suivantes :
• H est un hyperplan
• Il existe une droite D telle que
•
[Enrouler]
Démonstration
Soit H un hyperplan de E. On cherche à construire une forme linéaire non nulle dont H est le
noyau.
H est un hyperplan donc par définition il admet un supplémentaire dans E de dimension égale à 1.
C'est donc une droite vectorielle engendrée par un (xo ne peut être nul car il
n'appartient pas à H qui contient 0). On a donc
Ce qui montre que est linéaire, de plus son ensemble d'arrivée est K, c'est donc bien une forme
linéaire. De plus elle n'est pas nulle (par exemple xo a pour image 1).
Réciproquement, soit . Alors ce vecteur n'est pas engendré par xo et donc appartient à
H. On a donc et donc par double inclusion .
Réciproquement, soit une forme linéaire non nulle et H son noyau. Montrons que H est un
hyperplan de E. Pour cela, on va montrer que H admet un supplémentaire de dimension 1.
est non-nulle, il existe donc un vecteur xo de E non-nul tel que . Montrons alors
que . Soit x dans E. Comme , on peut écrire la tautologie
suivante:
D'autre part:
Donc . Autrement dit, tout vecteur de E se décompose en somme d'un
élément de la droite vectorielle engendrée par x o et d'un élément du noyau H, ie E = H + xoK.
Montrons maintenant que cette somme est directe.
H est un hyperplan de E.
Toutes les formes linéaires sur peuvent s'écrire sous la forme suivante :
avec fixé. Le résultat
précédent nous indique que tout hyperplan de peut s'écrire comme le noyau d'une forme
linéaire. Autrement dit
Ce lien entre hyperplan et noyau d'une forme linéaire exprime en fait la notion d'équation d'un
hyperplan, donc ici d'un plan (vectoriel).
Exemples [modifier]
• Dans l'espace vectoriel des matrices carrées d'ordre n à coefficients dans
. L'ensemble des matrices de trace nulle est un
hyperplan de E.
Pour ces deux exemples, la démonstration est immédiate en utilisant le résultat sur les formes
linéaires: le noyau d'une forme linéaire non nulle est un hyperplan.
Somme directe
Un article de Wikipédia, l'encyclopédie libre.
Sommaire
[masquer]
• 4 Voir aussi
Cas de la dimension finie : lorsque F1 et F2 sont de dimensions finies, les assertions suivantes
sont équivalentes :
On peut généraliser la notion de somme directe à une famille finie de sous-espaces vectoriels de
E.
de tel que .
On dit aussi dans ce cas que la somme F des sous-espaces est directe.
Comme dans le cas de 2 sous-espaces vectoriels, on peut caractériser les sommes directes par
l'unicité de la décomposition du vecteur nul :
La somme est directe si et seulement si :
Remarque : dès que la famille comprend au moins 3 sous-espaces, il ne suffit pas pour que la
somme soit directe que leurs intersections deux à deux soient réduites à , c'est-à-dire que :
Leurs intersections deux à deux sont réduites à {(0 ; 0)}, mais leur somme
(égale à ) n'est pas directe.
En revanche, on montre que les sous-espaces de la famille des sont en somme directe
dans si et seulement si :
Lorsque les sous-espaces vectoriels sont de dimensions finies, on a encore l'équivalence des
assertions suivantes :
2. .
3. En juxtaposant une base de , ... , une base de , on constitue une base de la
somme.
Exemple : soient E un espace vectoriel sur K de dimension finie, et f un endomorphisme de E
ayant exactement p valeurs propres (distinctes) appelées . On désigne par
l'endomorphisme identique de E.
Lorsque c'est le cas, on constitue une base de E diagonalisant f en juxtaposant une base
de , ... , une base de .
On désigne ici par E un espace préhilbertien réel ou complexe (espace vectoriel réel ou complexe
muni d'un produit scalaire). Soit une famille de sous-espaces vectoriels de E. S'ils
sont deux à deux orthogonaux, leur somme est directe. Elle est alors appelée somme directe
orthogonale.
Un exemple très simple est l'espace constitué des vecteurs orthogonaux à tous les vecteurs
d'un sous-espace vectoriel F : il est en somme directe avec F. L'égalité n'est pas
toujours vérifiée lorsque la dimension est infinie. Par contre, elle l'est dès que E est de dimension
finie.
Deux espaces qui sont à la fois supplémentaires et orthogonaux sont dits supplémentaires
orthogonaux. Un sous-espace vectoriel F de E, même s'il a des supplémentaires, n'en a pas
nécessairement un qui lui soit orthogonal. Des conditions suffisantes sont que l'espace E soit de
dimension finie ou que l'espace F soit fermé (preuve). Cette question est liée à la possibilité
d'effectuer une projection orthogonale.
Lorsque les sous-espaces vectoriels sont de dimensions finies, on a l'équivalence des assertions
suivantes :
et ,
où u1, v1 sont dans F1, u2, v2 sont dans F2, et α est dans K.
Ceci incite, si E1 et E2 sont deux espaces vectoriels quelconques sur le même corps K, à définir
leur somme directe, dite alors externe.
• une addition :
(où )
Muni de ces deux lois de composition, l'ensemble est un espace vectoriel sur K.
Lorsque E1 et E2 sont de dimensions finies, il en est de même de leur somme directe externe, et :
(car est somme directe des deux sous-espaces et , qui ont même
dimension que , respectivement).
On définit de manière analogue la somme directe externe d'un nombre fini de groupes additifs, ou
d'anneaux, ou de A-modules sur le même anneau A.
Par exemple, si A1 et A2 sont deux anneaux, on définit sur deux lois de composition
interne :
• une addition :
• une multiplication :
Muni de ces deux lois de composition, l'ensemble est un anneau. Même si A1 et A2 sont
intègres, leur produit cartésien ne l'est pas : a1, a2 étant deux éléments non nuls de A1, A2
respectivement, on a : .
[Enrouler]
Démonstrations
Soit , on a : ;
ainsi nous avons bien , donc φ existe bien.
Forme quadratique
Un article de Wikipédia, l'encyclopédie libre.
En mathématiques, une forme quadratique est un polynôme homogène de degré deux avec
un nombre quelconque de variables. Par exemple, la distance comprise entre deux points dans
un espace euclidien à trois dimensions s'obtient en calculant la racine carrée d'une forme
quadratique impliquant six variables qui sont les trois coordonnées de chacun des deux points.
Les formes quadratiques d'une, deux et trois variables sont données par les formules
suivantes :
Sommaire
[masquer]
• 5 Références
Une application Q : est appelée forme quadratique sur V s'il existe une forme
bilinéaire symétrique B : telle que
C'est un exemple de polarisation d'une forme algébrique. Il existe alors une correspondance
bijective entre les formes quadratiques sur V et les formes bilinéaires symétriques sur V. À
partir d'une forme donnée, nous pouvons définir de manière unique l'autre forme.
Quelques autres propriétés des formes quadratiques :
• et
• Q obéit à la règle du parallélogramme :
où les sont les coordonnées de u dans cette base, et u la matrice colonne formée par ces
coordonnées. On dit que B est la matrice de Q par rapport à la base.
Q(u) est un polynôme homogène de degré deux par rapport aux coordonnées de u,
conformément à notre définition de départ.
Soit une autre base de V, et soit la matrice de passage exprimant les anciennes
coordonnées en fonction des nouvelles. De la relation on tire pour
la matrice de B dans la nouvelle base. On dit que B et B' sont congruentes.
Rang [modifier]
Le noyau d'une forme quadratique Q ( on dit aussi radical) est par définition le sous-espace
vectoriel
Cet espace est le noyau de l'application linéaire de V dans l'espace dual V* qui associe à x la
forme linéaire Une forme quadratique est dite non dégénérée si rad(Q)=0,
autrement dit si l'application linéaire ci-dessus est un isomorphisme.
Le rang de Q est par définition dim V - dim(rad(Q)). C'est aussi le rang de la matrice de Q par
rapport à une base quelconque.
Cette notion généralise l'orthogonalité dans les espaces euclidiens, mais il y a quelques
pièges. Par exemple sur , la forme quadratique est non dégénérée,
mais chacun des sous-espaces et est son propre orthogonal. Plus
généralement, si Q est non dégénérée, on a bien , comme
dans le cas euclidien. Mais l'intersection n'est pas forcément réduite à zéro.
Discriminant [modifier]
Soit q une forme quadratique et A sa matrice par rapport à une base de V. Si l'on effectue un
changement de base de matrice Q, la matrice de q dans la nouvelle base sera .
D'après les propriétés élémentaires des déterminants, . Si q est
non dégénérée, l'image du déterminant dans le groupe quotient ne dépend pas de
la base. C'est cet élément que l'on appelle le discriminant de la forme quadratique. Si q est
dégénérée, on convient que le discriminant est nul.
Exemples
• Corps finis
On dira que deux formes quadratiques Q et Q' sont équivalentes s'il existe une application
linéaire inversible telle que . Il revient au même de dire que leur matrices
dans une même base sont congruentes. Classer les formes quadratiques sur un espace
vectoriel V c'est
• déterminer les classes d'équivalence de la relation précédente (qui est clairement une
relation d'équivalence)
• déterminer les orbites de l'ensemble des formes quadratiques sous l'action du groupe
linéaire
donnée par
deux formes quadratiques sont équivalentes si et seulement si elles ont même rang et même
signature (loi d'inertie de Sylvester).
Deux formes quadratiques équivalentes ont même rang et même discriminant, mais l'inverse
est loin d'être en général vrai.
Une définition plus générale d'une forme quadratique qui marche pour toute caractéristique
est la suivante. Une forme quadratique d'un espace vectoriel V sur un corps F est comme
une application telle que
• et , et
• est une forme bilinéaire sur V.
Généralisations [modifier]
On peut généraliser la notion de forme quadratique à des modules sur un anneau commutatif.
Les formes quadratiques entières sont importantes en théorie des nombres et topologie.
Réduction de Gauss
Un article de Wikipédia, l'encyclopédie libre.
Sommaire
[masquer]
• 1 Enoncé
• 2 Exemples
• 3 Applications
• 4 Liens internes
Enoncé [modifier]
Réduction de Gauss — Pour toute forme quadratique sur un espace vectoriel de dimension
finie, il existe un entier naturel non nul r, des formes linéaires indépendantes et
des éléments du corps de base, tous non nuls, tels que
[Dérouler]
Démonstration
En langage matriciel, cela signifie que toute matrice symétrique est congruente à une matrice
diagonale, c'est-à-dire que pour toute matrice symétrique M d'ordre n, il existe une matrice
inversible Q telle que tQMQ soit diagonale (les coefficients diagonaux sont les
complétés par des zéros si r < n).
L'entier r est le rang de la forme quadratique. C'est aussi le rang de n'importe quelle matrice
représentant cette forme dans une base.
Contrairement aux valeurs propres, les ci ne sont pas uniques, même à permutation près.
Exemples [modifier]
• Soit une forme quadratique sur l'espace vectoriel définie par
Alors
• Autre exemple :
On a alors
Applications [modifier]
Si le corps de base est le corps des nombres complexes ou plus généralement un corps
algébriquement clos, il existe r formes linéaires indépendantes telles que
Autrement dit, sous l'action du groupe linéaire, les formes quadratiques sont classées par leur
rang. En langage matriciel, deux matrices symétriques complexes sont congruentes si et
seulement si elles sont même rang.
Si le corps de base est le corps des nombres réels, il faut prendre en compte le signe des ci.
Il existe un entier s (inférieur ou égal à r) tel que
Elle donne un algorithme pour trouver une base dans laquelle la matrice de q est diagonale.
La loi d'inertie de Sylvester est un théorème de classification des formes quadratiques sur un
espace vectoriel réel de dimension finie.
Soit un espace vectoriel sur de dimension n, et une forme quadratique de rang r. Il existe
un entier et des formes linéaires indépendantes telles que
Cette écriture n'est pas unique, mais l'entier s n'en dépend pas. On l'appelle l'indice de .
Deux formes quadratiques sur sont équivalentes si et seulement si elles ont même rang et
même indice.
Pour montrer que s ne dépend que de q, montrons que c'est le maximum des dimensions des
sous-espaces sur lesquels q est définie négative. (On montrerait de même que r-s est le
maximum des dimensions des sous-espaces sur lesquels q est définie positive). Soient
une base de dans laquelle sont les r premières fonctions
coordonnées (en particulier, est une base du radical de ), et (resp.
) le sous-espace engendré par (resp. ). On obtient une
décomposition
en somme directe de sous-espaces deux à deux orthogonaux pour la forme bilinéaire associée
à , la restriction de à (resp. ) étant définie positive (resp. définie négative). Soit un
sous-espace de dimension m sur lequel est définie négative. Comme est définie positive sur
, ces deux sous-espaces sont en somme directe et est non dégénérée sur cette somme,
donc , c'est-à-dire .
Les formes sont indépendantes si les le sont, donc et ont même indice (on sait
déjà d'après la théorie générale qu'elles ont même rang). Réciproquement, si et ont même
indice et même rang, elles ont même matrice par rapport à des bases convenables et sont donc
bien équivalentes.
En algèbre linéaire, la notion de matrice définie positive est analogue à celle de nombre réel
strictement positif.
On introduit tout d'abord les notations suivantes ; si a est une matrice à éléments réels ou
complexes :
• désigne la transposée de a
• a * désigne la matrice transconjuguée de a (conjuguée de la transposée)
On rappelle que :
Sommaire
[masquer]
• 5 Voir aussi
(autrement dit, la forme quadratique définie par est strictement positive pour )
2 Toutes les valeurs propres de M sont strictement positives, c'est-à-dire :
. .
3 La forme bilinéaire symétrique définie par la relation
.
est un produit scalaire sur (identifié ici à l'espace vectoriel des matrices colonnes à n
éléments réels).
Une matrice symétrique réelle est dite définie négative si son opposée (symétrique elle aussi)
est définie positive.
La propriété 1 signifie que M définit sur une forme quadratique définie positive, la
propriété 2 que sur , vu comme espace euclidien avec le produit scalaire
d'où enfin : .
Dans cette dernière intégrale, l'intégrande est continu et à valeurs positives. Par
conséquent :
• ;
Nota : ceci est un cas particulier d'une propriété des matrices de Gram. La matrice de Gram
d'une famille de n vecteurs d'un espace préhilbertien (réel ou complexe) est définie positive si
et seulement si la famille est libre.
est un produit scalaire sur (identifié ici à l'espace vectoriel des matrices colonnes à n
éléments complexes).
Une matrice hermitienne est dite définie négative si son opposée (hermitienne elle aussi) est
définie positive.
Propriétés [modifier]
Les propriétés suivantes sont communes aux matrices symétriques réelles et aux matrices
complexes hermitiennes.
1. Toute matrice définie positive est inversible (à déterminant réel strictement positif), et
son inverse est elle aussi définie positive.
2. Si M est définie positive et r est un nombre réel strictement positif, alors rM est définie
positive.
3. Si M et N sont définies positives, alors M + N est définie positive.
4. Si M et N sont définies positives, et si MN = NM (on dit qu'elles commutent), alors
MN est définie positive.
5. Une matrice M est définie positive si et seulement s'il existe une matrice définie
positive A telle que A2 = M ; dans ce cas, la matrice définie positive A est unique, et on
peut la noter A = M1 / 2 (voir l'article racine carrée d'une matrice).
La condition est nécessaire. On remarque d'abord que si q est définie positive, alors
. En effet, par rapport à une base orthogonale pour cette forme quadratique (il en
existe, d'après la réduction de Gauss), la matrice de q s'écrit les étant tous
strictement positifs. Alors (Q étant la matrice de passage),
donc . Le résultat s'ensuit, en appliquant le même raisonnement à la restriction de
q aux sous-espaces , pour .
Montrons maintenant que la condition est suffisante. On procède par récurrence sur la
dimension. Pour n=0 c'est évident puisqu'en dimension 0 l'ensemble des vecteurs non nuls est
vide. Supposons la propriété vraie pour n-1 et notons . Par hypothèse de
récurrence, est définie positive. De plus, q est est non dégénérée (parce que )
donc
Dans le cas complexe, la preuve est analogue, en considérant la forme hermitienne définie par
la matrice.
En algèbre linéaire, la notion de matrice semi-définie positive (on dit aussi : matrice positive)
est analogue à celle de nombre réel positif ou nul.
La notion de matrice semi-définie positive est très proche de celle de matrice définie
positive.
Sommaire
[masquer]
• 3 Voir aussi
Exemple [modifier]
• Celle-ci est semi-définie positive. En effet, pour toute matrice colonne à n éléments
réels notés :
Soit M une matrice hermitienne d'ordre n. Elle est dite semi-définie positive si elle vérifie
l'une des 2 propriétés équivalentes suivantes :
• 4 Voir aussi
Autrement dit, toute matrice inversible réelle se décompose de façon unique en produit d'une
matrice orthogonale et d'une matrice symétrique strictement positive.
Autrement dit, toute matrice inversible complexe se décompose de façon unique en produit
d'une matrice unitaire et d'une matrice hermitienne strictement positive.
Un espace préhilbertien est un espace vectoriel réel ou complexe que l'on a muni d'un produit
scalaire. La définition du produit scalaire quitte alors le champ de la géométrie traditionnelle.
Les propriétés algébriques vues dans le cas de la dimension 2 ou 3 sont suffisantes pour
définir un produit scalaire dans un espace vectoriel réel quelconque.
Il est naturel de se poser la question réciproque : Est-il possible de définir une géométrie à
l'aide d'un espace vectoriel et d'un produit scalaire ? La longueur est alors donnée par la
norme, et l'angle θ entre deux vecteurs et par la formule :
Pour adapter cette définition aux espaces vectoriels complexes, nous avons besoin de la
notion de « semi-linéarité »:
Une application f d'un espace vectoriel complexe dans est dite semi-linéaire si elle
vérifie :
est un produit scalaire hermitien (ou simplement un produit scalaire) si elle est :
• sesquilinéaire : c'est-à-dire
• symétrique hermitienne :
• positive :
• définie :
Exemples [modifier]
Un espace hermitien est un espace vectoriel défini sur les nombres complexes et disposant
d'un produit hermitien, correspondant à une généralisation du cas réel. Le terme de produit
scalaire est aussi utilisé dans ce contexte. Les résultats et propriétés des espaces euclidiens se
traduisent souvent simplement dans cet espace.
Un espace de Hilbert peut être réel ou complexe. Il correspond exactement aux deux cas
précédent, à la différence que la dimension n'est pas nécessairement finie. Si la théorie et les
démonstrations sont différentes de la situation en dimension finie, certains résultats se
généralisent. Une hypothèse topologique est néanmoins souvent nécessaire, celle de la
complétude de l'espace métrique associé. Pour cette raison, un espace de hilbert est par
définition complet.
Cet espace est utilisé pour résoudre des problèmes d'analyse fonctionnelle, particulièrement
des équations aux dérivées partielles
• séparation : ;
• homogénéité : ;
• sous-additivité (appelé également Inégalité triangulaire) :
.
Remarques
• Les corps des réels et des complexes ne sont pas les seuls à admettre une valeur
absolue. Tout corps supporte la valeur absolue constante égale à 1 en dehors de 0.
Dans le cas des corps valués, la norme est même ultramétrique en vérifiant une
certaine condition plus forte que la sous-additivité.
• Une fonction de E dans qui ne satisfait que les hypothèses d'homogénéité et de
sous-additivité est appelée semi-norme.
Un espace vectoriel muni d'une norme est alors appelé espace vectoriel normé (parfois
abrégé en EVN).
nécessaire pour montrer que d est une distance sur E, qui plus est invariante par
translation.
Un espace vectoriel normé est donc un espace métrique homogène et la topologie
associée est compatible avec les opérations vectorielles.
• La norme est aussi une fonction convexe, ce qui peut être utile pour résoudre des
problèmes d'optimisation.
Topologie [modifier]
Une norme sur un espace vectoriel définit une distance d sur par la formule suivante :
De plus, à d est associée, comme à toute distance, une topologie séparée. Un ouvert pour cette
topologie est une partie de E vérifiant la propriété suivante :
[Enrouler]
Démonstrations
Boule [modifier]
Les boules ouvertes centrées en un point forment une base de voisinages du point , elles
caractérisent donc la topologie. Si K=R ou C, toute boule ouverte est convexe. En effet,
comme la convexité est conservée par translation et homothétie, il suffit de montrer cette
propriété pour la boule ouverte unité. Si et sont deux points de cette boule et si est un réel
entre zéro et un, alors :
Ce qui signifie que tout point admet une base de voisinages convexes, par exemple les boules
ouvertes centrées en ce point.
Plus la topologie contient d'ouverts, plus précise devient l'analyse associée. Pour cette raison
une topologie contenant au moins tous les ouverts d'une autre est dite plus fine. La question se
pose dans le cas de deux normes et sur un même espace vectoriel , de savoir à quel
critère sur les normes correspond une telle comparaison entre leurs topologies associées.
• est dite plus fine que si toute suite de vecteurs de convergeant pour
converge pour , ou encore, s'il existe un réel strictement positif α tel que :
Cette définition est légitimée par le fait que est plus fine que si et seulement si sa
topologie associée est plus fine que
• et sont dites équivalentes si est plus fine que et est plus fine que
, ou encore, s'il existe deux réels strictement positifs α et β tels que :
Cela correspond au fait que les boules ouvertes des deux normes puissent s'inclure l'une dans
l'autre à dilatation près, ou encore que les deux topologies associées soient les mêmes. En
termes métriques, les deux structures sont même uniformément isomorphes. Sur un espace
vectoriel réel ou complexe de dimension finie, toutes les normes sont équivalentes (cf
topologie d'un espace vectoriel de dimension finie).
.
Une norme est euclidienne (c'est-à-dire provient d'un produit scalaire) si et
• Si f est une application linéaire injective de E dans F alors toute norme sur F induit
une norme sur E par l'équation
• Si C est un ouvert convexe borné et équilibré d'un espace vectoriel réel ou complexe
E, alors la jauge de C est une norme définie par
Exemples [modifier]
En dimension finie [modifier]
et elle correspond à la norme habituellement utilisée pour la distance entre deux points
dans le plan ou l'espace usuels (la présence du 2 en indice est expliquée juste après);
• la norme 1 est donnée par la somme des modules (ou valeurs absolues) des
coefficients :
et induit la distance de déplacement à angle droit sur un damier (ou dans les rues de
Manhattan[1]) ;
• plus généralement, pour tout p supérieur ou égal à 1, la norme p est donnée par la
formule suivante :
,
elle identifie donc la norme euclidienne avec la norme 2, mais n'a surtout d'intérêt que
dans sa généralisation aux espaces de fonctions ;
• la norme « infini »[2] d'un vecteur est la limite de ses normes p lorsque p tend vers
l'infini :
,
elle induit la distance de déplacement par les faces et par les coins dans un réseau,
comme celui du roi sur l'échiquier.
L'inégalité triangulaire pour les normes p s'appelle l'inégalité de Minkowski, elle est une
conséquence de résultats de convexité parmi lesquels l'inégalité de Hölder.
• La norme sur l'espace des quaternions est la norme euclidienne appliquée à la base
(1,i,j,k).
• L'espace des polynômes de degré inférieur ou égal à n peut être muni de normes issues
d'espaces de fonctions (voir ci-dessous).
.
La norme « infini » ou norme sup ou encore norme de la convergence uniforme
s'écrit quant à elle
et s'obtient là aussi comme limite des normes p lorsque p tend vers l'infini.
Toutes ces normes ne sont pas équivalentes deux à deux.
Par ailleurs elles s'étendent aisément aux espaces de fonctions continues sur un
compact de , voire aux fonctions continues à support compact.
• Sur l'espace des suites bornées, la norme naturelle est la norme sup :
Une norme sur une algèbre A est dite norme d'algèbre s'il existe une constante réelle C
telle que
Quitte à multiplier la norme par C, cette constante peut être ramenée à 1. La condition est
alors celle de sous-multiplicativité.
Dans le cas d'une algèbre réelle ou complexe, la condition est équivalente à la continuité du
produit comme application bilinéaire.
auquel cas la multiplication par une constante ne peut plus être utilisée pour « renormaliser »
la norme.
Exemples [modifier]
• L'application module est une norme d'algèbre sur considéré comme -algèbre.
• La norme d'opérateur sur est une norme d'algèbre.
• La norme « infini » sur induit la norme d'opérateur sur qui s'écrit
.
Théorème de Cayley-Hamilton
Un article de Wikipédia, l'encyclopédie libre.
Sommaire
[masquer]
• 1 Motivation
• 2 Exemple
• 3 Démonstration
o 3.1 Une preuve
o 3.2 Une variante
o 3.3 Remarques additionnelles sur la démonstration
• 4 Abstraction et généralisations
• 5 Références
• 6 Voir aussi
Motivation [modifier]
Ce théorème possède deux familles d'utilisation:
• Il permet d'établir des résultats théoriques, par exemple pour calculer le polynôme
caractéristique d'un endomorphisme nilpotent.
• Il autorise aussi des simplifications puissantes dans les calculs de matrices. L'approche
par les polynômes minimaux est en général moins coûteuse que celle par les
déterminants.
On trouve ce théorème utilisé dans les articles sur les polynômes d'endomorphisme,
endomorphismes nilpotents, et plus généralement dans la théorie générale des matrices
Exemple [modifier]
Considérons par exemple la matrice
A2 − 5A − 2I2 = 0
et cette relation peut être rapidement vérifiée dans ce cas. De plus le théorème de Cayley-
Hamilton permet de calculer les puissances d'une matrice plus simplement que par un calcul
direct. Reprenons la relation précédente
A2 − 5A − 2I2 = 0
A2 = 5A + 2I2
et il vient
avec , et
pnIn = Bn − 1
piIn = Bi − 1 − ABi
p0 = − AB0
Il vient alors
Comme la somme est télescopique, elle est nulle. Donc, P(A)=0. La preuve ne consiste pas en
une substitution de X par A dans des égalités de polynômes, mais à une identification de leurs
coefficients.
Une notation auxiliaire nous sera utile : pour deux matrices carrées (n,n) notées C = (cij) et D
= (dij), on notera la matrice à coefficients matriciels de terme général cijD. Si le lecteur
connaît le produit de Kronecker de deux matrices, il pourra remarquer que c'est
presque la même chose que à ceci près que est une matrice (n,n) dont les
coefficients sont des matrices (n,n) tandis que est une matrice (n2,n2). Les formules
ci-dessous ne contiennent de fait que deux cas particuliers de cette opération : des produits de
la forme c'est-à-dire des matrices carrées avec des C sur la diagonale et des 0 ailleurs
et un produit c'est-à-dire une variante de A où la matrice aijIn vient remplacer le
coefficient aij.
dans laquelle M est une certaine matrice à coefficients dans dont on n'aura besoin de
rien savoir.
Ainsi on a écrit une formule juste, et on en pâtit : on n'a du coup pas fini, l'évaluation de XIn −
A par une technique rigoureuse ne fournit pas 0 mais une bizarre matrice à coefficients
matriciels.
Il faut une deuxième idée pour conclure. Elle consiste à remarquer que si est un anneau et E
un -module à droite, pour tous entiers r, s, t on peut définir par les formules habituelles un
produit matriciel :
pour laquelle on a associativité si on veut calculer des produits à trois termes :
Si maintenant on utilise l'expression de gauche dans ( * ) et qu'on déplace les parenthèses par
associativité de la multiplication matricielle un peu inhabituelle décrite ci avant, on est amené
à calculer le produit :
Pour chaque indice j, on ne peut que constater que sa j-ème composante vaut :
En multipliant ceci à droite par l'inoffensive matrice M et en comparant les deux expressions
du produit, on conclut que pour tout indice j, p(A)ej = 0.
La preuve qui a été donnée évite la substitution de X par une matrice dans un contexte non
commutatif, mais les manipulations effectuées sont quand même proches de cette idée : on a
bien décomposé l'équation en composantes suivant les puissances de X, on a multiplié à
gauche par Aj la composante qui était en facteur de Xj, et on a additionné tout ensemble. En
fait, on a utilisé l'opération EvA définie en (5), sans supposer qu'il s'agisse d'un
homomorphisme d'anneaux, de dans . L'opération EvA est une
évaluation à gauche, parce que la multiplication par l'indéterminée scalaire X est remplacée
par la multiplication à gauche par A.
Une autre observation est importante : la forme exacte du polynôme Comp(XIn − A) n'a
aucune importance. Il y a donc quelque chose à exploiter ici, ce que n'ont pas manqué de faire
les mathématiciens.
Soit M un anneau non commutatif ; on peut définir une division euclidienne d'un polynôme
par un polynôme B monique. C'est un polynôme dont le coefficient du terme de
plus haut degré est une unité de M, c'est-à-dire un élément de M qui possède un inverse dans
M. Plus précisément, il existe deux polynômes , avec R de degré strictement
inférieur au degré de B, tels que
P = BQ + R.
EvA(P) = R.
Il s'ensuit que EvA(P) est nul si et seulement si P est divisible à gauche par XIn − A.
Définition [modifier]
Trace d'une matrice carrée [modifier]
.
La trace est un scalaire. Pour toutes matrices carrées A et B (de même ordre) et pour tout
scalaire , les propriétés suivantes sont vérifiées :
La propriété 4 a pour corolaire[1] important l'égalité suivante, valable pour toute matrice carrée
A et pour toute matrice inversible P de même ordre :
Autrement dit, la trace est un « invariant de similitude » pour les matrices carrées d'ordre
donné. Ainsi, la trace est une forme linéaire sur l'espace vectoriel des matrices
carrées d'ordre n (propriétés 1 et 2), invariante par transposition (propriété 3) et par
similitudes.
Inversement, toute forme linéaire sur l'espace invariante par similitude est
proportionnelle à la trace.
En effet, étant données deux bases et , est introduite la matrice de passageP de la base
à la base . Les matrices A et A' représentant u respectivement dans et vérifie la relation
dite « de changement de base »[réf. nécessaire] : A' = P − 1AP. Par la propriété (P5), Tr(P − 1AP) =
Tr(A), donc Tr(A') = Tr(A).
Les propriétés suivantes sont vérifiées pour tous endomorphismes et pour tout
scalaire .
Soit (E,g) un espace euclidien de dimension finie. Pour toute forme quadratique q sur E, il
existe un opérateur symétrique A sur (E,g) tel que
q(v) = g(v,Av).
La trace de A est appelée trace de la forme quadratique q par abus de langage. Sa définition
dépend explicitement du choix de la métrique euclidienne g.
Exemples [modifier]
Soit E un espace vectoriel de dimension n.
• La trace de la matrice d'adjacence d'un graphe est nulle (si un sommet ne boucle pas
sur lui-même).
Applications [modifier]
Réduction d'opérateurs [modifier]
Un projecteur p de E est un opérateur vérifant p2=p. Le lemme des noyaux implique que E est
la somme directe du noyau F de p et de l'image G de p ; et p se restreint en l'identité sur G.
Géométriquement, p est la projection sur G parallèlément à F. En concaténant des bases de F
et G, on a une base de E dans laquelle le matrice de u est diagonale avec comme coefficients 0
et 1. Il s'en suit que la trace de p est la dimension de G :
Plus généralement, les traces fournissent des informations sur la réduction des opérateurs. On
rappelle que le polynôme caractéristique de u est
Si P(X) est scindé (par exemple, si le corps de base K est algébriquement clos) alors u est
triangularisable. Autrement dit, il existe une base de E dans laquelle l'opérateur u s'écrit sous
la forme d'une matrice triangulaire supérieure. Les coefficients diagonaux sont les racines de
son polynôme caractéristique P(X) comptées avec multiplicité, qui sont les valeurs propres de
u. On les note ici . Par définition, la trace de u est
Les autres coefficients du polynôme caractéristique sont les valeurs des polynômes
symétriques élémentaires en . Par conséquent, si le corps K est de caractéristique
nulle, les coefficients s'expriment comme des polynôme en les traces des puissances de u :
pour .
Divergence [modifier]
Article détaillé : Divergence (mathématiques).
Etant donné un espace vectoriel réel E de dimension finie, le déterminant définit une
application det de l'espace des opérateurs sur E vers R, qui est homogène de degré n. Le
nombre det(u) s'exprime comme une fonction polynômiale en les coefficients de la matrice
représentant u dans une base quelconque de E. La fonction det est donc différentiable. Sa
différentielle en l'identité est la trace. Autrement dit, pour tout opérateur u sur E,
où o(u) signifie que le reste est négligeable devant u quand u tend vers zéro. Comme
conséquence, pour tout opérateur u sur E,
det(exp(u)) = exp(Tr(u)).
Le flot de X est la famille de difféomorphismes ft qui envoient x sur c(t), où c est la solution
de (1) avec comme condition initiale c(0)=x. Le flot est défini localement. On introduit la
divergence de X
div(X)(x) = Tr(dX(x))
(Cette égalité permet d'étendre la définition de la divergence, par exemple sur des variétés
orientées en présence de formes volumes. Voir divergence (mathématiques).)
ad(X)(Y) = [X,Y].
Soit G un groupe de Lie (par exemple, un sous-groupe fermé de GL(E)). Par définition, son
algèbre de Lie est l'espace des champs de vecteurs sur G invariants à gauche, muni du crochet
de Lie [,] (commutateur de champs de vecteurs). La forme de Killing associée B définit une
métrique pseudo-riemannienne bi-invariante sur G. Si la forme de Killing B est définie
positive, alors la métrique associée est une métrique riemannienne à courbure positive. Le
théorème de Meyers implique que G est compact. D'autres liens existent.
On dispose ainsi d'une écriture agréable du produit scalaire canonique sur l'espace Rnp.
Si H est un espace de Hilbert de dimension finie, la transposée d'un opérateur u sur H est un
opérateur sur H. On définit alors le produit scalaire sur l'espace des opérateurs sur H :
Avec cette définition, il apparait clairement que les opérateurs symétriques et les opérateurs
antisymétriques forment deux sous-espaces orthogonaux de . La transposée est la
symétrie orthogonale par rapport à l'espace des opérateurs symétriques.
La notion de forme n-linéaire alternée généralise les propriétés précédentes. Elle se définit
comme une application de En dans , qui est :
• linéaire en chaque variable. Ainsi pour des vecteurs x1, ..., xn, x'i et deux scalaires a et
b
• alternée, signifie qu'elle s'annule à chaque fois qu'elle est évaluée sur un n-uplet
contenant deux vecteurs identiques
Théorème
L'ensemble An(E) des formes n-linéaires alternées sur un espace vectoriel de dimension n
constitue un espace vectoriel de dimension 1.
De plus, si est une base de E, on peut exprimer l'image d'un n-uplet de vecteurs
par
avec Xij la i-ème composante de xj et qui dénote la signature de la permutation σ (un pour
une permutation paire, -1 pour une impaire).
Définition
Il faut se représenter cette quantité comme une sorte de volume de pavé, relativement à la
base B.
Formule de Leibniz
Gottfried Leibniz introduit les premiers déterminants de taille 3 et plus
Soient x1,...xn des vecteurs de E. Il est possible de représenter ces n vecteurs par n matrices
colonnes, formant par juxtaposition une matrice carrée X.
Cette formule porte parfois le nom de Leibniz. Elle présente peu d'intérêt pour le calcul
pratique des déterminants, mais permet d'établir plusieurs résultats théoriques.
Soit une matrice A=(aij) carrée d’ordre n à coefficients réels. Les vecteurs colonnes de la
matrice peuvent être identifiés à des éléments de l'espace vectoriel . Ce dernier est muni
d'une base canonique.
Il est alors possible de définir le déterminant de la matrice A comme le déterminant du
système de ses vecteurs colonnes relativement à la base canonique. Il est noté det(A) puisqu'il
n'y a pas d'ambiguïté sur la base de référence.
Par définition même, le déterminant dépend de façon linéaire de chaque colonne, et est nul
lorsque deux colonnes sont égales. Le déterminant de la matrice identité vaut un. Enfin il
vérifie la formule de Leibniz
Ce qui signifie que le déterminant de A se voit aussi comme le déterminant du système des
vecteurs lignes, relativement à la base canonique.
[Dérouler]
Formule du déterminant de la transposée - démonstration
Soit u un endomorphisme d'un espace vectoriel de dimension finie. Toutes les matrices
représentatives de u ont le même déterminant. Cette valeur commune est appelée déterminant
de u.
[Dérouler]
Démonstration de ces deux propriétés
On démontre que ce groupe est engendré par les transvections, dont la matrice dans une base
adaptée est de la forme
Par construction même du déterminant des endomorphismes, deux matrices semblables ont
même déterminant.
Propriétés [modifier]
Quitte à effectuer le choix d'une base, il est possible d'énoncer ces propriétés dans le cadre
matriciel.
L'application déterminant sur les familles de vecteurs est une forme multilinéaire alternée.
Utiliser cette propriété sur une matrice demande d'exprimer le système de vecteurs colonnes,
ou de vecteurs lignes.
Par exemple si la matrice A admet pour colonnes C1, ..., Cn avec Ci de la forme Ci=aC 'i+C ' 'i
Notamment, si toutes les colonnes sont multipliées par a, le résultat est une multiplication par
an du déterminant
Il est possible d'effectuer également des opérations élémentaires sur les lignes, qui ont les
mêmes propriétés que les opérations sur les colonnes. Opérer sur les lignes suivant la
technique du pivot de Gauss fournit une méthode systématique de calcul des déterminants ;
c'est la méthode la plus efficace en règle générale.
• le déterminant d'un système de n vecteurs est nul si et seulement si ce système est lié
(et ceci est valable quelle que soit la base de référence)
• le déterminant d'une matrice (ou d'un endomorphisme) est nul si et seulement si cette
matrice (ou endomorphisme) est non inversible.
Ces propriétés expliquent le rôle essentiel que peuvent jouer les déterminants en algèbre
linéaire. Ils constituent un outil fondamental pour prouver qu'une famille de vecteurs est une
base.
• si le système est lié, une colonne est combinaison linéaire des autres.
Par une opération élémentaire, il est possible de se ramener à un déterminant
ayant une colonne nulle, donc nul.
• si le système est libre, il est possible de le considérer comme une base
B' et lui appliquer la formule de changement de bases : detB(B ').detB ' (B)=1.
Propriété de morphisme
•
• ainsi si M est inversible alors
• et le déterminant est un morphisme de groupes de dans
Il existe une généralisation de la formule de déterminant d'un produit pour le cas de deux
matrices rectangulaires : c'est la formule de Binet-Cauchy.
Soit A une matrice carrée de taille n, et A(x) la matrice dont les coefficients sont les mêmes
que ceux de A, sauf le terme d'indice i, j qui vaut ai, j+x (c'est la modification d'un des
coefficients de la matrice, toutes choses égales par ailleurs). Par la formule de linéarité pour la
j-ème colonne, il est possible d'établir
Le terme noté Cofi, j est appelé cofacteur d'indice i, j. Il se calcule de la façon suivante : en
notant M(i;j) le déterminant de la sous-matrice déduite de M par suppression la ligne i et la
colonne j, le cofacteur est (-1)i+j fois M(i;j).
Il admet les interprétations suivantes
Formules de Laplace
Pierre-Simon Laplace
Si n>1 et A est une matrice carrée de taille n alors il est possible de calculer son déterminant
en fonction des coefficients d'une seule colonne et des cofacteurs correspondants. Cette
formule, dite formule de Laplace, permet ainsi de ramener le calcul du déterminant à n calculs
de déterminants de taille n-1.
La comatrice de A, est la matrice constituée des cofacteurs de A. Elle généralise les formules
de développement du déterminant par rapport aux lignes ou colonnes
En algèbre linéaire, la base duale est une base de l'espace dual d'un espace vectoriel E de
dimension finie, construite à partir d'une base de E. Il est rappelé que l'espace dual de E, noté
E * est l'espace des formes linéaires sur E. La réduction des formes quadratiques est un
exemple dans lequel les bases duales peuvent intervenir. Elles interviennent aussi pour
transporter des structures géométriques d'un espace vectoriel réel ou complexe sur son espace
dual, ce qui intervient notamment en géométrie différentielle.
Sommaire
[masquer]
• 1 Définition
o 1.1 Base duale de la base duale
o 1.2 Changement de bases
• 2 Applications
Définition [modifier]
Soit E un espace vectoriel sur un corps K de dimension finie n. Soit une
base de E (famille libre et génératrice). Comme est une famille génératrice, tout vecteur v
de E s'écrit de manière unique comme une combinaison linéaire des vecteurs ei :
(1).
Cette construction suffit à montrer qu'un espace vectoriel et son dual ont la même dimension.
ι(v)(λ) = λ(v).
Comme E, E* et E** ont même dimesion, cette application linéaire injective est un
isomorphisme. Une autre manière d'obtenir ce résultat est la suivante. Soit la
base duale de . L'équation (1) se traduit par :
Soit une seconde base de E, qui admet une base duae notée
. La matrice de passage de à est la matrice M donnée par les coefficients
. L'équation (1) donne
L'application de M au n-uplet des coordonnées d'un vecteur v dans la base donne le n-uplet
des coordonnées de v dans . Explicitement,
Applications [modifier]
Réduction de Gauss [modifier]
Soit q une forme quadratique sur un espace vectoriel réel E. Alors il existe une base
de E, telle que
où est la base duale de .