Vous êtes sur la page 1sur 111

Polynôme d'endomorphisme

Un article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

En algèbre linéaire, on utilise fréquemment la notion de polynôme d'endomorphisme (ou de


matrice), qui est une combinaison linéaire de puissances (au sens de la composition de fonctions)
de l'endomorphisme.

Pour un endomorphisme u d'un espace vectoriel E sur elle donne à E une structure de -
module.

L'application la plus intéressante réside dans la recherche des polynômes annulateurs de


l'endomorphisme : les relations caractéristiques des projecteurs (p2 = p), des symétries (s2 = Id)
constituent les exemples les plus simples de polynômes annulateurs.

De plus la recherche de polynômes annulateurs permet de déterminer les valeurs propres d'une
matrice sans en calculer le polynôme caractéristique, voire de prouver très simplement la
diagonalisation.

Sommaire
[masquer]

• 1 Intérêt du concept
• 2 Définition et premières propriétés
• 3 Idéaux annulateurs
• 4 Polynôme minimal
o 4.1 Décomposition en somme directe de sous-espaces stables
o 4.2 Cas où le polynôme minimal est scindé
o 4.3 Diagonalisabilité
o 4.4 Théorème de Cayley-Hamilton

• 5 Voir aussi

Intérêt du concept [modifier]


Si u est l'endomorphisme que nous étudions, on peut l'appliquer deux fois à un vecteur, on note
alors u2 l'application associée. En fait, on peut l'appliquer autant de fois qu'on le souhaite. Ceci
nous permet d'élever un endomorphisme à une puissance entière. On peut aussi additionner
plusieurs endomorphismes et les multiplier par un nombre. En conséquence il est possible
d'appliquer un polynôme à un endomorphisme.

Ce concept est archétypal d'une démarche souvent féconde en mathématiques. Elle consiste à
établir un pont entre deux théories. Dans cet article le pont est établi entre les polynômes et les
applications linéaires. Il est bâti sous la forme d'un morphisme d'algèbre entre les polynômes et
les endomorphismes. Il permet alors d'exporter les propriétés de commutativité, des idéaux
principaux, d'appliquer l'identité de Bézout ou une interpolation lagrangienne. Par delà l'aspect
élégant d'une telle démarche, l'essentiel des théorèmes strictement associés aux applications
linéaires se démontre sans trop de dédales calculatoires.

Dans la pratique, cette démarche permet de démontrer l'existence du polynôme minimal et de


déterminer la structure des polynômes annulateurs. Elle propose une approche permettant de
comprendre l'origine de la notion de vecteur propre généralisé ainsi que de sous-espace
caractéristique. Dans le cas où le corps est algébriquement clos, elle permet même de fournir une
réduction simple de l'endomorphisme, dite réduction de Jordan. Elle permet alors de comprendre
pourquoi le polynôme caractéristique est un multiple du polynôme minimal, et fournit donc une
démonstration du théorème de Cayley-Hamilton. Elle est enfin la base d'une famille d'algorithmes
souvent largement plus rapides qu'une approche par les déterminants.

Définition et premières propriétés [modifier]


Soit E un -espace vectoriel. Nous utilisons la notation usuelle L(E) pour désigner l'ensemble des
endomorphismes et K[X] désigne ici l'anneau des polynômes formels. Soit un
endomorphisme et un polynôme.

On définit par P[u] = a0IdE + a1u + a2u2 + ... + apup. C'est la définition naturelle
d'un polynôme d'endomorphisme.

Si on note u0 = Id on peut écrire, pour , .

L'anneau des polynômes peut être considéré comme un espace vectoriel sur . Avec ses trois
opérations : addition, produit scalaire et multiplication, il forme une structure que l'on appelle une
algèbre. Il en est de même pour les endomorphismes munis de la composition comme
multiplication. À la différence des endomorphismes, les polynômes forment une algèbre
commutative. Il n'est pas surprenant que l'application naturelle de l'espace des polynômes dans
l'ensemble des endomorphismes soit un morphisme d'algèbre. Un morphisme d'algèbre est une
application respectant les trois opérations de l'algèbre, l'addition, le produit scalaire et la
multiplication.

• L'application ψu, qui à P associe P[u] est un morphisme de -algèbres de dans L(E).
• L'image de ψu est une sous-algèbre abélienne de L(E).

Cela signifie que deux polynômes du même endomorphisme commutent entre eux. Cette propriété
provient du fait que la commutativité est toujours transportée par un morphisme.

Si x est un vecteur propre de valeur propre λ, alors il est aussi vecteur propre de l'endomorphisme
P[u] avec la valeur propre P(λ). En particulier si P[u] = 0 alors les valeurs propres sont parmi les
racines de P. Cependant la réciproque n'est pas vraie, toutes les racines de P ne sont pas forcément
valeurs propres de u.

[Dérouler]
Démonstration

Idéaux annulateurs [modifier]


Le reste de l'article ne considère que le cas où l'espace vectoriel est de dimension finie n.

Un morphisme entre deux structures est un outil puissant. Les propriétés de l'une des structures se
trouvent transportées par le morphisme dans son image. Le paragraphe précédent utilise cette
propriété pour démontrer le caractère commutatif de l'espace des polynômes d'un endomorphisme
particulier. Le noyau d'un morphisme d'algèbre est une sous-algèbre. Cette propriété est un des
éléments permettant d'établir la définition et les propositions suivantes :

L'ensemble des polynômes qui annulent un endomorphisme est un idéal principal non réduit à 0;
on l'appelle Idéal annulateur. On appelle polynôme annulateur un élément de l'idéal
annulateur. Il existe un unique polynôme unitaire qui l'engendre; il est appelé polynôme minimal.

Un idéal est un sous-groupe additif stable par multiplication par tout élément de l'anneau.

Soit x un vecteur de E et u un endomorphisme, alors l'ensemble des polynômes de u qui annulent


x est un idéal principal contenant l'idéal annulateur. On l'appelle idéal annulateur de x. Il existe
un unique polynôme unitaire qui l'engendre; il est appelé polynôme minimal de x.

Il est possible de remarquer que l'idéal annulateur, qui annule tout vecteur, annule aussi x. L'idéal
annulateur de x contient donc l'idéal annulateur de u. L'intérêt du concept d'idéal annulateur réside
dans le fait qu'il permet de trouver des sous-espaces stables de u. Sur ces sous-espaces stables,
l'endomorphisme peut s'exprimer plus simplement. Cette démarche consistant à décomposer
l'espace E en sous-espaces stables et en somme directe procède de la démarche dit de réduction
d'endomorphisme.

1. Le noyau d'un polynôme d'endomorphisme de u est un sous-espace vectoriel stable par u.


2. Soit (Pi[X]) une famille finie de polynômes premiers entre eux deux à deux. Alors la
famille des (kerPi[u]) est une somme directe de sous-espaces stables par u qui engendre
l'espace . De plus, les projecteurs associés s'expriment comme des
polynômes en u.

La dernière propriété est essentielle pour la réduction d'endomorphisme. Elle intervient dans la
suite de l'article, pour l'analyse du polynôme minimal et pour l'analyse du cas où il est scindé. Elle
intervient enfin dans la décomposition de Dunford.

[Dérouler]
Démonstration

Polynôme minimal [modifier]


Article détaillé : Polynôme minimal d'un endomorphisme.

Le polynôme minimal cache une décomposition en somme directe de sous-espaces stables. Cette
décomposition est au cœur de la compréhension de la structure d'un endomorphisme. Elle
correspond à la décomposition du polynôme en facteurs premiers entre eux. Elle permet d'établir
des théorèmes parmi les plus importants de l'algèbre linéaire pure. Elle nous renseigne sur
l'existence d'un vecteur dont le polynôme minimal est le polynôme minimal de l'endomorphisme,
elle donne un majorant du degré de ce polynôme, elle permet de trouver des réductions puissantes
dans le cas ou le polynôme est scindé, elle donne une condition nécessaire et suffisante de
diagonalisation. Enfin elle permet de démontrer le théorème de Cayley-Hamilton.
Décomposition en somme directe de sous-espaces stables [modifier]

1. Soit (χi) une décomposition en facteurs tous de degré supérieur à 1 et premiers deux à
deux du polynôme minimal χ d'un endomorphisme u. Alors la suite des noyaux (kerχi[u])
est une décomposition en somme directe de l'espace E de sous-espaces stables par
l'endomorphisme.
2. Il existe un vecteur x de E dont le polynôme annulateur est égal au polynôme annulateur
de l'endomorphisme.
3. Le polynôme minimal est de degré inférieur ou égal à n.

[Dérouler]
Démonstration

Cas où le polynôme minimal est scindé [modifier]

Article détaillé : Réduction d'endomorphisme.

Dire que le polynôme minimal est scindé signifie qu'il s'exprime comme produit de puissances de
polynômes du premier degré. Si l'on note χ le polynôme minimal, cela signifie que:

Si l'on note Ei le noyau de l'endomophisme , alors le paragraphe précédent nous


indique que la suite (Ei) forme une somme directe de l'espace E de sous-espaces non réduits à 0 et
stables par l'endomorphisme. On appelle ces sous-espaces les sous-espaces caractéristiques. Cette
approche permet d'effectuer la première étape dans la réduction des endomorphismes en
dimension finie et si le polynôme minimal est scindé. Les deux principales propriétés de cette
approche sont les suivantes:

1. L'espace E est somme directe de ses sous-espaces caractéristiques.


2. L'endomorphisme u est la somme d'un endomorphisme diagonalisable et d'un
endomorphisme nilpotent. Les deux endomorphismes commuttent entre eux.

Les démonstrations et l'analyse complète se trouvent dans l'article Réduction d'endomorphisme au


paragraphe sur la décomposition de Dunford.

Diagonalisabilité [modifier]

Article détaillé : Diagonalisation.

L'utilisation des polynômes fournit un critère spectaculaire de diagonalisabilité. Ce critère est un


cas particulier du paragraphe précédent.

Un endomorphisme u est diagonalisable si et seulement son polynôme minimal est scindé sur K et
à racines simples.

C'est en effet un cas particulier du cas précédent. Si les racines sont simples alors la composante
nilpotente est nulle et le résultat est démontré. Si l'endomorphisme est diagonalisable alors les
espaces propres se confondent avec les espaces caractéristiques et toute valeur propre possède une
multiplicité égale à 1.[réf. souhaitée]

Théorème de Cayley-Hamilton [modifier]

Article détaillé : Théorème de Cayley-Hamilton.

Il existe un polynôme important associé à un endomorphisme. C'est celui défini par le déterminant
de l'application u − λId. On l'appelle polynôme caractéristique. Il est important car ses racines sont
les valeurs propres de l'endomorphisme associé. Cette propriété est partagée par le polynôme
minimal. Elle amène donc la question : quel est le rapport entre polynôme caractéristique et
polynôme minimal ? La réponse est le théorème de Cayley-Hamilton :

Théorème de Cayley-Hamilton — Le polynôme minimal divise le polynôme caractéristique.

Pour s'en rendre compte, il est plus simple de plonger le corps dans sa clôture algébrique. Dans ce
contexte, il est possible d'appliquer une Réduction de Jordan à l'endomorphisme. Sa
représentation matricielle est alors triangulaire avec comme valeurs diagonales les valeurs
propres. Leurs ordre de multiplicité dans le polynôme caractéristique est la dimension de l'espace
caractéristique de valeur propre associée. Cette multiplicité est toujours supérieure à celle du
polynôme minimal qui a pour multiplicité l'ordre de l'application nilpotente associée.

Il existe une démonstration qui ne fait pas appel à la construction des polynômes
d'endomorphismes, elle est donnée dans l'article Théorème de Cayley-Hamilton.

Polynôme minimal d'un endomorphisme


Un article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

Le polynôme minimal est un outil qui permet d'utiliser des résultats de la théorie des polynômes
à l'algèbre linéaire. Il est en effet possible d'appliquer un polynôme à un endomorphisme, comme
expliqué dans l'article intérêt du concept de polynôme d'endomorphisme.

Il est défini comme le polynôme normalisé (son coefficient de plus haut degré est égal à 1) de plus
petit degré qui annule un endomorphisme c'est-à-dire une application linéaire d'un espace
vectoriel dans lui-même.

Il est utilisé essentiellement en dimension finie ; il joue un rôle important dans la réduction
d'endomorphisme. Il dispose de propriétés fortes dont la plus célèbre est probablement le
théorème de Cayley-Hamilton.

Les démonstrations associées au polynôme minimal se trouvent essentiellement dans l'article


Polynôme d'endomorphisme qui approfondit ce concept dans un cadre théorique plus large.

Il existe un cas particulier, utilisé dans le cadre de la théorie de Galois et la théorie algébrique
des nombres appelée polynôme minimal d'un nombre algébrique.

Sommaire
[masquer]

• 1 Définition
• 2 Intérêt du concept
• 3 Approche par l'exemple
o 3.1 Existence du polynôme minimal
o 3.2 Valeurs propres et racines
o 3.3 Polynôme minimal et diagonalisation
o 3.4 Polynôme minimal et polynôme caractéristique
• 4 Propriétés

• 5 Théorie de Galois

Définition [modifier]
On suppose que E est un espace vectoriel de dimension finie et égale à n. Soit u un
endomorphisme de E. Nous avons la définition suivante:

• Le polynôme minimal de l'endomorphisme u est le polynôme unitaire de


plus petit degré qui annule u.

Intérêt du concept [modifier]


Le polynôme minimal est l'outil théorique central pour la réduction d'endomorphisme dans le cas
de la dimension finie. Une réduction est une approche fréquente en algèbre, consistant à réduire
un concept en des sous-concepts plus simples et qui décrivent parfaitement le concept initial.
Dans le cas des endomorphismes, il en existe deux ayant un rôle particulier, les endomorphismes
nilpotents et les endomorphismes diagonalisables ; les polynômes minimaux apparaissent donc
pour l'analyse théorique de ces applications linéaires.

La raison du rôle central de cet outil réside dans le fait que la notion de polynôme
d'endomorphisme est le cadre théorique pour la démonstration des théorèmes permettant la
réduction. Le polynôme minimal y joue un rôle clé. Les démonstrations associées à cet article se
trouvent naturellement traitées dans l'article associé.

Par delà son rôle théorique, le polynôme minimal propose une approche appliquée très
opérationnelle. Il joue donc un rôle dans l'analyse des matrices en général et plus particulièrement
dans le cas de la Réduction de matrice, des Matrices diagonales ou nilpotentes.

Sa dimension appliquée sort des frontières de l'algèbre linéaire pour offrir un outil opérationnel de
résolution d'équations différentielles linéaires où il est utilisé dans de cas physiques comme les
systèmes oscillants.

Approche par l'exemple [modifier]


Considérons le cas où n est égal à 2, où l'espace vectoriel est réel, ce qui signifie que les
multiplications scalaires des vecteurs ont lieu sur les réels. Soit un endomorphisme u ayant la
représentation matricielle suivante dans une base (e1, e2):

Calculons alors la représentation matricielle du carré de u, on trouve:

Existence du polynôme minimal [modifier]

On peut alors remarquer qu'il existe une relation de dépendance linéaire entre u2, u et Id
l'endomorphisme identité. En effet:

Ce qui nous montre l'existence du polynôme minimal que nous notons

Dans cet exemple, nous avons montré l'existence du polynôme minimal et nous avons montré que
son degré est égal à la dimension de l'espace vectoriel. Cette propriété est générale en dimension
finie, le polynôme minimal existe toujours et son degré est inférieur ou égal à la dimension de
l'espace.

Valeurs propres et racines [modifier]

Un vecteur propre est un vecteur non nul dont l'image par l'endomorphisme lui est
proportionnelle. Une des propriétés du polynôme minimal réside dans le fait que ses racines sont
les valeurs propres. Recherchons alors des vecteurs propres en utilisant cette propriété. Pour la
valeur propre 2, on trouve:

et un vecteur propre est: u1 = e1 − e2

En résolvant ce système nous obtenons x = − y. En posant x = λ , nous obtenons y = − λ, qui est la


description paramétrique de tout vecteur propre. En choisissant λ = 1, nous obtenons le vecteur
propre (1,-1)

On peut vérifier de même que est un vecteur propre associé à la valeur propre 3.
Cette approche permet de calculer les valeurs et vecteurs propres sans calcul de déterminant. Plus
la dimension augmente, plus ce mode de calcul devient efficace.

Polynôme minimal et diagonalisation [modifier]


Nous disposons de deux vecteurs propres u1 et u2 qui forment une famille libre dans un espace de
dimension 2, ils constituent donc une base. Nous pouvons alors remarquer que dans cette base,
l'endomorphisme s'exprime sous la forme:

Une telle matrice possède des termes tous nuls en dehors de la diagonale. Cet exemple illustre une
propriété importante du polynôme minimal. L'endomorphisme est diagonalisable si et seulement
si le polynôme possède toutes ses racines et qu'aucune de ses racines ne soit multiple.

Polynôme minimal et polynôme caractéristique [modifier]

Le polynôme caractéristique correspond au déterminant de l'application . Il possède


une propriété particulière. À l'instar du polynôme minimal, ses racines sont aussi les valeurs
propres. Calculons alors le polynôme caractéristique P de notre endomorphisme:

Le polynôme caractéristique est égal dans ce cas au polynôme minimal. Il existe toujours une
relation entre les deux, même si l'égalité n'est pas systématique. Dans le cas général, le polynôme
minimal divise le polynôme caractéristique.

Propriétés [modifier]
• En dimension finie, le polynôme minimal existe toujours et il est de degré
inférieur ou égal à la dimension de l'espace.
• Les polynômes qui annulent l'endomorphisme et que l'on appelle
polynômes annulateurs de u forment un idéal principal dans l'anneau des
polynômes.

La notion de polynôme minimal d'un endomorphisme peut être restreinte à un vecteur. Le


polynôme minimal d'un vecteur x est le polynôme normalisé de plus petit degré qui, appliqué à u,
annule x.

• Si x est un vecteur, alors le polynôme minimal de x divise le polynôme


minimal. Il existe au moins un vecteur tel que les deux polynômes soient égaux.
• Les racines du polynôme minimal forment l'ensemble des valeurs propres.
• Un endomorphisme est diagonalisable si et seulement si son polynôme
minimal est scindé (c'est-à-dire qu'il possède toutes ses racines) sans racine
multiple.
• Le Théorème de Cayley-Hamilton nous indique que le polynôme minimal
divise le polynôme caractéristique.

Toutes ces propriétés sont démontrées dans l'article Polynôme d'endomorphisme qui développe la
théorie mathématique associée à ce concept et présente d'autres propositions plus avancées.

Théorie de Galois [modifier]


Article détaillé : polynôme minimal d'un nombre algébrique.

En théorie de Galois, étant donnés une extension de corps et un élément α de qui est
algébrique sur , le polynôme minimal de α est le polynôme normalisé p, à coefficients dans ,
de degré minimum tel que p(α)=0. Le polynôme minimal est irréductible, et tout autre polynôme
non nul q tel que q(α)=0, est multiple de p.

C'est en fait le polynôme minimal de l'endomorphisme de défini par u(x) = αx où est


considéré comme un -espace vectoriel.

En algèbre linéaire, un endomorphisme laisse stable un sous espace vectoriel F quand les
éléments de F ont pour image un élément de F.

La recherche de sous-espaces stables est étroitement liée à la théorie de la réduction des


endomorphismes.

Sommaire
[masquer]

• 1 Définitions
o 1.1 Représentation matricielle
o 1.2 Exemples
o 1.3 Extension de la notion
o 1.4 Stabilité et trigonalisation
o 1.5 Sous -espace caractéristiques
o 1.6 Sous-espaces cycliques
o 1.7 Sous-espaces stables et dualité
o 1.8 Commutation et stabilité

• 2 Voir aussi

Définitions [modifier]
Soient E espace vectoriel et u endomorphisme de E.

Un sous-espace vectoriel F de E est dit stable par u quand , c'est à dire :


. Dans ce cas u induit sur F un endomorphisme

L'endomorphisme induit est la double restriction de l'endomorphisme initial avec à la fois un


nouvel ensemble de départ et un nouvel ensemble d'arrivée. La condition de stabilité est une
condition nécessaire et suffisante pour que cette double restriction soit une application.
Représentation matricielle [modifier]

Si E est de dimension finie et muni d'une base adaptée à F (c'est-à-dire une base de F complétée
en une base de E), la matrice représentative de u peut être notée par blocs

Alors F est un espace stable par u si et seulement si C = 0, et dans ce cas la matrice de


l'endomorphisme induit sur F est A.

Exemples [modifier]

• Soit E un espace vectoriel et u un endomorphisme de E. Les deux sous-espaces triviaux


{0} et E sont stables par u.
• Un endomorphisme pour lequel les seuls sous-espaces stable sont les deux sous-espaces
triviaux est qualifié d'endomorphisme irréductible. Tout endomorphisme d'une droite
vectorielle est irréductible. Toute rotation d'un plan euclidien dont l'angle n'est pas un
multiple de π est irréductible. En dimension finie, un endomorphisme est irréductible si et
seulement si il est cyclique et son polynôme minimal est irréductible.
• Soit E un espace vectoriel et u un endomorphisme de E. Soit une famille de sous-
espaces stables par u. alors et sont stables par u
• Une droite est stable par un endomorphisme u si et seulement si elle est engendrée par un
vecteur propre de u. En conséquence, toute sous-espace engendré par des vecteurs propres
de u est stable par u. Si E est diagonalisable, on obtient ainsi tous les sous-espaces stables
par u.

Extension de la notion [modifier]

Pour E un espace vectoriel, F un sous-espace vectoriel de E et X un ensemble d'endomorphismes


de E, on dit que F est stable par X si F est stable par tout élément de X.

Stabilité et trigonalisation [modifier]

On suppose encore E de dimension finie n. Un endomorphisme est dit trigonalisable quand il


possède une matrice représentative triangulaire supérieure.

Cela revient à chercher des espaces , de dimensions


respectives 1,2,..., n, tous stables par u. On parle alors de drapeau stable par u.

Sous -espace caractéristiques [modifier]

Soit E un K-espace vectoriel, u un endomorphisme de E et P un polynôme à coefficients dans K.


Les sous-espaces KerP(u) et ImP(u) sont stables par u. Pour que cette construction soit
intéressante, il est nécessaire que l'endomorphisme P(u) soit à la fois non nul et non inversible.
C'est ce qui arrive en dimension finie lorsque le polynôme P est un diviseur strict du polynôme
minimal de u.
Soit λ une valeur propre de u, c'est à dire, en dimension finie, une racine du polynôme πu. Notons
γ la multiplicité de λ dans le polynôme πu. On peut définir deux espaces stables intéressant :

s'appelle espace propre associé à la valeur propre λ


s'appelle sous-espace caractéristique associé à la valeur propre λ, il
contient l'espace propre ci-dessus. L'espace caractéristique associée à la valeur propre
\lambda est égal à l'espace propre associé à la même valeur propre ssi la multiplicité de
cette valeur propre dans le polynôme minimal πu vaut 1.

Lorsque le polynôme πu est scindé, le théorème de décomposition des noyaux permet d'affirmer
que les sous-espaces caractéristiques sont supplémentaire. Dans ce cas u est diagonalisable ssi
chaque espace caractéristique est égal à l'espace propre correspondant.

Sous-espaces cycliques [modifier]

Soit E un K-espace vectoriel et u un endomorphisme de E. Soit x un vecteur de E. L'ensemble


est stable par u. On l'appelle sous-espace cyclique engendré par x.

On dit que E est un endomorphisme cyclique ssi il existe un vecteur x de E tel que le sous-espace
cyclique engendré par x est égal à E.

Si E est de dimension n et u est un endomorphisme cyclique de E, alors


est une base de E et la matrice de u dans cette base est une matrice
compagnon.

En dimension finie, un endomorphisme diagonalisable est cyclique ssi les valeurs propres de cet
endomorphisme sont simples (sont des racines simples du polynôme caractéristique.) Plus
généralement, un endomorphisme est cyclique ssi son polynôme minimal et son polynôme
caractéristique sont égaux (au signe près).

Sous-espaces stables et dualité [modifier]

Soit E un espace vectoriel et u un endomorphisme de E. Si F est stable par u, l'orthogonal de F est


stable par tu.

Soit E un espace préhilbertien et u un endomorphisme de E. On suppose que u admet un adjoint u


*
(c'est toujours le cas en dimension finie). Alors un sous-espace est stable par u ssi son orthogonal
est stable par u^*.

En particulier, dans un cadre euclidien ou hermitien, un hyperplan H est stable par


l'endomorphisme u si et seulement si un vecteur normal à H est propre pour l'adjoint u*.

Commutation et stabilité [modifier]

Si deux endomorphismes u et v commutent, tout espace propre pour l'un est stable par l'autre. .

Polynôme caractéristique
Un article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

En algèbre linéaire, à toute matrice carrée ou à tout endomorphisme d'un espace vectoriel de
dimension finie est associé un polynôme appelé polynôme caractéristique. Il renferme
d'importantes informations sur la matrice ou sur l'endomorphisme, comme ses valeurs propres,
son déterminant et sa trace.

Sommaire
[masquer]

• 1 Motivation
• 2 Définition formelle[1]
• 3 Coefficients
• 4 Exemple
• 5 Propriétés
• 6 Matrice compagnon
• 7 Matrice triangulaire
• 8 Notes et références

• 9 Voir aussi

Motivation [modifier]
Étant donné une matrice carrée M d'ordre n, nous voulons trouver un polynôme dont les racines
sont précisément les valeurs propres de M.

Si M est une matrice diagonale ou plus généralement une matrice triangulaire, alors les valeurs
propres de M, λ1, ..., λn sont les coefficients diagonaux de M et nous pouvons définir le polynôme
caractéristique comme étant

Nous remarquons que ce polynôme est le déterminant det(XIn − M) où In est la matrice unité.

Pour une matrice quelconque M, nous pouvons voir que si λ est une valeur propre de M, alors il
existe une colonne propre V non nulle tel que MV = λV, soit (λIn-M)V = 0 (où In est la matrice
unité.) Puisque V est non nulle, cela implique que la matrice λIn-M est singulière, et donc a son
déterminant nul. Nous venons de démontrer que les valeurs propres de M sont des zéros de la
fonction λ ↦ det(λ·In − M) ou des racines du polynôme det(XIn − M).

Définition formelle[1] [modifier]


Soit M une matrice carrée d'ordre n à coefficients dans un anneau commutatif. Le polynôme
caractéristique de M, noté pM(X), est le polynôme défini par
où In désigne la matrice identité d'ordre n. pM est bien un polynôme puisque le déterminant d'une
matrice est défini comme une somme de produits.

Remarque
Au lieu de l'expression (2), certains auteurs définissent le polynôme caractéristique
comme étant det(M − XIn). Ceci induit un changement de signe lorsque l'ordre n est
impair, puisque l'on a : . Nous
avons retenu la définition (2), qui présente l'avantage de rendre le polynôme
caractéristique unitaire. De cette façon, lorsque le polynôme caractéristique se laisse
effectivement décomposer en facteurs du premier degré, ses expressions (1) et (2)
coïncident.

Coefficients [modifier]
Le polynôme pM(X) d'une matrice carrée M d'ordre n est unitaire (son coefficient dominant est
égal à 1) et de degré n. Son développement est donné par

où fi(M) est une fonction polynomiale[2] en les coefficients de la matrice M. Deux matrices
semblables ont même polynôme caractéristique. Autrement dit, pour toute matrice inversible P,
fi(PMP − 1) = fi(M). Un développement explicite du déterminant de X-M donne[3] :

En particulier, le coefficient constant pM(0) est égal à (-1)n fois le déterminant de M, et le


coefficient de Xn-1 est égal à l'opposé de la trace de M.

Pour une matrice M d'ordre 2, le polynôme caractéristique s'exprime simplement comme

La propriété la plus importante des polynômes caractéristiques est que les valeurs propres de M
sont exactement les racines du polynôme pM(X) (une implication a été démontrée dans le
paragraphe Motivation.) En notant les racines de P prises avec multiplicité,

où si désigne le i-ième polynome symétrique élémentaire. (Ici, les racines sont prises dans une
extension finie de K lorsque K n'est pas clos.) Tout fonction polynomiale en les
coefficients de la matrice M et invariante par similitude est une fonction polynômiale en les
coefficients du polynôme caractéristique. Cette propriété est par exemple utilisée dans la
définition et la classification des classes caractéristiques en géométrie différentielle, ce qui
dépasse de loin le niveau de cet article.

Lorsque le corps de base K est de caractéristique nulle (par exemple, K=R ou C), les coefficients
fi (M) s'expriment comme des fonctions polynômiales en
.

Cette égalité est une conséquence d'un résultat de réduction, et dont la démonstration s'appuie sur
le lemme des noyaux.

Exemple [modifier]
Supposons que nous voulions déterminer le polynôme caractéristique de la matrice

Nous devons calculer le déterminant de la matrice

et celui-ci est égal à

Ce dernier polynôme est le polynôme caractéristique de M.

On peut aussi utiliser la formule

pour le cas d'une matrice de dimension (2,2).

Propriétés [modifier]
Le polynôme pM(t) est unitaire (son coefficient dominant est égal à 1) et son degré est égal à n.

Pour une matrice A d'ordre 3, le polynôme caractéristique s'exprime simplement comme

,
avec ai,j l'élèment en position (i, j) dans la matrice A.

Le théorème de Cayley-Hamilton affirme qu'en remplaçant X par M dans pM(X), on obtient la


matrice nulle: pM(M) = 0. Ce qui signifie que le polynôme caractéristique est un polynôme
annulateur de M. Par conséquent, il est possible de démontrer que le polynôme minimal divise le
polynôme caractéristique de M.

Deux matrices semblables ont le même polynôme caractéristique. La réciproque n'est pas vraie en
général : deux matrices ayant même polynôme caractéristique ne sont pas nécessairement
semblables.

La matrice M et sa transposée ont le même polynôme caractéristique.

Une matrice M est semblable à une matrice triangulaire si et seulement si son polynôme
caractéristique peut être complètement décomposé en produit de facteurs de degré un à
coefficients dans .

En fait, M est même semblable à une matrice de Jordan dans ce cas.

1. Propriété de commutation : pAB = pBA

• Cas d'un corps quelconque (avec astuce en utilisant les matrices par blocs) :

Il suffit de prendre le déterminant des deux membres de cette équation pour arriver au résultat.

• Cas des corps ou :

Le fait de remarquer que l'ensemble des matrices inversibles est dense dans :
permet de conclure.

Matrice compagnon [modifier]

Soit un polynôme à coefficients dans . La matrice d'ordre


n
qui admet p(X) comme polynôme caractéristique (et polynôme minimal), est appelée matrice
compagnon du polynôme (ou selon certains ouvrages, sa transposée). Une des méthodes utilisées
en calcul numérique pour calculer des valeurs approchées des racines d'un polynôme est d'en
construire la matrice compagnon puis de calculer des valeurs approchées des valeurs propres de
cette matrice à l'aide d'une méthode itérative.

Matrice triangulaire [modifier]


Dans le cas d'une matrice triangulaire (supérieure) d'ordre n, matrice de la forme :

le déterminant pT(X) = det(XIn − T) qui exprime le polynôme caractéristique se factorise :

Le même raisonnement s'applique bien sûr au cas d'une matrice triangulaire inférieure. D'une
façon générale, les valeurs propres d'une matrice triangulaire coïncident donc effectivement avec
ses éléments diagonaux, comme annoncé au début.

Lemme des noyaux


Un article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

En algèbre linéaire, le lemme des noyaux est un résultat sur la réduction des endomorphismes.
Dans un espace vectoriel E sur un corps K, si un opérateur u de E est annulé par un polnôme P(X)
à coefficients dans K, alors ce lemme prévoit une décomposition de E comme somme directe de
sous-espaces vectoriels stables par u. Ces derniers se définissent comme noyaux de polynômes en
u, les projecteurs associés étant eux-mêmes des polynômes en u.
La démonstration traduit l'identité de Bezout portant sur les polynômes à des sous-espaces
vectoriels. Résultat fondamental, le lemme des noyaux conduit à la décomposition de Dunford
puis à la décomposition de Jordan. Plus modestement, le lemme des noyaux montre qu'un
opérateur u est diagonalisable s'il est annulé par un polynôme à racines simples.

Sommaire
[masquer]

• 1 Enoncé
o 1.1 Démonstration
 1.1.1 Initialisation
 1.1.2 Hérédité

• 2 Applications

Enoncé [modifier]
Lemme des noyaux — Soit E un espace vectoriel sur un corps K et soit f un endomorphisme de
E. Si (avec ) sont premiers entre eux deux à deux, alors les
sous-espaces vectoriels Vi = ker(Pi(f)) (où ) sont en somme directe et

De plus, la projection sur Vi parallèlement à est Qi(u) pour un polynôme Qi.

Démonstration [modifier]

Par récurrence sur n. On pose

Initialisation [modifier]

On suppose n = 2. On a alors P = P1P2. D'après le théorème de Bézout, il existe


tel que U1P1 + U2P2 = 1. On en déduit que (U1P1 + U2P2)(f) = idE (idE
désignant l'application identité de E).

Soit . On a
, donc
.

Soit . On a alors x = [(U1P1)(f)](x) + [(U2P2)(f)](x). Or


ce qui montre que . De même, on montre que
.

On en déduit donc que

Hérédité [modifier]

Supposons le lemme des noyaux démontré pour un . On a


. On pose et Q2 = Pn + 1. On a donc P = Q1Q2. Les
polynômes Q1 et Q2 sont premiers entre eux, donc d'après l'étude ci-dessus, on a
. Or en appliquant l'hypothèse de récurrence,
. Finalement,

ce qui montre que le lemme des noyaux est vrai pour n + 1.

Applications [modifier]
Le lemme des noyaux sert pour la réduction des endomorphismes. Par exemple :

Réduction à une forme diagonale par blocs — Soit E un espace vectoriel de dimension finie sur
un corps K et soit f un endomorphisme de E. Soit un polynôme annulateur de f (par

exemple son polynôme caractéristique, d'après le théorème de Cayley-Hamilton) et une


factorisation de P dont les facteurs sont deux à deux premiers entre eux. Alors il existe une base
de E et des matrices telles que

où ni = dimkerPi(f).

[Enrouler]
Démonstration

Par hypothèse kerP(f) = E, donc, d'après le lemme des noyaux :


Chaque sous-espace kerPi(f) est stable par f, donc la matrice de f dans n'importe quelle base de E
adaptée à la décomposition précédente en sous-espaces stables, est diagonale par blocs comme
souhaité.

Décomposition de Dunford
Un article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

En mathématiques, la décomposition de Dunford s'inscrit dans la problématique de la réduction


d'endomorphisme. Cette approche consiste à décomposer l'espace vectoriel en une somme directe
de sous-espaces stables où l'expression de l'endomorphisme est plus simple.

Ce n'est pas une réduction dans le sens où elle n'est pas maximale. C'est-à-dire qu'il est parfois
possible de pousser la décomposition en sous-espaces vectoriels plus petits.

Elle suppose comme hypothèses que l'espace vectoriel est de dimension finie et que le polynôme
minimal est scindé, c'est-à-dire qu'il s'exprime comme produit de polynômes du premier degré.
C'est toujours le cas si le corps est algébriquement clos, comme par exemple celui des nombres
complexes. Dans le cas ou la propriété n'est pas vérifiée, alors il est possible d'étendre le corps à
sa clôture algébrique, et l'espace vectoriel à ce nouveau corps et dans ce contexte d'appliquer la
décomposition de Dunford. Le corps des nombres réels se voit par exemple très généralement
étendre pour permettre une application de cette décomposition.

La décomposition de Dunford prouve que tout endomorphisme est la somme d'un endomorphisme
diagonalisable et d'un endomorphisme nilpotent, les deux endomorphismes commutant et étant
uniques.

Cette décomposition est largement appliquée. Elle permet un calcul matriciel souvent rapide. C'est
néanmoins souvent sous la forme de la réduction de Jordan qu'elle est utilisée.

Sommaire
[masquer]

• 1 Théorème
• 2 Démonstration
o 2.1 Via les sous-espaces caractéristiques
o 2.2 Via les projecteurs
• 3 Cas d'applications

• 4 Réduction de Jordan

Théorème [modifier]
Le théorème de diagonalisabilité permet de déterminer la structure de u quand il admet un
polynôme annulateur scindé à racines simples. La décomposition de Dunford s'applique à un cas
plus général.

Théorème de la décomposition de Dunford — Soit u un endomorphisme d'un espace vectoriel


E. Si u admet un polynôme minimal scindé, alors il peut s'écrire sous la forme u=d+n avec d un
endomorphisme diagonalisable et n un endomorphisme nilpotent tels que d et n commutent (c'est-
à-dire dn=nd). De plus d et n sont des polynômes en u et sont uniques.

Démonstration [modifier]
Via les sous-espaces caractéristiques [modifier]

Article détaillé : Sous-espace caractéristique.

L'idée initiale de cette approche est donnée par la proposition suivante, démontrée dans l'article
sur les polynômes d'endomorphismes dans le paragraphe sur les polynômes minimaux :

• Soit une décomposition en facteurs de degré supérieur ou égal à 1 et


premiers deux à deux du polynôme minimal d'un endomorphisme u. Alors la
suite des noyaux est une décomposition de l'espace E en somme
directe de sous-espaces stables par l'endomorphisme.

Or, si le polynôme minimal est scindé, il peut s'écrire sous la forme:

Si l'on note le noyau de l'endomorphisme , alors le paragraphe précédent nous


indique que la suite forme une somme directe de l'espace E de sous-espaces non réduits à 0
et stables par l'endomorphisme. On appelle ces sous-espaces les sous-espaces caractéristiques.
Nous avons alors les trois propriétés suivantes:

• L'espace E est somme directe de ces sous-espaces caractéristiques.


• Les sous-espaces caractéristiques sont non réduits au vecteur nul et stables
par l'endomorphisme. La restriction de l'endomorphisme à est la somme d'une
homothétie de rapport et d'un endomorphisme nilpotent d'ordre .
• La suite des est la suite des valeurs propres (i.e. le spectre de u). Les
sous-espaces propres associés sont inclus dans les sous-espaces caractéristiques.

Ces considérations permettent de démontrer la décomposition de Dunford. Elle permettent de plus


de démontrer les propriétés suivantes :

• Le polynôme minimal est le produit des polynômes de degré 1 et de racine


les valeurs propres à la puissance l'indice de l'endomorphisme nilpotent associé.
• Le polynôme caractéristique est le produit des polynômes de degré 1 et de
racines les valeurs propres à la puissance la dimension de l'espace caractéristique
associé.

• Le déterminant est égal au produit des valeurs propres élevées à la


puissance la dimension de l'espace caractéristique associé.

• La trace est égale à la somme des valeurs propres pondérées par les
dimensions des espaces caractéristiques associés.

[Dérouler]
Démonstration

Via les projecteurs [modifier]

Article détaillé : Projecteur (mathématiques).

Un résultat notoire de l'approche par les polynômes d'endomorphismes réside dans le fait que la
connaissance du polynôme minimal permet de définir une algorithmique fournissant à la fois les
projecteurs sur les espaces caractéristiques mais aussi la composante diagonale et nilpotente de
l'endomorphisme.

• La projection sur Ei parallèlement à la somme directe des autres espaces


caractéristiques s'exprime comme un polynôme de l'endomorphisme u.
• La composante diagonale d de l'endomorphisme u s'exprime comme un
polynôme de l'endomorphisme u.
• La composante nilpotente n de l'endomorphisme u s'exprime comme un
polynôme de l'endomorphisme u.

[Dérouler]
Démonstration

Cas d'applications [modifier]


En dimension finie le théorème de Cayley-Hamilton assure que χu(u) = 0 où χu désigne le
polynôme caractéristique de u. Si χu est scindé alors u est décomposable.

C'est en particulier le cas pour tout endomorphisme d'un espace de dimension finie sur un corps
algébriquement clos ( notamment).

Réduction de Jordan [modifier]


La décomposition de Dunford permet d'obtenir la réduction de Jordan en dimension finie. En
effet, d et n commutent donc les sous-espaces propres de d sont stables par n.

La restriction de n au sous-espace propre admet une matrice formée de blocs de Jordan nilpotents
ce qui donne, en ajoutant λIp, des blocs de Jordan pour d+n dans une base adaptée. Ainsi on
obtient une matrice diagonale par blocs formée de blocs de Jordan en utilisant l'union de ces
bases.
Réduction d'endomorphisme
Un article de Wikipédia, l'encyclopédie libre.

(Redirigé depuis Réduction des endomorphismes)


Aller à : Navigation, rechercher

En mathématiques, et plus particulièrement en algèbre linéaire, la réduction d'endomorphisme


est une technique mathématique qui a pour objectif d'exprimer des matrices et des
endomorphismes sous une forme plus simple, notamment pour faciliter les calculs. Cela consiste
essentiellement à trouver une base de l'espace vectoriel qui permet d'exprimer plus simplement
l'endomorphisme dans cette nouvelle base, et à décomposer l'espace en sous-espace vectoriels
stables par l'endomorphisme.

Sommaire
[masquer]

• 1 Motivation
o 1.1 Le concept de réduction
o 1.2 Endomorphisme et vecteur propre
o 1.3 Réduction de Jordan
o 1.4 Endomorphisme et distance
o 1.5 Analyse fonctionnelle et opérateur linéaire
• 2 Histoire
• 3 Cas général de la dimension finie
o 3.1 Réduction et sous-espaces propres
o 3.2 Diagonalisation
 3.2.1 Diagonalisation et polynôme caractéristique
 3.2.2 Endomorphisme diagonalisable et polynôme minimal
o 3.3 Cas où le polynôme minimal est scindé
 3.3.1 Réduction et endomorphisme nilpotent
 3.3.2 Décomposition de Dunford
 3.3.3 Réduction de Jordan
o 3.4 Cas du corps des réels
o 3.5 Cas d'un corps quelconque
• 4 Utilisation de la réduction en dimension finie
• 5 Réduction et forme bilinéaire en dimension finie
• 6 Réduction et analyse fonctionnelle
• 7 Sources
o 7.1 Liens internes

o 7.2 Références

Motivation [modifier]
Le concept de réduction [modifier]
La technique de réduction en algèbre est fréquente, elle consiste à réduire un concept, en sous-
concepts les plus simples possible et permettant de reconstruire le cas général. Dans le cas des
endomorphismes (c’est-à-dire des applications linéaires d'un espace vectoriel dans lui-même) la
technique consiste à décomposer l'espace vectoriel en espaces plus petits. Cette réduction doit
posséder six propriétés :

1. L'endomorphisme définit par restriction un nouvel endomorphisme sur chacun des sous-
espaces (c'est-à-dire chacun est un sous-espace vectoriel stable), ainsi la petite structure
est une entité intrinsèque avec sa propre cohérence.
2. Les intersections des sous-espaces pris deux à deux sont réduites au vecteur nul, ce qui
assure l'indépendance de chacune des petites structures.
3. Elles engendrent l'espace entier, ce qui offre l'exhaustivité de l'analyse.
4. La réduction décrit l'intégralité de la structure originelle.
5. Elle est maximale, c'est-à-dire qu'il n'existe pas de décomposition en éléments plus petits
et donc plus simple.
6. Elle est aussi simple que possible, c'est-à-dire que pour chacune des sous-structures il
n'existe pas de représentation plus élémentaire.

Toutefois, elle n'est pas unique.

Endomorphisme et vecteur propre [modifier]

La structure d'espace vectoriel sur lequel s'applique l'endomorphisme possède des propriétés
différentes selon les cas. Dans l'hypothèse où la dimension est finie, alors la structure du corps
détermine l'essentiel des propriétés de réduction. Une approche très générale, pour établir la
relation entre la structure du corps et la réduction des endomorphismes consiste à analyser la
structure de l'anneau des polynômes associée au corps. Cette approche est analysée dans l'article
polynôme d'endomorphisme. Le cas le plus simple est celui où le corps est dit algébriquement
clos, c'est-à-dire que tout polynôme admet au moins une racine. C'est le cas des nombres
complexes. Alors la réduction est particulièrement efficace. La notion de valeur propre devient le
bon outil dans ce contexte. En fait, l'analyse du polynôme minimal montre qu'il existe un cas,
générique du point de vue topologique, mais qui n'est pas le cas général, où il existe une base de
vecteurs propres. On parle alors de diagonalisation.

Réduction de Jordan [modifier]

Ce qui empêche que le cas générique évoqué ci-dessus, celui de la diagonalisation, soit le cas
général, ce sont essentiellement les endomorphismes nilpotents. Le cas général, comprenant cette
obstruction due aux endomorphismes nilpotents, a été analysé par le mathématicien Camille
Jordan. On montre que tout endomorphisme en dimension finie sur un corps algébriquement clos
se décompose en sous-espaces caractéristiques où l'endomorphisme est la somme d'une
homothétie et d'un endomorphisme nilpotent.

Endomorphisme et distance [modifier]

Il existe un cas particulier d'espace vectoriel : ceux qui sont munis d'une distance compatible avec
la structure vectorielle. Un cas important est celui où la distance est euclidienne (ou hermitienne
dans le cas complexe). L'ajout de cette structure offre une nouvelle voie d'accès à la
problématique de la réduction d'endomorphisme. S'il est compatible avec la distance, c'est-à-dire
s'il est normal, alors une nouvelle approche est possible. Dans ce contexte, l'exception nilpotente
est absente. La réduction est plus simple et les techniques algorithmiques associées plus rapides.
Analyse fonctionnelle et opérateur linéaire [modifier]

Ce cas guide Hilbert dans une nouvelle direction. La généralisation de l'approche aux opérateurs
différentiels. Ces opérateurs comme le laplacien ou le d'alembertien sont la clé d'importants
problèmes en physique. Ils peuvent se représenter comme une équation linéaire, mais dans un
espace de dimension infinie. Si l'approche générale de Jordan est vouée à l'échec car les
polynômes ne s'appliquent pas dans ce contexte, en revanche ces opérateurs présentent les bonnes
propriétés de compatibilité vis-à-vis d'une distance qu'il est possible de définir sur l'espace.
Hilbert, propose une approche novatrice, consistant à étudier les propriétés géométriques de ces
espaces de dimension infinie, au lieu de se limiter à une analyse d'un point particulier: la fonction
solution de l'équation. Cette approche ouvre une nouvelle branche des mathématiques devenue
essentielle au siècle dernier: l'analyse fonctionnelle. La physique moderne, aussi bien sous sa
forme quantique que sous sa forme relativiste, utilise largement cette vision des choses.

Histoire [modifier]
Cette section est vide, pas assez détaillée ou incomplète. Votre aide est la bienvenue !

Cas général de la dimension finie [modifier]


Réduction et sous-espaces propres [modifier]

Article détaillé : Valeur propre (synthèse).

Il existe un premier candidat naturel pour une réduction, elle correspond à une décomposition en
sous-espaces propres. Une présentation complète du concept est proposé dans l'article détaillé.

En résumé, on peut dire qu'un vecteur propre est un vecteur non nul dont l'image par
l'endomorphisme est colinéaire au vecteur d'origine. Le rapport de colinéarité est appelé valeur
propre. L'ensemble des vecteurs propres pour une valeur propre donnée associée au vecteur nul
forme un sous-espace vectoriel appelé sous-espace propre.

Une décomposition en sous-espaces propres représente donc un grand nombre des propriétés
recherchées pour une réduction.

• Les espaces propres sont stables par l'endomorphisme.


• L'intersection de deux sous-espaces propres est réduite au vecteur nul.
• La restriction de l'endomorphisme à un sous-espace propre est une homothétie, c'est-à-dire
une application qui à un vecteur x associe le vecteur λ.x. C'est donc une application
particulièrement simple.

Les propriétés recherchées dans la réduction sont presque rassemblées.

[Dérouler]
Démonstration

Diagonalisation [modifier]
Fig. 4. Endomorphisme diagonalisable en dimension 3 sur les nombres réels: un cube est
transformé en parallélépipède.
Article détaillé : Diagonalisation.

Il suffirait en effet d'une propriété supplémentaire pour permettre une réduction à l'aide de cette
approche: que la somme directe des sous-espaces propres est l'espace vectoriel entier. Cela
signifie qu'il existe une base B de vecteurs propres. Les deux propriétés manquantes sont alors
réunies, la réduction est alors composée de sous-espaces de dimension 1, ceux qui sont engendrés
par les vecteurs de la base. Cette décomposition est maximale car il n'existe pas de décomposition
en somme directe de sous-espaces non réduits au vecteur nul qui contiennent plus de sous-espaces
que la dimension de l'espace.

Le fait que B soit une base garantit que la décomposition engendre bien l'espace entier.

En termes plus formels, si u est un endomorphisme d'un -espace vectoriel de dimension finie
égale à n, où n est un entier strictement positif. Alors les trois propositions suivantes sont
équivalentes. Elles fournissent la définition d'un premier cas de réduction pour u.

• u est diagonalisable
• Il existe une base de vecteurs propres.
• La somme des dimensions des sous-espaces propres est égale à la
dimension de l'espace entier.
• La somme des sous-espaces propres est l'espace entier.
• Toute représentation matricielle de u est diagonalisable.

La démonstration se trouve dans l'article Diagonalisation, sauf pour la dernière équivalence qui
est traitée dans Matrice diagonale.

Diagonalisation et polynôme caractéristique [modifier]


Article détaillé : Polynôme caractéristique.

Il existe d'autres propriétés importantes associées à cette définition. Elles proviennent


essentiellement d'une approche polynômiale sur l'endomorphisme. Le polynôme caractéristique
est, en dimension finie, un outil puissant d'analyse des endomorphismes. Il est défini comme le
déterminant suivant: det(u -λ.I ). Comme le déterminant s'annule si et seulement si le noyau de
l'application linéaire associée n'est pas réduit au vecteur nul, le polynôme possède comme racines
les valeurs propres de l'endomorphisme. Trois propriétés analysent la relation entre
diagonalisation et polynômes caractéristiques.
• Si le polynôme caractéristique possède n racines distinctes alors
l'endomorphisme est diagonalisable.

C'est une condition suffisante, mais non nécessaire. Considérons le cas d'une homothétie dans le
cas où n n'est pas égal à 1. Le polynôme caractéristique ne possède qu'une racine multiple.
Pourtant l'endomorphisme est clairement diagonalisable car toute base est constituée de vecteurs
propres uniquement. Il existe de plus la condition nécessaire suivante:

• Si l'endomorphisme est diagonalisable, alors le polynôme caractéristique


est scindé.

Dire que le polynôme caractéristique P(X) est scindé signifie qu'il peut s'écrire comme puissance
de monômes:

Pour l'obtention d'une condition nécessaire et suffisante à partir du polynôme caractéristique, une
définition supplémentaire est nécessaire.

• l' ordre de multiplicité algébrique d'une valeur propre est l'ordre de


multiplicité de la racine dans le polynôme caractéristique.

L'ordre de multiplicité algébrique d'une valeur propre λ correspond donc à la puissance du


monôme (X-λ) dans le polynôme caractéristique. L'adjonction de cette définition permet
l'expression d'une condition nécessaire et suffisante de diagonalisabilité.

• L'endomorphisme est diagonalisable si et seulement si, tout sous-espace


propre possède une dimension égale à la multiplicité algébrique de la valeur
propre associée.

[Enrouler]
Démonstration

• Si le polynôme caractéristique possède n racines distinctes, alors


l'endomorphisme est diagonalisable.

Si le polynôme caractéristique possède n racines distinctes alors il existe n vecteurs propres aux
valeurs propres associées distinctes. Or l'article sur les valeurs propres nous apprend dans la boîte
déroulante des propriétés supplémentaires des propriétés des valeurs et vecteurs propres' dans le
cas de la dimension finie, qu'ils sont linéairement indépendants. Or une famille libre de cardinal
égal à la dimension de l'espace forme une base. Ce qui démontre la proposition.

• L'endomorphisme est diagonalisable si et seulement si, tout sous-


espace propre possède une dimension égale à la multiplicité algébrique de la
valeur propre associée.

Si l'endomorphisme est diagonalisable, alors il existe une représentation matricielle diagonale. Le


calcul du polynôme caractéristique à l'aide d'une telle représentation montre immédiatement que
la dimension d'un sous-espace propre est égale à la multiplicité algébrique du polynôme
caractéristique.
Réciproquement, si la multiplicité algébrique de la valeur propre est égale à la dimension du sous-
espace propre associé, alors la somme des dimensions des sous-espaces propres est égale au degré
du polynôme et donc à la dimension de l'espace entier. Le paragraphe précédent montre que cela
prouve le caractère diagonalisable de l'endomorphisme.

• Si l'endomorphisme est diagonalisable, alors le polynôme


caractéristique est scindé.

C'est une conséquence directe de la proposition précédente.

Endomorphisme diagonalisable et polynôme minimal [modifier]

Article détaillé: Polynôme d'endomorphisme

Si l'approche par le polynôme caractéristique offre des premiers résultats, elle n'est néanmoins pas
intégralement satisfaisante. En effet, le calcul du polynôme est souvent lourd, et la recherche de la
dimension des sous-espaces propres n'est pas simple.

Le concept de polynôme d'endomorphisme propose un autre candidat, souvent plus pertinent pour
l'analyse des applications linéaires en dimension finie. C'est le polynôme minimal. À l'instar du
polynôme caractéristique, ses racines sont aussi les valeurs propres. Le polynôme minimal est
souvent plus appliqué. Enfin, le polynôme minimal dispose de propriétés théoriques fortes, que
l'on trouve dans l'article Polynôme d'endomorphisme. On y trouve par exemple la condition
nécessaire et suffisante suivante:

• Un endomorphisme u est diagonalisable si et seulement si son polynôme


minimal est scindé sur K et à racines simples.

Cas où le polynôme minimal est scindé [modifier]

Réduction et endomorphisme nilpotent [modifier]

Article détaillé: Endomorphisme nilpotent

Même dans le cas où le polynôme minimal est scindé, il existe au moins un cas où la
diagonalisation est impossible, celui des endomorphismes nilpotents. L'unique valeur propre est 0,
donc l'unique sous-espace propre est son noyau. En conséquence le seul endomorphisme nilpotent
diagonalisable est l'endomorphisme nul.

Les endomorphismes nilpotents disposent néanmoins d'une réduction traitée et démontrée dans
l'article Endomorphisme nilpotent dans le paragraphe nilpotence et réduction en dimension finie.

• Il existe une suite de sous-espaces vectoriels stables par u, non


réduits au vecteur nul, qui engendrent par somme directe l'espace tout entier, et
telle que, pour tout i, il existe un vecteur non nul d'indice pour lequel la
famille forme une base de . La juxtaposition de
ces familles forme une base de l'espace entier. On appelle ces sous-espaces des
espaces de Jordan.
Nous y trouvons bien toutes les caractéristiques d'une réduction, une décomposition en somme
directe de sous-espaces stables qui engendre l'espace entier. Cette décomposition est bien
maximale comme le montre l'article précédent, et pour un sous-espace, il est difficile de trouver
une représentation plus simple.

Décomposition de Dunford [modifier]


Article détaillé : Décomposition de Dunford.

Si le cas des endomorphismes nilpotents apparaît dans un premier temps comme une exception au
cas diagonalisable, la théorie des polynômes d'endomorphismes nous montre que cette exception
est unique. Plus précisément, dans le cas de la dimension finie et si le polynôme minimal est
scindé, alors la proposition suivante, connue sous le nom de décomposition de Dunford est vraie:

• L'endomorphisme u est la somme d'un endomorphisme diagonalisable


et d'un endomorphisme nilpotent qui commutent entre eux.

Démonstration dans Polynôme d'endomorphisme

Dans le contexte du théorème, le polynôme minimal s'écrit sous la forme suivante:

Or une propriété démontrée dans l'article sur les polynômes d'endomorphismes dans le paragraphe
sur les polynômes minimaux indique que la suite des noyaux est une
décomposition en somme directe de l'espace E de sous-espaces stables par l'endomorphisme. Ces
noyaux s'appellent les espaces caractéristiques. Sur chacun de ces sous-espaces la restriction de u
est la somme d'une homothétie et d'un endomorphisme nilpotent. Ces restrictions possèdent donc
une représentation simple.

Les quatre propriétés suivantes résument l'essentiel des propriétés associées à la décomposition de
Dunford:

• L'espace E est somme directe de ses espaces caractéristiques.


• Les sous-espaces caractéristiques sont non réduits au vecteur nul et stables
par l'endomorphisme. La restriction de l'endomorphisme à est la somme d'une
homothétie de rapport et d'un endomorphisme nilpotent d'ordre .
• La suite des est la suite des valeurs propres. Les sous-espaces propres
associés sont inclus dans les sous-espaces caractéristiques.
• Les projecteurs sur les espaces caractéristiques ainsi que les
endomorphismes diagonalisables et nilpotents s'expriment sous forme de
polynômes d'endomorphisme de u.

Démonstration dans Décomposition de Dunford

L'hypothèse sur le fait que le polynôme minimal soit scindé représente une contrainte souvent
faible. La clôture algébrique des nombres complexes garantit déjà la généralité de la condition.
Pour le cas des nombres réels, il est toujours possible d'étendre l'espace vectoriel aux corps des
complexes pour la recherche des solutions, puis dans un deuxième temps de ne choisir que des
solutions réelles. Pour les applications, cette démarche est souvent utilisée par les physiciens.

Réduction de Jordan [modifier]


Article détaillé : Réduction de Jordan.

La décomposition de Dunford n'est néanmoins pas une réduction. En effet, cette décomposition
n'est pas maximale. Un sous-espace caractéristique se décompose encore.

Sur un sous-espace caractéristique, la restriction de l'endomorphisme s'exprime comme la somme


d'une homothétie et d'un endomorphisme nilpotent. Or tout sous-espace est stable par une
homothétie. Il est donc possible de choisir la décomposition que l'on souhaite pour les sous-
espaces caractéristiques. La réduction des endomorphismes nilpotents nous fournit une
décomposition en sous-espaces stables maximales à l'aide de la définition des espaces de Jordan.

• Un espace de Jordan est un sous-espace vectoriel stable par


l'endomorphisme et disposant d'une base (e1, e2, ep) tel que:

Cette définition nous permet alors de décrire la Réduction de Jordan pour tout endomorphisme sur
un espace vectoriel de dimension finie disposant d'un polynôme minimal scindé:

• L'espace vectoriel est somme directe d'espaces de Jordan. Il n'existe


aucune décomposition en somme directe de l'espace vectoriel non réduit au
vecteur nul et stable par u comportant plus de composantes que celle de Jordan.

Soit E un espace vectoriel sur et u un endomorphisme de E, alors :

• Le vecteur x de E non nul est dit vecteur propre de u si et seulement s'il existe un élément
λ de tel que u(x) = λx,
• le scalaire λ élément de est dit valeur propre de u si et seulement s'il existe un vecteur x
non nul de E tel que u(x) = λx,
• soit λ une valeur propre de u alors l'ensemble constitué des vecteurs propres de valeur
propre λ, et du vecteur nul, forme un sous-espace vectoriel de E appelé espace propre de u
associé à la valeur propre λ.

En mathématiques, le spectre d'un endomorphisme d'espace vectoriel E (et de matrice associée A


dans une base quelconque de E) est l'ensemble des valeurs propres de cet endomorphisme.

Sommaire
[masquer]

• 1 Cas de la dimension finie


o 1.1 Représentation matricielle
o 1.2 Représentation par endomorphisme

• 2 Dimension quelconque
Cas de la dimension finie [modifier]
Représentation matricielle [modifier]

Si E est un K-espace vectoriel de dimension finie, on appelle spectre de la matrice


l'ensemble de ses valeurs propres :
.

Les valeurs propres sont solution de l'équation: P(X) = 0, où P(X) est le polynôme caractéristique
associé à l'endomorphisme. Le polynôme caractéristique est donné par la relation :

P(X) = det(A − X * I)

(det est l'opérateur "déterminant", A la matrice de l'endomorphisme dans une base de E, et I la


matrice identité)

En algèbre linéaire, le projecteur est un endomorphisme qu'on peut présenter de deux façons
équivalentes

• c'est une projection linéaire associée à une décomposition de E comme somme de deux
sous-espaces supplémentaires, c'est-à-dire qu'elle permet d'obtenir un des termes de la
décomposition correspondante
• c'est aussi un endomorphisme idempotent : il vérifie p2=p

On peut aussi définir, dans un espace de Hilbert, le projecteur sur un convexe fermé (notion
topologique et non plus algébrique)

• c'est l'application qui a tout élément de l'espace associe l'élément du convexe le plus
proche
• dans le cas où le convexe est un sous-espace vectoriel, on retrouve un cas particulier de
projection orthogonale

Sommaire
[masquer]

• 1 Définition de la projection vectorielle


o 1.1 Propriétés
o 1.2 Identification des projecteurs et des projections
o 1.3 Projecteur associé à un autre projecteur
• 2 Projecteurs associés à une famille d'espaces supplémentaires
• 3 Symétries
• 4 Projecteurs orthogonaux
• 5 Représentation matricielle en base adaptée
• 6 Voir aussi

o 6.1 Articles connexes


Définition de la projection vectorielle [modifier]
Soit F un sous-espace vectoriel de E, G un supplémentaire dans E. N'importe quel vecteur x de E
peut s'écrire d'une façon unique comme somme d'un vecteur de F et d'un vecteur de G :
. La projection p sur F parallèlement à G est alors
l'application p qui associe à tout x de E le vecteur x' de F.

Propriétés [modifier]

• Im(p)=F :
o

o
• Ker(p)=G :
o et
o

Identification des projecteurs et des projections [modifier]

Définissons les projecteurs de E comme les endomorphismes p de E vérifiant p2=p. On vient de


voir que toute projection est un projecteur. On prouve maintenant la réciproque.

Théorème de caractérisation des projecteurs

Tout projecteur de E est une projection, précisément la projection sur Im p parallèlement à Ker p.
Notamment si p est un projecteur Im p et Ker p sont des sous-espaces supplémentaires.

• Démonstration : on fait une démonstration valable en toute dimension

• les deux espaces sont en somme directe : si x est dans leur intersection, x
est de la forme p(y) et vérifie p(x)=0=p2(y)=p(y)=x.
• tout vecteur x de E se décompose, sous la forme (d'ailleurs unique) x = p(x)
+ [x − p(x)]

Le premier élément est dans Im p, le second dans Ker p.

Finalement « projecteurs » et « couples d'espaces vectoriels supplémentaires » se correspondent


bijectivement.

Projecteur associé à un autre projecteur [modifier]

La projection sur G parallèlement à F est l'application q=Id-p, appelé aussi projecteur associé à p.

L'image de q n'est autre que le noyau de p, l'image de p est le noyau de q.


Projecteurs associés à une famille d'espaces supplémentaires
[modifier]

Un espace vectoriel E est somme directe de sous espaces vectoriels si et seulement


si pour tout il existe des projecteurs vérifiant :
et si .

Symétries [modifier]
Une symétrie vectorielle est un endomorphisme s tel que s2 est l'identité (ne pas confondre avec
endomorphisme symétrique).

• p est un projecteur si et seulement si s=2p-Id est une symétrie vectorielle

La recherche des endomorphismes tels que p2=p, ou que s2=Id effectuée ici est un cas particulier
simple du traitement de l'équation P(u)=0 pour P polynôme et u endomorphisme, voir l'article
polynôme d'endomorphisme pour des généralisations.

Projecteurs orthogonaux [modifier]


• Dans un espace quadratique, un projecteur est un endomorphisme symétrique si et
seulement si . On a alors un projecteur orthogonal, ou une
projection orthogonale.

Représentation matricielle en base adaptée [modifier]


En choisissant une base de l'espace qui soit la réunion d'une base du noyau et d'une base de
l'image (ce qui est possible, car image et noyau sont supplémentaires), on obtient une
représentation matricielle vérifiant les propriétés suivantes :

• Sur la diagonale apparaissent uniquement des "1" et des "0", et le nombre de "1" est égal
au rang du projecteur ;
• Les autres coefficients sont nuls.

En algèbre linéaire, une matrice carrée M d'ordre n ( ) à coefficients dans un corps


commutatif K, est dite diagonalisable si elle est semblable à une matrice diagonale, c'est-à-dire
s'il existe une matrice inversible P et une matrice diagonale D telles que PDP − 1 = M.

Par exemple, toute matrice diagonale est diagonalisable, il suffit de prendre P = In (où In est la
matrice identité) dans la définition. Ainsi la matrice nulle est diagonalisable, la matrice identité,
les matrices scalaires, ...

Rappelons que si E est un espace vectoriel de dimension finie, alors un endomorphisme f de E est
diagonalisable lorsqu'il existe une base de E telle que la matrice de f relativement à cette base soit
diagonale.
Notons can(M), l'endormorphisme de Kn canoniquement associé à la matrice M, c'est-à-dire
l'application linéaire de Kn dans Kn qui a pour matrice relativement à la base canonique de Kn, la
matrice M.

Le concept de changement de base permet de démontrer que la matrice M est diagonalisable si et


seulement si can(M) est diagonalisable.

La diagonalisation d'une matrice se ramène donc à la diagonalisation d'un endomorphisme d'un


espace vectoriel de dimension finie et réciproquement.

La diagonalisation des matrices (ou des endomorphismes) est intéressante parce que les matrices
diagonales sont très faciles à manipuler :

• leurs valeurs propres et vecteurs propres se déterminent aisément,


• on les élève à des puissances entières en élevant tout simplement leurs coefficients
diagonaux à cette puissance, ce qui permet d'en déduire les puissances d'une matrice
diagonalisable. Ces puissances représentent le résultat d'applications successives de cette
matrice, et sont utiles pour simuler des itérations en analyse numérique. (voir Varga,
Matrix Iterative Analysis)

K étant un corps commutatif, nous noterons dans tout l'article l'espace vectoriel des
matrices carrées d'ordre n, et l'espace vectoriel des matrices à n lignes et une
colonne. En diagonalisant une matrice, on se place dans une base où l'on travaille avec une
matrice diagonale, ce que simplifie énormément les calculs. Et en général une réduction
d'endomorphisme permet de simplifier les calculs. On peut donc faire appel à cette méthode pour
les problèmes de résolution de systèmes d'équations linéaires par exemple.

Sommaire
[masquer]

• 1 Diagonalisation des matrices


o 1.1 Définitions
o 1.2 Recherche des valeurs propres
o 1.3 Recherche des vecteurs colonnes propres
o 1.4 Méthodes pratiques de diagonalisation
• 2 Propriétés
• 3 Exemples
o 3.1 Exemple 1
o 3.2 Exemple 2
o 3.3 Exemple 3
• 4 Les applications
o 4.1 Puissances de matrices
o 4.2 Systèmes Récurrents
o 4.3 Systèmes Différentiels
o 4.4 Équations Différentielles du nième ordre

• 5 Voir aussi
Diagonalisation des matrices [modifier]
Définitions [modifier]

Article détaillé : Valeur propre.

Définition 1 — Soit et soit . Le scalaire λ est appelé valeur propre de


M, s'il existe un vecteur colonne X non nul de telle que MX = λX.

L'ensemble des valeurs propres d'une matrice M s'appelle le spectre de M et est noté
généralement Sp(M) ou Spec(M).

Remarque: Il est important de préciser que le vecteur colonne X doit être non nul, sinon tout
scalaire de K serait valeur propre de M puisqu'on a toujours M0 = λ0!

Définition 2 — Soit . Un vecteur X non nul de est appelé


généralement vecteur propre ou encore vecteur colonne propre ou colonne propre si et
seulement s'il existe tel que MX = λX.

On dit alors que X est une colonne propre associée à la valeur propre λ.

Remarque: La condition dans la définition , a pour conséquence qu'un vecteur


propre possède une unique valeur propre. Cette condition n'est pas toujours utilisée dans la
définition. C'est néanmoins la convention utilisée dans Wikipedia.

Définition 3 — Soit et soit une valeur propre de M. Le sous-espace


propre associé à la valeur propre λ est le noyau de l'endomorphisme . Il
est habituellement noté Eλ.

Mais il est quelquefois défini comme étant le noyau de la matrice M − λIn (In étant la matrice unité
d'ordre In), c'est-à-dire l'ensemble:

aussi égal à

Ces définitions correspondent exactement à celles données dans le monde des endomorphismes
(cf Valeur propre).

Recherche des valeurs propres [modifier]

Théorème — Considérons une matrice M d'ordre n à coefficients dans un corps commutatif K et


. Les propositions suivantes sont équivalentes:
• λ est valeur propre de M ( ),
• M − λIn non inversible,
• le système (M − λIn)X = 0 d'inconnue admet au moins une solution
non nulle,
• ,
• det(M − λIn) = 0 (det désigne le déterminant d'une matrice).

De ce théorème se déduisent différentes techniques de recherche des valeurs propres. Étant donné
un scalaire λ de K, il est possible de déterminer si M − λIn est inversible ou le rang de M − λIn en
réduisant la matrice par la méthode de Gauss. Cette réduction s'effectue en choisissant si possible,
un pivot indépendant de λ afin d'éviter les distinctions de cas.

Il est parfois plus efficace, lorsque la matrice M − λIn comporte « beaucoup de zéros », de
résoudre le système (M − λIn)X = 0 dans lequel λ est considéré comme paramètre, en recherchant
les solutions non nulles, ce qui a l'avantage de donner en même temps les vecteurs colonnes
propres.

Enfin le calcul du déterminant de M − λIn peut donner les valeurs propres. Cela revient à
déterminer les racines du polynôme caractéristique.

D'autre part, les valeurs propres d'une matrice M, peuvent être obtenues à partir d'un polynôme
annulateur P, c'est-à-dire tel que P(A) = 0. Si λ est une valeur propre de M alors λ est racine du
polynôme P. La réciproque n'étant pas vraie, il faut déterminer les racines de P pour lesquelles M
− λIn n'est pas inversible. Par exemple, si A est une matrice d'un projecteur, alors A2 = A donc le
polynôme P(X) = X2 − X est annulateur de A. Les valeurs propres possibles de A sont alors 0 et 1.
Mais le projecteur nul, n'admet que 0 comme valeur propre.

Les méthodes de recherche des valeurs propres débouchent sur la détermination de racines de
polynômes, ce qui pose généralement des problèmes dans le cas où l'ordre de la matrice est
supérieur à 5 à cause de l'absence de formule générale donnant les racines en fonction des
coefficients.

Donnons maintenant quelques moyens de détection d'erreurs dans la recherche des valeurs
propres.

• Nous savons que les sous-espaces propres associés aux différentes valeurs propres d'une
matrice M d'ordre n sont en somme directe et donc la somme des dimensions reste
inférieure à la dimension de Kn. Ainsi une matrice M d'ordre n ne peut admettre plus de n
valeurs propres distinctes.
• La trace d'une matrice M est un invariant de similitude c'est-à-dire que pour toute matrice
inversible P, tr(P − 1MP) = trM. Donc la trace d'une matrice M est égale à la somme de ses
valeurs propres (comptées avec leur multiplicité). Ainsi lorsqu'une matrice d'ordre n
admet n valeurs propres distinctes, la trace constitue une sorte de somme de contrôle.

Recherche des vecteurs colonnes propres [modifier]

Les colonnes propres associées à une valeur propre λ peuvent être obtenues en résolvant le
système (M − λIn)X = 0, mais la connaissance de la dimension du sous-espace propre associé peut
aider à les obtenir plus facilement. Par exemple si on sait qu'il y a n valeurs propres distinctes,
alors la dimension des sous-espaces propres est égale à un, et il suffit de trouver une seule colonne
non nulle solution du système (M − λIn)X = 0, les autres lui seront proportionnelles. Si les valeurs
propres ont été déterminées en réduisant M − λIn par la méthode de Gauss, alors le nombre de
pivots donne le rang de la matrice et d'après le théorème du rang, la dimension du sous-espace
propre associé est égale à n − rg(M − λIn).

Méthodes pratiques de diagonalisation [modifier]

• Dans la plupart des cas, il est nécessaire de calculer le polynôme caractéristique de la


matrice, afin de déterminer ses valeurs propres et les sous-espaces propres associés :
Pour le polynôme caractéristique est où
T est l'indéterminée et est la matrice unité de .
Les valeurs propres sont les racines de , il y a donc au plus valeurs propres de
multiplicité .
On détermine ensuite les sous-espace propres associés à chaque valeur propre:

La matrice ne sera diagonalisable que si la dimension de chaque sous-espace propre


est égale à la multiplicité de la valeur propre , ce qui signifie que pour chaque on
a une base de vecteurs propres que l'on note , .
−1
Alors il existera une matrice inversible U telle que U MU soit égale à une matrice
diagonale dont les coefficients diagonaux sont les répétés fois et sera la matrice
dont les colonnes sont les vecteurs (l'ordre n'a pas d'importance, mais si on a le
vecteur sur la k-ième colonne de , alors on a la valeur propre sur la k-ième
colonne de ).
• Il est aussi possible de déterminer directement les valeurs propres, et des bases des sous-
espaces propres associés. La matrice M est diagonalisable si et seulement si la somme des
dimensions des différents sous-espaces propres est égale n. Si la matrice est
diagonalisable, alors il existe une matrice inversible P obtenue en plaçant les unes à côté
des autres, les colonnes propres formant une base de chacun des sous-espaces, et la
matrice D = P − 1MP est alors diagonale. La dimension du sous-espace propre associé à
une valeur propre, correspond au nombre de fois que celle-ci est répétée sur la diagonale
de la matrice diagonale D semblable à la matrice M.

Propriétés [modifier]
Les résultats fondamentaux sur la diagonalisation des matrices sont les suivants:

• Une matrice A d'ordre n sur un corps commutatif K est diagonalisable si et seulement si la


somme des dimensions de ses sous-espaces propres est égale à n, et si et seulement s'il
existe une base de constituée de vecteurs colonnes propres de A. Si une telle
base existe, alors il est possible de former la matrice P ayant comme colonnes ces
colonnes propres, P est inversible et P − 1AP sera alors une matrice diagonale. Les
coefficients diagonaux de cette matrice ne sont autres que les valeurs propres de A.
• Une matrice peut être diagonalisable sur un corps commutatif K si son polynôme minimal
est scindé et que toutes ses racines sont simples, c'est-à-dire s'il est produit de polynômes à
coefficients dans K du premier degré distincts. Ce n'est cependant pas une condition
nécessaire.
Le résultat suivant, suffisant mais pas nécessaire, est souvent utile:

Une matrice A d'ordre n est diagonalisable sur le corps K si elle a n valeurs propres distinctes dans
K, c'est-à-dire si son polynôme minimal a n racines distinctes dans K.

En général, sur presque toutes les matrices sont diagonalisables. Plus précisément: l'ensemble
des matrices complexes d'ordre n qui ne sont pas diagonalisables, considéré comme un sous-
ensemble de , est un ensemble de mesure nulle pour la mesure de Lebesgue. On peut
également signaler que les matrices diagonalisables forment un sous-ensemble dense dans
l'ensemble des matrices pour la topologie donnée par n'importe quelle norme matricielle.

Le résultat ne tient pas sur . À mesure que n augmente, il devient (dans un certain sens) de
moins en moins probable qu'une matrice réelle d'ordre n, aléatoirement choisie, soit
diagonalisable sur .

Exemples [modifier]
Exemple 1 [modifier]

Matrices non diagonalisables:

Certaines matrices réelles ne sont pas diagonalisables sur le corps des réels. Considérons par
exemple la matrice

La matrice B n'a pas de valeurs propres réelles, ainsi il ne peut exister de matrice réelle Q
inversible telle que Q − 1BQ soit une matrice diagonale. Mais, il est possible de diagonaliser B sur
le corps des complexes. En prenant,

Alors Q − 1BQ est diagonale.

Cependant, il existe aussi des matrices non diagonalisables, même si le corps des complexes est
utilisé. Cela se produit si les multiplicités algébriques et géométriques des valeurs propres ne
coïncident pas. Par exemple, considérons:

La matrice n'est pas diagonalisable: il n'existe pas de matrice U inversible telle que U − 1CU soit
diagonale. En effet, C a une valeur propre (qui est 0) et cette valeur propre a un ordre de
multiplicité algébrique égal à 2 et géométrique égal à 1.

Exemple 2 [modifier]
Considérons la matrice:

Cette matrice admet comme valeurs propres:

Ainsi A qui est de rang 3, a 3 valeurs propres distinctes, donc est diagonalisable.

Si nous voulons diagonaliser A, nous avons besoin de déterminer les vecteurs propres
correspondants. Il y a par exemple:

On vérifie facilement que Avk = λkvk.

Maintenant soit P la matrice ayant ces vecteurs propres comme colonnes:

Alors « P diagonalise A », comme le montre un simple calcul:

Remarquez que les valeurs propres λk apparaîssent sur la diagonale de la matrice dans le même
ordre que nous avons placé les colonnes propres pour former P.

Exemple 3 [modifier]

Soit

(voi
r le calcul d'un déterminant)
Donc les valeurs propres sont :

• 2 de multiplicité 2
• -3 de multiplicité 1

Calcul des sous-espaces caractéristiques :

Calcul de E2 : On cherche les tels que :

Donc
On procède de même pour et on obtient :

On a bien : et , donc cette matrice est diagonalisable.

Une diagonalisation possible est : , avec

Les applications [modifier]


Puissances de matrices [modifier]

La diagonalisation peut être utilisée pour calculer efficacement les puissances d'une matrice
diagonalisable A. Supposons que nous ayons obtenu:

P − 1AP = D

où D est une matrice diagonale. Alors

Ak = (PDP − 1)k = PDkP − 1


et cette dernière puissance est facile à calculer puisque la puissance kème d'une matrice diagonale
s'obtient en élevant les coefficients diagonaux à la puissance k.

Par exemple considérons la matrice suivante:

En calculant les différentes puissances de M nous obtenons les formes suivantes:

Ce phénomène peut être expliqué en diagonalisant M. Pour ce faire, nous avons besoin d'une base
de formée de vecteurs colonnes propres de M. Une telle base de colonnes propres est
donnée par:

où les ei désignent les vecteurs de la base canonique de .

L'inverse de la matrice de passage peut s'obtenir à partir de

Un calcul direct montre que

Ainsi, a et b sont les valeurs propres associées à u et v, repsectivement. D'après la linéairité de la


multiplication par une matrice, nous avons donc

En revenant à la base canonique, nous avons:

Les relations précédentes, exprimées sous forme matricielle donnent:

ce qui explique le phénomène précédent.


Définition [modifier]
Soit un espace vectoriel sur un corps et un endomorphisme de , est dit nilpotent si et
seulement s'il existe un entier n tel que . Le plus petit entier n vérifiant cette propriété est
appelé indice de l'endomorphisme.

Soit x un vecteur, alors on appelle indice de x pour l'application nilpotente le plus petit entier p tel
que up(x) = 0.

Intérêt du concept [modifier]


Nilpotence et réduction [modifier]

Un enjeu important en mathématique est celui de la réduction, c’est-à-dire de la décomposition


d'un concept en sous-concepts plus simples et qui décrivent l'intégralité du concept initial. Dans le
cadre des applications linéaires la réduction est traitée dans l'article Réduction d'endomorphisme.
En dimension finie, les endomorphismes nilpotents jouent un rôle important dans le cas ou est
un corps algébriquement clos. Un corps est dit algébriquement clos si et seulement si tous les
polynômes sont scindés, autrement dit si tous les polynômes s'écrivent comme produit de
polynômes du premier degré. C'est par exemple le cas pour les nombres complexes. Sous cette
hypothèse, la théorie de la réduction d'endomorphisme montre que le cas général se résume à la
somme d'un endomorphisme diagonalisable et d'un nilpotent. Ce résultat est connu sous le nom de
Décomposition de Dunford.

Si la clôture algébrique du corps n'est plus vraie, alors il est toujours possible d'étendre l'espace
vectoriel sur un corps algébriquement clos. Cette technique est largement utilisée. Pour les réels,
la physique n'utilise pratiquement que cette approche.

Applications [modifier]

Puisqu'il est possible d'étendre à la clôture algébrique, la réduction des endomorphismes dans ce
contexte joue un rôle essentiel en mathématique. Les endomorphismes nilpotents sont donc
nécessaires à divers branches des mathématiques. En algèbre linéaire, ils interviennent
naturellement dans la réduction de Jordan qui correspond à un cas important de réduction des
endomorphismes. Les techniques utilisées sont celles des polynômes d'endomorphismes. Les
conséquences se retrouvent sur la résolution de systèmes d'équations linéaires, dans la résolution
d'équations différentielles linéaires où ils apparaissent comme des cas limites. En mathématiques
appliquées, ils sont importants pour la recherche d'algorithmes, on utilise alors essentiellement les
matrices nilpotentes où des représentations simples sont alors nécessaires.

Propriétés [modifier]
L'exemple illustre l'essentiel des propriétés des endomorphismes nilpotents. On y trouve des
propriétés sur l'indice des endomorphismes et des vecteurs, des conditions nécessaires et
suffisantes grâce aux polynômes. Des réductions avec une décomposition en espaces propres et
l'existence d'une base réduite. Il existe aussi des propriétés calculatoires des matrices nilpotentes
traitées dans l'article Matrice nilpotente.

Nilpotence et indice [modifier]


L'indice d'un endomorphisme nilpotent possède deux grandes propriétés :

• L'indice d'un endomorphisme nilpotent est inférieur ou égal à la dimension


de l'espace (pour la démonstration penser à utiliser la suite (kerfn)).
• Il existe un vecteur dont l'indice est celui de l'endomorphisme.

Nilpotence et polynômes en dimension finie [modifier]

Les polynômes fournissent non seulement des conditions nécessaires et suffisantes pour la
nilpotence, mais renseignent de plus sur l'indice.

• Un endomorphisme est nilpotent si et seulement si son polynôme


caractéristique est égal à ( − X)n ou n est la dimension de l'espace.
• Un endomorphisme est nilpotent si et seulement si son polynôme minimal
est égal à Xp ou p est l'indice de l'endomorphisme.
• Le polynôme minimal d'un vecteur x est égal à ou px est l'indice du
vecteur x.

Nilpotence et réduction en dimension finie [modifier]

Le principe de réduction consiste à trouver une décomposition en somme directe de sous-espaces


stables de l'espace vectoriel. Il en existe une pour les endomorphismes nilpotents. Et elle est
compatible avec la réduction de Jordan. Cette approche est générale à l'analyse des
endomorphismes. Dans le cas des endomorphismes nilpotents, elle est intimement liée à la notion
de base réduite.

• Si est un vecteur d'indice p alors la famille est


une famille libre.
• Il existe une suite de sous-espaces vectoriels stables par u, non
réduits au vecteur nul, qui engendrent par somme directe l'espace tout entier, et tel
que, pour tout i, il existe un vecteur non nul d'indice pour lequel la famille
forme une base de . La réunion de ces familles
forme une base de l'espace entier. On appelle ces sous-espaces des espaces de
Jordan.
• La restriction de u à est de noyau non réduit au vecteur nul et possède
une unique valeur propre 0. Cette propriété reste vraie pour l'endomorphisme lui-
même.
• La décomposition est maximale, c’est-à-dire qu'il n'existe pas de
décomposition en sous-espaces vectoriels stables qui génèrent en somme directe
l'espace entier et qui comprennent plus d'éléments que la décomposition
précédente si aucun sous-espace vectoriel est réduit au vecteur nul.

[Enrouler]
Démonstration

• Un endomorphisme u est nilpotent si et seulement si son polynôme


minimal est égal à Xp ou p est l'indice de l'endomorphisme.
Par définition de la nilpotence, Xp est un polynôme annulateur de l'endomorphisme u, et ce n'est le
cas d'aucun de ses diviseurs stricts. Comme est un anneau euclidien, et donc qu'il vérifie
p
l'identité de Bezout, le polynôme unitaire X divise tous les polynômes annulateurs de u : on dit
que Xp est le polynôme minimal de u. De la même façon où px est l'indice du vecteur x, est le
plus petit polynôme unitaire au sens de la divisibilité qui, appliqué à u, annule x, c'est-à-dire le
polynôme minimal de x. Cela a pour conséquence immédiate qu'aucun polynôme de u non nul de
degré strictement inférieur à px n'annule x, ce qui se traduit sur l'espace vectoriel par :

• Si x est un vecteur d'indice px alors la famille


est une famille libre.

• Il existe toujours un vecteur dont l'indice est celui de


l'endomorphisme.

En effet le polynôme minimal d'un vecteur divise le polynôme minimal de l'endomorphisme, donc
est un Xk, pour k ≤ p, et si aucun n'était de degré p, Xp − 1 annulerait u.

• L'indice d'un endomorphisme nilpotent est toujours inférieur ou égal


à la dimension de l'espace.

Cette proposition est une conséquence directe des deux résultats précédents.

• Il existe une suite (Ei) de sous-espaces vectoriels stables par u, non


réduit au vecteur nul, qui engendre par somme directe l'espace tout entier, et
tel que, pour tout i, il existe un vecteur xi non nuls d'indice pi pour lequel la
famille forme une base de Ei.

À noter que pi > 0, et que les indices pi=1 sont ceux de vecteurs du noyau de u. Démontrons ce
résultat par récurrence sur p l'indice de l'endomorphisme.

Si p est égal à 1. L'endomorphisme est nul et le résultat est trivial.

Supposons le résultat vrai pour k et démontrons le pour k+1. Soit u un endomorphisme d'indice
k+1. Considérons alors la restriction de u à u(E). C'est un endomorphisme nilpotent d'indice k. Par
hypothèse de récurrence, il existe une suite (Fi) de sous-espaces vectoriels stables par u, non
réduit au vecteur nul, qui engendre par somme directe l'espace u(E), et tel que, pour tout i, il
existe un vecteur u(xi) non nuls d'indice ki pour lequel la famille
est une base de Ei.

Montrons alors que la suite forme une famille libre de E que nous noterons .
Pour cela, considérons une combinaison linéaire nulle de cette famille :

Si nous appliquons l'endomorphisme u à cette égalité, en retranchant tous les termes nuls de la
forme on obtient:
Cette combinaison linéaire est la combinaison linéaire d'une base de u(E), on en déduit la nullité
de tous les coefficients αij pour j différent de ki. En supprimant tous ces termes dans l'égalité (1),
on obtient :

C'est une combinaison linéaire nulle d'éléments d'une base de u(E) (ki ≥ 1), les coefficients
sont donc aussi nuls. Toute combinaison linéaire vérifiant (1) ne possède donc que des
coefficients nuls, ce qui montre que la famille est libre.

E est la somme de l'espace engendré par et du noyau de u. En effet, par construction de la


famille , son image engendre u(E), et donc tout vecteur de E a même image qu'une combinaison
linéaire de cette famille, et la différence entre les deux vecteurs est donc dans le noyau de u.
Quand la famille n'est pas génératrice de E, on peut donc la compléter par des vecteurs du
noyau, chacun d'indice 1, ce qui termine la preuve.

• La restriction de u à Ei est de noyau non réduit au vecteur nul et


possède une unique valeur propre 0. Cette propriété reste vraie pour
l'endomorphisme lui-même.

La restriction de u à Ei est un endomorphisme nilpotent, son polynôme minimal est une puissance
de X, la seule valeur propre est 0 et comme 0 est valeur propre, le noyau est non nul. Ce
raisonnement s'applique aussi à u sur l'espace vectoriel entier, ce qui démontre la fin de la
proposition.

• Un endomorphisme est nilpotent si et seulement si son polynôme


caractéristique est égal à ( − X)n ou n est la dimension de l'espace.

La seule valeur propre est 0, donc sur sa clôture algébrique, le polynôme caractéristique est scindé
et possède pour racine uniquement 0. Ce polynôme est donc une puissance de X, et de degré n.
Son signe provient du signe du monôme de plus haut degré de tous les polynômes
caractéristiques.

Applications en mathématiques [modifier]


Matrice nilpotente [modifier]

Les résultats théoriques obtenus à l'aide de l'analyse des endomorphismes nilpotents ont des
conséquences importantes sur les matrices nilpotentes. Ces résultats sont traités dans l'article
Matrice nilpotente.

Réduction des endomorphismes [modifier]

Dans le cas où le corps est algébriquement clos et en dimension finie, les endomorphismes
nilpotents jouent un rôle particulier dans la problématique de la réduction des endomorphismes.
Le cas général, celui où toutes les racines du polynôme minimal sont simples, correspond aux
endomorphismes diagonalisables. Ce cas génère un ensemble d'endomorphismes partout dense.
En revanche, en cas de racine multiple, alors il existe une composante nilpotente.

Cette décomposition joue un rôle important dans les calculs que l'on observe dans l'univers des
matrices. Elle permet par exemple de prouver que toute matrice est trigonalisable et offre une
forme particulièrement simple en bloc de Jordan.

De nombreux algorithmes relèvent directement de cette décomposition. Elle permet d'accélérer


massivement la résolution d'un système d'équations linéaires.

Équation différentielle linéaire [modifier]

La réduction de Jordan joue un rôle particulier pour les équations différentielles linéaires. Par
exemple, dans le cas où les coefficients sont constants, alors le calcul de l'exponentielle d'une
matrice dans le cas général est largement plus simple dans le cas d'une représentation matricielle
réduite par la méthode de Jordan. Il est alors important de pouvoir calculer l'exponentielle d'une
matrice nilpotente. Ce cas est exposé dans l'article Matrice nilpotente.

Groupes de Lie [modifier]

Dans l'étude des groupes de Lie, on s'intéresse parfois à ce que l'on appelle groupes de Lie
nilpotents. Comme pour tout groupe de Lie, leur structure est décrite par leur fibré tangent, qui est
muni d'une structure d'algèbre de Lie. Les représentations de ces algèbres dans les
endomorphismes s'obtiennent à partir d'endomorphismes nilpotents.

Réduction de Jordan
Un article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher


Pour les articles homonymes, voir Jordan.

La réduction de Jordan est la traduction matricielle de la réduction des endomorphismes


introduite par Jordan. Cette réduction est tellement employée, en particulier en analyse pour la
résolution d'équations différentielles ou pour déterminer le terme général de suites récurrentes,
qu'on la nomme parfois « jordanisation des endomorphismes ».

Elle consiste à exprimer la matrice d'un endomorphisme dans une base où l'expression de
l'endomorphisme est réduite dite base de Jordan. La réduction consiste à déterminer une
décomposition de Dunford c'est-à-dire trouver un endomorphisme diagonalisable et un
endomorphisme nilpotent tel que les deux commutent et que leur somme soit égale à
l'endomorphisme initial, puis sur chaque espace caractéristique une réduction de Jordan sur le
facteur l'endomorphisme nilpotent.

Sommaire
[masquer]
• 1 Construction de la base de Jordan
• 2 Blocs de Jordan
• 3 Jordanisation d'un endomorphisme dans un corps algébriquement clos
o 3.1 Propriétés des blocs
o 3.2 Application aux classes de similitude des matrices
• 4 Exemples de réduction de Jordan
o 4.1 Exemple 1
o 4.2 Exemple 2
o 4.3 Groupe simple d'ordre 168
• 5 Réduction de Jordan et systèmes différentiels

• 6 Voir aussi

Construction de la base de Jordan [modifier]


Soit u un endomorphisme sur un espace vectoriel E tel que son polynôme minimal soit scindé. Il
possède alors les propriétés suivantes:

• E est la somme directe des espaces caractéristiques de u. Ils sont notés ici
Ei et les valeurs propres associés λi.

• La restriction de u à Ei est la somme d'une homothétie de rapport λi et d'un


endomorphisme nilpotent noté ni.

Ces résultats sont démontrés dans l'article décomposition de Dunford.

• Il existe une base Eij de Ei tel que


où est égal soit à 0 soit à 1 et .

Ce résultat est démontré dans l'article Endomorphisme nilpotent.

Blocs de Jordan [modifier]

On appelle bloc de Jordan une matrice de la forme


On appelle bloc de Jordan nilpotent une telle matrice où les coefficients diagonaux sont tous

nuls, c'est-à-dire de la forme

Jordanisation d'un endomorphisme dans un corps


algébriquement clos [modifier]
On considère un endomorphisme dans un espace vectoriel de dimension finie, de polynôme
caractéristique scindé. Le théorème de Jordan nous informe qu'il admet une représentation
matricielle de la forme suivante

où les scalaires λi sont les valeurs propres de l'endomorphisme considéré.

Ainsi sur un corps algébriquement clos, et par exemple dans , tout endomorphisme admet une
décomposition de ce type.

Attention : il n'y a pas a priori un bloc de Jordan pour chaque valeur propre, plusieurs λi peuvent
avoir la même valeur.

Propriétés des blocs [modifier]

Prenons un endomorphisme u admettant une telle représentation. On étudie une valeur propre
particulière λ de l'endomorphisme u. On regroupe ensemble les vecteurs associés aux blocs .
Ils forment l'espace caractéristique associé à la valeur propre λ. C'est un espace stable sur lequel
u − λId induit un endomorphisme nilpotent nλ.

• La multiplicité de λ (multiplicité dans le polynôme caractéristique) est égale à la


dimension de l'espace caractéristique.
• La multiplicité de λ dans le polynôme minimal est égal à l'indice de nilpotence de
l'endomorphisme nλ.

Application aux classes de similitude des matrices [modifier]

On se place sur un corps algébriquement clos. Deux matrices sont semblables si et seulement si
elles ont la même écriture en blocs de Jordan, à l'ordre près des blocs.
Exemples de réduction de Jordan [modifier]
Examinons les méthodes de détermination des matrices de passage par deux exemples.

Exemple 1 [modifier]

Déterminons la matrice de passage pour l'exemple suivant:

Recherchons les espaces caractéristiques, c’est-à-dire vecteurs x solutions de

Qui nous permettront de déterminer la suite de vecteurs dont les éléments forment les colonnes de
la matrice de passage.

Remarquons alors que 5 est valeur propre et que le premier vecteur de la base de définition de la
matrice possède pour polynôme minimal associé (X-5)4. Son espace caractéristique est donc
l'espace entier. Si nous notons v ce vecteur alors, la famille composée des éléments (A − 5I)3(v),
(A − 5I)2(v), (A − 5I)(v) et v forme une base de Jordan.

Nous avons déterminé la matrice de passage:

Et la matrice de Jordan est la suivante:


Exemple 2 [modifier]

Considérons l'exemple suivant

Les valeurs propres de B sont 4, 4, 2 et 1. De plus, on remarque que:

Nous en déduisons que l'espace vectoriel se décompose en somme directe suivante:

Nous remarquons que le vecteur colonne (0,0,−1,1)T a pour image par la matrice (-1,0,1,-1)T. Ces
deux vecteurs colonnes engendrent l'espace caractéristique de valeur propre 4.

On en déduit

Nous en déduisons la matrice de passage et la forme de Jordan:

et

Groupe simple d'ordre 168 [modifier]

Article détaillé : groupe simple d'ordre 168.


Il existe, à un isomorphisme près, un unique groupe simple d'ordre 168. Il peut être vu comme le
groupe linéaire d'un espace vectoriel de dimension 3 sur le corps fini à deux éléments. La
réduction de Jordan est une méthode pour déterminer la structure de ce groupe.

Réduction de Jordan et systèmes différentiels [modifier]


Un système d'équations différentielles linéaires en y peut se réduire à une équation différentielle
matricielle d'ordre 1 : u'(t) = Au(t) et la condition initiale u(0) = u0, où u(t) est un vecteur colonne
contenant les dériviées successives de y. La résolution est alors explicite lorsque le système
d'équations différentielles est à coefficients constants : u(t) = exp(tA)u0. L'avantage de la forme
normale de Jordan réside dans la facilité de calculs des matrices des blocs de Jordan. En effet,
l'exponentielle d'un bloc de Jordan nilpotent de taille p est

On voit de cette manière l'intérêt calculatoire de cette méthode.

Forme linéaire
Un article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher


Pour les articles homonymes, voir Forme.
Cet article est une ébauche concernant l'algèbre.
Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les
recommandations des projets correspondants.

En algèbre linéaire, les formes linéaires désignent un type particulier d'applications linéaires.
L'étude spécifique qu'on leur accorde est motivée par le fait qu'elles jouent un rôle primordial en
mathématiques, et en analyse, par exemple dans la théorie des distributions, ou dans l'étude des
espaces de Hilbert.

Les formes linéaires sur un espace vectoriel portent parfois également le nom de covecteur. Ce
terme qui prend sens dans le cadre général des tenseurs et du calcul tensoriel rappelle que si les
formes linéaires peuvent être représentées par un système de coordonnées comparable à celui des
vecteurs, elles s'en distinguent pour ce qui est des formules de transformations.

Sommaire
[masquer]

• 1 Définition
o 1.1 Espace dual
o 1.2 Représentations matricielles
o 1.3 Exemples
• 2 Base duales et antéduales
• 3 Propriétés algébriques
• 4 Formes linéaires continues
• 5 Formes linéaires continues sur un espace de Hilbert
• 6 Référence

• 7 Voir aussi

Définition [modifier]
Une forme linéaire sur un espace vectoriel E sur un corps K (ou covecteur de E) est une
application linéaire définie sur E et à valeurs dans K.

En d'autres termes, on dit que l'application de E dans K est une forme linéaire si :

Espace dual [modifier]

L'ensemble des formes linéaires sur E est lui-même un K-espace vectoriel. On l'appelle le dual de
E et il est noté E * ou hom(E,K). Ainsi, si φ et ψ sont des formes linéaires et a et b des éléments de
K:

L'application constante de valeur 0K s'appelle la « forme linéaire nulle ».

On note parfois (où ) pour φ(x). Cette notation est appelée crochet de dualité.

Représentations matricielles [modifier]

Une base de E étant donnée, les composantes d'un vecteur sont ordonnées sous forme de
vecteur colonne :

Au contraire, une forme linéaire ou covecteur est représentée par un vecteur ligne à n
composantes :
Le crochet de dualité est le produit matriciel

Selon la convention d'Einstein, ce résultat peut se noter et est un scalaire (en réalité une
matrice (1,1)).

Exemples [modifier]

• L'application

est une forme linéaire sur

• Si L1(Ω) est le -espace vectoriel des fonctions à valeurs complexes qui sont intégrables
sur l'espace mesuré Ω, alors l'intégrale est une forme linéaire sur L1(Ω). Cela signifie que

Base duales et antéduales [modifier]


L'ensemble des formes linéaires sur un espace vectoriel E est lui même un espace vectoriel et se
note en général E * .Il est appelé espace vectoriel dual de E, ou plus simplement espace dual de E.
Si E est de dimension finie n, il est remarquable que E * soit aussi de dimension finie n. En
d'autres termes, on peut aussi dire qu'un espace de dimension finie est isomorphe à son dual.
Cependant, il n'y a pas d'isomorphisme canonique dans le sens où si E est quelconque, il est
nécessaire de se donner une base arbitraire afin de pouvoir définir un isomorphisme le reliant à E *
. Si une base de E, on définit sur celle-ci les formes linéaires notées
par :

(où δij est le symbole de Kronecker, c'est-à-dire valant 1 si i = j et 0 sinon).

Ces formes linéaires sont aussi appelées les projections des coordonnées, l'image d'un vecteur x
par n'est autre que la i-ème coordonnée du vecteur x dans la base . Le résultat
important est que la famille de formes linéaires forme une base de E * ; on appelle
aussi cette base la base duale de la base .
Inversement, si on se donne une base de E * , il existe une unique base
de E telle que:

La base s'appelle la base antéduale de la base .

Propriétés algébriques [modifier]


• Si est une forme linéaire non nulle, alors elle est surjective. On a donc .
• Si est une forme linéaire non nulle, alors son noyau est un hyperplan de E.

Réciproquement, si H est un hyperplan de E, il existe une forme linéaire telle que


; cette forme linéaire (nécessairement non nulle) est unique, à un
coefficient multiplicatif non nul près.

• Enfin, une propriété importante est que deux formes linéaires ont le même noyau si et
seulement si elles sont proportionnelles.

Formes linéaires continues [modifier]


Si on considère un espace vectoriel normé E sur le corps ou , alors on sait définir la
notion de continuité de n'importe quelle application linéaire et en particulier, on dispose d'une
notion de continuité pour les formes linéaires.

• Si E est un espace vectoriel normé et est une forme linéaire continue alors elle est
uniformément continue.

Formes linéaires continues sur un espace de Hilbert [modifier]


On suppose désormais que E est un espace de Hilbert sur le corps et on note le produit
scalaire sur cet espace vectoriel.

On démontre grâce au théorème de représentation de Riesz que les formes linéaires continues sur
E s'expriment alors toutes d'une manière simple en fonction du produit scalaire et plus
précisément :

Espace dual
Un article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher


En mathématiques, l'espace dual d'un espace vectoriel E est l'ensemble des formes linéaires sur E.

La structure d'un espace et celle de son dual sont très liées. La fin de cet article présente quelques
résultats sur les liens entre espace dual et hyperplans, ce qui permet une compréhension
« géométrique » de certaines propriétés des formes linéaires.

Le dual topologique est une variante très considérée en analyse fonctionnelle, lorsque l'espace
vectoriel est muni d'une structure additionnelle d'espace vectoriel topologique.

Sommaire
[masquer]

• 1 Définitions
o 1.1 Exemples
 1.1.1 Cas d'un espace préhilbertien
• 2 Dualité en dimension finie
o 2.1 Exemple
• 3 Orthogonal
• 4 Représentation des sous-espaces

• 5 Voir aussi

Définitions [modifier]
Article détaillé : Forme linéaire.

Soient un corps, E un K-espace vectoriel

On appelle forme linéaire sur E toute application linéaire de E vers K, c'est-à-dire toute
application telle que

L'ensemble des formes linéaires sur E est un K-espace vectoriel, dit espace dual de E ;
il est noté E * .

Si φ est un élément de E * et x un élément de E, on écrit parfois pour φ(x). Cette notation


est dite crochet de dualité.

Exemples [modifier]

Cas d'un espace préhilbertien [modifier]

Si l'espace vectoriel E est un espace préhilbertien, c'est-à-dire muni d'un produit scalaire , on a
un moyen naturel de « plonger » E dans E * , c'est-à-dire d'associer à chaque élément de E un
élément du dual, et ce de manière à former un isomorphisme entre E et un sous-espace de E * : à
chaque élément x de E on associe la forme linéaire . Alors
l'application est une application linéaire injective, donc l'espace E est
isomorphe au sous-espace f(E) de E * .

Dualité en dimension finie [modifier]


Si l'espace E est de dimension finie n, alors l'espace dual E * , isomorphe à E, est lui aussi de
dimension n. On peut raffiner ce résultat.

Théorème de la base duale — Soit une base de E. Alors la famille


de vecteurs de E * définie par

(où xi est la coordonnée de x correspondant au vecteur ei) définit une base de E * , appelée base
duale. Et par construction, on a

dimE = dimE * .

En dimension finie, un espace a donc la même dimension que son espace dual. Remarquons que
d'après le Théorème de Erdös-Kaplansky, ceci est faux pour tout espace vectoriel de dimension
infinie

Exemple [modifier]

Les polynômes de Lagrange associés à des scalaires (voir Interpolation


lagrangienne) s'ils sont tous distincts deux à deux forment une base de l'ensemble des polynômes
dont la base duale est formée des fonctions d'évaluations .

Orthogonal [modifier]
Ici, E est un espace vectoriel quelconque (on ne suppose pas de dimension finie).

Si A est un sous-espace de E, on définit l'orthogonal de A dans E * par :

Si B est un sous-espace de E * , on définit l'orthogonal de B dans E par :

Il ne faut pas confondre la notion d'orthogonal d'un sous-espace dans la théorie de dualité avec
l'orthogonalité dans la théorie des espaces euclidiens.

Représentation des sous-espaces [modifier]


Ce paragraphe présente une application très importante de l'étude de l'espace dual : la
représentation d'un sous-espace comme intersection d'hyperplans. On se restreint ici au cas d'un
espace vectoriel de dimension finie.

Soit E un K-espace vectoriel de dimension finie n.

Soit F un sous-espace de dimension p (distinct de E) ; on a donc p < n.

Alors, il existe q = n − p formes linéaires indépendantes telles que

c'est-à-dire

Ce théorème généralise les résultats élémentaires connus en dimension 2 ou 3 sur la représentation


de droite ou de plan par des équations. En particulier, dans un espace vectoriel de dimension 3,
l'intersection de 2 plans indépendants est une droite.

Nota : il ne faut pas confondre la notion de droite ou de plan dans un espace affine (qui
correspond à l'intuition géométrique) et celle, utilisée ici, de droite vectorielle ou de plan
vectoriel. On appelle droite vectorielle un sous-espace de dimension 1, et plan vectoriel un sous-
espace de dimension 2.

On peut donc représenter un sous-espace F de dimension p par q équations linéaires


indépendantes, où

q = dimE − p.

Hyperplan
Un article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

En mathématiques, et plus particulièrement en algèbre linéaire, les hyperplans sont des sous-
espaces vectoriels particuliers.

Sommaire
[masquer]

• 1 Définition
• 2 Caractérisation
• 3 Lien avec les formes linéaires
• 4 Exemples

• 5 Représentation des sous-espaces

Définition [modifier]
Soit E un -espace vectoriel et H un sous-espace vectoriel de E.

On dit que H est un hyperplan de E si H est de codimension 1.

Remarques :

• Dans un espace de dimension finie n, les hyperplans sont donc les sous-espaces vectoriels
de dimension n-1.
• Dans , la notion d'hyperplan est confondue avec celle de plan, mais ce n'est plus vrai
quand la dimension de l'espace est supérieure à 3.

Caractérisation [modifier]
On montre l'équivalence des propriétés suivantes :

• H est un hyperplan
• Il existe une droite D telle que

Lien avec les formes linéaires [modifier]


On montre que les hyperplans sont exactement les noyaux des formes linéaires non nulles.

C'est-à-dire : H est un hyperplan de E

[Enrouler]
Démonstration

Soit H un hyperplan de E. On cherche à construire une forme linéaire non nulle dont H est le
noyau.

H est un hyperplan donc par définition il admet un supplémentaire dans E de dimension égale à 1.
C'est donc une droite vectorielle engendrée par un (xo ne peut être nul car il
n'appartient pas à H qui contient 0). On a donc

Tout vecteur x de E se décompose donc de la façon suivante:


Posons une application qui a tout vecteur de E associe le scalaire associé à x o
dans sa décomposition suivant . Montrons alors que est linéaire: On prend deux
vecteurs x et y quelconque de E qui se décomposent comme ci-dessus:

En prenant un scalaire quelconque on obtient:

Ce qui montre que est linéaire, de plus son ensemble d'arrivée est K, c'est donc bien une forme
linéaire. De plus elle n'est pas nulle (par exemple xo a pour image 1).

Prenons un . Par décomposition xH = xH + 0xo donc et donc


. On a donc .

Réciproquement, soit . Alors ce vecteur n'est pas engendré par xo et donc appartient à
H. On a donc et donc par double inclusion .

H est donc le noyau d'une forme linéaire non nulle.

Réciproquement, soit une forme linéaire non nulle et H son noyau. Montrons que H est un
hyperplan de E. Pour cela, on va montrer que H admet un supplémentaire de dimension 1.

est non-nulle, il existe donc un vecteur xo de E non-nul tel que . Montrons alors
que . Soit x dans E. Comme , on peut écrire la tautologie
suivante:

Il est clair que car est bien dans K.

D'autre part:
Donc . Autrement dit, tout vecteur de E se décompose en somme d'un
élément de la droite vectorielle engendrée par x o et d'un élément du noyau H, ie E = H + xoK.
Montrons maintenant que cette somme est directe.

Soit . On peut donc écrire x = λxo avec . Et donc .


Mais comme x est dans H on a également . C'est-à-dire λ = 0 (car ) et
donc x=0. D'où et la somme est directe.

Par conséquent, soit, par définition:

H est un hyperplan de E.

Interprétation de ce résultat dans le -espace vectoriel :

Toutes les formes linéaires sur peuvent s'écrire sous la forme suivante :
avec fixé. Le résultat
précédent nous indique que tout hyperplan de peut s'écrire comme le noyau d'une forme
linéaire. Autrement dit

Ce lien entre hyperplan et noyau d'une forme linéaire exprime en fait la notion d'équation d'un
hyperplan, donc ici d'un plan (vectoriel).

Exemples [modifier]
• Dans l'espace vectoriel des matrices carrées d'ordre n à coefficients dans
. L'ensemble des matrices de trace nulle est un
hyperplan de E.

• Dans l'espace vectoriel des polynômes à une indéterminée. L'ensemble des


polynômes divisibles par X: est un hyperplan de E.

Pour ces deux exemples, la démonstration est immédiate en utilisant le résultat sur les formes
linéaires: le noyau d'une forme linéaire non nulle est un hyperplan.

Représentation des sous-espaces [modifier]


Soit F un sous-espace vectoriel de dimension finie.

On peut représenter ce sous-espace comme une intersection finie d'hyperplans indépendants. Ce


théorème est détaillé dans l'article espace dual.

Somme directe
Un article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

En algèbre, le terme de somme directe s’applique à plusieurs situations différentes

Sommaire
[masquer]

• 1 Somme directe de sous-espaces vectoriels


o 1.1 Somme directe de deux sous-espaces vectoriels
o 1.2 Somme directe de plusieurs sous-espaces vectoriels
 1.2.1 Somme directe orthogonale
• 2 Somme directe externe et produit cartésien
o 2.1 Somme directe externe de deux K-espaces vectoriels
o 2.2 Somme directe externe de plusieurs K-espaces vectoriels
 2.2.1 Remarque à propos d'autres structures algébriques
• 3 Propriété universelle de la somme directe

• 4 Voir aussi

Somme directe de sous-espaces vectoriels [modifier]


Somme directe de deux sous-espaces vectoriels [modifier]

Article détaillé: Sous-espaces supplémentaires

Soient F1 et F2 deux sous-espaces vectoriels de l’espace vectoriel E. On dit que F1 et F2 sont en


somme directe si et seulement si pour tout élément u de F1 + F2, il existe un unique couple
de tel que u = u1 + u2.

On dit aussi dans ce cas que la somme F1 + F2 est directe.

En d'autres termes, la somme de deux sous-espaces vectoriels F1 et F2 est directe si la


décomposition de tout élément de F1 + F2 en somme d'un élément de F1 et d'un élément de F2 est
unique.

La somme sera alors notée : .

On dispose des caractérisations usuelles suivantes :


• F1 et F2 sont en somme directe si et seulement si, pour tout u1 de F1 et u2 de F2,

• F1 et F2 sont en somme directe si et seulement si

Cas de la dimension finie : lorsque F1 et F2 sont de dimensions finies, les assertions suivantes
sont équivalentes :

1. La somme F1 + F2 est directe.


2. .
3. En juxtaposant ("réunissant") une base de F1 et une base de F2, on constitue une base de F1
+ F2.

Sous-espaces supplémentaires : deux sous-espaces F1 et F2 de E sont dits supplémentaires


lorsque . Cela signifie que pour tout élément u de E, il existe un unique couple
de tel que .

Somme directe de plusieurs sous-espaces vectoriels [modifier]

On peut généraliser la notion de somme directe à une famille finie de sous-espaces vectoriels de
E.

On dit qu'une famille de sous-espaces vectoriels de E est en somme directe si et

seulement si, pour tout élément u de la somme , il existe un k-uplet unique

de tel que .

On dit aussi dans ce cas que la somme F des sous-espaces est directe.

En d'autres termes, la somme est directe si la décomposition de tout élément de en


somme d'éléments des est unique.

Pour désigner une somme directe, on se sert des notations ou .

Comme dans le cas de 2 sous-espaces vectoriels, on peut caractériser les sommes directes par
l'unicité de la décomposition du vecteur nul :
La somme est directe si et seulement si :

l'unique k-uplet de tel que est


celui dont tous les éléments sont nuls.

Remarque : dès que la famille comprend au moins 3 sous-espaces, il ne suffit pas pour que la
somme soit directe que leurs intersections deux à deux soient réduites à , c'est-à-dire que :

pour tout i et pour tout j, i différent de j.

On s’en convaincra en regardant dans les sous-espaces vectoriels :

Leurs intersections deux à deux sont réduites à {(0 ; 0)}, mais leur somme
(égale à ) n'est pas directe.

En effet, les 3 vecteurs appartiennent


respectivement à ; ils sont non nuls, et tels que : la
décomposition du vecteur nul n'est pas unique.

En revanche, on montre que les sous-espaces de la famille des sont en somme directe
dans si et seulement si :

Lorsque les sous-espaces vectoriels sont de dimensions finies, on a encore l'équivalence des
assertions suivantes :

1. Les sont en somme directe.

2. .
3. En juxtaposant une base de , ... , une base de , on constitue une base de la
somme.
Exemple : soient E un espace vectoriel sur K de dimension finie, et f un endomorphisme de E
ayant exactement p valeurs propres (distinctes) appelées . On désigne par
l'endomorphisme identique de E.

Pour tout entier i tel que 1 ≤ i ≤ p, est le sous-espace propre de f associé


à la valeur propre .
Les deux propriétés suivantes sont classiques :

• La somme est directe.

• si et seulement si f est diagonalisable.

Lorsque c'est le cas, on constitue une base de E diagonalisant f en juxtaposant une base
de , ... , une base de .

Somme directe orthogonale [modifier]

On désigne ici par E un espace préhilbertien réel ou complexe (espace vectoriel réel ou complexe
muni d'un produit scalaire). Soit une famille de sous-espaces vectoriels de E. S'ils
sont deux à deux orthogonaux, leur somme est directe. Elle est alors appelée somme directe
orthogonale.

Un exemple très simple est l'espace constitué des vecteurs orthogonaux à tous les vecteurs
d'un sous-espace vectoriel F : il est en somme directe avec F. L'égalité n'est pas
toujours vérifiée lorsque la dimension est infinie. Par contre, elle l'est dès que E est de dimension
finie.

Deux espaces qui sont à la fois supplémentaires et orthogonaux sont dits supplémentaires
orthogonaux. Un sous-espace vectoriel F de E, même s'il a des supplémentaires, n'en a pas
nécessairement un qui lui soit orthogonal. Des conditions suffisantes sont que l'espace E soit de
dimension finie ou que l'espace F soit fermé (preuve). Cette question est liée à la possibilité
d'effectuer une projection orthogonale.

Lorsque les sous-espaces vectoriels sont de dimensions finies, on a l'équivalence des assertions
suivantes :

1. Les sont en somme directe orthogonale.


2. En juxtaposant une base orthogonale de , ... , une base orthogonale de , on
constitue une base orthogonale de la somme.

Somme directe externe et produit cartésien [modifier]


Lorsque deux sous-espaces F1, F2 d'un espace vectoriel E sont en somme directe, l'application
suivante est bijective :
Il existe dans ce cas une unique structure d'espace vectoriel sur le produit cartésien telle
que cette application soit un isomorphisme d'espaces vectoriels ; la loi interne et la loi externe
sont définies respectivement par les relations :

et ,
où u1, v1 sont dans F1, u2, v2 sont dans F2, et α est dans K.

Ceci incite, si E1 et E2 sont deux espaces vectoriels quelconques sur le même corps K, à définir
leur somme directe, dite alors externe.

Somme directe externe de deux K-espaces vectoriels [modifier]

La somme directe externe de deux K-espaces vectoriels E1 et E2 est le produit cartésien


sur lequel on définit

• une addition :

• une multiplication externe par les éléments de K :

(où )

Muni de ces deux lois de composition, l'ensemble est un espace vectoriel sur K.

Dès lors, et sont deux sous-espaces de ,


respectivement isomorphes à E1 et E2 (on a "plongé" E1, E2 dans le produit cartésien) ; la relation
justifie l'appellation de somme directe externe.

Lorsque E1 et E2 sont de dimensions finies, il en est de même de leur somme directe externe, et :

(car est somme directe des deux sous-espaces et , qui ont même
dimension que , respectivement).

Somme directe externe de plusieurs K-espaces vectoriels [modifier]

On définit de même la somme directe externe de k espaces vectoriels


sur le même corps K.

Lorsque sont de dimensions finies, il en est de même de leur somme directe


externe, et :
.

Remarque à propos d'autres structures algébriques [modifier]

On définit de manière analogue la somme directe externe d'un nombre fini de groupes additifs, ou
d'anneaux, ou de A-modules sur le même anneau A.

Par exemple, si A1 et A2 sont deux anneaux, on définit sur deux lois de composition
interne :

• une addition :

• une multiplication :

Muni de ces deux lois de composition, l'ensemble est un anneau. Même si A1 et A2 sont
intègres, leur produit cartésien ne l'est pas : a1, a2 étant deux éléments non nuls de A1, A2
respectivement, on a : .

Propriété universelle de la somme directe [modifier]


Soit A un anneau ; soit une famille de A-modules, N un A-module ; soit
une famille d'applications linéaires.

Alors il existe une unique application A-linéaire telle que : ,

avec l'injection canonique.

[Enrouler]
Démonstrations

Par analyse synthèse :

• Supposons qu'un tel φ existe. Soit ; on a :


avec δik symbole de Kronecker ; on a :
et, pour , φ((xn + xm) =
φ((xn,0) + (0,xm)) = fn(xn) + fm(xm) par A-linéarité, donc

ce qui assure l'unicité de φ

• Posons donc ; les fi étant linéaires, φ est


linéaire.

Soit , on a : ;
ainsi nous avons bien , donc φ existe bien.

Forme quadratique
Un article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

En mathématiques, une forme quadratique est un polynôme homogène de degré deux avec
un nombre quelconque de variables. Par exemple, la distance comprise entre deux points dans
un espace euclidien à trois dimensions s'obtient en calculant la racine carrée d'une forme
quadratique impliquant six variables qui sont les trois coordonnées de chacun des deux points.

Les formes quadratiques d'une, deux et trois variables sont données par les formules
suivantes :

L'archétype de forme quadratique est la forme sur qui définit la structure


euclidienne. C'est pourquoi la théorie des formes quadratiques utilise la terminologie de la
géométrie (orthogonalité). La géométrie est un bon guide pour aborder cette théorie, malgré
quelques pièges.

Les formes quadratiques interviennent dans de nombreux domaines des mathématiques :

• La classification des coniques et plus généralement des quadriques projectives


équivaut essentiellement à celle des formes quadratiques sur l'espace vectoriel
correspondant.
• Si est une fonction , la partie d'ordre 2 de son développement de
Taylor, disons en 0, définit une forme quadratique.
Si 0 est un point critique, cette forme, dans le cas où elle est non dégénérée, permet de décider
si on a affaire à un maximum local, à un minimum local ou à un point selle.

• Les formes quadratiques interviennent en Mécanique du solide (ellipsoïde d'inertie) et


en Statistique (analyse en composantes principales).
• Les formes quadratiques interviennent pour la résolution d'équations diophantiennes,
Joseph-Louis Lagrange les utilise pour la démonstration du théorème des deux carrés
de Fermat.

Sommaire
[masquer]

• 1 Formes quadratiques sur un espace vectoriel


o 1.1 Expression matricielle
o 1.2 Rang
o 1.3 Sous-espaces orthogonaux
o 1.4 Discriminant
o 1.5 Le problème de classification
• 2 Cas de corps de caractéristique deux
• 3 Généralisations
• 4 Liens internes

• 5 Références

Formes quadratiques sur un espace vectoriel [modifier]


Soit un espace vectoriel V sur un corps F. Pour l'instant, nous supposons que F possède une
caractéristique différente de 2. C'est le cas, en particulier, pour les corps réels et complexes
qui sont de caractéristique 0. Le cas où la caractéristique vaut 2 sera traité séparément.

Une application Q : est appelée forme quadratique sur V s'il existe une forme
bilinéaire symétrique B : telle que

B est appelée la forme bilinéaire associée. Si sont des vecteurs de V,

donc nous pouvons retrouver la forme bilinéaire B à partir de Q :

C'est un exemple de polarisation d'une forme algébrique. Il existe alors une correspondance
bijective entre les formes quadratiques sur V et les formes bilinéaires symétriques sur V. À
partir d'une forme donnée, nous pouvons définir de manière unique l'autre forme.
Quelques autres propriétés des formes quadratiques :

• et
• Q obéit à la règle du parallélogramme :

• Les vecteurs u et v sont orthogonaux par rapport à B ssi

• Pour toute forme quadratique, il existe une base orthogonale, c'est-à-dire

une base telle que pour . C'est une conséquence immédiate


de la réduction de Gauss.

Expression matricielle [modifier]

Si V est de dimension n, et si est une base de V, on associe à B la matrice


symétrique B définie par p. La forme quadratique Q est alors donnée par

où les sont les coordonnées de u dans cette base, et u la matrice colonne formée par ces
coordonnées. On dit que B est la matrice de Q par rapport à la base.

Q(u) est un polynôme homogène de degré deux par rapport aux coordonnées de u,
conformément à notre définition de départ.

Soit une autre base de V, et soit la matrice de passage exprimant les anciennes
coordonnées en fonction des nouvelles. De la relation on tire pour
la matrice de B dans la nouvelle base. On dit que B et B' sont congruentes.

Rang [modifier]

Le noyau d'une forme quadratique Q ( on dit aussi radical) est par définition le sous-espace
vectoriel

Cet espace est le noyau de l'application linéaire de V dans l'espace dual V* qui associe à x la
forme linéaire Une forme quadratique est dite non dégénérée si rad(Q)=0,
autrement dit si l'application linéaire ci-dessus est un isomorphisme.
Le rang de Q est par définition dim V - dim(rad(Q)). C'est aussi le rang de la matrice de Q par
rapport à une base quelconque.

Sous-espaces orthogonaux [modifier]

Si W est un sous-espace vectoriel de V, l'orthogonal de W est le sous-espace

Cette notion généralise l'orthogonalité dans les espaces euclidiens, mais il y a quelques
pièges. Par exemple sur , la forme quadratique est non dégénérée,
mais chacun des sous-espaces et est son propre orthogonal. Plus
généralement, si Q est non dégénérée, on a bien , comme
dans le cas euclidien. Mais l'intersection n'est pas forcément réduite à zéro.

Discriminant [modifier]

Soit q une forme quadratique et A sa matrice par rapport à une base de V. Si l'on effectue un
changement de base de matrice Q, la matrice de q dans la nouvelle base sera .
D'après les propriétés élémentaires des déterminants, . Si q est
non dégénérée, l'image du déterminant dans le groupe quotient ne dépend pas de
la base. C'est cet élément que l'on appelle le discriminant de la forme quadratique. Si q est
dégénérée, on convient que le discriminant est nul.

Exemples

• Corps des complexes

Si , le quotient est réduit à l'élément neutre, et le discriminant est sans


intérêt.

• Corps des réels

Si , le quotient s'identifie à , vu comme sous-groupe multiplicatif


de . On peut donc parler de formes quadratiques à discriminant positif ou négatif. Par
exemple, le discriminant de la forme quadratique ax2 + 2bxy + cy2 sur , supposée non
dégénérée, est donnée par le signe de . S'il est positif, la forme est définie positive ou
définie négative, s'il est négatif, la réduction de Gauss sera de la forme
. On retrouve, ce qui n'est pas surprenant, la théorie de
l'équation du second degré.

• Corps finis

Si p est un nombre premier, et K le corps à p éléments, la théorie élémentaires des résidus


quadratiques assure que est encore isomorphe au groupe à deux éléments.
Le problème de classification [modifier]

On dira que deux formes quadratiques Q et Q' sont équivalentes s'il existe une application
linéaire inversible telle que . Il revient au même de dire que leur matrices
dans une même base sont congruentes. Classer les formes quadratiques sur un espace
vectoriel V c'est

• déterminer les classes d'équivalence de la relation précédente (qui est clairement une
relation d'équivalence)
• déterminer les orbites de l'ensemble des formes quadratiques sous l'action du groupe
linéaire

donnée par

(ce ne sont que deux façons d'exprimer la même chose).

On a les résultats suivants.

• Si V est un espace vectoriel de dimension finie sur un corps F algébriquement clos

(de caractéristique ) deux formes quadratiques sont équivalentes si et seulement si elles


ont même rang. C'est une conséquence directe de la réduction de Gauss

• Si V est un espace vectoriel de dimension finie sur ,

deux formes quadratiques sont équivalentes si et seulement si elles ont même rang et même
signature (loi d'inertie de Sylvester).

Deux formes quadratiques équivalentes ont même rang et même discriminant, mais l'inverse
est loin d'être en général vrai.

Cas de corps de caractéristique deux [modifier]


La théorie des formes quadratiques de caractéristique deux possède une petite saveur
différente, essentiellement parce que la division par 2 n'est pas possible. Il n'est plus vrai non
plus que chaque forme quadratique est de la forme Q(u) = B(u,u) pour une forme bilinéaire
symétrique B. En outre, même si B existe, elle n'est pas unique : puisque les formes alternées
sont aussi symétriques en caractéristique deux, on peut ajouter toute forme alternée à B et
obtenir la même forme quadratique.

Une définition plus générale d'une forme quadratique qui marche pour toute caractéristique
est la suivante. Une forme quadratique d'un espace vectoriel V sur un corps F est comme
une application telle que

• et , et
• est une forme bilinéaire sur V.
Généralisations [modifier]
On peut généraliser la notion de forme quadratique à des modules sur un anneau commutatif.
Les formes quadratiques entières sont importantes en théorie des nombres et topologie.

Réduction de Gauss
Un article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

En mathématiques, la réduction de Gauss est un algorithme permettant de représenter toute


forme quadratique sur un espace vectoriel de dimension finie (sur un corps commutatif de
caractéristique différente de deux) comme une combinaison linéaire de carrés de formes
linéaires indépendantes. La méthode employée est proche de la mise sous forme canonique
d'une équation du second degré. Cet algorithme est nommé ainsi en l'honneur du
mathématicien Carl Friedrich Gauss.

Sommaire
[masquer]

• 1 Enoncé
• 2 Exemples
• 3 Applications

• 4 Liens internes

Enoncé [modifier]
Réduction de Gauss — Pour toute forme quadratique sur un espace vectoriel de dimension
finie, il existe un entier naturel non nul r, des formes linéaires indépendantes et
des éléments du corps de base, tous non nuls, tels que

[Dérouler]
Démonstration

En langage matriciel, cela signifie que toute matrice symétrique est congruente à une matrice
diagonale, c'est-à-dire que pour toute matrice symétrique M d'ordre n, il existe une matrice
inversible Q telle que tQMQ soit diagonale (les coefficients diagonaux sont les
complétés par des zéros si r < n).

L'entier r est le rang de la forme quadratique. C'est aussi le rang de n'importe quelle matrice
représentant cette forme dans une base.
Contrairement aux valeurs propres, les ci ne sont pas uniques, même à permutation près.

Exemples [modifier]
• Soit une forme quadratique sur l'espace vectoriel définie par

(On a désigné par un élément de )

Alors

• Autre exemple :

On a alors

Applications [modifier]
Si le corps de base est le corps des nombres complexes ou plus généralement un corps
algébriquement clos, il existe r formes linéaires indépendantes telles que

Autrement dit, sous l'action du groupe linéaire, les formes quadratiques sont classées par leur
rang. En langage matriciel, deux matrices symétriques complexes sont congruentes si et
seulement si elles sont même rang.

Si le corps de base est le corps des nombres réels, il faut prendre en compte le signe des ci.
Il existe un entier s (inférieur ou égal à r) tel que

Cet entier ne dépend pas de la décomposition d'après la loi d'inertie de Sylvester.

• Si s < = n et r = s, la forme quadratique est positive (définie positive si et seulement si


r=n),
• si r < = n et s = 0 elle est négative (définie négative si et seulement si r=n).
Si le corps de base est le corps des nombres rationnels ou un corps fini, la réduction de
Gauss ne permet pas d'effectuer complètement la classification des formes quadratiques.

Elle donne un algorithme pour trouver une base dans laquelle la matrice de q est diagonale.

Loi d'inertie de Sylvester


Un article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

La loi d'inertie de Sylvester est un théorème de classification des formes quadratiques sur un
espace vectoriel réel de dimension finie.

Soit un espace vectoriel sur de dimension n, et une forme quadratique de rang r. Il existe
un entier et des formes linéaires indépendantes telles que

Cette écriture n'est pas unique, mais l'entier s n'en dépend pas. On l'appelle l'indice de .

Deux formes quadratiques sur sont équivalentes si et seulement si elles ont même rang et
même indice.

Preuve.Le théorème de réduction de Gauss assure de l'existence de r des formes linéaires

indépendantes et de réels tous non nuls tels que .


L'existence de la décomposition annoncée s'obtient en renumérotant les de façon à mettre en

premier ceux qui sont strictement négatifs, puis en remplaçant par .

Pour montrer que s ne dépend que de q, montrons que c'est le maximum des dimensions des
sous-espaces sur lesquels q est définie négative. (On montrerait de même que r-s est le
maximum des dimensions des sous-espaces sur lesquels q est définie positive). Soient
une base de dans laquelle sont les r premières fonctions
coordonnées (en particulier, est une base du radical de ), et (resp.
) le sous-espace engendré par (resp. ). On obtient une
décomposition
en somme directe de sous-espaces deux à deux orthogonaux pour la forme bilinéaire associée
à , la restriction de à (resp. ) étant définie positive (resp. définie négative). Soit un
sous-espace de dimension m sur lequel est définie négative. Comme est définie positive sur
, ces deux sous-espaces sont en somme directe et est non dégénérée sur cette somme,
donc , c'est-à-dire .

Passons maintenant au critère d'équivalence. Si est une forme quadratique s'écrivant

et si est une application linéaire inversible, on a

Les formes sont indépendantes si les le sont, donc et ont même indice (on sait
déjà d'après la théorie générale qu'elles ont même rang). Réciproquement, si et ont même
indice et même rang, elles ont même matrice par rapport à des bases convenables et sont donc
bien équivalentes.

Matrice définie positive


Un article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

En algèbre linéaire, la notion de matrice définie positive est analogue à celle de nombre réel
strictement positif.

On introduit tout d'abord les notations suivantes ; si a est une matrice à éléments réels ou
complexes :

• désigne la transposée de a
• a * désigne la matrice transconjuguée de a (conjuguée de la transposée)

On rappelle que :

• désigne le corps des nombres réels


• désigne le corps des nombres complexes

Sommaire
[masquer]

• 1 Matrice symétrique réelle définie positive


o 1.1 Exemple de base
o 1.2 Exemple : matrice de Hilbert
• 2 Matrice hermitienne définie positive
• 3 Propriétés
• 4 Critère de Sylvester

• 5 Voir aussi

Matrice symétrique réelle définie positive [modifier]


Soit M une matrice symétrique réelle d'ordre n. Elle est dite définie positive si elle vérifie
l'une des 3 propriétés équivalentes suivantes :

1 Pour toute matrice colonne non nulle à n éléments réels, on a


. .

(autrement dit, la forme quadratique définie par est strictement positive pour )
2 Toutes les valeurs propres de M sont strictement positives, c'est-à-dire :
. .
3 La forme bilinéaire symétrique définie par la relation
.

est un produit scalaire sur (identifié ici à l'espace vectoriel des matrices colonnes à n
éléments réels).

Une matrice symétrique réelle est dite définie négative si son opposée (symétrique elle aussi)
est définie positive.

La propriété 1 signifie que M définit sur une forme quadratique définie positive, la
propriété 2 que sur , vu comme espace euclidien avec le produit scalaire

, M définit un opérateur auto-adjoint positif. L'équivalence entre 1 et 2


vient de cette double interprétation, à la lumière de la réduction de Gauss et du théorème
spectral. Si 1 est vraie, sachant que les valeurs propres d'une matrice symétrique réelle sont
réelles, on voit en appliquant 1 aux vecteurs propres que les valeurs propres sont strictement
positives. Si 2 est vraie, il existe une matrice orthogonale telle que soit diagonale
(parce que est symétrique réelle) à coefficients diagonaux strictement positifs (c'est
l'hypothèse 2 sur les valeurs propres). Mais comme Q − 1 = tQ, la matrice est aussi congrue à
la matrice diagonale en question, donc la forme quadratique est définie positive.

Exemple de base [modifier]


Pour toute matrice réelle , les matrices symétriques et sont positives ; elles sont
définies positives si et seulement si est inversible. Les matrices de Gram donnent un
exemple de cette situation.

Exemple : matrice de Hilbert [modifier]

On appelle matrice de Hilbert la matrice (symétrique d'ordre n) , telle que

. Elle est définie positive.

En effet, soit une matrice colonne quelconque à n éléments réels .

On remarque que . Alors, par linéarité de


l'intégrale :

d'où enfin : .
Dans cette dernière intégrale, l'intégrande est continu et à valeurs positives. Par
conséquent :

• ;

• si , alors pour tout .

Donc pour tout .


Il en résulte que les , coefficients d'un polynôme admettant une infinité de racines,
sont tous nuls, c'est-à-dire .
Ceci prouve que pour toute matrice colonne non nulle à n éléments
réels.

Nota : ceci est un cas particulier d'une propriété des matrices de Gram. La matrice de Gram
d'une famille de n vecteurs d'un espace préhilbertien (réel ou complexe) est définie positive si
et seulement si la famille est libre.

Matrice hermitienne définie positive [modifier]


On étend les propriétés et définitions précédentes aux matrices complexes hermitiennes.
Soit M une matrice hermitienne d'ordre n. Elle est dite définie positive si elle vérifie l'une des
3 propriétés équivalentes suivantes :

1 Pour toute matrice colonne non nulle à n éléments complexes, on a


. .
2 Toutes les valeurs propres de M sont strictement positives, c'est-à-dire :
. .
3 La forme sesquilinéaire définie par la relation
.

est un produit scalaire sur (identifié ici à l'espace vectoriel des matrices colonnes à n
éléments complexes).

Une matrice hermitienne est dite définie négative si son opposée (hermitienne elle aussi) est
définie positive.

Propriétés [modifier]
Les propriétés suivantes sont communes aux matrices symétriques réelles et aux matrices
complexes hermitiennes.

1. Toute matrice définie positive est inversible (à déterminant réel strictement positif), et
son inverse est elle aussi définie positive.
2. Si M est définie positive et r est un nombre réel strictement positif, alors rM est définie
positive.
3. Si M et N sont définies positives, alors M + N est définie positive.
4. Si M et N sont définies positives, et si MN = NM (on dit qu'elles commutent), alors
MN est définie positive.
5. Une matrice M est définie positive si et seulement s'il existe une matrice définie
positive A telle que A2 = M ; dans ce cas, la matrice définie positive A est unique, et on
peut la noter A = M1 / 2 (voir l'article racine carrée d'une matrice).

Cette propriété est utilisée pour la décomposition polaire.

Critère de Sylvester [modifier]


Pour qu'une matrice , réelle symétrique ou complexe hermitienne, soit
définie positive, il faut et suffit que les n matrices aient
leur déterminant strictement positif, autrement dit que tous les mineurs principaux aient leur
déterminant strictement positif.

Remarque 1. Pour n=2, le critère de Sylvester est essentiellement le critère de positivité du


trinôme du second degré.
Remarque 2. Plus généralement, l'indice d'une matrice symétrique réelle inversible est égal
au nombre de changements de signes dans la suite de ses n + 1 mineurs principaux (en
incluant det(A0) = 1).

Preuve. Notons q la forme quadratique associée à A, définie par .

La condition est nécessaire. On remarque d'abord que si q est définie positive, alors
. En effet, par rapport à une base orthogonale pour cette forme quadratique (il en
existe, d'après la réduction de Gauss), la matrice de q s'écrit les étant tous
strictement positifs. Alors (Q étant la matrice de passage),
donc . Le résultat s'ensuit, en appliquant le même raisonnement à la restriction de
q aux sous-espaces , pour .

Montrons maintenant que la condition est suffisante. On procède par récurrence sur la
dimension. Pour n=0 c'est évident puisqu'en dimension 0 l'ensemble des vecteurs non nuls est
vide. Supposons la propriété vraie pour n-1 et notons . Par hypothèse de
récurrence, est définie positive. De plus, q est est non dégénérée (parce que )
donc

Soient e un vecteur non nul de et a = q(e). Alors et ont même signe


d'après le même argument que dans la première partie (qui met implicitement en jeu le
discriminant), or par hypothèse et sont strictement positifs. Donc a>0, si
bien que la restriction de q à est, elle aussi, définie positive, ce qui montre que q est
définie positive.

Dans le cas complexe, la preuve est analogue, en considérant la forme hermitienne définie par
la matrice.

Matrice semi-définie positive


Un article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

En algèbre linéaire, la notion de matrice semi-définie positive (on dit aussi : matrice positive)
est analogue à celle de nombre réel positif ou nul.

La notion de matrice semi-définie positive est très proche de celle de matrice définie
positive.

Sommaire
[masquer]

• 1 Matrice symétrique réelle semi-définie positive


o 1.1 Exemple
• 2 Matrice hermitienne semi-définie positive

• 3 Voir aussi

Matrice symétrique réelle semi-définie positive [modifier]


Soit M une matrice symétrique réelle d'ordre n. Elle est dite semi-définie positive si elle
vérifie l'une des 2 propriétés équivalentes suivantes :

1 Pour toute matrice colonne à n éléments réels, nous avons


. .
2 Toutes les valeurs propres de M sont positives ou nulles, c'est-à-dire :
. .

Exemple [modifier]

Étant donné un vecteur aléatoire à valeurs dans dont chaque composante


admet une variance, on définit sa matrice des covariances :

• Celle-ci est semi-définie positive. En effet, pour toute matrice colonne à n éléments
réels notés :

• Elle est définie positive si et seulement si la seule combinaison linéaire de


qui soit certaine est celle dont tous les coefficients sont nuls.

Matrice hermitienne semi-définie positive [modifier]


On étend les propriétés et définitions précédentes aux matrices complexes hermitiennes.

Soit M une matrice hermitienne d'ordre n. Elle est dite semi-définie positive si elle vérifie
l'une des 2 propriétés équivalentes suivantes :

1 Pour toute matrice colonne à n éléments complexes, on a


. (où désigne la matrice transconjuguée de ).
2 Toutes les valeurs propres de M sont positives ou nulles, c'est-à-dire :
. .
Décomposition polaire
Un article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher


Sommaire
[masquer]

• 1 Décomposition polaire d'une matrice réelle


• 2 Décomposition polaire d'une matrice complexe
• 3 Références

• 4 Voir aussi

Décomposition polaire d'une matrice réelle [modifier]


• Les applications suivantes sont des homéomorphismes, et même des
difféomorphismes.

Autrement dit, toute matrice inversible réelle se décompose de façon unique en produit d'une
matrice orthogonale et d'une matrice symétrique strictement positive.

• Les applications suivantes sont surjectives mais en général non injectives :

Décomposition polaire d'une matrice complexe [modifier]


• Les applications suivantes sont des homéomorphismes, et même des
difféomorphismes.

Autrement dit, toute matrice inversible complexe se décompose de façon unique en produit
d'une matrice unitaire et d'une matrice hermitienne strictement positive.

• Les applications suivantes sont surjectives mais en général non injectives :


Remarque. Pour n=1, on retrouve l'écriture z = reiθ d'un nombre complexe non
nul. C'est la raison du nom de décomposition polaire : c'est une sorte de
généralisation des coordonnées polaires. Espace préhilbertien [modifier]

Article détaillé : Espace préhilbertien.

Un espace préhilbertien est un espace vectoriel réel ou complexe que l'on a muni d'un produit
scalaire. La définition du produit scalaire quitte alors le champ de la géométrie traditionnelle.

Produit scalaire réel [modifier]

Les propriétés algébriques vues dans le cas de la dimension 2 ou 3 sont suffisantes pour
définir un produit scalaire dans un espace vectoriel réel quelconque.

Soit un espace vectoriel réel.

On dit qu'une application φ :

est un produit scalaire si elle est :

• bilinéaire : φ est linéaire relativement à chaque argument (l'autre étant


fixé).
• symétrique :
• positive :
• définie :

Il est naturel de se poser la question réciproque : Est-il possible de définir une géométrie à
l'aide d'un espace vectoriel et d'un produit scalaire ? La longueur est alors donnée par la
norme, et l'angle θ entre deux vecteurs et par la formule :

Une telle géométrie vérifie les inégalités triangulaires et de Cauchy-Schwarz, le théorème de


Thalès, de Pythagore, ses isométries sont les rotations et les symétries.

Produit scalaire hermitien [modifier]

Pour adapter cette définition aux espaces vectoriels complexes, nous avons besoin de la
notion de « semi-linéarité »:
Une application f d'un espace vectoriel complexe dans est dite semi-linéaire si elle
vérifie :

Soit donc maintenant un espace vectoriel complexe.

On dit qu'une application φ :

est un produit scalaire hermitien (ou simplement un produit scalaire) si elle est :

• sesquilinéaire : c'est-à-dire

• linéaire relativement au second argument (le premier étant fixé)


• semi-linéaire relativement au premier argument (le second étant fixé)

• symétrique hermitienne :
• positive :
• définie :

Remarque : la convention de linéarité à droite, semi-linéarité à gauche n'est pas universelle,


certains auteurs utilisent la convention inverse. Dans un espace vectoriel complexe, muni d'un
tel produit scalaire, sont encore vérifiés le théorème de Pythagore, l'inégalité de Cauchy-
Schwartz et l'inégalité triangulaire.

Exemples [modifier]

• Dans l'espace , on définit le produit scalaire canonique :


.

• Dans l'espace , on définit le produit scalaire canonique :


.

• Soit le des fonctions continues de l'intervalle dans .

L'application est un produit scalaire sur E.

• Soit le des fonctions continues de l'intervalle dans


,
L'application : est un produit
scalaire sur .
Remarque : Si , au lieu de travailler sur des fonctions continues, on travaille sur des fonctions continues
par morceaux, la forme bilinéaire construite est bien positive mais n'est pas définie : (f|f) = 0 implique
que f est nulle sauf sur un nombre fini de points.

Espace euclidien [modifier]

Article détaillé : Espace euclidien.

Un espace euclidien est un espace vectoriel sur , généralement défini de manière


axiomatique de dimension finie et muni d'un produit scalaire.

Un tel espace possède de nombreuses propriétés à la fois algébriques et géométriques. Le


produit scalaire met en évidence des applications linéaires particulières aux propriétés
multiples. Elles permettent, entre autres, de définir de nombreuses structures additionnelles,
souvent elles aussi euclidiennes. Elle offre un cadre géométrique qui permet de généraliser
bon nombre de résultats vrais sur les nombres réels. Il devient ainsi possible d'appliquer des
résultats de l'analyse réelle à la géométrie différentielle.

Espace hermitien [modifier]

Article détaillé : Espace hermitien.

Un espace hermitien est un espace vectoriel défini sur les nombres complexes et disposant
d'un produit hermitien, correspondant à une généralisation du cas réel. Le terme de produit
scalaire est aussi utilisé dans ce contexte. Les résultats et propriétés des espaces euclidiens se
traduisent souvent simplement dans cet espace.

Espace de Hilbert [modifier]

Article détaillé : Espace de Hilbert.

Un espace de Hilbert peut être réel ou complexe. Il correspond exactement aux deux cas
précédent, à la différence que la dimension n'est pas nécessairement finie. Si la théorie et les
démonstrations sont différentes de la situation en dimension finie, certains résultats se
généralisent. Une hypothèse topologique est néanmoins souvent nécessaire, celle de la
complétude de l'espace métrique associé. Pour cette raison, un espace de hilbert est par
définition complet.

Cet espace est utilisé pour résoudre des problèmes d'analyse fonctionnelle, particulièrement
des équations aux dérivées partielles

Définition formelle [modifier]

Soit K un corps muni d'une valeur absolue et E un K-espace vectoriel.


Une norme sur E est une application sur E à valeurs réelles positives et satisfaisant les
hypothèses suivantes :

• séparation : ;
• homogénéité : ;
• sous-additivité (appelé également Inégalité triangulaire) :
.

Remarques

• Les corps des réels et des complexes ne sont pas les seuls à admettre une valeur
absolue. Tout corps supporte la valeur absolue constante égale à 1 en dehors de 0.
Dans le cas des corps valués, la norme est même ultramétrique en vérifiant une
certaine condition plus forte que la sous-additivité.
• Une fonction de E dans qui ne satisfait que les hypothèses d'homogénéité et de
sous-additivité est appelée semi-norme.

Un espace vectoriel muni d'une norme est alors appelé espace vectoriel normé (parfois
abrégé en EVN).

Article détaillé : Espace vectoriel normé.

L'image d'un vecteur x par la norme se note usuellement et se lit « norme de x ».

Premières propriétés [modifier]

• La norme est sous-linéaire, c'est-à-dire qu'elle vérifie la propriété suivante :

• Plus généralement, on obtient par récurrence immédiate l'inégalité dans :

• La séparation et l'homogénéité garantissent les propriétés de séparation et de symétrie


de la fonction . La sous-additivité justifie alors l'inégalité
triangulaire,

nécessaire pour montrer que d est une distance sur E, qui plus est invariante par
translation.
Un espace vectoriel normé est donc un espace métrique homogène et la topologie
associée est compatible avec les opérations vectorielles.

• La sous-additivité permet d'obtenir la propriété suivante :


qui montre que la norme est une application 1-lipschitzienne donc continue.

• La norme est aussi une fonction convexe, ce qui peut être utile pour résoudre des
problèmes d'optimisation.

Topologie [modifier]

Article détaillé : Espace vectoriel topologique.

Une norme sur un espace vectoriel définit une distance d sur par la formule suivante :

De plus, à d est associée, comme à toute distance, une topologie séparée. Un ouvert pour cette
topologie est une partie de E vérifiant la propriété suivante :

Cette topologie possède la propriété suivante :

Proposition — L'addition de dans et la multiplication externe de dans


sont continues.

[Enrouler]
Démonstrations

Soient un point de et un accroissement, alors :

La majoration précédente montre que l'addition est 2-Lipschitzienne donc uniformément


continue.

Soient un point de et un accroissement, alors, si


et :

La dernière majoration montre l'uniforme continuité de la multiplication externe sur toute


boule de de centre 0 et rayon M, donc la continuité sur .

Boule [modifier]

Article détaillé : Boule (mathématiques).


Cette construction d'une topologie donne toute son importance à la notion de boule ouverte de
centre et de rayon , c'est-à-dire l'ensemble des points dont la distance à est strictement
inférieure à . Toute boule ouverte est l'image de la boule unité (ouverte) par une
translation de vecteur et d'une homothétie de rapport .

Les boules ouvertes centrées en un point forment une base de voisinages du point , elles
caractérisent donc la topologie. Si K=R ou C, toute boule ouverte est convexe. En effet,
comme la convexité est conservée par translation et homothétie, il suffit de montrer cette
propriété pour la boule ouverte unité. Si et sont deux points de cette boule et si est un réel
entre zéro et un, alors :

La propriété suivante est donc vérifiée :

Propriété — Un espace vectoriel normé sur R ou C est localement convexe.

Ce qui signifie que tout point admet une base de voisinages convexes, par exemple les boules
ouvertes centrées en ce point.

Norme équivalente [modifier]

Article détaillé : Norme équivalente.

Plus la topologie contient d'ouverts, plus précise devient l'analyse associée. Pour cette raison
une topologie contenant au moins tous les ouverts d'une autre est dite plus fine. La question se
pose dans le cas de deux normes et sur un même espace vectoriel , de savoir à quel
critère sur les normes correspond une telle comparaison entre leurs topologies associées.

• est dite plus fine que si toute suite de vecteurs de convergeant pour
converge pour , ou encore, s'il existe un réel strictement positif α tel que :

Cette définition est légitimée par le fait que est plus fine que si et seulement si sa
topologie associée est plus fine que

• et sont dites équivalentes si est plus fine que et est plus fine que
, ou encore, s'il existe deux réels strictement positifs α et β tels que :

Cela correspond au fait que les boules ouvertes des deux normes puissent s'inclure l'une dans
l'autre à dilatation près, ou encore que les deux topologies associées soient les mêmes. En
termes métriques, les deux structures sont même uniformément isomorphes. Sur un espace
vectoriel réel ou complexe de dimension finie, toutes les normes sont équivalentes (cf
topologie d'un espace vectoriel de dimension finie).

Constructions génériques [modifier]


• Tout produit scalaire sur un espace vectoriel réel E définit la norme euclidienne
associée par :

.
Une norme est euclidienne (c'est-à-dire provient d'un produit scalaire) si et

seulement si l'application est


bilinéaire
et dans ce cas cette application est le produit scalaire associé.

• Si f est une application linéaire injective de E dans F alors toute norme sur F induit
une norme sur E par l'équation

• Si C est un ouvert convexe borné et équilibré d'un espace vectoriel réel ou complexe
E, alors la jauge de C est une norme définie par

et dont C est la boule unité ouverte.

• Si E et F sont deux espaces vectoriels normés réels ou complexes, l'espace


des applications linéaires continues est muni de la norme d'opérateur s'écrivant :

Exemples [modifier]
En dimension finie [modifier]

Article détaillé : Topologie d'un espace vectoriel de dimension finie.


On considère le vecteur sur Kn,

• la norme euclidienne est obtenue à partir du produit scalaire ou du produit hermitien


canoniques :

et elle correspond à la norme habituellement utilisée pour la distance entre deux points
dans le plan ou l'espace usuels (la présence du 2 en indice est expliquée juste après);

• la norme 1 est donnée par la somme des modules (ou valeurs absolues) des
coefficients :

et induit la distance de déplacement à angle droit sur un damier (ou dans les rues de
Manhattan[1]) ;

• plus généralement, pour tout p supérieur ou égal à 1, la norme p est donnée par la
formule suivante :

,
elle identifie donc la norme euclidienne avec la norme 2, mais n'a surtout d'intérêt que
dans sa généralisation aux espaces de fonctions ;

• la norme « infini »[2] d'un vecteur est la limite de ses normes p lorsque p tend vers
l'infini :

,
elle induit la distance de déplacement par les faces et par les coins dans un réseau,
comme celui du roi sur l'échiquier.

Les relations d'équivalence entre ces normes sont :

L'inégalité triangulaire pour les normes p s'appelle l'inégalité de Minkowski, elle est une
conséquence de résultats de convexité parmi lesquels l'inégalité de Hölder.

D'autres exemples apparaissent classiquement :

• La norme sur l'espace des quaternions est la norme euclidienne appliquée à la base
(1,i,j,k).
• L'espace des polynômes de degré inférieur ou égal à n peut être muni de normes issues
d'espaces de fonctions (voir ci-dessous).

En dimension infinie [modifier]

• Sur l'espace des fonctions continues définies sur un segment [a,b] de et à


valeurs réelles ou complexes, on retrouve des normes p définies de manières
analogues à celles sur les espaces vectoriels de dimension finie pour p supérieur ou
égal à 1 :

qui permettent notamment de définir les espaces Lp.


En particulier, la norme euclidienne associée au produit scalaire ou hermitien
canonique est définie par

.
La norme « infini » ou norme sup ou encore norme de la convergence uniforme
s'écrit quant à elle

et s'obtient là aussi comme limite des normes p lorsque p tend vers l'infini.
Toutes ces normes ne sont pas équivalentes deux à deux.
Par ailleurs elles s'étendent aisément aux espaces de fonctions continues sur un
compact de , voire aux fonctions continues à support compact.

• Sur l'espace des fonctions dérivables à dérivée continue, on peut utiliser


l'une des normes ci-dessus ou prendre en compte aussi la dérivée à l'aide d'une norme
comme suit :

afin de considérer l'application dérivée de dans comme continue.

• Sur l'espace des suites bornées, la norme naturelle est la norme sup :

Norme d'algèbre [modifier]


Définition [modifier]

Une norme sur une algèbre A est dite norme d'algèbre s'il existe une constante réelle C
telle que

Quitte à multiplier la norme par C, cette constante peut être ramenée à 1. La condition est
alors celle de sous-multiplicativité.

Dans le cas d'une algèbre réelle ou complexe, la condition est équivalente à la continuité du
produit comme application bilinéaire.

Si l'algèbre est unitaire, on peut exiger de la norme qu'elle vérifie aussi :

auquel cas la multiplication par une constante ne peut plus être utilisée pour « renormaliser »
la norme.

Exemples [modifier]

• L'application module est une norme d'algèbre sur considéré comme -algèbre.
• La norme d'opérateur sur est une norme d'algèbre.
• La norme « infini » sur induit la norme d'opérateur sur qui s'écrit

.
Théorème de Cayley-Hamilton
Un article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher


Pour les articles homonymes, voir Hamilton.

En algèbre linéaire, le théorème de Cayley-Hamilton (qui porte les noms des


mathématiciens Arthur Cayley et William Hamilton) affirme que tout endomorphisme d'un
espace vectoriel de dimension finie sur un corps quelconque annule son propre polynôme
caractéristique.

En termes de matrice, cela signifie que :

si A est une matrice carrée d'ordre n et si

est son polynôme caractéristique (polynôme d'indéterminée X), alors en remplaçant


formellement X par la matrice A dans le polynôme, le résultat est la matrice nulle :

Le théorème de Cayley-Hamilton s'applique aussi à des matrices carrées à coefficients dans


un anneau commutatif quelconque.

Un corollaire important du théorème de Cayley-Hamilton affirme que le polynôme minimal


d'une matrice donnée est un diviseur de son polynôme caractéristique.

Sommaire
[masquer]

• 1 Motivation
• 2 Exemple
• 3 Démonstration
o 3.1 Une preuve
o 3.2 Une variante
o 3.3 Remarques additionnelles sur la démonstration
• 4 Abstraction et généralisations
• 5 Références

• 6 Voir aussi

Motivation [modifier]
Ce théorème possède deux familles d'utilisation:
• Il permet d'établir des résultats théoriques, par exemple pour calculer le polynôme
caractéristique d'un endomorphisme nilpotent.
• Il autorise aussi des simplifications puissantes dans les calculs de matrices. L'approche
par les polynômes minimaux est en général moins coûteuse que celle par les
déterminants.

On trouve ce théorème utilisé dans les articles sur les polynômes d'endomorphisme,
endomorphismes nilpotents, et plus généralement dans la théorie générale des matrices

Exemple [modifier]
Considérons par exemple la matrice

Le polynôme caractéristique s'écrit

Le théorème de Cayley-Hamilton affirme que

A2 − 5A − 2I2 = 0

et cette relation peut être rapidement vérifiée dans ce cas. De plus le théorème de Cayley-
Hamilton permet de calculer les puissances d'une matrice plus simplement que par un calcul
direct. Reprenons la relation précédente

A2 − 5A − 2I2 = 0
A2 = 5A + 2I2

Ainsi, par exemple, pour calculer A4, nous pouvons écrire

A3 = (5A + 2I2)A = 5A2 + 2A = 5(5A + 2I2) + 2A = 27A + 10I2

et il vient

A4 = A3A = (27A + 10I2)A = 27A2 + 10A = 27(5A + 2I2) + 10A


A4 = 145A + 54I2.

On peut également utiliser la relation polynomiale initiale A2 − 5A − 2I2 = 0 pour prouver


l'inversibilité de A et calculer son inverse. Il suffit en effet de mettre en facteur une puissance
de A là où c'est possible et

A(A − 5I) = 2I2

ce qui montre que A admet pour inverse


Démonstration [modifier]
Une preuve [modifier]

Quelle que soit la matrice , il existe une matrice explicitement déterminée,


Comp(S), la matrice complémentaire de S, qui vérifie SComp(S) = Comp(S)S = detSIn. La
matrice Comp(S) est la transposée de la comatrice ou matrice des cofacteurs de S. Cette
relation reste encore vraie si les coefficients de S appartiennent à un anneau, puisqu'on n'a pas
fait de divisions. On peut donc poser S = XIn − A, dont les coefficients sont dans et on a
alors la relation:

Partons de (1), en écrivant

avec , et

On peut développer le produit (XIn − A)Comp(XIn − A) :

qui est identique à

Les polynomes (2) et (3) sont égaux. Par conséquent,

pnIn = Bn − 1
piIn = Bi − 1 − ABi
p0 = − AB0

Il vient alors
Comme la somme est télescopique, elle est nulle. Donc, P(A)=0. La preuve ne consiste pas en
une substitution de X par A dans des égalités de polynômes, mais à une identification de leurs
coefficients.

Une variante [modifier]

On peut également aligner des idées abstraites.

Commençons par introduire un morphisme d'évaluation approprié à la résolution du


problème. Tout d'abord, étant une algèbre commutative sur , on a un morphisme
d'évaluation : (qui envoie X sur A et λ sur λIn pour tout scalaire λ). Ce
morphisme d'anneaux commutatifs induit un morphisme d'évaluation sur les anneaux de
matrices .

Une notation auxiliaire nous sera utile : pour deux matrices carrées (n,n) notées C = (cij) et D
= (dij), on notera la matrice à coefficients matriciels de terme général cijD. Si le lecteur
connaît le produit de Kronecker de deux matrices, il pourra remarquer que c'est
presque la même chose que à ceci près que est une matrice (n,n) dont les
coefficients sont des matrices (n,n) tandis que est une matrice (n2,n2). Les formules
ci-dessous ne contiennent de fait que deux cas particuliers de cette opération : des produits de
la forme c'est-à-dire des matrices carrées avec des C sur la diagonale et des 0 ailleurs
et un produit c'est-à-dire une variante de A où la matrice aijIn vient remplacer le
coefficient aij.

Cette notation posée, appliquons le morphisme d'évaluation à la relation :

On obtient une relation

dans laquelle M est une certaine matrice à coefficients dans dont on n'aura besoin de
rien savoir.

Ainsi on a écrit une formule juste, et on en pâtit : on n'a du coup pas fini, l'évaluation de XIn −
A par une technique rigoureuse ne fournit pas 0 mais une bizarre matrice à coefficients
matriciels.

Il faut une deuxième idée pour conclure. Elle consiste à remarquer que si est un anneau et E
un -module à droite, pour tous entiers r, s, t on peut définir par les formules habituelles un
produit matriciel :
pour laquelle on a associativité si on veut calculer des produits à trois termes :

Appliquons cette notion à (pour les puristes à ) qui est un module


(dont la multiplication s'écrit spontanément à gauche mais peut l'être à droite si on préfère,
l'anneau étant commutatif) sur l'anneau commutatif , la multiplication externe
étant l'application : définie par (ce étant le
produit matriciel ordinaire de la matrice carrée par la matrice colonne ).

Multiplions à gauche la relation ( * ) par le vecteur ligne où


désigne la base canonique de : en utilisant l'expression de droite dans ( * ) on obtient le
vecteur ligne .

Si maintenant on utilise l'expression de gauche dans ( * ) et qu'on déplace les parenthèses par
associativité de la multiplication matricielle un peu inhabituelle décrite ci avant, on est amené
à calculer le produit :

Pour chaque indice j, on ne peut que constater que sa j-ème composante vaut :

En multipliant ceci à droite par l'inoffensive matrice M et en comparant les deux expressions
du produit, on conclut que pour tout indice j, p(A)ej = 0.

Et donc p(A) = 0[1].

Remarques additionnelles sur la démonstration [modifier]

La preuve qui a été donnée évite la substitution de X par une matrice dans un contexte non
commutatif, mais les manipulations effectuées sont quand même proches de cette idée : on a
bien décomposé l'équation en composantes suivant les puissances de X, on a multiplié à
gauche par Aj la composante qui était en facteur de Xj, et on a additionné tout ensemble. En
fait, on a utilisé l'opération EvA définie en (5), sans supposer qu'il s'agisse d'un
homomorphisme d'anneaux, de dans . L'opération EvA est une
évaluation à gauche, parce que la multiplication par l'indéterminée scalaire X est remplacée
par la multiplication à gauche par A.

Une autre observation est importante : la forme exacte du polynôme Comp(XIn − A) n'a
aucune importance. Il y a donc quelque chose à exploiter ici, ce que n'ont pas manqué de faire
les mathématiciens.
Soit M un anneau non commutatif ; on peut définir une division euclidienne d'un polynôme
par un polynôme B monique. C'est un polynôme dont le coefficient du terme de
plus haut degré est une unité de M, c'est-à-dire un élément de M qui possède un inverse dans
M. Plus précisément, il existe deux polynômes , avec R de degré strictement
inférieur au degré de B, tels que

P = BQ + R.

La démonstration est entièrement analogue à celle du cas scalaire. Si B = XIn − A, alors le


reste R est de degré 0, et donc identique à une constante appartenant à M. Mais dans ce cas, en
raisonnant exactement comme dans la démonstration du théorème de Cayley-Hamilton, on
arrive à la conclusion

EvA(P) = R.

Il s'ensuit que EvA(P) est nul si et seulement si P est divisible à gauche par XIn − A.

La démonstration du théorème de Cayley-Hamilton donne aussi une autre information : le


polynôme Comp(XIn − A) est le quotient à gauche de p(X)In par tIn − A. Comme p(X)In et XIn −
A appartiennent tous deux au sous-anneau commutatif K[A][X], la division à gauche se passe
entièrement dans ce sous-anneau, c'est donc une division ordinaire. En particulier, les
coefficients matriciels de Comp(XIn − A) sont des combinaisons linéaires de puissances de A.
En d'autres termes, la matrice complémentaire d'une matrice A est un polynôme en A, ce qu'il
n'est pas facile de déduire directement de la définition d'une matrice complémentaire. Mieux,
on peut calculer explicitement ses coefficients à partir de ceux du polynôme caractéristique
p(X), puisqu'il s'agit de faire une division euclidienne ordinaire, et on trouve

On aurait pu également obtenir cette relation directement à partir du théorème de Cayley-


Hamilton, en vertu de l'identité

Définition [modifier]
Trace d'une matrice carrée [modifier]

Étant donnée une matrice carrée à coefficients dans un corps K ou dans


un anneau A, sa trace, notée Tr(A), est la somme de ses coefficients diagonaux :

.
La trace est un scalaire. Pour toutes matrices carrées A et B (de même ordre) et pour tout
scalaire , les propriétés suivantes sont vérifiées :

AT désigne la transposée de A, et AB le produit matriciel de A et de B.

La propriété 4 a pour corolaire[1] important l'égalité suivante, valable pour toute matrice carrée
A et pour toute matrice inversible P de même ordre :

Autrement dit, la trace est un « invariant de similitude » pour les matrices carrées d'ordre
donné. Ainsi, la trace est une forme linéaire sur l'espace vectoriel des matrices
carrées d'ordre n (propriétés 1 et 2), invariante par transposition (propriété 3) et par
similitudes.

Inversement, toute forme linéaire sur l'espace invariante par similitude est
proportionnelle à la trace.

Trace d'un endomorphisme [modifier]

Sur un espace vectoriel E de dimension finie n, la trace d'un endomorphisme ,


notée Tr(u), est définie comme la trace de la représentation matricielle de u relativement à une
base préalablement fixée de E. La propriété (P5) ci-dessus montre que cette définition ne
dépend pas du choix arbitraire de .

En effet, étant données deux bases et , est introduite la matrice de passageP de la base
à la base . Les matrices A et A' représentant u respectivement dans et vérifie la relation
dite « de changement de base »[réf. nécessaire] : A' = P − 1AP. Par la propriété (P5), Tr(P − 1AP) =
Tr(A), donc Tr(A') = Tr(A).

Les propriétés suivantes sont vérifiées pour tous endomorphismes et pour tout
scalaire .

De plus, si (c'est-à-dire que v est un automorphisme), alors :


Autrement dit la trace est une forme linéaire sur l'espace vectoriel , invariante par
transposition et par conjugaison.

Trace d'une forme quadratique [modifier]

Soit (E,g) un espace euclidien de dimension finie. Pour toute forme quadratique q sur E, il
existe un opérateur symétrique A sur (E,g) tel que

q(v) = g(v,Av).

La trace de A est appelée trace de la forme quadratique q par abus de langage. Sa définition
dépend explicitement du choix de la métrique euclidienne g.

Exemples [modifier]
Soit E un espace vectoriel de dimension n.

• La trace de l'identité est : Tr(I) = n = dim(E).


• La trace d'une transvection est aussi dim(E).
• Pour tous opérateurs u et v, on pose [u,v]=uv-vu. La trace de [u,v] est nulle, ce qui
signifie exactement Tr(uv)=Tr(vu).

Dans les espaces euclidiens :

• La trace d'une rotation de R2 d'angle θ est donnée par : Tr(Rθ) = 2cosθ.


• Plus généralement[réf. nécessaire] pour tout entier , la trace d'une rotation d'axe Δ et
d'angle θ dans l'espace à n dimensions est donnée par : Tr(RΔ,θ) = n − 2 + 2cosθ.

Pour des matrices :

• Toute permutation (où représente le groupe symétrique d'ordre ) est


représentée par une matrice carrée d'ordre , définie par :

La trace de la matrice Mσ s'interprète alors comme le nombre de points fixes de la


permutation σ :

• La trace de la matrice d'adjacence d'un graphe est nulle (si un sommet ne boucle pas
sur lui-même).

Applications [modifier]
Réduction d'opérateurs [modifier]
Un projecteur p de E est un opérateur vérifant p2=p. Le lemme des noyaux implique que E est
la somme directe du noyau F de p et de l'image G de p ; et p se restreint en l'identité sur G.
Géométriquement, p est la projection sur G parallèlément à F. En concaténant des bases de F
et G, on a une base de E dans laquelle le matrice de u est diagonale avec comme coefficients 0
et 1. Il s'en suit que la trace de p est la dimension de G :

Plus généralement, les traces fournissent des informations sur la réduction des opérateurs. On
rappelle que le polynôme caractéristique de u est

P(X) = det(X − u).

Si P(X) est scindé (par exemple, si le corps de base K est algébriquement clos) alors u est
triangularisable. Autrement dit, il existe une base de E dans laquelle l'opérateur u s'écrit sous
la forme d'une matrice triangulaire supérieure. Les coefficients diagonaux sont les racines de
son polynôme caractéristique P(X) comptées avec multiplicité, qui sont les valeurs propres de
u. On les note ici . Par définition, la trace de u est

En particulier, le développement du polynôme caractéristique est

Les autres coefficients du polynôme caractéristique sont les valeurs des polynômes
symétriques élémentaires en . Par conséquent, si le corps K est de caractéristique
nulle, les coefficients s'expriment comme des polynôme en les traces des puissances de u :

pour .

Par exemple, si E est de dimension 3,

L'application suivante est un exercice proposé au concours d'entrée de l'[[[École


polytechnique (France)|[École polytechnique]][2]. Soit u un opérateur sur un espace vectoriel
réel E, tel que . Alors u est un opérateur
nilpotent.

Divergence [modifier]
Article détaillé : Divergence (mathématiques).

Etant donné un espace vectoriel réel E de dimension finie, le déterminant définit une
application det de l'espace des opérateurs sur E vers R, qui est homogène de degré n. Le
nombre det(u) s'exprime comme une fonction polynômiale en les coefficients de la matrice
représentant u dans une base quelconque de E. La fonction det est donc différentiable. Sa
différentielle en l'identité est la trace. Autrement dit, pour tout opérateur u sur E,

det(I + u) = 1 + Tr(u) + o(u)

où o(u) signifie que le reste est négligeable devant u quand u tend vers zéro. Comme
conséquence, pour tout opérateur u sur E,

det(exp(u)) = exp(Tr(u)).

En particulier, l'exponentielle de u est de déterminant 1 ssi u est un opérateur de trace nulle.


Ce résultat s'interprète dans la théorie des groupes de Lie comme suit. L'application det est un
morphisme continu de groupes du groupe linéaire GL(E) vers R. Son noyau, l'ensemble des
opérateurs de déterminant 1, donc est un sous-groupe de GL(E), noté SL(E). Il s'agit d'un
groupe de Lie classique, c'est-à-dire d'un sous-groupe fermé de GL(E). Géométriquement, un
opérateur appartient à SL(E) ssi il préserve le volume de Lebesgue de E. Son algèbre de Lie
est exactement l'ensemble des opérateurs u de trace nulle, noté .

Sur un ouvert U de E, un champ de vecteurs X est une application . Si cette


application est lipschitzienne, le théorème de Cauchy-Lipschitz affirme l'existence de
solutions maximales de l'équation différentielle ordinaire

c'(t) = X(c(t)) (1).

Le flot de X est la famille de difféomorphismes ft qui envoient x sur c(t), où c est la solution
de (1) avec comme condition initiale c(0)=x. Le flot est défini localement. On introduit la
divergence de X

div(X)(x) = Tr(dX(x))

où dX(x) désigne la différentielle de X en x, qui est un opérateur sur E. Le flot ft préserve le


volume de Lebesgue ssi la divergence est nulle. Plus précisément, pour tout ouvert Ω dont
l'adhérence est incluse dans U,

(Cette égalité permet d'étendre la définition de la divergence, par exemple sur des variétés
orientées en présence de formes volumes. Voir divergence (mathématiques).)

Forme de Killing [modifier]

Article détaillé : Forme de Killing.


Si est une algèbre de Lie sur un corps K, la représentation adjointe de , notée ad, est
donnée par

ad(X)(Y) = [X,Y].

La forme de Killing sur est la forme bilinéaire symétrique

Les automorphismes de l'algèbre de Lie préserve la forme de Killing. En particulier, sa


représentation adjointe préserve B. La forme de Killing a été introduite par Cartan[réf. nécessaire]
pour caractériser la semi-simplicité des algèbres de Lie. Quand K=R, elle fournitaussi des
infiormations sur le groupe de Lie associé. Voir critère de Cartan.

Soit G un groupe de Lie (par exemple, un sous-groupe fermé de GL(E)). Par définition, son
algèbre de Lie est l'espace des champs de vecteurs sur G invariants à gauche, muni du crochet
de Lie [,] (commutateur de champs de vecteurs). La forme de Killing associée B définit une
métrique pseudo-riemannienne bi-invariante sur G. Si la forme de Killing B est définie
positive, alors la métrique associée est une métrique riemannienne à courbure positive. Le
théorème de Meyers implique que G est compact. D'autres liens existent.

Produit scalaire canonique [modifier]

Soit et deux matrices dans .


On remarque que

On dispose ainsi d'une écriture agréable du produit scalaire canonique sur l'espace Rnp.

Si H est un espace de Hilbert de dimension finie, la transposée d'un opérateur u sur H est un
opérateur sur H. On définit alors le produit scalaire sur l'espace des opérateurs sur H :

Avec cette définition, il apparait clairement que les opérateurs symétriques et les opérateurs
antisymétriques forment deux sous-espaces orthogonaux de . La transposée est la
symétrie orthogonale par rapport à l'espace des opérateurs symétriques.

Formes n-linéaires alternées [modifier]

La notion de forme n-linéaire alternée généralise les propriétés précédentes. Elle se définit
comme une application de En dans , qui est :

• linéaire en chaque variable. Ainsi pour des vecteurs x1, ..., xn, x'i et deux scalaires a et
b
• alternée, signifie qu'elle s'annule à chaque fois qu'elle est évaluée sur un n-uplet
contenant deux vecteurs identiques

L'article application multilinéaire procède à l'étude systématique des formes n-linéaires


alternées sur un espace vectoriel de dimension n.

Le résultat principal est la possibilité de ramener le calcul de l'image de (x1,...,xn) à celui


d'images des vecteurs de base par n-linéarité. En outre le caractère alterné permet de changer
l'ordre des vecteurs, de sorte qu'il suffit de connaître l'image f(e1,...,en) des vecteurs d'une base,
pris dans l'ordre, pour connaître f. Remettre les vecteurs dans l'ordre fait intervenir la notion
de permutation.

Théorème

L'ensemble An(E) des formes n-linéaires alternées sur un espace vectoriel de dimension n
constitue un espace vectoriel de dimension 1.

De plus, si est une base de E, on peut exprimer l'image d'un n-uplet de vecteurs
par

avec Xij la i-ème composante de xj et qui dénote la signature de la permutation σ (un pour
une permutation paire, -1 pour une impaire).

Déterminant d'une famille de n vecteurs dans une base [modifier]

Définition

On suppose E muni d'une base . L'application déterminant en base B


est l'unique forme n-linéaire alternée sur E vérifiant detB(e1,...,en) = 1, abrégé en detB(B) = 1

Il faut se représenter cette quantité comme une sorte de volume de pavé, relativement à la
base B.

Formule de Leibniz
Gottfried Leibniz introduit les premiers déterminants de taille 3 et plus

Soient x1,...xn des vecteurs de E. Il est possible de représenter ces n vecteurs par n matrices
colonnes, formant par juxtaposition une matrice carrée X.

Le déterminant de x1,...xn relativement à la base B vaut alors

Cette formule porte parfois le nom de Leibniz. Elle présente peu d'intérêt pour le calcul
pratique des déterminants, mais permet d'établir plusieurs résultats théoriques.

En physique, on rencontre souvent la formule de Leibniz exprimée à l'aide du symbole de


Levi-Civita, en utilisant la convention d'Einstein pour la sommation des indices :

Formule de changement de base

Si B et B ’ sont deux bases de E, les applications déterminants correspondantes sont


proportionnelles (avec un rapport non nul)

Ce résultat est conforme à l'interprétation en termes de volume relatif.

Déterminant d'une matrice [modifier]

Article détaillé : Calcul du déterminant d'une matrice.

Soit une matrice A=(aij) carrée d’ordre n à coefficients réels. Les vecteurs colonnes de la
matrice peuvent être identifiés à des éléments de l'espace vectoriel . Ce dernier est muni
d'une base canonique.
Il est alors possible de définir le déterminant de la matrice A comme le déterminant du
système de ses vecteurs colonnes relativement à la base canonique. Il est noté det(A) puisqu'il
n'y a pas d'ambiguïté sur la base de référence.

Par définition même, le déterminant dépend de façon linéaire de chaque colonne, et est nul
lorsque deux colonnes sont égales. Le déterminant de la matrice identité vaut un. Enfin il
vérifie la formule de Leibniz

Ce déterminant se note fréquemment avec des barres verticales :

La présentation matricielle apporte une propriété essentielle : une matrice a même


déterminant que sa transposée

Ce qui signifie que le déterminant de A se voit aussi comme le déterminant du système des
vecteurs lignes, relativement à la base canonique.

[Dérouler]
Formule du déterminant de la transposée - démonstration

Déterminant d'un endomorphisme [modifier]

Soit u un endomorphisme d'un espace vectoriel de dimension finie. Toutes les matrices
représentatives de u ont le même déterminant. Cette valeur commune est appelée déterminant
de u.

Le déterminant de u est la valeur par laquelle u multiplie les déterminants de vecteurs

[Dérouler]
Démonstration de ces deux propriétés

Notamment les endomorphismes de déterminant 1 conservent le déterminant des vecteurs. Ils


forment un sous groupe de Gl(E), noté Sl(E), et appelé groupe spécial linéaire. Dans un
espace réel de dimension deux, ils se conçoivent comme les applications linéaires conservant
les aires orientées, en dimension trois les volumes orientés.

On démontre que ce groupe est engendré par les transvections, dont la matrice dans une base
adaptée est de la forme

Effet d'une transvection dans l'espace (conservation du volume)

Fig. 8. Cube avant transvection Fig. 9. Cube après transvection

Par construction même du déterminant des endomorphismes, deux matrices semblables ont
même déterminant.

Propriétés [modifier]
Quitte à effectuer le choix d'une base, il est possible d'énoncer ces propriétés dans le cadre
matriciel.

Caractère n-linéaire alterné [modifier]

L'application déterminant sur les familles de vecteurs est une forme multilinéaire alternée.
Utiliser cette propriété sur une matrice demande d'exprimer le système de vecteurs colonnes,
ou de vecteurs lignes.

Par exemple si la matrice A admet pour colonnes C1, ..., Cn avec Ci de la forme Ci=aC 'i+C ' 'i

Voici l'effet des opérations élémentaires sur les colonnes de la matrice

• multiplier une colonne par a, entraîne la multiplication du déterminant par la même


valeur
• échanger deux colonnes, entraîne la multiplication du déterminant par -1
• ajouter à une colonne une combinaison linéaire des autres colonnes ne modifie pas le
déterminant.

Notamment, si toutes les colonnes sont multipliées par a, le résultat est une multiplication par
an du déterminant

En revanche, il n'existe pas de formule simple exprimant le déterminant de la somme A+B de


deux matrices. En effet, appliquer la multilinéarité par rapport aux colonnes demande d'écrire
les colonnes de la somme comme Ai+Bi, puis d'appliquer n fois la propriété de linéarité.
Finalement, le déterminant de A+B se scinde en une somme de 2n déterminants hybrides
det(A1, A2, B3, A4,..., Bn), formés d'un certain nombre de colonnes de A et de B.

Il est possible d'effectuer également des opérations élémentaires sur les lignes, qui ont les
mêmes propriétés que les opérations sur les colonnes. Opérer sur les lignes suivant la
technique du pivot de Gauss fournit une méthode systématique de calcul des déterminants ;
c'est la méthode la plus efficace en règle générale.

Article détaillé : Calcul des déterminants.

Propriétés de morphisme et d'annulation [modifier]

Augustin Louis Cauchy prouve que le déterminant constitue un morphisme de groupes

Cas d'annulation des déterminants

• le déterminant d'un système de n vecteurs est nul si et seulement si ce système est lié
(et ceci est valable quelle que soit la base de référence)
• le déterminant d'une matrice (ou d'un endomorphisme) est nul si et seulement si cette
matrice (ou endomorphisme) est non inversible.
Ces propriétés expliquent le rôle essentiel que peuvent jouer les déterminants en algèbre
linéaire. Ils constituent un outil fondamental pour prouver qu'une famille de vecteurs est une
base.

Démonstration du cas d'annulation

• si le système est lié, une colonne est combinaison linéaire des autres.
Par une opération élémentaire, il est possible de se ramener à un déterminant
ayant une colonne nulle, donc nul.
• si le système est libre, il est possible de le considérer comme une base
B' et lui appliquer la formule de changement de bases : detB(B ').detB ' (B)=1.

Propriété de morphisme


• ainsi si M est inversible alors
• et le déterminant est un morphisme de groupes de dans

Démonstration de la propriété de morphisme


La double application de la formule pour l'image d'une famille de vecteurs donne le
résultat, en prenant les vecteurs images des vecteurs de la base B eux-mêmes

Il existe une généralisation de la formule de déterminant d'un produit pour le cas de deux
matrices rectangulaires : c'est la formule de Binet-Cauchy.

Cofacteurs et formule de récurrence [modifier]

Article détaillé : Comatrice.

Soit A une matrice carrée de taille n, et A(x) la matrice dont les coefficients sont les mêmes
que ceux de A, sauf le terme d'indice i, j qui vaut ai, j+x (c'est la modification d'un des
coefficients de la matrice, toutes choses égales par ailleurs). Par la formule de linéarité pour la
j-ème colonne, il est possible d'établir

Le terme noté Cofi, j est appelé cofacteur d'indice i, j. Il se calcule de la façon suivante : en
notant M(i;j) le déterminant de la sous-matrice déduite de M par suppression la ligne i et la
colonne j, le cofacteur est (-1)i+j fois M(i;j).
Il admet les interprétations suivantes

• augmenter de x le coefficient d'indice i, j de la matrice (toutes choses égales par


ailleurs) revient à augmenter le déterminant de x fois le cofacteur correspondant
• le cofacteur est la dérivée du déterminant de la matrice A(x)

Formules de Laplace

Pierre-Simon Laplace

Si n>1 et A est une matrice carrée de taille n alors il est possible de calculer son déterminant
en fonction des coefficients d'une seule colonne et des cofacteurs correspondants. Cette
formule, dite formule de Laplace, permet ainsi de ramener le calcul du déterminant à n calculs
de déterminants de taille n-1.

• Formule de développement par rapport à la colonne j

• On peut donner également une formule de développement par rapport à la ligne i

Comatrice et calcul de l'inverse

La comatrice de A, est la matrice constituée des cofacteurs de A. Elle généralise les formules
de développement du déterminant par rapport aux lignes ou colonnes

La matrice transposée de la comatrice est appelée matrice complémentaire de A. Notamment


si A est inversible, l'inverse de A est un multiple de la matrice complémentaire. Cette
approche offre une formule de la matrice inverse, ne nécessitant que des calculs de
déterminants

En algèbre linéaire, la base duale est une base de l'espace dual d'un espace vectoriel E de
dimension finie, construite à partir d'une base de E. Il est rappelé que l'espace dual de E, noté
E * est l'espace des formes linéaires sur E. La réduction des formes quadratiques est un
exemple dans lequel les bases duales peuvent intervenir. Elles interviennent aussi pour
transporter des structures géométriques d'un espace vectoriel réel ou complexe sur son espace
dual, ce qui intervient notamment en géométrie différentielle.

Sommaire
[masquer]

• 1 Définition
o 1.1 Base duale de la base duale
o 1.2 Changement de bases
• 2 Applications

o 2.1 Réduction de Gauss

Définition [modifier]
Soit E un espace vectoriel sur un corps K de dimension finie n. Soit une
base de E (famille libre et génératrice). Comme est une famille génératrice, tout vecteur v
de E s'écrit de manière unique comme une combinaison linéaire des vecteurs ei :

où est un scalaire, un élément du corps K. L'application est une forme


linéaire sur E. L'application peut aussi étre définie comme l'unique forme linéaire sur E
vérifiant, pour tout entiers j entre 1 et n, où δij vaut 1 ou 0 suivant que i et j sont
égaux ou non. La famille forme une base de l'espace dual E * , appelée la base
duale de . De plus, toute forme linéaire u sur E s'écrit :

(1).

Cette construction suffit à montrer qu'un espace vectoriel et son dual ont la même dimension.

Base duale de la base duale [modifier]


Il existe une injection naturelle de E dans le bidual de E (= dual du dual de E),
donné par l'évalutation des formes linéaires en les vecteurs :

ι(v)(λ) = λ(v).

Comme E, E* et E** ont même dimesion, cette application linéaire injective est un
isomorphisme. Une autre manière d'obtenir ce résultat est la suivante. Soit la
base duale de . L'équation (1) se traduit par :

Changement de bases [modifier]

Article détaillé : Matrice de passage.

Soit une seconde base de E, qui admet une base duae notée
. La matrice de passage de à est la matrice M donnée par les coefficients
. L'équation (1) donne

L'application de M au n-uplet des coordonnées d'un vecteur v dans la base donne le n-uplet
des coordonnées de v dans . Explicitement,

Si M − 1 = (Mij) désigne l'inverse de la matrice M et ses coefficients, alors M − 1 est la matrice


de passage de la base duale à , ce qui signifie

Applications [modifier]
Réduction de Gauss [modifier]

Article détaillé : réduction de Gauss.

Soit q une forme quadratique sur un espace vectoriel réel E. Alors il existe une base
de E, telle que
où est la base duale de .

L'esapce vectoriel est le noyau de q. Les entiers r et s ne dépendent


pas du choix de la base e, et le couple (r,s) s'appelle la signature de q.