Académique Documents
Professionnel Documents
Culture Documents
Algèbre Matricielle
A.1 Introduction
Comme tous ceux qui ont étudié l’économétrie ou une quelconque autre disci-
pline mathématique le savent, la différence entre un résultat qui semble obscur
et difficile, et un résultat qui semble clair et intuitif, provient souvent simple-
ment de la notation utilisée. Dans presque tous les cas, la notation la plus
claire rend possible l’utilisation des vecteurs et des matrices. Les lecteurs de
ce livre devraient être assez familiers avec l’algèbre matricielle. Cette annexe
est destinée à aider ceux qui espèrent se rafraı̂chir la mémoire et réunir les
résultats avec une plus grande facilité. Les lecteurs devraient noter que le
Chapitre 1 contient aussi un nombre utile de résultats sur les matrices, en
particulier ceux concernant les matrices de projection. Dans cette annexe,
des preuves seront données seulement si elles sont courtes ou si elles sont
intéressantes. Ceux qui sont intéressés par un traitement plus complet et plus
rigoureux peuvent se reporter à Lang (1987).
770
A.2 Faits Elémentaires Concernant les Matrices 771
plus courant que le second, un vecteur qui n’est pas spécifié pour être vecteur
ligne sera traité comme un vecteur colonne. Si un vecteur colonne comporte
n éléments, il s’agira d’un vecteur à n dimensions. Le caractère gras est utilisé
pour désigner des vecteurs aussi bien que des matrices. Il est conventionnel
d’utiliser des majuscules pour les matrices et des minuscules pour les vecteurs.
Cependant, il est parfois nécessaire d’ignorer cette convention.
Si une matrice a le même nombre de colonnes que de lignes, elle est
carrée. Une matrice carrée A est symétrique si Aij = Aji pour tout i et j.
Des matrices symétriques surviennent très fréquemment en économétrie. Une
matrice carrée est diagonale si Aij = 0 pour tout i 6= j; dans ce cas, les seuls
éléments non nuls sont ceux qui forment la diagonale principale. Parfois une
matrice carrée est composée de zéros au-dessus ou au-dessous de la diago-
nale principale. Une telle matrice est dite triangulaire. Si les éléments non
nuls sont tous au-dessus de la diagonale, elle est dite triangulaire-supérieure;
si les éléments non nuls sont tous au-dessous de la diagonale, elle est dite
triangulaire-inférieure. Voici quelques exemples:
1 2 4 1 0 0 1 0 0
A = 2 3 6 B = 0 4 0 C = 3 2 0 .
4 6 5 0 0 2 5 2 6
Un vecteur spécial que nous utilisons énormément dans ce livre est ι, qui
désigne un vecteur colonne composé de 1.
La transposée d’une matrice est obtenue en interchangeant toutes ses
écritures lignes et colonnes. Ainsi, le ij ième élément de la matrice A devient
le ji ième élément de sa transposée, qui est désignée par la matrice A>. Notons
que certains auteurs utilisent A0 plutôt que A> pour désigner la transposée de
A. La transposée d’une matrice symétrique est égale à la matrice elle-même.
La transposée d’un vecteur colonne est un vecteur ligne, et vice versa. Voici
quelques exemples:
· ¸ 1 3 1
1 2 4
A= >
A = 2 5 b = 3 b> = [ 1 3 5 ].
3 5 5 5
4 5
772 Algèbre Matricielle
Quand les deux matrices sont multipliées, chaque élément du résultat est égal
au produit intérieur d’une des lignes de la première matrice avec une des
colonnes de la seconde matrice. Ainsi, si C = AB,
m
X
Cik = Aij Bjk .
j=1
L’inversion de l’ordre est nécessaire pour que les matrices transposées soient
conformes à la multiplication. Le résultat (A.02) peut être prouvé en écrivant
les éléments types des deux côtés et en vérifiant qu’ils sont identiques:
m
X m
X
>
(AB)ij = (AB)ji = Ajk Bki = (B> )ik (A> )kj = (B>A> )ij ,
k=1 k=1
Chaque élément du produit des deux matrices est une somme. Ceci
suggère qu’il peut être commode d’utiliser l’algèbre matricielle pour des
sommes. Supposons, par exemple, que nous ayons n observations sur k régres-
seurs. Ceux-ci peuvent être arrangés dans une matrice X de dimension n × k.
Ensuite, la matrice des sommes des carrés et des produits croisés des régres-
seurs peut être écrite de façon compacte comme X>X. Il s’agit d’unePmatrice
n 2
symétrique de dimension k × k,P dont un élément diagonal type est t=1 Xti
n
et un élément non diagonal est t=1 Xti Xtj .
Il est souvent nécessaire de multiplier une matrice par un scalaire, et ceci
fonctionne comme prévu: chaque élément de la matrice est multiplié par le
scalaire. De façon occasionnelle, il est nécessaire de multiplier deux matrices,
élément par élément. Le résultat est appelé produit direct (ou parfois produit
Schur) des deux matrices. Le produit direct des matrices A et B est désigné
A∗B, et un élément type est Aij Bij .
Une matrice carrée peut ne pas être inversible. Si la matrice A est
inversible, alors elle a une matrice inverse A−1 telle que
AA−1 = A−1A = I.
Une propriété très utile est que la trace d’un produit de deux matrices A et
B n’est pas affectée par l’ordre dans lequel les deux matrices sont multipliées.
Puisque la trace est définie seulement pour des matrices carrées, à la fois AB
et BA doivent être définies. Ensuite, nous avons
n
X n X
X m m
X
Tr(AB) = (AB)ii = Aij Bji = (BA)jj = Tr(BA). (A.04)
i=1 i=1 j=1 j=1
kxk ≡ (x>x)1/2.
nous signifions dans le contexte général par l’angle entre deux vecteurs. Pour
x, y ∈ E n, l’angle φ ≡ 6 (x, y) peut être défini en terme de son cosinus, cos φ,
comme suit:
hx, yi
cos φ = .
kxk kyk
Cette définition fournit une valeur à cos φ qui varie dans l’intervalle [−1, 1],
d’après (A.07). La définition est unique seulement si nous limitons la variation
possible de φ à un intervalle de longueur π (et non 2π). De façon habituelle, le
meilleur intervalle à choisir est [0, π]. Avec ce choix, l’angle entre un vecteur
et lui-même est 0, entre un vecteur et son opposé, π, et entre un vecteur et
un autre vecteur qui lui est orthogonal, π/2. Des vecteurs sont orthogonaux
si leur produit intérieur est nul.
La notion utilisée en économétrie qui correspond le plus étroitement au
concept géométrique du cosinus de l’angle est le R2 d’une régression linéaire.
Comme nous l’avons vu dans le Chapitre 1, le R2 de la régression y = Xβ + u
est le carré du cosinus de l’angle entre le vecteur y de dimension n et la
projection PX y de ce vecteur sur l’espace S(X) des régresseurs.
Une fois le cosinus de l’angle φ trouvé, il est possible de calculer les valeurs
de toutes les autres fonctions trigonométriques de φ. Ces fonctions sont le si-
nus, sin φ, la tangente, tan φ, la cotangente, cot φ, la sécante, sec φ, et la
cosécante, csc φ. Parmi celles-ci, la seule qui nous intéresse ici est la cotan-
gente, qui est étroitement reliée aux t de Student des régressions linéaires. En
termes de cos φ, cot φ est définie comme suit, pour φ ∈ [0, π]:
cos φ
cot φ = . (A.08)
(1 − cos2 φ)1/2
Contrairement au cosinus, qui doit varier entre −1 et 1, la cotangente peut
évidemment prendre n’importe quelle valeur réelle.
Pour le cas spécial d’une simple régression linéaire y = βx+u sans terme
constant, le t de Student associé à x est
β̂
, (A.09)
s(x>x)−1/2
cos φ
(n − 1)1/2 2 1/2
= (n − 1)1/2 cot φ,
(1 − cos φ)
A : E m → E n.
N(A) ≡ {x ∈ E m | Ax = 0} .
Nous pouvons dire que le noyau de A est annulé par A. Un sous-espace linéaire
important de l’espace d’arrivée est appelé image, définie par l’expression
L’image peut être décrite comme le sous-espace de E n qui contient tous les
points images d’un point dans E m par A. L’ensemble des points dans E m qui
sont appliqués vers un point y ∈ E n, c’est-à-dire les points qui ont y comme
image, est appelé ensemble des antécédents du point y.
Il est clair intuitivement que la dimension de l’espace Euclidien E m est m.
Nous notons dim E m = m. Quand nous traitons des sous-espaces comme
des noyaux ou des images, les dimensions de ces sous-espaces sont moins
778 Algèbre Matricielle
m − v = r. (A.11)
kAxk
kAk = max .
x∈E m kxk
Il peut être montré que n’importe quelle matrice A composée d’éléments fi-
nis a une norme finie et que n’importe quelle matrice avec une norme nulle
doit simplement être une matrice nulle, c’est-à-dire une matrice dont tous les
éléments sont nuls. Si deux matrices A et B ont des dimensions telles que le
produit AB existe, alors nous pouvons montrer que
Sous cette forme, il est clair que l’image de x par la matrice A est une com-
binaison linéaire des colonnes de A, définie au moyen des éléments de x.
Nous avons remarqué auparavant que les matrices partitionnées peuvent
être multipliées si leurs partitions sont conformes, comme si leurs blocs étaient
réellement des éléments de matrices. Le résultat d’une telle multiplication
partitionnée sera nécessairement une matrice dont la partition en lignes est
la même que celle du facteur le plus à gauche du produit matriciel, et dont la
partition en colonnes est la même que celle du facteur le plus à droite. Cette
propriété peut être utilisée pour démontrer d’autres résultats utiles. Si nous
séparons toutes les colonnes du second facteur du produit matriciel AB, nous
voyons que £ ¤ £ ¤
AB = A b1 · · · bm = Ab1 · · · Abm ,
où bi est une colonne type de la matrice B. Autrement dit, la i ième colonne
d’un produit matriciel peut être trouvée en remplaçant le facteur le plus à
droite du produit par la i ième colonne de ce facteur. De façon similaire,
naturellement, la i ième ligne d’un produit matriciel est trouvée en remplaçant
le facteur le plus à gauche par sa i ième ligne.
Supposons que nous considérons une matrice X partitionnée en deux
groupes de colonnes: X = [X1 X2 ]. La notation est choisie délibérément,
parce qu’il est intuitivement utile d’assimiler X à une matrice de régresseurs
séparés en deux sous-ensembles. En particulier, nous serons capables d’appliquer
le Théorème FWL (Section 1.4) dans l’analyse ultérieure. Si la matrice X est
de dimension n × k, alors le produit matriciel X>X est de dimension k × k.
En forme partitionnée, nous avons
¸· · ¸
> X1> X1>X1 X1>X2
X X= [X1 X2 ] = . (A.12)
X2> X2>X1 X2>X2
A.5 Matrices Partitionnées 781
Si (A.12) et (A.13) sont multipliées, le résultat doit être une matrice identité,
que nous pouvons partitionner comme
· ¸
I 0
Ik = k1 ,
0 Ik2
alors ¡ ¢−1
D −1 = X1>M2 X1 = X1>X1 − X1>X2 X2>X2 X2>X1
= A − C >B −1 C.
Ainsi, de façon très générale, nous avons les relations suivantes entre les blocs
des deux matrices inverses partitionnées (A.16) et (A.17):
¡ ¢−1
D = A − C >B −1 C ;
¡ ¢−1 ¡ ¢−1
E = −B −1 C A − C >B −1 C = − B − CA−1 C > CA−1 ;
¡ ¢−1
F = B − CA−1 C > .
Ces formules nécessitent que les inverses des blocs diagonaux de la matrice
partitionnée d’origine existent.
A.6 Déterminants
Nous avons plusieurs fois fait allusion à la possibilité qu’une matrice carrée
puisse ne pas être inversible. Si tel est le cas, alors l’application qui la définit
ne sera pas inversible. En général, une application partant d’un espace vers
un autre est inversible si et seulement si elle est une bijection, ou bijective,
dans une terminologie mathématique formelle. De façon plus explicite, il faut
qu’à chaque point de l’espace d’arrivée de l’application corresponde un et un
seul point de l’espace de départ de l’application. Ensuite l’application inverse,
qui va de l’espace d’arrivée vers l’espace de départ de l’application d’origine,
applique chaque point dans l’image vers son unique antécédent.
Nous montrons tout d’abord que seules les matrices carrées sont in-
versibles. Si A est une matrice de dimension n × m, il est nécessaire pour la
rendre inversible que, pour chaque vecteur y ∈ E n, il existe un unique vecteur
x ∈ E m tel que Ax = y. La matrice inverse A−1 est alors une matrice de
dimension m×n qui transforme un tel vecteur y en son correspondant x. Une
matrice A dont le noyau contient plus que le vecteur nul n’est pas inversible.
Supposons que z ∈ N(A), z 6= 0; c’est-à-dire, Az = 0. Alors, si Ax = y,
nous avons également A(x + z) = Ax + Az = Ax, et à la fois x et x + z
A.6 Déterminants 783
....................... .......................
...
....
........
...................... ........ .. .. . .
...
.....
....................... ........
.
a2..................................
. . a.2...................... ...
.
.. .
.... .. ....
...... ....... ................
. .................................. ...
.
. ........
. . ....... . ... ....
....
.... ....
.... M1 a2 ................... ....
.... ...
.....
...
. ... .
.... ... .
.
... ... ...
.... .... ... .... ... .....
...... ......
...... .
. ....... .
. . ..
.....a
..
. . ...............
...
...
.
. .
. a .
.
. ..
. . ...
...
...
...
....
.. . .
. .
.
... ....
...........
... 1 .
... ... ... ..... . . . ...
...
...
... 1
.... ........................ ...............................................
...................... .
O O
(a) Le parallélogramme défini (b) Rectangle de superficie égale formé
par a1 et a2 par a1 et M1 a2
a...3...........................................................................................................................................
......... ................... .. ........
...........................................................................................................................................
... .. .. ..
... ... ... ...
.. .. .. ..
... ... ... ...
.. .. .. ..
... ... ... ...
.. .. ..
. .
..
... ... . .
. . ...............................................................................................a
.......2..... ..
O ............................................................. ............ ..
........... . ..................................................................................................................
..............
a1
est égal à celui de (A.19). Pour comprendre ceci, souvenons-nous que la valeur
absolue du déterminant est invariante à l’ordre des colonnes, et sélectionnons
la première colonne de (A.20) comme la colonne qui n’est soumise à aucune
projection dans (A.18). Toutes les autres colonnes seront alors projetées sur
le complément orthogonal de l’espace engendré par la première colonne et per-
dront par conséquent leurs premiers éléments, c’est-à-dire les éléments de c>.
Une matrice triangulaire inférieure est un cas particulier de (A.19) dans
lequel la matrice B est elle-même triangulaire inférieure. De façon similaire,
une matrice triangulaire supérieure est un cas particulier de (A.20) dans lequel
la matrice B est elle-même triangulaire supérieure. Le fait que le déterminant
de ces deux matrices soit égal à |a11 ||det B| implique que si une matrice A est
triangulaire, son déterminant est égal au produit de ses éléments diagonaux.
Pour obtenir ce résultat, nous appliquons simplement le résultat d’origine tout
d’abord à A, puis à son bloc inférieur droit, enfin au bloc inférieur droit de
ce bloc, et ainsi de suite.
Une autre propriété des déterminants est qu’ils sont invariants à des per-
mutations de leurs lignes aussi bien que de leurs colonnes, à un changement
de signe près. C’est ce qui ressort de (A.18), puisque la norme d’un vecteur
ne dépend pas de la façon dont les lignes sont ordonnnées; consulter (A.06).
Le calcul des déterminants n’est évidemment pas une opération linéaire.
Ainsi, en général, |A + B| 6= |A| + |B|. Cependant, il est vrai que si une
colonne d’une matrice est exprimée comme la somme de deux vecteurs, alors
le déterminant est additif colonne par colonne. Cela signifie que
|a1 + b1 a2 · · · an |
(A.21)
= |a1 a2 · · · an | + |b1 a2 · · · an |.
786 Algèbre Matricielle
Ici la notation |·| avec les blocs d’une matrice partitionnée à l’intérieur désigne
le déterminant de la matrice. Pour voir pourquoi (A.21) est vraie, observons
que le rang de la projection M(2) est seulement 1. Il s’ensuit que, pour
n’importe quels vecteurs a et b de dimension n , kM(2) (a + b)k = kM(2) ak +
kM(2) bk. Le résultat provient de ce fait et de la définition (A.18).
Le résultat (A.21) nous permet d’établir la méthode classique d’évalua-
tion manuelle des déterminants. Cette méthode est le développement du
déterminant par une ligne ou une colonne. Plus personne ne calcule réellement
les déterminants de cette manière, sauf peut-être pour le cas trivial 2 × 2,
mais notre discussion sur la façon de développer les déterminants mènera
à un certain nombre de résultats utiles. Nous développerons à partir de la
première colonne. Pour procéder de la sorte, nous avons besoin d’une notation
particulière. Désignons Aij la sous-matrice de dimension (n − 1) × (n − 1) de
la matrice A obtenue en effaçant la i ième ligne et la j ième colonne. Soit Aij
le déterminant de cette sous-matrice. Nous appelons (−1)i+j Aij le cofacteur
de l’élément aij dans la matrice A. Soit αi le vecteur de dimension n dont
tous les éléments sont nuls sauf le i ième , qui égale ai1 . Notons alors que les
applications successives de (A.21) produisent
n
X
|A| = |αi a2 ··· an |. (A.22)
i=1
Si nous écrivons la i ième ligne de la somme indicée par i dans (A.22) comme
[ai1 ci> ], alors la i ième ligne peut être déplacée pour devenir la première,
par un processus de i − 1 permutations de lignes, qui génère un facteur de
(−1)i−1. Le résultat est le déterminant
¯ ¯
¯ ai1 ci> ¯¯
(−1) i−1 ¯ ,
¯ 0 Ai1 ¯
dont la valeur est ai1 Ai1 , d’après la définition d’un cofacteur. Ainsi, le
déterminant (A.22) peut être écrit comme
n
X
|A| = ai1 Ai1 . (A.23)
i=1
n
X
aij Aik = 0. (A.25)
i=1
Ceci est valable parce que (A.25) est le développement correct du déterminant
d’une matrice dans laquelle la k ième colonne est remplacée par la j ième
colonne. N’importe quelle matrice dans laquelle au moins deux colonnes sont
identiques a un déterminant nul, puisque quand la même colonne survient une
seconde fois dans (A.18), elle sera projetée sur le complément orthogonal de
l’espace qu’elle engendre, en donnant un vecteur de norme nulle.
Pour la même raison, n’importe quelle matrice dans laquelle une colonne
est une combinaison linéaire des autres aura un déterminant nul. Une matrice
qui satisfait cette condition ne sera pas de plein rang, et nous voyons aussi
qu’une matrice singulière a nécessairement un déterminant nul. Il n’est pas
difficile de voir que la réciproque est vraie: une matrice avec un déterminant
nul est nécessairement singulière. Tout ceci est également pertinent de façon
géométrique, naturellement. Si une matrice de dimension n × n n’est pas de
plein rang, le parallélépipède défini par la matrice sera un objet de dimension
inférieure à n, et ainsi son volume (dans l’espace de dimension n) sera nul.
Les résultats (A.24) et (A.25) peuvent être utilisés pour construire
l’inverse d’une matrice non singulière A. Considérons la matrice B avec
comme élément type bij ≡ Aji , qui est juste la transposée de la matrice des
cofacteurs. Nous voyons que
n
X
(AB)ij = aik Ajk = |A|δij ,
k=1
Tout d’abord nous montrons que si I−A est une matrice définie positive, alors
A−1 − I l’est également et réciproquement. Ceci provient du résultat, prouvé
auparavant, qu’en prémultipliant une matrice définie positive par n’importe
quelle matrice de plein rang et en multipliant ensuite le résultat par la trans-
posée de cette matrice, nous obtenons une matrice définie positive. Ainsi, la
caractère défini positif de I − A implique celui de (A−1/2 )>(I − A)A−1/2, qui
est juste A−1 − I. Le résultat réciproque provient de l’inversion des positions
des matrices A et A−1.
Si A−B est définie positive, alors A−1/2 (A−B)(A−1/2 )> l’est également,
c’est-à-dire I − A−1/2 B(A−1/2 )>. Le caractère défini positif de cette dernière
matrice entraı̂ne que de (A1/2 )>B −1 A1/2 − I, où la matrice A1/2 est l’inverse
de la matrice A−1/2, et également de (A−1/2 )>(A1/2 )>B −1 A1/2 A−1/2 −
(A−1/2 )>A−1/2 , qui est juste B −1 − A−1 , comme requis. A nouveau, le
résultat réciproque provient de l’inversion des positions des matrices et de leurs
inverses. Un résultat similaire est vrai pour les matrices semi-définies posi-
tives: A−B est une matrice semi-définie positive si et seulement si B −1 −A−1
l’est.
le vecteur propre qui correspond à la valeur propre λ. Bien que ces idées
soient définies de façon très générale, nous restreindrons notre attention ici
aux valeurs propres et vecteurs propres des matrices symétriques réelles.
La relation des valeurs propres (A.28) implique que
(A − λ I)x = 0, (A.29)
x>Ax = λx>x
et qu’à la fois x>x et x>Ax sont positives. Les vecteurs propres d’une matrice
symétrique réelle peuvent être choisis comme mutuellement orthogonaux. Si
nous regardons les deux vecteurs propres xi et xj , qui correspondent aux
deux valeurs propres distinctes λi et λj , alors xi et xj sont nécessairement
orthogonaux:
λi xj>xi = xj>Axi = (Axj )>xi = λj xj>xi ,
ce qui est impossible à moins que xj>xi = 0. Si toutes les valeurs pro-
pres ne sont pas distinctes, alors deux (ou plusieurs) vecteurs propres peu-
vent correspondre à une seule et même valeur propre. Quand cela survient,
ces deux vecteurs propres engendrent un espace qui est orthogonal à toutes
les autres valeurs propres d’après le raisonnement précédemment établi.
Puisque n’importe quelle combinaison linéaire des deux vecteurs propres sera
également un vecteur propre qui correspond à la valeur propre, nous pouvons
choisir un ensemble orthogonal de ceux-ci. Ainsi, que les valeurs propres soient
toutes distinctes ou non, nous pouvons sélectionner des vecteurs propres or-
thonormaux, c’est-à-dire des vecteurs mutuellement orthogonaux et normés
à 1. Ainsi, les vecteurs propres d’une matrice symétrique réelle fournissent
une base orthonormée.
Soit U ≡ [ x1 · · · xn ] une matrice dont les colonnes sont un ensemble
orthogonal de vecteurs propres de la matrice A, qui correspondent aux valeurs
792 Algèbre Matricielle
La matrice A−1/2 B(A−1/2 )> est semi-définie positive parce que la matrice B
l’est, ce qui rend le dernier facteur dans (A.32) supérieur à 1. Puisque
¯ 1/2 ¯2
¯(A )¯ = |A|,
Termes et Concepts
angle entre deux vecteurs matrice inversible
application définie par une matrice matrice orthogonale
application inverse matrice partitionnée
base orthogonale matrice semi-définie négative
base orthonormée matrice semi-définie-positive (ou
bijection définie non négative)
blocs d’une matrice partitionnée matrice symétrique
cofacteur matrice triangulaire
complément orthogonal (d’un matrice triangulaire inférieure
sous-espace) matrice triangulaire supérieure
décomposition triangulaire matrices conformes
déterminant norme (d’une matrice)
développement du déterminant noyau (d’une matrice)
(d’après une ligne ou une colonne) parallélépipède
diagonale principale d’une matrice parallélogramme
carrée permutation cyclique (des facteurs
diagonalisation (d’une matrice d’un produit de matrice)
symétrique réelle) plein rang
dimension (d’un espace Euclidien) postmultiplication
distance entre deux points dans E n prémultiplication
espace d’arrivée d’une application produit direct (produit Schur)
espace de départ d’une application produit extérieur
espace engendré (des colonnes d’une produit intérieur naturel
matrice) produit intérieur (produit scalaire)
espace euclidien de dimension n, E n propriété associative (pour l’addition
faux cofacteurs et la multiplication matricielle)
fonctions trigonométriques: sinus, propriété distributive (pour l’addition
cosinus, tangente, cotangente, et la multiplication matricielle)
sécante, cosécante rang d’une matrice
image d’une matrice trace d’une matrice
image et antécédent transposée d’une matrice
longueur (ou norme) d’un vecteur valeur propre
matrice carrée vecteur colonne
matrice carrée non singulière vecteur ligne
matrice carrée singulière vecteur propre
matrice définie négative vecteurs linéairement dépendants
matrice définie positive vecteurs linéairement indépendants
matrice diagonale vecteurs orthogonaux
matrice identité vecteurs parallèles
matrice inverse