4.5 Matrices identidad y matrices nulas
Matrices identidad
‘Ye se ha hecho referencia al término matriz identidad, que se define como una matriz
cuadrada con unos en su diagonal principal y ceros en cualquier ou parte. Se denota
mediante el simbolo J,» 7, en la que el subindice n sirve para indicar su climensign de renglon.
nfs
Ambas se pueden denotar también mediante J,
La imporiancia de este tipo especial de matriz radica en el becho de que desempella
un papel similar al del mimero 1 en al digebra escalar. Pare cualquice nimero «se tiene
Va) = a(1) =a, De manera similar, para cualquier mattia A, se tiene
[Az Al =A 48)
[p12 6 a}-[2 6 3)>
InA = Als, ¥ esto ilustra una excepcién a la regla de que la multiplicacién de matrices no e
conmutativa.
Uh =hy (k= 12,..)
‘Una matriz identidad permancce sin cambio cuando se multiplica por si misma cualquier
nimero de veces. Cualquier matriz con tal propiedad (a seber, 4A = A) se denomina matriz
idempotente.
Matrices nulas
‘Asi como una matriz identidad /desempefia le funcién del mimero 1, una matriz nua, 0 matriz
cero, denotada por 0, juega el papel del nimero cero. Una mattiz aula es simplemente una
‘matriz.cuyos elementos son cero. A diferencia de f, la mairiz cero no esta restringida a ser
cvadrada. Asi, es posible escribir
00 000
ey [° Al y ob 0 ‘
etc. Una matriz mula cuadrada es idempotente, pero una rectangular no lo es. (zPor qué?)
‘Como coniraparte del mtimero cero, las matrices milas obedecen las siguientes reglas de
operacién (sujetas a conformabilidad) con respecto a la suma y la multiplicacién:
4+ 0 = 0 + 4 =
(oben) (msn) (men) (e0) (ren)
- 0 o 4 = 0
frixaytexp) imap) ¥ (ax) (man) ax)Caracteristicas del algebra de matrices
Entre otras cosas, en el caso de escalares, la ecuacién ab = 0 siempre implica que ao bes
cero, pero esto no es asi en la multiplicacién de matrices. Asi, se tiene
[i]t a]-[0 6]
aunque ni A ni B es una matriz cero.
Como otra ilustracién, para escalares, la ecuacién ed = ce (con ¢ # 0) implica que d
Esto no se cumple para matrices. Asi, dadas
c-[e3] e-(ta] e=[4 a]
_[s 8
ep ce=[5 2]
se encuentra que
aun cuando D # E.
Estos resultados extratios pertenecen en realidad s6lo a la clase especial de matrices cono-
cidas como matrices singulares, de las cuales las matrices 4, By C son ejemplos. (Aproxima-
damente, estas matrices contienen un renglén que es un miltiplo de otro renglin.) No
obstante, estos ejemplos revelen las dificultades de la extensién injustificada de teoremas
algebraicos a operaciones con matrices.
4.6_Transpuestas e inversas
‘Cuando se intercambian los renglones y las columnas de una matsiz A —de modo que su
primer renglin se conviesta en Ia primer columna, y viceversa—, se obtiene la mranspuesta de
‘A, que se denota por 4’ 0 7. La prima de ninzn modo resulta una noveded: se us0 antes nara
38 9 3 4 i
Dades A [ } ‘1 ¥ bya lh a} pueden intercambiar los renglones y las
columnas y escrioir
3
31
i= ag
oy [ & | Yaka [3 |
9 4
Por definicién, si una matriz A es m x n, entonces su transpuesta A’ debe ser nx m, Sin em-
bargo, una matriz cuadrada n x n posee una transpuesta con la misma dimensién.
1 104
p=|o yentonees D'=|0 3 7
4 472
NwoD, sino también la disposicién original de los elementos! El hecho de que D’ = D es el
resultado de la simetria de los elementos con referencia a la diagonal prineipel. Si se considera
a la diagonal principal en D como.un espejo, los elementos localizados en el noreste son
imagenes exactas de Jos elementos en su suudoeste; por lo tanto, el primer renglén es idéntico
a la primera columna, y asi sucesivamente, La matriz D ejemplifica la clase especial de
‘matrices cuadradas conocidas como matrices simétricas. Otro ejemplo de esta clase de matriz
sla matriz identidad J, la cual, como una matriz simétrica, tiene la transpuesta I’ = I.
Propiedades de las transpuestas
Las ranspuestas se caracterizan por las siguientes propiedades:
“=A (4.9)
(A+B =A4B (4.10)
(4By = Bia’ (411)
[1 2], fo -1
pain A-[} 2] )0=[2 ~}], ta
12 137 _[12 24
[i 33] [3 35]
«
on[ STs 2]-[5 3]
Inversas y sus propiedades
inversa, otro tipo de matriz “deducida”, podria existir ono. La inversa de la matriz A, denotada
por 4~', se define sdlo si A es una matriz cuadrada, en cuyo caso el inverso es la matriz, que
satisface la condicién
say
ats
(4.12)
Es decir, si A se premultiplica (0 posmultipliea) por 4-1, el producto seré la misma matriz,
identidad. Esta es otra excepcién a la regla de que la multiplicacién de matrices no es
conmutativa,
Es importante mencionar los siguientes puntos
1. No toda matriz cuadrada tiene un inverso, la forma cuadrada es una condicién necesaria, pero
no una condicién suficiente, para la existencia de un inverso. Si una matriz cuadmda A tiene
un inverso, se dice que A es no singular; si A no posee inverso, se llama rnatriz singular
2. Si AW! existe, entonces se considera a la matriz A como cl inverso de 4~!, asi como A-!
es el inverso de 4. En resumen, 4 y A~! son inversas entre
3. Sides dem xn, entonees A~! también debe ser de n x n; de lo contratio, no puede ser
conformable para la premultiplicacién ni para ta posmultiplicacién. La matriz identidad
producida por la multiplicacién también sera de m x 1.4, Si existe un inverso, entonces es tinico. Para probar su unicidad, supéngase que se encon-
tid que B es un inverso pare A. asi que
AB=BA=I
Ahora suponga que hay otra matriz C tal que AC = CA =I. Al premultiplicar ambos
lados de AB = I por C, se encuentra que
CAB=CK(=C) — [por(48)]
Puesto que por suposicién C4 = J, la ecuacién anterior se reduce a
IB=C, obien, B=
Es decir, B y C debe ser una y la misma matriz inversa. Por esta razin, se puede hablar de
Ja (a diferencia de una) inversa de A.
02 elo
se puede mover a la parte posterior (ley conmutativa), se puede escribir
ae=[2 1)[2 “11L [6 o]1_pa o
=\o 2jlo 3}e=[o 6je=[o 1
Esto establece a 8 como la inversa de A, y viceversa. La multiplicacién inversa, como se espera-
ba, también produce la misma matriz identidad:
6 0]_[1 0
o 6}=[o1
weafe Ife 2)-
Las siguientes tres propiedads de matrices inversas son de interés. Si A y B son matrices
no singulares con dimensién n x 7, entonces
(yt =4 (413)
(4By'=B% 44 (4.14)
“yl=(aty (4.15)
3 12 -
Sea A= [ Hy yal [3 3] ;-enttonces, puesto que el multiplicador escalar (}) en 8La primera establece que Ia inversa de una inversa es la matriz original. La segunda establec
que Ia inversa de un producto es el producto de las inversas en orden inverso. Y la titime
significa que la inversa de la transpuesta es la transpuesta de la inversa, Note que en estat
expresiones se presupone la existencia de las inversas y Ia satisfaccién de la condicion de
conformabilidad.
La validez de (4.13) es bastante obvia, pero se procede a probar (4.14) y (4,15). Dado e
producto AB, determinese su inverso, llamado C. De (4.12) se sabe que CAB = /: asi, le
posmultiplicacién de ambos lados por B~"4~! produce
CABB A” =1B'A! (= BA) (4.16)
Pero, el lado izquierdo se puede reducir a
CA(BB~')A-! = CALA! [por (4.12)]
=CAA*=Cr=C — [por(4.12) y(4.8)]
La sustitucién de esto en (4.16) pone de manifiesto entonces que C = B~!A-! 0, en otras
palabras. que el inverso de AB es igual a B'A~!, como se supnso. En esta prueba, la
couacion AA! = 4-14 = T se utilizd dos veces. Note que la aplicacién de esta ecuacién es
permisible si y s6lo si una matriz y su inversa son estrictamente adyacentes entre si en un
producto, Se puede escribir 44~!B = 1B = B, pero nunca 4BAW' = B.
La prucba de (4.15) es como sigue. Dada 4’, se procede a encontrar su inversa, llamela D.
Por definicién, se tiene entonces D4’ = J. Fero se sabe que
produce la misma identidad. Asf, se puede escribir
(4aty’
(AVA [por 4.1]
Al posmultiplicar ambos lados por 4’) *, se obtiene
DA
Daisy =(aAty aay!
obien, D=(A'y [por (4.12)]
Asi, cl inverso de 4" es igual a (4~')’, como se supuso.
E] lado izquierdo ce (4.18) es un vector columna de variables, mientras que el producto del
Jado derecho es un vector columna de ciertos némeros conocidos. Asi, por la definicion de la
igualdad de matrices o vectores, (4.18) muestra el conjunto de valores de las variables que
satisfacen el sistema de ecuaciones, es decir, los valores solucién. Ademds, puesto que A~! es
Iimica si existe, A~!d debe sor un vector tinico de valores solucién. Por lo tanto, el vector x de
(4.18) se eseribiré como x*, para indicar su estado como una solucién (‘mica).Como un ejemplo simple, dado el sistema de ecuaciones lineales
6) + 3x+ x = 22
xi + Ary = 2x5 = 12 (43)
4x) — x9 +5x3 = 10
se puede escribir
22
12 (4.4)
10
Los métodos para probar lz existencia de la inversa y de su célculo se analizan en el
capitulo 5. Sin embargo, se puede expresar aqui que la inversa de 1a matriz A en (4.4) es
1 [ 18 -16 -10
47=35/-B 26 13
SL-17 18 2
Asi (4.18) resulta ser
xy 1 [ 18 -16 -10] [22 2]
P= yHl_-18 2% 13 ])12)=]3
xy -17 1 21J}L10 14Condiciones necesarias versus suficientes
Los conceptos “condicién necesaria” y “eondicién suficiente” se emplean con frecuencia en
cconomia, Pos ello es importante conocer su significado preciso antes de seguir adelante.
Una condicién necesaria tiene el cardcter de prerreguisito: suponga que una afirmacién p
es cierta sdlo si otra afirmacién q es verdadera; entonces q constituye una condicién necesaria
dep. De forma simbélica esto se expresa como sigue:
p> 61)
que se lee como “p sélo sig”, 0 de o'r0 modo, “sip, entonces q”. También es correeto inter-
pretar que (5.1) significa “p implica q”. Por supuesto, puede suceder que también se tenga
=> wal mismo tiempo. Entonces tanto 7 como w son condiciones necesatias nara y,
Si p simboliza la afirmacién “se puede ir a Europa” y q es la expresin “se viaja en avién a Eu-
ropa”, entonces p < q. Volar puede servir para que uno lleque a Europa, pero puesto que el
transporte por el océano también es factible, volar no es un pretrequisito. Se puede escribir
peq, perono p= q.
En una tereera situacién posible, g es necesaria y suficiente para p. Fn tal caso, se escribe
peq (5.3)
que se lee: “p siy sélo si q”. La flecha de doble cabeza es en realidad una combinacién de los
dos tipos de flecha en (5.1) y (5.2); por consiguiente, la unidn utiliza los dos téminos “si” y
“s6lo si". Note que (5.3) establece no sélo que p implica q sino también que q implica p.
5.1 Condiciones de la no singularidad de una matriz
Una determinada n
lar’) s6lo si es cuadrada. Sin embargo, como ya sefialamos, 1a condicidn de ser cuadrads es
reexsaria pero no suficiente para que a inversaA~* enisia, Una matriz puede ser eundrada y
‘la vez singular (sin una invers),
riz de cocficientes 4 puede tener inversa (es decir, puede ser “no singu-Condiciones de no singularidad
Después de que se satisfuce la condicién de ser cuadrada (una condiciOn necesaria), una
condicién suficiente de la no singularidad de una mattiz.es que sus renglones sean linealmente
independientes (0, Io que es lo mismo, que sus columnas sean linealmente independicntes).
‘Cuando se toman juntas las dos condiciones: ser cuadrada e independencia lineal, constituyen
Ja condicién necesaria y suficiente de no singularidad (no singularidad ¢> cuadratura e inde-
pendencia lineal)
Una matriz A de coeficientes den > se puede considerar como un conjunte ordenado de
vectores renglén, es decir, como un vector columna cuyos elementos son por si mismos vec-
tores rengléa:
ay a ain *
ga] Ot a am |_| %
Gin Gr Onn e
an Giy),i = 1,2, ..., Para que los renglones (vectores renglén)
sean linealmente independientes, ninguno debe ser una combinacién lineal del resto. De ma-
nera mis formal, como se mencioné en la seccién 4.3, la independencia lineal de los renglones
requiere que el iinico conjunto de escalares k, que puede satisfacer la ecuacién vectorial
Yknf= 0 (3.4)
is
x
sea ky = 0 para toda i
Fjemplo 4 51! matrz de coeticientes es
34057) [%
o1 2\|=]y
eet] [vy
fentonces, puesto que [6 8 10]=2[3 4 5], se tiene vj = 2v; = 2v, + Ov}. Ast, el tereer
renglén se puede expresar como una combinacién lineal de los das primeras, y los renglones
‘no son linealmente indepencienies. Alternativamente, la ecuacién previa se puede escribir
AWi+Os-Yj=[6 8 19)+[0 0 O]-[6 8 10}=[0 0 Oo}
En vista de que el conjunto de escalares que condujo al vector cero de (5.4) no es ky = 0 para
toda , se deduce que los renglones son linealmente dependientes,como un todo. Del procedimiento de contar ecuaciones ¢ incégnitas en la secciin 3.4, recor-
damos fa conclusién general de que, para que un sistema de ecuaciones posea una solucién
tinica, no es suficiente tener el mismo mimero de ecuaciones e inedgnitas, Ademis, las ecua-
ciones deben set consisientes entre si y funcionalmente independientes entre si (Io cual sig-
nifica independencia lineal, en el contexto presente de los sistemas lineales). Hay una relacién
bastante obvia entre el criterio “mismo mimero de ecuaciones que inedgnitas” y la cuadratura
(mismo nimero de renglones y columnas) de la matriz de coeficientes. Lo que hace el re-
querimicnto “independencia lineal entre los renglones” es imposibilitar le inconsistencia asi
como Ja dependencia lineal entre las ecuaciones. Por lo tanto, en conjunto, el doble requeri-
miento de cuadratura e independencia lineal de renglones en la matriz de coeficientes es
equivalente a las condiciones de existencia de una soluciéa tinica enunciada en la seccion 3.4.
A continuaciéa se ilustra cémo la dependencia lineal entre los renglones de 1a matriz de
coeficientes puede causar inconsistencia 0 dependencia lineal enire las propias ecuaciones.
Sea que el sistema de ecuaciones 4x = d toma la forma
0 4) [n]_fa
5 2][n]>Le
donde la matriz de coeficientes 4 contiene renglones linealmente dependientes: v
(Observe que sus cohimnas también son dependientes, la primera es $ de la segunda ) No se
han especificaio los valores de los témminos constantes d, y cd, pero sélo hay des posibili-
dadvs distintas on relacién con sus valores relatives: (1) dy = 2d y (2) di # 2d;. En la
primera —cond = 12 y d, = 6, por cjemplo—, las dos ecuaciones son consistentes pero li-
nealmente dependiences (al igual que los dos renglones de la matriz A), porque la primera
ecuiacién es simplemente la segunda multiplicada por 2. Asi, una ecuacion es redundante, y el
sistema se reduce en efecto a una sola ecuacién, 5x; + 2x2 = 6, con un mimero infinito de
soluciones. Para la segunda posibilidad —-con dy = 12 pero dy = 0, por ejemplo—, las dos
ecuaciones son inconsistentes, porque si la primera eeuacién (10x1 + 4x2 = 12) escierta, en-
tonces, al dividir entre dos cada térmaino, se deduce que Si + 2x, = 6: en consecuencia, si
esta primera ecuacidin es cierta, la segunda ecuacién (5x; + 2x2 = 0) no es posible que tam-
hign sea cierta, Por lo que no existe solucisn
La conehusién es que no habri solucién tinica (habra infinidad de sotuciones 0 no habré solu-
ci6r’) mientras los reaglones de la matriz de cocficientes 4 sean linealmente dependientes. De
hecho, la tinica forma de tener una solucién dinica es que los renglones (o columnas) sean li:
nnealmente independiente en la matriz de coeficientes. En ese caso, a mattiz.A sera no singular,
lo que significa que fa inversa 4~' existe, y se puede hallar una solucién tinica x” = A~'d.
Rango de una matriz
Aunque el concepto de independencia en los renglones ha sido explicado s6lo en relacién con
las matrices cuadradas, es igualmente aplicable a cualquier matriz rectangular de m x n. Si el
niimero méximo de renglones linealmente independientes que se puede hallar en esta matriz,
es 7, se dice que In matriz. es de rango r. (El rango también indica cl mimero méximo de
ndependientes en dicha matriz.) El rango de una matriz de m xn
puede ser a lo sumo m 0 n, cualquiera que sea el més pequetio.
colunnas linealmenteDada una matriz con s6lo dos renglones (o das columnas), la independencia de renglones
(0 columnas) se eomprucha ficilmente mediante una inspeccién visual, sélo se tiene que com-
probar si ua renglén (columna) es el miiltiplo exacto del otro. Pero, para una matriz de di-
mensién mayor, fa inspeceidn visual podria no ser factible, y se requicre un método mas
formal. Un métedo para hallar el rango de una matriz 4 (no necesariamente cuadrada), es
decir, para dcterminar ef némero de renglones independientes en A, implica transformar 4 en
una man esculonaada mediante ciertas “operaciones elementales en los renglones”. Una carac-
teristica estructural particular de fa matriz escalonada indica entonces el rango de la matriz 4
Hay s6lo tres tipos de operaciones elementates en los renglones en una mattiz:!
1. Intercambio de dos rengiones cualesquiera en la matriz
2. Multiplicacién (o divisién) de un renglén por algiin esealar k + 0.
3. Sumadeé veces cualquier renglén” a otto renglén.
Si bien cada una de estas operaciones convierte una determinada matriz 4 en una forma éife-
rente, ninguna de ellas modifica el rango. Es esta caracteristica de las operaciones elementales
en los renglones la que permite leer el rango de A de su matriz escaloneda. La forma més facil
de explicar el método de la matriz escalonada es mediante un ejemplo especifico.
‘ejemplifica la matriz escalonada, que, por definicién, posee tres caracte*sticas estructurales
Primera, los renglones no cero (renglones con por lo menos un elemento no cero) aparecer
arriba de los renglones cero (renglones que contienen solamente ceros). Segunda, en tode
renglin no cero, el primer elemento no cero es la unidad. Tercera, el elemento unitario (e
primer elemento no cero) en cualquier renglén debe aparecer a la izquierda de! elemento uni
tario homélogo del renglén justo desoués. Por ahora debe quedar claro que todas las opera-
ciones elementales en jos renglones que hemos llevado a cabo estén disefiadas para producit
estas caracteristicas en AyEjemplo 5_
Determine ! rango dela matiz:
0-1-4
As|2 6 2
4 1.0
a partir de su forma escalonada, Primero, se comprueba en la primera columna de A la pre
sencia de elementos cero. Si hay elementos cero en fa column 1, se mueven ala parte inferior
de a matriz. En el caso de A, se desea mover el 0 (primer elemento dela columna 1) ala parte
inferiat de esa columna, lo cual se puede llevar a cabo al intercambiar eenglén 1 y el rengkin
3 (por medio de la priiera operacién elemental). €l resultado es
401 0
2 6 2
on 4
El siqulente objetivo es cambiar la primera columna de Ay en un vector unitario e) como se de-
fine en (4.7). Para transformar el elemento 4 en la unicad, se divide el renglén 1 de Ay entre
el escolar 4 (aplcando la segunda operacién elemental), lo cual produce
1 4 0}
Ar=|2 6 2
0-1-4
Entonces, para transformar el elemento 2 de la columna 1 de A2 en 0, se muitiplica el renglén
1 de Az por ~2, y luego se suma el resultado al renajén 2 de A, (aplicando la terceta operac
elemental) La matnz resuitante,
A
1 10
&alo si} 2)
o 11 a]
ahora tiene el vector unitario deseado e como su primera columna. Una ver logrado esto, de-
jamos de lado el primer renglén de A, —e! cual consideraremos més adelante—y continuamas
s6lo con los dos renglones restantes, donde deseamos crear un vector unitario de dos elemen-
tos en la segunda columna, al transformar el elemento 5} en 1, y el elemento —11 en 0. Para
este fin, se requiere dividir el renglén 2 de A3 entre 54, y de este modo se cambia el renglon
en el vector [0
1 #1]; luego, se agrega 11 veces este vector al renglén 3 de A3. El resultado
final, en la forma de
1
Ase
ono
+
o1
ooAhora bien, podemos leer simplemente el rango de A por el ntimero de renglones no cero
presentes en la matiiz escalonada Aq. Puesto que Ag contiene dos rengiones no cero, podermos
condluir que r(A) — 2. Por supuesto, éste es también el rango de las matrices A, a Ay, porque
las operaciones elementales de los renglones no modifican el rango de una mattiz.
El método de transformacién de mat tanto a matrices cundradas
escalonada se apli
como a no cuadradas. Para el ejemplo 5, hemos eligido una matriz cuadrada porque nuestro
objetivo inmediato es atender la cuestién de no singularidad, que pertencce slo a matrices
cundradas. Por definicién, para que una matriz. A de m x n sca no singular, debe tener n ren-
gloncs lincalmente independicntes ( columnas); en consccuencia, debe ser de rango n y su
matriz escalonada debe contener exactamente 1 renglones no cero, con ningén renglén cero en
absolute. Porel contrario, una matriz de n x n que tenga rangon debe serno singular, Asf, una
matriz.escalonada den x n sin ningin renglén cero debe ser no singular, ya que es la matriz
dela cual se obtiene la matriz escalonada mediante operaciones elementales en los renglones,
Enel ejemplo 5, lamatriz 4 es de 3 x 3, peror(4) = 2; por lo tanto, 4 es singular.
5.2 Prueba de no singularidad mediante el uso
del determinante
Para determinar si una matriz es no singular, se puede acer uso también del determinant
Determinantes y no singularidad
El determinante de una matriz cuadrada 4, denotada por |], es un escalar (nimero) definido
univocamente relacionado con esa matriz. Los determinantes se definen s6lo en matrices
cuadradas. La matriz mas pequetia posible es, por supuesio, la matriz A = [a] de 1 x 1. Por
definicién, su determinante es igual al unico elemento ay): |A| lay a. El simbolo
|ayi{ no se debe confundir con el de valor absoluto de un nimero, que se escribe de manera
similar. Ex el contexto de valor absoluto, se tiene, por ejemplo, no sélo |5| = 5, sino también
| ~ 5] = 5, porqueel valor absoluto de un nimere es su valor numérico sin considerarel signo
algebraico, En cambio, el simbolo de determinante conserva el signo del elemento, asi que
‘mientras |8] = 8 (un numero positivo), tenemos | — 8| = —8 (un nlimero negativo). Esta dis
Parana matic A = [
términos coma sigue:
ay a2
] de 2 x 2, sudeterminante se define como la suma de dos
a2, daz
ay
aa
que se obtiene al multiplicar los dos elementos de la diagonal prineipal de A y luego restar el
producto de los dos elementos resiantes. En vista de la dimension de la matriz A, el determi-
nante || dado en (5.5) se llama determinante de segundo orden.
lal= ~aqa\2 [= un escalar] (55)Tncluso en esta primera etapa de explicacién, es posible tener un indicio de la relacién entre
Ja dependencia lineal de los renglones en una matriz 4, por un lado, y su detetminante |), por
otto. Las dos matrices,
e-[J-B a} » o-[f)-f
tiencn renglones lincalmente dependientes, porque c = c} y di = 4d}. Ambos determinantes
también resulian ser igual a cero:
Ic a 3(8) 38) =
i=; a |=204 -8@) =0
Este resultado indica de forma enfitica que un determinante “nul” (un determinante de valor
cero) puede tener algo que ver con la dependencia lineal. Veremos que éste es de hecho el
caso. Ademés, el valor de un determinante |4] puede ser no sélo un criterio para probar la in-
dependencia lineal de los renglones (por consiguiente la no singularidad) de la matriz A, sino
también como una entrada en el calculo de la inversa 4™', si exist.
, 35
an ax
2) ay
-a
Plas ass
a a2 ass
= aysdanass — ary arsasa +ararsas} — 12021055
a3, Fun escalar] (5.6)
Faanas ~ ayaEvaluacién de un determinante de n-ésimo orden mediante
la expansion de Laplace
Primero explicaremos el proceso de desarrollo o expansién de Laplace para wn dleterminante
de tercer orden, Volviendo a la primera linea de (5.6), se ve que el valor de || se puede con.
siderar también como ana suma de tres términos, cada uno de los cuales es un producto de un
elemento del primero renglén y un determinante particular de segundo orden. Este titimo pro-
ceso de evaluar [4], por medio de ciertos determinantes de orden menor, ilustra la expansion
de Laplace del determinante.
Los tres determinantes de segundo orden en (5.6) no se determinan de modo arbitrario, sino se
a a|
3233
de | 4| obtenido al eliminar el primer renglon y la primera columna de | 4]. Este se Hama el
‘menor del elemento a (e] elemento en la interseccién del renglin y la columna eliminados)
y se denota mediante |.M);|. En general, el s{mbolo |.My| se emplea para representar el menor
‘obtenido al eliminar el -ésimo renglén y la-ésima columna de un determinante dado, Puesto
{que tm menor es por si mismo un determinante, tiene un valor. Como puede comprobar el lee
tor, los otros dos deter
[Mal y [Mss €8 decir,
especifican por medio de una regla definida, El primero, , 28 un subdeterminante
untes de segundo orden en (5.6) son, respectivamente, los menores
Jan as
a ay
an ay
Mi
ay ay
Mal =
[Mis
a ax
a1 ax
Unconcepto que tiene relacién estrecha con el menor es el del cofactor: un cofactor, deno=
tado por /C,y|, esun menor con un signo algebraico prescrito unio a él? La regla de signo es
como sigue: si la suma de los dos subindices iy j del menor |M;j| es par, entonces el cofactor
toma el mismo signo que el menor; es decir, |Cij| = | Miy|. Si es impar, entonces el cofac-
tor toma el signo opuesto al menor; es decir, |C;,| = —|Mj|. En resumen, tenemos
1Cyl = Ml
Usando estos nuevos conceptos, un determinante de tercer orien se puede expresar como
14] = au |Mu| ~ ai) Miai +a Mis]
= aylCul +a2lCpl + aulCs| = Yo arjicy 6.7)
fttonces como en (5.6). En general, la exoansién de Laplace de un determinante de n-ésimo
orden reducira el problema a uno en el que se evaliian a cofectores, cada uno de los cuales es.
de orden 1 ~ 1. La aplicacién repetida del proceso conduciré de forma metédica a érdenes
cada vez menores de los determinantes para culminar finalmente en los determinantes bisicos
de segundo orden definidos en (5.5). Entonces el valor del determinante original se puede cal-
‘cular con facilidad.
Aunque cl proceso de expansién de Laplace se ha expresedo en términes de Tos cofaciores
de les elementos del primer rengién, también es factible desarrollar un determinante mediante
el cofactor de cualquier rengion o, de igual manera, de cualquier colamna, Por ejemplo, si la
primera columna de un determinante de tercer orden | A| consta de los elementos a,,, ay) ¥ ds),
el desarrollo por cofactores de estos elementos también produce el valor de |.
3
[A] = aulCul + azilCzil + asi1Csil =) analCal
En la medida en que tenga que ver el céleulo numérico, este hecho nos oftece una oporti-
nidad de elegir algin renglon 0 columna “facil” para el desarrollo. Un rengléa o columna can
mayor mimero de ceros 0 unos siempre es preferible para este propésito, poraue un 0 multi-
En resumen, el valor de un determinante || de orden 1 se determina mediante la expan-
sign de Laplace de cualquier renglén o columna como sigue:
14|=)°ay|Cy| fexpansién mediante el i-ésimo renglén}
am
=)lajlC,| _ [expansién mediante laj-ésimacolumna] (5.8)
fi