Vous êtes sur la page 1sur 16
4.5 Matrices identidad y matrices nulas Matrices identidad ‘Ye se ha hecho referencia al término matriz identidad, que se define como una matriz cuadrada con unos en su diagonal principal y ceros en cualquier ou parte. Se denota mediante el simbolo J,» 7, en la que el subindice n sirve para indicar su climensign de renglon. nfs Ambas se pueden denotar también mediante J, La imporiancia de este tipo especial de matriz radica en el becho de que desempella un papel similar al del mimero 1 en al digebra escalar. Pare cualquice nimero «se tiene Va) = a(1) =a, De manera similar, para cualquier mattia A, se tiene [Az Al =A 48) [p12 6 a}-[2 6 3)> InA = Als, ¥ esto ilustra una excepcién a la regla de que la multiplicacién de matrices no e conmutativa. Uh =hy (k= 12,..) ‘Una matriz identidad permancce sin cambio cuando se multiplica por si misma cualquier nimero de veces. Cualquier matriz con tal propiedad (a seber, 4A = A) se denomina matriz idempotente. Matrices nulas ‘Asi como una matriz identidad /desempefia le funcién del mimero 1, una matriz nua, 0 matriz cero, denotada por 0, juega el papel del nimero cero. Una mattiz aula es simplemente una ‘matriz.cuyos elementos son cero. A diferencia de f, la mairiz cero no esta restringida a ser cvadrada. Asi, es posible escribir 00 000 ey [° Al y ob 0 ‘ etc. Una matriz mula cuadrada es idempotente, pero una rectangular no lo es. (zPor qué?) ‘Como coniraparte del mtimero cero, las matrices milas obedecen las siguientes reglas de operacién (sujetas a conformabilidad) con respecto a la suma y la multiplicacién: 4+ 0 = 0 + 4 = (oben) (msn) (men) (e0) (ren) - 0 o 4 = 0 frixaytexp) imap) ¥ (ax) (man) ax) Caracteristicas del algebra de matrices Entre otras cosas, en el caso de escalares, la ecuacién ab = 0 siempre implica que ao bes cero, pero esto no es asi en la multiplicacién de matrices. Asi, se tiene [i]t a]-[0 6] aunque ni A ni B es una matriz cero. Como otra ilustracién, para escalares, la ecuacién ed = ce (con ¢ # 0) implica que d Esto no se cumple para matrices. Asi, dadas c-[e3] e-(ta] e=[4 a] _[s 8 ep ce=[5 2] se encuentra que aun cuando D # E. Estos resultados extratios pertenecen en realidad s6lo a la clase especial de matrices cono- cidas como matrices singulares, de las cuales las matrices 4, By C son ejemplos. (Aproxima- damente, estas matrices contienen un renglén que es un miltiplo de otro renglin.) No obstante, estos ejemplos revelen las dificultades de la extensién injustificada de teoremas algebraicos a operaciones con matrices. 4.6_Transpuestas e inversas ‘Cuando se intercambian los renglones y las columnas de una matsiz A —de modo que su primer renglin se conviesta en Ia primer columna, y viceversa—, se obtiene la mranspuesta de ‘A, que se denota por 4’ 0 7. La prima de ninzn modo resulta una noveded: se us0 antes nara 38 9 3 4 i Dades A [ } ‘1 ¥ bya lh a} pueden intercambiar los renglones y las columnas y escrioir 3 31 i= ag oy [ & | Yaka [3 | 9 4 Por definicién, si una matriz A es m x n, entonces su transpuesta A’ debe ser nx m, Sin em- bargo, una matriz cuadrada n x n posee una transpuesta con la misma dimensién. 1 104 p=|o yentonees D'=|0 3 7 4 472 Nwo D, sino también la disposicién original de los elementos! El hecho de que D’ = D es el resultado de la simetria de los elementos con referencia a la diagonal prineipel. Si se considera a la diagonal principal en D como.un espejo, los elementos localizados en el noreste son imagenes exactas de Jos elementos en su suudoeste; por lo tanto, el primer renglén es idéntico a la primera columna, y asi sucesivamente, La matriz D ejemplifica la clase especial de ‘matrices cuadradas conocidas como matrices simétricas. Otro ejemplo de esta clase de matriz sla matriz identidad J, la cual, como una matriz simétrica, tiene la transpuesta I’ = I. Propiedades de las transpuestas Las ranspuestas se caracterizan por las siguientes propiedades: “=A (4.9) (A+B =A4B (4.10) (4By = Bia’ (411) [1 2], fo -1 pain A-[} 2] )0=[2 ~}], ta 12 137 _[12 24 [i 33] [3 35] « on[ STs 2]-[5 3] Inversas y sus propiedades inversa, otro tipo de matriz “deducida”, podria existir ono. La inversa de la matriz A, denotada por 4~', se define sdlo si A es una matriz cuadrada, en cuyo caso el inverso es la matriz, que satisface la condicién say ats (4.12) Es decir, si A se premultiplica (0 posmultipliea) por 4-1, el producto seré la misma matriz, identidad. Esta es otra excepcién a la regla de que la multiplicacién de matrices no es conmutativa, Es importante mencionar los siguientes puntos 1. No toda matriz cuadrada tiene un inverso, la forma cuadrada es una condicién necesaria, pero no una condicién suficiente, para la existencia de un inverso. Si una matriz cuadmda A tiene un inverso, se dice que A es no singular; si A no posee inverso, se llama rnatriz singular 2. Si AW! existe, entonces se considera a la matriz A como cl inverso de 4~!, asi como A-! es el inverso de 4. En resumen, 4 y A~! son inversas entre 3. Sides dem xn, entonees A~! también debe ser de n x n; de lo contratio, no puede ser conformable para la premultiplicacién ni para ta posmultiplicacién. La matriz identidad producida por la multiplicacién también sera de m x 1. 4, Si existe un inverso, entonces es tinico. Para probar su unicidad, supéngase que se encon- tid que B es un inverso pare A. asi que AB=BA=I Ahora suponga que hay otra matriz C tal que AC = CA =I. Al premultiplicar ambos lados de AB = I por C, se encuentra que CAB=CK(=C) — [por(48)] Puesto que por suposicién C4 = J, la ecuacién anterior se reduce a IB=C, obien, B= Es decir, B y C debe ser una y la misma matriz inversa. Por esta razin, se puede hablar de Ja (a diferencia de una) inversa de A. 02 elo se puede mover a la parte posterior (ley conmutativa), se puede escribir ae=[2 1)[2 “11L [6 o]1_pa o =\o 2jlo 3}e=[o 6je=[o 1 Esto establece a 8 como la inversa de A, y viceversa. La multiplicacién inversa, como se espera- ba, también produce la misma matriz identidad: 6 0]_[1 0 o 6}=[o1 weafe Ife 2)- Las siguientes tres propiedads de matrices inversas son de interés. Si A y B son matrices no singulares con dimensién n x 7, entonces (yt =4 (413) (4By'=B% 44 (4.14) “yl=(aty (4.15) 3 12 - Sea A= [ Hy yal [3 3] ;-enttonces, puesto que el multiplicador escalar (}) en 8 La primera establece que Ia inversa de una inversa es la matriz original. La segunda establec que Ia inversa de un producto es el producto de las inversas en orden inverso. Y la titime significa que la inversa de la transpuesta es la transpuesta de la inversa, Note que en estat expresiones se presupone la existencia de las inversas y Ia satisfaccién de la condicion de conformabilidad. La validez de (4.13) es bastante obvia, pero se procede a probar (4.14) y (4,15). Dado e producto AB, determinese su inverso, llamado C. De (4.12) se sabe que CAB = /: asi, le posmultiplicacién de ambos lados por B~"4~! produce CABB A” =1B'A! (= BA) (4.16) Pero, el lado izquierdo se puede reducir a CA(BB~')A-! = CALA! [por (4.12)] =CAA*=Cr=C — [por(4.12) y(4.8)] La sustitucién de esto en (4.16) pone de manifiesto entonces que C = B~!A-! 0, en otras palabras. que el inverso de AB es igual a B'A~!, como se supnso. En esta prueba, la couacion AA! = 4-14 = T se utilizd dos veces. Note que la aplicacién de esta ecuacién es permisible si y s6lo si una matriz y su inversa son estrictamente adyacentes entre si en un producto, Se puede escribir 44~!B = 1B = B, pero nunca 4BAW' = B. La prucba de (4.15) es como sigue. Dada 4’, se procede a encontrar su inversa, llamela D. Por definicién, se tiene entonces D4’ = J. Fero se sabe que produce la misma identidad. Asf, se puede escribir (4aty’ (AVA [por 4.1] Al posmultiplicar ambos lados por 4’) *, se obtiene DA Daisy =(aAty aay! obien, D=(A'y [por (4.12)] Asi, cl inverso de 4" es igual a (4~')’, como se supuso. E] lado izquierdo ce (4.18) es un vector columna de variables, mientras que el producto del Jado derecho es un vector columna de ciertos némeros conocidos. Asi, por la definicion de la igualdad de matrices o vectores, (4.18) muestra el conjunto de valores de las variables que satisfacen el sistema de ecuaciones, es decir, los valores solucién. Ademds, puesto que A~! es Iimica si existe, A~!d debe sor un vector tinico de valores solucién. Por lo tanto, el vector x de (4.18) se eseribiré como x*, para indicar su estado como una solucién (‘mica). Como un ejemplo simple, dado el sistema de ecuaciones lineales 6) + 3x+ x = 22 xi + Ary = 2x5 = 12 (43) 4x) — x9 +5x3 = 10 se puede escribir 22 12 (4.4) 10 Los métodos para probar lz existencia de la inversa y de su célculo se analizan en el capitulo 5. Sin embargo, se puede expresar aqui que la inversa de 1a matriz A en (4.4) es 1 [ 18 -16 -10 47=35/-B 26 13 SL-17 18 2 Asi (4.18) resulta ser xy 1 [ 18 -16 -10] [22 2] P= yHl_-18 2% 13 ])12)=]3 xy -17 1 21J}L10 14 Condiciones necesarias versus suficientes Los conceptos “condicién necesaria” y “eondicién suficiente” se emplean con frecuencia en cconomia, Pos ello es importante conocer su significado preciso antes de seguir adelante. Una condicién necesaria tiene el cardcter de prerreguisito: suponga que una afirmacién p es cierta sdlo si otra afirmacién q es verdadera; entonces q constituye una condicién necesaria dep. De forma simbélica esto se expresa como sigue: p> 61) que se lee como “p sélo sig”, 0 de o'r0 modo, “sip, entonces q”. También es correeto inter- pretar que (5.1) significa “p implica q”. Por supuesto, puede suceder que también se tenga => wal mismo tiempo. Entonces tanto 7 como w son condiciones necesatias nara y, Si p simboliza la afirmacién “se puede ir a Europa” y q es la expresin “se viaja en avién a Eu- ropa”, entonces p < q. Volar puede servir para que uno lleque a Europa, pero puesto que el transporte por el océano también es factible, volar no es un pretrequisito. Se puede escribir peq, perono p= q. En una tereera situacién posible, g es necesaria y suficiente para p. Fn tal caso, se escribe peq (5.3) que se lee: “p siy sélo si q”. La flecha de doble cabeza es en realidad una combinacién de los dos tipos de flecha en (5.1) y (5.2); por consiguiente, la unidn utiliza los dos téminos “si” y “s6lo si". Note que (5.3) establece no sélo que p implica q sino también que q implica p. 5.1 Condiciones de la no singularidad de una matriz Una determinada n lar’) s6lo si es cuadrada. Sin embargo, como ya sefialamos, 1a condicidn de ser cuadrads es reexsaria pero no suficiente para que a inversaA~* enisia, Una matriz puede ser eundrada y ‘la vez singular (sin una invers), riz de cocficientes 4 puede tener inversa (es decir, puede ser “no singu- Condiciones de no singularidad Después de que se satisfuce la condicién de ser cuadrada (una condiciOn necesaria), una condicién suficiente de la no singularidad de una mattiz.es que sus renglones sean linealmente independientes (0, Io que es lo mismo, que sus columnas sean linealmente independicntes). ‘Cuando se toman juntas las dos condiciones: ser cuadrada e independencia lineal, constituyen Ja condicién necesaria y suficiente de no singularidad (no singularidad ¢> cuadratura e inde- pendencia lineal) Una matriz A de coeficientes den > se puede considerar como un conjunte ordenado de vectores renglén, es decir, como un vector columna cuyos elementos son por si mismos vec- tores rengléa: ay a ain * ga] Ot a am |_| % Gin Gr Onn e an Giy),i = 1,2, ..., Para que los renglones (vectores renglén) sean linealmente independientes, ninguno debe ser una combinacién lineal del resto. De ma- nera mis formal, como se mencioné en la seccién 4.3, la independencia lineal de los renglones requiere que el iinico conjunto de escalares k, que puede satisfacer la ecuacién vectorial Yknf= 0 (3.4) is x sea ky = 0 para toda i Fjemplo 4 51! matrz de coeticientes es 34057) [% o1 2\|=]y eet] [vy fentonces, puesto que [6 8 10]=2[3 4 5], se tiene vj = 2v; = 2v, + Ov}. Ast, el tereer renglén se puede expresar como una combinacién lineal de los das primeras, y los renglones ‘no son linealmente indepencienies. Alternativamente, la ecuacién previa se puede escribir AWi+Os-Yj=[6 8 19)+[0 0 O]-[6 8 10}=[0 0 Oo} En vista de que el conjunto de escalares que condujo al vector cero de (5.4) no es ky = 0 para toda , se deduce que los renglones son linealmente dependientes, como un todo. Del procedimiento de contar ecuaciones ¢ incégnitas en la secciin 3.4, recor- damos fa conclusién general de que, para que un sistema de ecuaciones posea una solucién tinica, no es suficiente tener el mismo mimero de ecuaciones e inedgnitas, Ademis, las ecua- ciones deben set consisientes entre si y funcionalmente independientes entre si (Io cual sig- nifica independencia lineal, en el contexto presente de los sistemas lineales). Hay una relacién bastante obvia entre el criterio “mismo mimero de ecuaciones que inedgnitas” y la cuadratura (mismo nimero de renglones y columnas) de la matriz de coeficientes. Lo que hace el re- querimicnto “independencia lineal entre los renglones” es imposibilitar le inconsistencia asi como Ja dependencia lineal entre las ecuaciones. Por lo tanto, en conjunto, el doble requeri- miento de cuadratura e independencia lineal de renglones en la matriz de coeficientes es equivalente a las condiciones de existencia de una soluciéa tinica enunciada en la seccion 3.4. A continuaciéa se ilustra cémo la dependencia lineal entre los renglones de 1a matriz de coeficientes puede causar inconsistencia 0 dependencia lineal enire las propias ecuaciones. Sea que el sistema de ecuaciones 4x = d toma la forma 0 4) [n]_fa 5 2][n]>Le donde la matriz de coeficientes 4 contiene renglones linealmente dependientes: v (Observe que sus cohimnas también son dependientes, la primera es $ de la segunda ) No se han especificaio los valores de los témminos constantes d, y cd, pero sélo hay des posibili- dadvs distintas on relacién con sus valores relatives: (1) dy = 2d y (2) di # 2d;. En la primera —cond = 12 y d, = 6, por cjemplo—, las dos ecuaciones son consistentes pero li- nealmente dependiences (al igual que los dos renglones de la matriz A), porque la primera ecuiacién es simplemente la segunda multiplicada por 2. Asi, una ecuacion es redundante, y el sistema se reduce en efecto a una sola ecuacién, 5x; + 2x2 = 6, con un mimero infinito de soluciones. Para la segunda posibilidad —-con dy = 12 pero dy = 0, por ejemplo—, las dos ecuaciones son inconsistentes, porque si la primera eeuacién (10x1 + 4x2 = 12) escierta, en- tonces, al dividir entre dos cada térmaino, se deduce que Si + 2x, = 6: en consecuencia, si esta primera ecuacidin es cierta, la segunda ecuacién (5x; + 2x2 = 0) no es posible que tam- hign sea cierta, Por lo que no existe solucisn La conehusién es que no habri solucién tinica (habra infinidad de sotuciones 0 no habré solu- ci6r’) mientras los reaglones de la matriz de cocficientes 4 sean linealmente dependientes. De hecho, la tinica forma de tener una solucién dinica es que los renglones (o columnas) sean li: nnealmente independiente en la matriz de coeficientes. En ese caso, a mattiz.A sera no singular, lo que significa que fa inversa 4~' existe, y se puede hallar una solucién tinica x” = A~'d. Rango de una matriz Aunque el concepto de independencia en los renglones ha sido explicado s6lo en relacién con las matrices cuadradas, es igualmente aplicable a cualquier matriz rectangular de m x n. Si el niimero méximo de renglones linealmente independientes que se puede hallar en esta matriz, es 7, se dice que In matriz. es de rango r. (El rango también indica cl mimero méximo de ndependientes en dicha matriz.) El rango de una matriz de m xn puede ser a lo sumo m 0 n, cualquiera que sea el més pequetio. colunnas linealmente Dada una matriz con s6lo dos renglones (o das columnas), la independencia de renglones (0 columnas) se eomprucha ficilmente mediante una inspeccién visual, sélo se tiene que com- probar si ua renglén (columna) es el miiltiplo exacto del otro. Pero, para una matriz de di- mensién mayor, fa inspeceidn visual podria no ser factible, y se requicre un método mas formal. Un métedo para hallar el rango de una matriz 4 (no necesariamente cuadrada), es decir, para dcterminar ef némero de renglones independientes en A, implica transformar 4 en una man esculonaada mediante ciertas “operaciones elementales en los renglones”. Una carac- teristica estructural particular de fa matriz escalonada indica entonces el rango de la matriz 4 Hay s6lo tres tipos de operaciones elementates en los renglones en una mattiz:! 1. Intercambio de dos rengiones cualesquiera en la matriz 2. Multiplicacién (o divisién) de un renglén por algiin esealar k + 0. 3. Sumadeé veces cualquier renglén” a otto renglén. Si bien cada una de estas operaciones convierte una determinada matriz 4 en una forma éife- rente, ninguna de ellas modifica el rango. Es esta caracteristica de las operaciones elementales en los renglones la que permite leer el rango de A de su matriz escaloneda. La forma més facil de explicar el método de la matriz escalonada es mediante un ejemplo especifico. ‘ejemplifica la matriz escalonada, que, por definicién, posee tres caracte*sticas estructurales Primera, los renglones no cero (renglones con por lo menos un elemento no cero) aparecer arriba de los renglones cero (renglones que contienen solamente ceros). Segunda, en tode renglin no cero, el primer elemento no cero es la unidad. Tercera, el elemento unitario (e primer elemento no cero) en cualquier renglén debe aparecer a la izquierda de! elemento uni tario homélogo del renglén justo desoués. Por ahora debe quedar claro que todas las opera- ciones elementales en jos renglones que hemos llevado a cabo estén disefiadas para producit estas caracteristicas en Ay Ejemplo 5_ Determine ! rango dela matiz: 0-1-4 As|2 6 2 4 1.0 a partir de su forma escalonada, Primero, se comprueba en la primera columna de A la pre sencia de elementos cero. Si hay elementos cero en fa column 1, se mueven ala parte inferior de a matriz. En el caso de A, se desea mover el 0 (primer elemento dela columna 1) ala parte inferiat de esa columna, lo cual se puede llevar a cabo al intercambiar eenglén 1 y el rengkin 3 (por medio de la priiera operacién elemental). €l resultado es 401 0 2 6 2 on 4 El siqulente objetivo es cambiar la primera columna de Ay en un vector unitario e) como se de- fine en (4.7). Para transformar el elemento 4 en la unicad, se divide el renglén 1 de Ay entre el escolar 4 (aplcando la segunda operacién elemental), lo cual produce 1 4 0} Ar=|2 6 2 0-1-4 Entonces, para transformar el elemento 2 de la columna 1 de A2 en 0, se muitiplica el renglén 1 de Az por ~2, y luego se suma el resultado al renajén 2 de A, (aplicando la terceta operac elemental) La matnz resuitante, A 1 10 &alo si} 2) o 11 a] ahora tiene el vector unitario deseado e como su primera columna. Una ver logrado esto, de- jamos de lado el primer renglén de A, —e! cual consideraremos més adelante—y continuamas s6lo con los dos renglones restantes, donde deseamos crear un vector unitario de dos elemen- tos en la segunda columna, al transformar el elemento 5} en 1, y el elemento —11 en 0. Para este fin, se requiere dividir el renglén 2 de A3 entre 54, y de este modo se cambia el renglon en el vector [0 1 #1]; luego, se agrega 11 veces este vector al renglén 3 de A3. El resultado final, en la forma de 1 Ase ono + o1 oo Ahora bien, podemos leer simplemente el rango de A por el ntimero de renglones no cero presentes en la matiiz escalonada Aq. Puesto que Ag contiene dos rengiones no cero, podermos condluir que r(A) — 2. Por supuesto, éste es también el rango de las matrices A, a Ay, porque las operaciones elementales de los renglones no modifican el rango de una mattiz. El método de transformacién de mat tanto a matrices cundradas escalonada se apli como a no cuadradas. Para el ejemplo 5, hemos eligido una matriz cuadrada porque nuestro objetivo inmediato es atender la cuestién de no singularidad, que pertencce slo a matrices cundradas. Por definicién, para que una matriz. A de m x n sca no singular, debe tener n ren- gloncs lincalmente independicntes ( columnas); en consccuencia, debe ser de rango n y su matriz escalonada debe contener exactamente 1 renglones no cero, con ningén renglén cero en absolute. Porel contrario, una matriz de n x n que tenga rangon debe serno singular, Asf, una matriz.escalonada den x n sin ningin renglén cero debe ser no singular, ya que es la matriz dela cual se obtiene la matriz escalonada mediante operaciones elementales en los renglones, Enel ejemplo 5, lamatriz 4 es de 3 x 3, peror(4) = 2; por lo tanto, 4 es singular. 5.2 Prueba de no singularidad mediante el uso del determinante Para determinar si una matriz es no singular, se puede acer uso también del determinant Determinantes y no singularidad El determinante de una matriz cuadrada 4, denotada por |], es un escalar (nimero) definido univocamente relacionado con esa matriz. Los determinantes se definen s6lo en matrices cuadradas. La matriz mas pequetia posible es, por supuesio, la matriz A = [a] de 1 x 1. Por definicién, su determinante es igual al unico elemento ay): |A| lay a. El simbolo |ayi{ no se debe confundir con el de valor absoluto de un nimero, que se escribe de manera similar. Ex el contexto de valor absoluto, se tiene, por ejemplo, no sélo |5| = 5, sino también | ~ 5] = 5, porqueel valor absoluto de un nimere es su valor numérico sin considerarel signo algebraico, En cambio, el simbolo de determinante conserva el signo del elemento, asi que ‘mientras |8] = 8 (un numero positivo), tenemos | — 8| = —8 (un nlimero negativo). Esta dis Parana matic A = [ términos coma sigue: ay a2 ] de 2 x 2, sudeterminante se define como la suma de dos a2, daz ay aa que se obtiene al multiplicar los dos elementos de la diagonal prineipal de A y luego restar el producto de los dos elementos resiantes. En vista de la dimension de la matriz A, el determi- nante || dado en (5.5) se llama determinante de segundo orden. lal= ~aqa\2 [= un escalar] (55) Tncluso en esta primera etapa de explicacién, es posible tener un indicio de la relacién entre Ja dependencia lineal de los renglones en una matriz 4, por un lado, y su detetminante |), por otto. Las dos matrices, e-[J-B a} » o-[f)-f tiencn renglones lincalmente dependientes, porque c = c} y di = 4d}. Ambos determinantes también resulian ser igual a cero: Ic a 3(8) 38) = i=; a |=204 -8@) =0 Este resultado indica de forma enfitica que un determinante “nul” (un determinante de valor cero) puede tener algo que ver con la dependencia lineal. Veremos que éste es de hecho el caso. Ademés, el valor de un determinante |4] puede ser no sélo un criterio para probar la in- dependencia lineal de los renglones (por consiguiente la no singularidad) de la matriz A, sino también como una entrada en el calculo de la inversa 4™', si exist. , 35 an ax 2) ay -a Plas ass a a2 ass = aysdanass — ary arsasa +ararsas} — 12021055 a3, Fun escalar] (5.6) Faanas ~ aya Evaluacién de un determinante de n-ésimo orden mediante la expansion de Laplace Primero explicaremos el proceso de desarrollo o expansién de Laplace para wn dleterminante de tercer orden, Volviendo a la primera linea de (5.6), se ve que el valor de || se puede con. siderar también como ana suma de tres términos, cada uno de los cuales es un producto de un elemento del primero renglén y un determinante particular de segundo orden. Este titimo pro- ceso de evaluar [4], por medio de ciertos determinantes de orden menor, ilustra la expansion de Laplace del determinante. Los tres determinantes de segundo orden en (5.6) no se determinan de modo arbitrario, sino se a a| 3233 de | 4| obtenido al eliminar el primer renglon y la primera columna de | 4]. Este se Hama el ‘menor del elemento a (e] elemento en la interseccién del renglin y la columna eliminados) y se denota mediante |.M);|. En general, el s{mbolo |.My| se emplea para representar el menor ‘obtenido al eliminar el -ésimo renglén y la-ésima columna de un determinante dado, Puesto {que tm menor es por si mismo un determinante, tiene un valor. Como puede comprobar el lee tor, los otros dos deter [Mal y [Mss €8 decir, especifican por medio de una regla definida, El primero, , 28 un subdeterminante untes de segundo orden en (5.6) son, respectivamente, los menores Jan as a ay an ay Mi ay ay Mal = [Mis a ax a1 ax Unconcepto que tiene relacién estrecha con el menor es el del cofactor: un cofactor, deno= tado por /C,y|, esun menor con un signo algebraico prescrito unio a él? La regla de signo es como sigue: si la suma de los dos subindices iy j del menor |M;j| es par, entonces el cofactor toma el mismo signo que el menor; es decir, |Cij| = | Miy|. Si es impar, entonces el cofac- tor toma el signo opuesto al menor; es decir, |C;,| = —|Mj|. En resumen, tenemos 1Cyl = Ml Usando estos nuevos conceptos, un determinante de tercer orien se puede expresar como 14] = au |Mu| ~ ai) Miai +a Mis] = aylCul +a2lCpl + aulCs| = Yo arjicy 6.7) ft tonces como en (5.6). En general, la exoansién de Laplace de un determinante de n-ésimo orden reducira el problema a uno en el que se evaliian a cofectores, cada uno de los cuales es. de orden 1 ~ 1. La aplicacién repetida del proceso conduciré de forma metédica a érdenes cada vez menores de los determinantes para culminar finalmente en los determinantes bisicos de segundo orden definidos en (5.5). Entonces el valor del determinante original se puede cal- ‘cular con facilidad. Aunque cl proceso de expansién de Laplace se ha expresedo en términes de Tos cofaciores de les elementos del primer rengién, también es factible desarrollar un determinante mediante el cofactor de cualquier rengion o, de igual manera, de cualquier colamna, Por ejemplo, si la primera columna de un determinante de tercer orden | A| consta de los elementos a,,, ay) ¥ ds), el desarrollo por cofactores de estos elementos también produce el valor de |. 3 [A] = aulCul + azilCzil + asi1Csil =) analCal En la medida en que tenga que ver el céleulo numérico, este hecho nos oftece una oporti- nidad de elegir algin renglon 0 columna “facil” para el desarrollo. Un rengléa o columna can mayor mimero de ceros 0 unos siempre es preferible para este propésito, poraue un 0 multi- En resumen, el valor de un determinante || de orden 1 se determina mediante la expan- sign de Laplace de cualquier renglén o columna como sigue: 14|=)°ay|Cy| fexpansién mediante el i-ésimo renglén} am =)lajlC,| _ [expansién mediante laj-ésimacolumna] (5.8) fi

Vous aimerez peut-être aussi