Vous êtes sur la page 1sur 58

Matrices

Definicin
Una matriz es un arreglo bidimensional de nmeros (llamados entradas de la matriz) ordenados
en filas (o renglones) y columnas, donde una fila es cada una de las lneas horizontales de la matriz y
una columna es cada una de las lneas verticales. A una matriz con n filas y m columnas se le denomina
matriz n-por-m (escrito
tamao

) donde

se representa como

. El conjunto de las matrices de


, donde

es el campo al cual pertenecen las

entradas. El tamao de una matriz siempre se da con el nmero de filas primero y el nmero de
columnas despus.
Dos matrices se dice que son iguales si tienen el mismo tamao y los mismos elementos en las mismas
posiciones. A la entrada de una matriz que se encuentra en la fila
llama entrada

o entrada

sima y la columna

sima se le

-simo de la matriz. En estas expresiones tambin se consideran

primero las filas y despus las columnas.


Se denota a las matrices con letra mayscula, mientras que se utiliza la correspondiente letra en
minsculas para denotar a las entradas de las mismas, con subndices que refieren al nmero de fila y
columna del elemento. Por ejemplo, al elemento de una matriz
en la fila

sima y la columna

sima se le denota como

de tamao

que se encuentra

, donde

Cuando se va a representar explcitamente una entrada la cual est indexada con un

.
o un

con dos

cifras se introduce una coma entre el ndice de filas y de columnas. As por ejemplo, la entrada que est
en la primera fila y la segunda columna de la matriz

de tamao

se representa como

mientras que la entrada que est en la fila nmero 23 y la columna 100 se representa como

Adems de utilizar letras maysculas para representar matrices, numerosos autores representan a las
matrices con fuentes en negrita para distinguirlas de otros objetos matemticos As
mientras que

es una matriz,

es un escalar en esa notacin. Sin embargo esta notacin generalmente se deja para

libros y publicaciones, donde es posible hacer esta distincin tipogrfica con facilidad. En otras
notaciones se considera que el contexto es lo suficientemente claro como para no usar negritas.
Otra notacin, en s un abuso de notacin, representa a la matriz por sus entradas, i.e.
incluso

Como caso particular de matriz, se definen los vectores fila y los vectores columna. Un vector
fila o vector rengln es cualquier matriz de tamao
cualquier matriz de tamao

mientras que un vector columna es

A las matrices que tienen el mismo nmero de filas que de columnas,


cuadradas y el conjunto se denota

, se les llama matrices

Es una matriz de tamao

. La entrada

es 7.

La matriz

Es una matriz de tamao

: un vector fila con 9 entradas.

Algunos tipos de matrices


Matriz Cuadrada: Es aquella que tiene igual nmero n de filas que de columnas (n=m). En ese
caso se dice que la matriz es de orden n. Por ejemplo, la matriz

1 3 2

A 0 3 3

4 0.2 1

Es cuadrada de orden
3.
Denotaremos el conjunto de todas las matrices cuadradas de orden n por

Ejemplo anterior,

Mn
.

As, en el

A M 3.

Los elementos de la diagonal principal de una matriz cuadrada son aquellos que estn situados
en la diagonal que va desde la esquina superior izquierda hasta la inferior derecha. En otras
palabras, la diagonal principal de una matriz A=( aij ) est compuesta por los elementos

a11 , a22 ,..., ann . En el ejemplo anterior la diagonal principal est compuesta por los elementos:
a11 1 , a22 3, a33 1 .

Matriz Nula: Una matriz es nula si todos sus elementos son iguales a cero. En el siguiente
ejemplo se muestra la matriz nula de orden 32.

0 0

O 0 0

0
0
Ms adelante veremos que la matriz nula, respecto a la adicin y multiplicacin de matrices,
juega un papel similar al nmero cero respecto a la adicin y multiplicacin de nmeros reales.

Matriz Diagonal: Una matriz cuadrada, A= ( aij ), es diagonal


si

aij =0, para i

j . Es decir, si

Todos los elementos situados fuera de la diagonal principal son cero. Por ejemplo, la siguiente
matriz es diagonal:

0 0

D 0 6 0

0 0 3
Matriz Unidad: Es una matriz diagonal cuyos elementos de la diagonal son todos 1. A
continuacin mostramos la matriz unidad de orden 2.

1 0

I
1

Ms adelante veremos que la matriz unidad, respecto a la multiplicacin de matrices, juega un papel
similar al nmero 1 respecto a la multiplicacin de nmeros reales.
Matriz triangular: Es una matriz cuadrada en la que todos los elementos situados por debajo (o
por encima) de la diagonal principal son cero. Por ejemplo, la siguiente matriz es triangular:

2 1 1

3
T 0 6 4

0 0 1
Este tipo de matrices tambin se conoce como matriz escalonada. En algunos casos se hace la
distincin entre las matrices triangulares superiores o inferiores en dependencia de los
elementos nulos de la matriz; los que estn por debajo o por encima de la diagonal principal.
Segn se puede ver en el Math-block sobre sistemas de ecuaciones lineales, el concepto de
matriz triangular (o escalonada) es de vital importancia en el estudio de los sistemas de
ecuaciones lineales.
Ms adelante, despus de estudiar las operaciones con matrices, veremos algunos tipos
importantes de matrices como es el caso de las simtricas y las ortogonales.

O Adicin de matrices
A, B M nm . La matriz C (cij ) M

Sean

Es la suma de las

matrices

A (aij) y

nm

B (bij), y se denota C A B, si sus elementos cumplen:


cij a b
ij
ij

(I 1, 2,..., n,

J 1, 2,..., m)

Ejemplo
Consideremos las siguientes matrices:

A 1 3

2
0

B 2 4
1 0

M 2 0 2
1 3 5

Las matrices A y B son de orden 32, mientras la matriz M es cuadrada de orden 3. Por tanto, no
podemos calcular la suma de A y M y tampoco la suma de B y M, en cambio, s podemos sumar
A y B ya que tienen el mismo orden. Esto es,

AB

1
0

2
4
3 2 4 (1)
02
2 1 0
(1)

4 4

3 4 1 7
2

20 1

Es fcil deducir las siguientes propiedades de la adicin de matrices de orden nm:

Conmutativa:

Asociativa:

A B B A,

A (B C) (A B)
C,

A, B M nm1
A, B, C M nm

: Cuantificador universal. Se lee Para todo. : Cuantificador existencial. Se lee Existe

Elemento neutro (la matriz nula):


nm

Elemento opuesto:

A M

nm

O M

A M nm
AOOAA
:
( A) M nm A ( A) ( A) A O
:

En virtud de las propiedades anteriores de la adicin de matrices, +,

(ley interna) resulta que

M nm , tiene estructura de grupo conmutativo. (Ver [8] para profundizar en la estructura de

Grupo)

Multiplicacin de una matriz por un nmero


2
Se denomina producto de una matriz A (aij )
M

nm

B (bij) M nm Cuyos elementos son de la forma


bij a
(I 1,...,
ij

Por un nmero

a una matriz

J 1,...,m)

n;

Es decir, la matriz producto, B, es la que se obtiene multiplicando el nmero por cada uno de
los elementos de A. De aqu en adelante consideraremos que es un nmero real.

Ejemplo
Consideremos la matriz

Por

es:

0 1

A 2 0

5 7

4 y el nmero 5. Entonces, el producto de A

2 0 1 10 0
5


A 5 2 0 4 10
0
20
5 7 0 25 35 0


El producto de una matriz por un nmero es una ley de composicin externa que cumple las
siguientes propiedades (Ver [8] para profundizar en leyes de composicin):

Distributiva mixta del producto respecto a la suma de matrices

(A B) A
B


R,

A, B M nm

Distributiva mixta del producto respecto a la suma de nmeros reales

( ) A A
A

, R,

A M nm

Asociativa mixta

Elemento neutro para la ley externa

( ) A
(A)

, R,

A M nm

En esta definicin damos por supuesto que se cumple la propiedad conmutativa de la multiplicacin
del nmero por los elementos de A.

1A A

A M

y 1 R

nm

En virtud de estas propiedades y de las anteriores de la suma de matrices, resulta que el conjunto

de las matrices de orden nm, respecto a la ley de composicin interna, +, y a la ley de

nm

composicin externa, producto de una matriz por un nmero, tiene estructura de espacio vectorial
sobre el cuerpo de los nmeros reales (Ver [W7] y [2] para profundizar en la estructura de espacio
vectorial).

Multiplicacin de matrices
Se denomina matriz producto de la matriz

A (aij ) M

por la matriz

B (b jk ) M m p a

nm

una matriz C (cik ) M n

cuyos elementos son de la forma

cik ai1b1k ai 2 b2 k
aimbmk

aij b jk

j 1

Es decir, los elementos que ocupan la posicin

ik, en la matriz producto, se obtienen sumando


Los productos que resultan de multiplicar los elementos de la fila i en la primera matriz por los
elementos de la columna k de la segunda matriz. Observemos en detalle cmo se obtiene el
elemento c23 en el siguiente ejemplo:
1

7 2 14

5
AB 2

4 7 C

1
30

2
0


0 12
0 4

8

1 2

Fila 2 por columna 3 = elemento que ocupa la posicin 23


2

c23 a2 j b j 3 a21b13 a22 b23 25 (1)3 10 3 7


j 1

Dos matrices se pueden multiplicar slo cuando el nmero de columna de la primera matriz sea
igual al nmero de filas de la segunda. En ese caso se dice que las matrices son enlazadas.
En el siguiente ejemplo podemos ver adems cul es el orden del matriz producto.

4 4

2 3

2 1
A 1 2 0 6

0 1

34

2 2

1 1
B

0 2

3 2

42

AB 1

3 4 4
2 2 1
1 0 6

19 23

7 10
19 13

32

2 2

34

1 1
0 2

3
2

4=4

42

Ntese, adems, que no podemos calcular

2 3 4 4

2 2

1 2 2 1

0 1 0 6

1 1

BA

0 2

BA.

34

3 2
42

Hay casos, como veremos en el siguiente ejemplo, en los que se pueden calcular ambos
productos aunque se obtienen resultados diferentes.

0 2

Consideremos las siguientes matrices:

A
Entonces, por un lado,

4 3 2

Y B 1 3
1 2 3

0
3

4 3
AB

0 2

9
3
1

1 3 0 11
3

17

y por otro lado,

0 2
4 3 2
BA 1 3
7

1 2 3
3 0

9 11
4

12 9

Segn se pudo comprobar a travs de los ejemplos anteriores, para la multiplicacin de matrices
no se cumple la propiedad conmutativa. Veamos algunas propiedades de esta operacin:

Asociativa

A (BC) (AB)
C,

B M mk , C M k p

nm,

Elemento neutro (Es la matriz unidad)

I M
n

A, B, C: A M

A M n
:

Distributiva (mixta)

AI I A A
A (B C) AB AC,

A, B,
C:

AM

B, C M mk

nm

En virtud de estas propiedades y de las anteriores de la suma de matrices, resulta que el


de las matrices cuadradas de orden n, respecto a las dos leyes de
Conjunto M n,,
Composicin interna, + y , tiene estructura de anillo unitario no conmutativo (Ver [8] para
profundizar en la estructura de anillo).
Otras observaciones importantes:

Existen divisores de cero: En general,


ejemplo,

1 0 0 0 0 0

2 0 8 1 0 0

No se cumple la propiedad cancelativa: En general,


ejemplo,

AB 0 no implica que A 0 o B 0. Por

AB AC no implica B C. Por

1 0 1 0 1 0 1 0

2 0 8 1 2 0 5 3

No se cumple la frmula del binomio: En general,

( A B) A 2 AB B

Ya que el

Producto no es conmutativo.

Matriz invertible
Una matriz cuadrada

A es invertible si existe una matriz, que denotaremos por


1

A , que cumple

AA A A I ,
Donde
que

I es la matriz unidad. En ese caso se dice

A es la inversa de A .

Por ejemplo, la matriz

4 3

A 1 3 4
3 0 1

Es invertible y su inversa
es

3
31

4
31

7
A1 13
31
31
12
9
31 31

Ya
que

3
3 31
13
1
AA 1 3 4 31

1 9
3
0

31

7
31
11
31

10
31

12

7
31
11
31
10

31

31

4
31
7
31

1 0 0
0 1 0 I.

0 0 1

Para un estudio detallado sobre matriz inversa recomendamos el math-block titulado Matriz
Inversa.

Matriz traspuesta
La traspuesta de una matriz

A (aij ) M nm , es la matriz A T (a ji ) M mn , que se obtiene

a partir de la matriz A al intercambiar las filas por las columnas (o viceversa).

3 2
La traspuesta de la matriz

A
4

es
3 A

2 .

1
Propiedades:

Dada una matriz, siempre existe la traspuesta y adems es nica

A T
T

T
T
A
A B
T
B
AT AT , con R
AB BT AT
T

T
O

A 1
T

Otros tipos de matrices


Matriz simtrica: Es una matriz igual a su traspuesta:

A es simtrica AT A
Un ejemplo de matriz simtrica es el siguiente:

A 9 2 1 AT .

3
1 5

Las matrices simtricas tienen ese nombre debido a que presentan simetra respecto a la
Diagonal principal. En otras palabras, una
matriz

Aij A Para i 1,..., n,


ji

A (aij ) M Es simtrica si cumple


n

J 1,..., n.

Matriz anti simtrica: Es una matriz igual a la opuesta de su traspuesta. En otras palabras,

A es anti simtrica
T
A
La siguiente matriz es anti simtrica:

A.

A 9

9 3
2

3 1 5

Matriz ortogonal: Es aquella cuya traspuesta es igual a su inversa. Es decir, es aquella que
multiplicada por su traspuesta da como resultado la matriz unidad. Esto es,

A es ortogonal AAT I T
A A1
La siguiente matriz de funciones es ortogonal:

Senx cos x

cos
x
senx

Para

comprobarlo

es

suficiente

con

aplicar

la

definicin

tener

en

cuenta

que

sen x cos x 1.
Las matrices ortogonales de orden 2 son de la forma:

B a
Donde a y b son nmeros reales tales que

b a

a b 1.

Matriz involutiva: Es una matriz que coincide con su inversa. Esto es,

A es involutiva A2 I
La siguiente matriz es involutiva:

1 0
A
0

0 1 0

A
0


1
0

1 0

Es evidente que esta matriz tambin es ortogonal.

Matriz idempotente: Es una matriz igual a su cuadrado. Es decir,

A es idempotente A2 A.
La siguiente matriz es idempotente:

1 0
A

1
0


Matriz nilpotente: Si
y
Que
que

A es una matriz cuadrada

A es nilpotente. Si k es tal

Ak 1

k
A 0 Para algn nmero natural k, se dice

0, se dice que A es nilpotente de orden

0
k. A continuacin mostramos una matriz nilpotente de orden 2.
0

A 0

8 0
0
5

0 ,

0 0 0

2
A 0 0 0
0
0

Definicin de determinante
Dados los nmeros 1, 2,3,....n existen n! formas distintas de ordenarlos. Cada una de dichas
ordenaciones se llama permutacin. El conjunto de todas las permutaciones se representa por
Pn y la permutacin (1, 2, 3,..., n) se llama permutacin principal.
Por ejemplo, el conjunto {(1 2 3), (1 3 2), (2 1 3), (2 3 1), (3 1 2), (3 2 1)} contiene las 6
permutaciones diferentes de la terna (1 2 3).
Diremos que dos elementos de una permutacin forman una sucesin si estn colocados en el
mismo orden que en la permutacin principal. En caso contrario, diremos que forman una
inversin.
Por ejemplo: (2 3 1 4 5 6)
permutacin principal).

tiene dos inversiones (n de pasos a realizar para obtener la

Llamaremos signatura de una permutacin al valor (-1) donde es el nmero de inversiones


de dicha permutacin.
Se define el determinante de una matriz cuadrada A, denotado por A
como:

Si A

a11

a12

a1n

a 21

a 22

a 21 A

a n1

an 2

a nn

[W2]

11
( 1 2 n )Pn

a 2 2

o por det(A),

a n n signatura ( 1 2 n)

Clculo de determinantes
Determinantes de orden 2 (asociados a matrices 2x2)
Cuando A es una matriz 2x2 hay 2! = 2 permutaciones del par (1 2); estas son:
{(1 2), (2 1)}. Entonces, el determinante de A contendr los dos trminos:

a11 a22 signatura (1 2)

a12 a21 signatura (2 1)

Como signatura (1 2) = (-1) = 1 y signatura(2 1) = (-1) = -1, el determinante de orden 2 ser:

a11

a12 = a11 a22 - a12 a21

a11

a12

a 21

a 22

a 21

a 22

Ejemplo:

5 2. (4) 5.3 8 15 23
3 4
2

Determinantes de orden 3 (asociados a matrices 3x3)


Si A es una matriz 3x3, su determinante (de orden 3) vendr dado por:

a11
a 21
a31

a12
a 22
a32

a13
= a11a22a33 + a12a23a31 + a21a32a13 - a13a22a31 - a12a21a33 - a11a23a32
a 23
a33
a11
a 21
a31

a12
a 22
a32

a13
a 23
a33

a11
a 21
a31

a12
a 22
a32

a13
a 23
a 33

Ejemplo:

3 2
4

1 1. (2).5 3. (1). (3) 4.4.1 (3). (2).4 1.(1).1 3.4.5


5

10 9 16 24 (1) 60 15 83 68

Determinantes de orden superior a 3 (asociados a matrices nxn con n>3)


En el caso de determinantes de orden superior a 3 (es decir, asociados a matrices de tamao
nxn con n > 3), la expresin resultante tiende a complicarse, por lo que recurriremos al mtodo
de desarrollo por adjuntos para su clculo.
Primero de todo, fijmonos en la disposicin de signos siguientes (similar a las casillas blancas y
negras en un tablero de ajedrez):

Para calcular el determinante de una matriz 4x4 (o superior) se debe hacer:


1.

Elegir aquella fila o columna que tenga el mayor nmero de ceros (si ninguna lnea tiene
ceros, se coge una lnea cualquiera).

2.

Cada uno de los elementos de la lnea dar lugar a un sumando, el cual se obtendr
como se explica en el paso siguiente.

3.

Para cada elemento de la lnea seleccionada, ste se multiplica por su correspondiente


determinante adjunto (aquel determinante resultante de eliminar la fila y la columna a las
que pertenece el elemento seleccionado). A dicho adjunto le preceder el signo que
corresponda a la posicin ocupada por el elemento seleccionado (segn la tabla de
signos arriba indicada).

Ejemplo matriz 4x4:

2
1 1
3
2 4 7
2
{elegimos la 1 columna y la desarrollamos}
3 2 9 1

1 3 1 1

1 - 1
2 4

3
7

2
2

3+
9 1
- 2
1 3 1 1

2
1
3 2
1
3 2
1 3 2
4 7
2 (1) 4 7 2 ...
1 2 9 1 (2) 2 9 1 3 4 7
3 1 1
3 1 1
3 1 1
2 9 1 15

Ejemplo matriz 5x5:

2 2 2 1 1
0 0 0 1
1

2 2 2 1 1

0- 0 0
1 1 1
1 1 1
3 3 3

1
1
4

1 {desarrollamos por la 2 fila} 1 1 1


2
1 1 1
4
3 3 3

2 2 1 1
1 1 1
1
0
0
1 1 1
2
3 3 4
4

2 2 1 1
1 1
1 1

3 3

2 2 1 1
0

1 1
1 1

3 3

1+

1
1
4

1
2
4

2 2 2 1
1

2 2 2 1

1 1 1
1 1 1

1
1 1 1
1
2
1 1 1

3 3 3

3 3 3

= {al multiplicar por 0, los 3 primeros sumandos se eliminan; el ltimo determinante tambin se
anula} =

2
1

1
3

2
1
1
3

2 1
1 1
{desarrollamos por la 2 lnea}
1 2
3 4

2 2 1
2 2 1
2 2 1
2 2 2
(1) 1 1 2 1 1 1 2 1 1 1 2 1 1 1 1
3 3 4
3 3 4
3 3 4
3 3 3
= {los dos primeros determinantes se anulan mutuamente, pues son iguales pero de signo
cambiado; el ltimo determinante tambin se anula} =

2 2 1
1 1 2 2.1.4 1.3. (1) 2.2.3 (1).1.3 2.2.3 4.2.1
3 3 4
8 3 12 (3 12 8) 17 17 0

Propiedades de los determinantes [W3]


Para el clculo de algunos determinantes, puede ser muy til recurrir a algunas de las siguientes
propiedades:
1. El determinante de una matriz es igual al de su traspuesta.
Por ejemplo,

1 2 3 1 1 0
1 0 0 2 0 0 2
0 0 1 3 0 1
2. Si en un determinante se cambian entre s dos lneas paralelas (filas o columnas), el signo de
su valor tambin cambiar.
Por ejemplo,

1 2 3
1 2 3
0 0 1 1 0 0
1 0 0
0 0 1

en efecto:

1 2 3
0 0 1 2
1 0 0

1 2 3
1 0 0 2
0 0 1

3. Un determinante que tiene dos lneas paralelas (filas o columnas) iguales vale 0.
Por ejemplo,

1 2 3
1 2 3 0
1 0 0
4. Si un determinante tiene todos los elementos de una lnea nulos, el determinante vale 0.
Por ejemplo,

1 2 3
0 0 0 0
1 4 3
5. Multiplicar un determinante por un n real es equivalente a multiplicar cualquier linea (fila o
columna) por dicho nmero.
Por ejemplo,

1 2 3 1 2 3 2
2 0 0 1 0 0 1 2
1 0 0 1 0 0 2
Dada una matriz A de tamao nxn, y un n real , esta propiedad implica que:

A A
6. Si todos los elementos de una fila o columna estn formados por dos sumandos, dicho
determinante se descompone en la suma de dos determinantes.
Por ejemplo,

2 45 3 2 4 3 2 5 3
0 33 2 0 3 20 3 2
0 12 5 0 1 5 0 2 5
7. Si los elementos de una lnea son combinacin lineal de las otras, entonces, el determinante
vale 0.
Por ejemplo,

3 2 1 3

2 0 2 2 0 0 (la 2 columna es combinacin lineal de la 1 y 3 columna).


3 12
3

8. Si a los elementos de una lnea se le suman los elementos de otra paralela multiplicados
previamente por un n real el valor de la determinante no vara.
Por ejemplo,

1 5 2 1 3 1 5 3
2 3 2 2 0 2 3 0
3 423 1 3 4 1
9. El determinante de un producto de matrices es el producto de los determinantes de cada una
de ellas.

A B A B

Espacio vectorial
Definicin 1.1 Un espacio vectorial es una terna (V, +, ), donde V es un conjunto no vaco y +,
son dos operaciones del tipo +: V V R, : R V V a las
Que llamaremos suma de vectores y producto por escalares respectivamente
siguientes propiedades: denotando +(u, v) = u + v y (, v) = v,

y con las

1. u + (v + w) = (u + v) + w, u, v, w V (asociativa).
2. u + v = v + u, u, v V (conmutativa).
3. Existe e V tal que e + v = v + e = v, v V (elemento neutro).
4. Para cada v V existe w tal que v + w = w + v = e (elemento opuesto).
5. (v) = () v, v V, , R (seudo-asociativa).
6. (u + v) = u + v y ( + ) v = v + v, u, v V y , R (distributiva).
7. 1v = v,v V (unimodular).

De forma abreviada, diremos que V es un espacio vectorial. A los elementos de V


Lo llamamos vectores y a los de R, escalares.

Proposicin 1.1 En un espacio vectorial V,


1. El elemento neutro es nico. Se denotara por 0.
2. El elemento opuesto de un vector es unico. Si v es un vector, su opuesto lo denotamos
por v.
Proposicin 1.2 En un espacio vectorial se tiene las siguientes propiedades:
1. 0 = 0, R.
2. 0v = 0, v V.
3. () v = (v), R, v V.
4. Si v = 0, entonces = 0 o v = 0.
A continuacin, damos algunos ejemplos de espacios vectoriales:

1. Si n es un nmero natural, se considera el espacio eucldeo R


R} con la suma y producto por escalares siguientes:

= {(x1 , . . . , xn ); xi

(X1..., xn ) + (y1 , . . ., yn )0(x1 + y1 , . . ., xn + yn ).


(x1 , . . ., xn ) = (x1,. . ., xn ).

Siempre se supondr que R

tiene esta estructura vectorial y que llamaremos

Usual.

2
2. Sea V = {(x, y) R ; x y = 0} con la suma y producto por escalares como antes.
3. Sea V = {p} un conjunto con un unico elemento y con p + p = p y p = p.
4. Sea V = {f: R R; f es aplicacin} y
(f + g)(x) = f (x) + g(x),

(f )(x) = f (x),

x R.

5. W = {f : R R; f es una funcion diferenciable} y la suma y el producto por


escales esta definido de forma an
loga a la del ejemplo anterior.

6. Se considera el conjunto de los polinomios de grado n N: un polinomio de grado n N


n
es una expresin del tipo p(X ) = a0 + a1 X + . . . + an X ;
Abreviaremos p(X ) =

i=1

i
0
ai X , donde por convenio X
= 1 y en vez de

escribir a0 1 = a0 . Dos polinomios p(X ) =

i=1

i=1

ai X i y q(X ) =

n bi X i se

diran iguales si ai = bi para cada i. El conjunto de polinomios de grado n

Entonces Pn [X ] es un espacio vectorial.


7. Sea X = {a1 , . . . , an } un conjunto con n elementos. Se define una palabra formada por
el conjunto X como una expresin del tipo x1 a1 + . . . + xn an ,
Donde xi R. Dos palabras x1 a1 + . . . + xn an y y1 a1 + . . . + yn an son iguales
Si xi = yi . Se define V el conjunto de todas las palabras y se define
(x1 a1 + . . . + xn an ) + (y1 a1 +... + yn an ) = (x1 + y1 ) a1 +... + (xn + yn )an . (x1 a1 +
. . . + xn an ) = (x1 )a1 + . . . + (xn )an .

Entonces V es un espacio vectorial. Como ejemplo, el conjunto de palabras definidas por {1,
n
X, . . . , X } constituyen el espacio Pn [X ].

A continuacin definimos estructuras de espacio vectorial a partir de la teora de conjuntos.


Concretamente, a partir del producto cartesiano, aplicaciones biyectivas, espacios cocientes y
subconjuntos.

Definicin 1.2 Sean V1 y V2 dos espacios vectoriales.

Se define en V1 V2 =

{(v1 , v2 ); vi Vi } las siguientes operaciones:

(v1 , v2 ) + (u1 , u2 ) = (v1 + u1 , v2 + u2 )

(v1 , v2 ) = (v1 , v2 ).
Con esta suma y producto por escalares, V1 V2 es un espacio vectorial y se llama espacio
producto.

Como caso particular, se tiene R

= R R (comprobad que ambos espacios vecto- riales


n
m
coinciden!). De la misma forma, se puede definir el espacio vectorial R R .

Definicin 1.3 Se considera V un espacio vectorial y V


V . Sea f : V V

un conjunto biyectivo con

una biyeccion entre ambos. Se defineen V

la siguiente estructura

de espacio vectorial:
u + v = f (f
Se dice V

(u ) + f

(v )). v

= f (f

(v )).

tiene la estructura vectorial inducida de V por la biyeccion f .

1. La estructura vectorial cambia si cambia la biyeccion f .


2. Sea X = {a1 , . . . , an } un conjunto de n elementos y V el conjunto de palabras definidas a
n
partir de X . Se considera la siguiente biyeccion entre R y V :
f (x1 , . . . , xn ) = x1 a1 + . . . + xn an .
n
Entonces la estructura vectorial inducida en V de R (con la estructura usual) y de la biyeccio
n f coincide con la estructura de espacio vectorial que ya se haba definida en el conjunto
de palabras definidas por X .
+
3. Se considera R con su estructura usual y R el conjunto de los nmeros reales positivos.
+
x
Se considera la siguiente biyeccion: f : R R , f (x) = e .
+
Entonces la estructura de espacio vectorial inducida en R es:
x + y = xy

x =x .

La estructura vectorial inducida en un subconjunto de un espacio vectorial motiva el estudio


de subespacio vectorial.
2

Sub espacio vectorial

Definicin 2.1 Sea V un espacio vectorial y U un subconjunto suyo. Se dice que


U es un subespacio vectorial de V si satisface las siguientes propiedades:
1. Si u, v U , entonces u + v U .
2. Si R y u U , entonces u U .
3. Con la suma y producto por escalares de V , U es un espacio vectorial.
Proposicion 2.1 Sea U un subconjunto de un espacio vectorial V.
subespacio vectorial si y solo si
1. Si u, v U, entonces u + v U .
2. Si R y u U , entonces u U .

Entonces

U es un

Demostracion : Supongamos que U satisface las propiedades 1 y 2. Veamos que con


estas son suficientes para probar todas las propiedades de espacio vectorial. Todas
estas son ciertas de forma trivial, excepto dos: la existencia de elemento neutro y opuesto.
Pero para ello basta con probar que el elemento neutro de V se encuentra en U y lo mismo
sucede con el elemento opuesto de un vector de U .
Por hipotesis, si u U , 0u = 0 U . De la misma forma, si u U , 1u =
(1u) = u U .
En particular, todo subespacio vectorial debe contener el elemento neutro del espacio
ambiente, as como los elementos opuestos de todos los vectores del sube- espacio.
Proposicion 2.2

1. Si U1 y U2 son subespacios vectoriales, entonces U1 U2

tambin es subespacio vectorial.


2. Si U1 y U2 son subespacios vectoriales de V y U1 U2 , entonces U1 es un
Subespacio vectorial de U2 .
1. Si V es un espacio vectorial, {0} y V son subespacios vectoriales, llamados
Subespacios vectoriales triviales.
2
2
2. U = {(x, y) R ; x y = 0} es un subespacio vectorial de R .
3. En general, si a1 , . . . , an son nmeros reales, no todos nulos, el conjunto U =
n
n
{(x1 , . . . , xn ) R ; a1 x1 + . . . + an xn = b} es un subespacio vectorial de R si
y solamente si b = 0.
4. Si V1 y V2 son espacios vectoriales, entonces V1 {0} y {0}V2 son subespacios vectoriales del
espacio producto V1 V2 .
5. Si V es un espacio vectorial, V

es un conjunto biyectivo con V con la estructura de espacio

vectorial inducida por una biyeccion f : V V , entonces U V


es un subespacio vectorial si y solo si f (U ) es un subespacio vectorial de V .
Definicion 2.2 Sean U y W subespacios vectoriales de V . Se define la suma de U
Con W como el conjunto
U + W = {u + w; u U, w W }.
Entonces U +W es un subespacio vectorial. Ademas se tienen las siguientes propiedades:

1. U + W = W + U .
2. U + U = U .
3. U U + W .
4. U + W es el menor subespacio (con respecto a la inclusion de conjuntos) que contiene a U
y a W.

Definicion 2.3 Un espacio vectorial V es suma directa de dos subespacios vectori- ales U y W
suyo, y se denota por V = U W , si V = U + W y U W = {0}.
Con el concepto de subespacio vectorial podemos definir una estructura de espacio vectorial
en un conjunto cociente.
Definicion 2.4 Sea U un subespacio vectorial de V . En V se define la siguiente relacin
binaria R:
vRw si v w U.
Entonces R es una relacion de equivalencia en V . Al conjunto cociente se denota por V /U .
Es evidente que la clase de equivalencia de un vector v es
[v] = v + U = {v + u; u U }.
En V /U se define la siguiente suma y producto por escalares: (v + U ) + (w + U ) = (v + w) +
U.
(v + U ) = (v) + U.
Estas operaciones estn bien definidas: por ejemplo, si v + U = v + U y w + U =
w + U , v v U , w w U y por tanto, (v + w) + U = (v + w ) + U .
Proposicion 2.3 V /U es un espacio vectorial. El elemento neutro es 0 + U y si
v + U V /U , su elemento opuesto es (v) + U .
3

Sistema de generadores. Dependencia lineal

Definicion 3.1 Sean X = {v1 , . . . , vn } un conjunto de vectores de un espacio vec torial V .


Una combinacion lineal de X es una suma del tipo
a1 v1 + . . . + an vn ,

ai R

Se llama subespacio vectorial generados por X al conjunto de combinaciones lineales:


N < X >=< v1 , . . ., vn >= L({X }) = L({v1 , . . . , vn }) = {

ai vi ; ai R}.

i=1
Proposicion 3.1 Se tienen las siguientes propiedades:
1. < X > es un subespacio vectorial. Si el cardina de X es 1, se dice que < v >
Es la recta vectorial generada por v.
2. Si X U , donde U es un subespacio vectorial, entonces < X > U .
3. Si X Y , entonces < X >< Y >.
Como ejemplos tenemos:
3
3
1. En R , < (1, 0, 1), (0, 1, 1) >= {(x, y, z) R ; x z = 0, y z = 0}.
2
2. R =< (1, 1), (0, 2) >.
n
3. R =< (1, 0, . . . , 0), . . . , (0, 0, . . . , 1) >.
4. Si X es Y son dos conjuntos finitos de vectores, entonces < X > + < Y >=< X Y >.
Definicion 3.2 Un espacio vectorial V se llama finitamente generado si existe un conjunto finito
de vectores X tal que < X >= V . A X se llama un sistema de generadores de V .
De esta forma, {1, X, . . . , X
Proposicion 3.2

} es un sistema de generadores de Pn [X ].

1. SI X es un sistema de generadores, y X Y , entonces Y

tambien es un sistema de generadores.


2. Si {v1 , . . . , vn } es un sistema de generadores y v1 es combinacin lineal de los demas,
entonces {v2 , . . . , vn } es un sistema de generadores de V .
3. Si {v1 , . . . , vn } es un sistema de generadores y v = 1 v1 + . . . + n vn , con
1 = 0. Entonces {v, v2 , . . . , vn } es un sistema de generadores de V .
4. Un subespacio vectorial de un espacio vectorial finitamente generado, tambien es finitamente
generado.
Definicin 3.3 Un conjunto de vectores {v1 , . . . , vn } se dice que es linealmente in- dependiente
(o que forman un conjunto de vectores libre) si la unica combinacion lineal nula de ellos es
la trivial, es decir, si siempre que se tenga
i=1 i vi = 0, entonces i = 0 para cada i. En
caso contrario, se dice que son linealmente depen- dientes.
Proposicion 3.3

1. {v} es linealmente independiente si y y solo si es no nulo.

2. Dos vectores son linealmente independientes si no son proporcionales.

3. Todo subconjunto de un conjunto de vectores linealmente independiente,


linealmente independiente.

tambien es

4. Un conjunto de vectores es linealmente dependiente si alguno de ellos es com- binacion


lineal de los demas.
1. {(1, 0, 1), (0, 1, 1)} R

son linealmente independientes.

n
2. {(1, 0, . . . , 0), . . . , (0, 0, . . . , 1)} R es linealmente independientes.
3. {1, 1 + X, 1 + X

} P2 [X ] es linealmente independiente.

Definicion 3.4 Una base de un espacio vectorial es un sistema de generadores y linealmente


independiente.
1. {(1, 0, 1), (0, 1, 1)} R

no es base.

n
2. {(1, 0, . . . , 0), . . . , (0, 0, . . . , 1)} R es base. Se llamar
3. {1, 1 + X, 1 + X

n
La base usual de R .

} P2 [X ] es base.

Se tiene la siguiente caracterizacion de base.


Proposicion 3.4 Sea B = {v1 , . . . , vn } un conjunto de vectores de un espacio vec- torial.
Entonces este conjunto es una base si y solamente si para cada v V , existen
unicos i R tales que v =

i=1

i vi . A estos numeros se le llaman coordenadas

de v respecto de la base B y se escribira (1 , . . . , n ).


A partir de ahora vamos a demostrar que en un espacio vectorial dado, el cardinal de las
bases de dicho espacio es siempre el mismo. Primero resolvemos el problema de la existencia
de bases en un espacio finitamente generado.
Proposicion 3.5 Sean X e Y dos conjuntos finitos de un espacio vectorial, tales que X
Y , X es linealmente independiente e Y es un sistema de generadores. Entonces existe
una base B de V tal que X B Y .
Como consecuencia
Corolario 3.1 Si v es un vector no nulo, v pertenece a una base.
Corolario 3.2 Dado un conjunto de vectores linealmente independientes, siempre es posible
aadir vectores hasta tener una base (completacion).
Corolario 3.3 En todo sistema de generadores, existe un subconjunto suyo que es base.
Teorema 3.1 (de la base) Sea V un espacio vectorial finitamente generado. En- tonces
todas las bases de V tienen el mismo cardinal, al que se llamara dimension de V .
Corolario 3.4 Sea V un espacio vectorial de dimension n. Sea X = {e1 , . . . , em }
un conjunto de vectores linealmente independiente (resp. Sistema de generadores). Entonces
m n (resp. m n). Ademas se tiene la igualdad si y solamente si X
es base.
Corolario 3.5 Si U es un subespacio vectorial de un espacio vectorial V , entonces
dim(U ) dim(V ) y la igualdad se tiene si y solamente U = V .
Se tiene los siguiente ejemplos de dimensiones de espacios vectoriales:
1. Por definicion dim(0) = 0.
2. La dimension de R

es n.

3. La dimension de Pn [X ] es n + 1.

TRANSFORMACIONES LINEALES
Definicin: Sean V y W espacios vectoriales. Una transformacin lineal T de V en W (T: VW) es
una funcion que asigna a cada vector v V un vector unico T(v) W y que satisface:

v1 , v 2 V [T (v1 v 2 ) T (v1 ) T (v 2 )]
A.2) Rv V [T (v ) T (v )]
A.1)

Ejemplo:
A) Probar que T sea una transformacin lineal:
V C[a, b]
T :V W

T ( f ) f ( x)dx
a

1. f , g V ; T ( f g ) T ( f ) T ( g ) 1
b

T ( f ) f ( x)dx
a

T ( g ) g ( x)dx
a

( f g )( x) f ( x) g ( x)
b

T ( f g ) ( f g )( x)dx
a

T ( f g ) [ f ( x) g ( x)]dx
a

T ( f ) T ( g ) f ( x)dx g ( x)dx
2. R, f V ; T (f ) T ( f ) 1
(f )( x) f ( x)
b

T ( f ) f ( x)dx T (f ) f ( x)dx
a

f ( x)dx f ( x)dx T ( f )
T es una transformacin lineal.

B) Probar que T es una transformacin lineal:

T : R2 R2
x x h

y y k
v1 , v 2 V ; T (v1 v 2 ) T (v1 ) T (v 2 ) 0

x
x
v1 1
v 2 2
y1
y2
T (v`1 v 2 ) T (v1 ) T (v 2 )
x1 x 2
x
x
T 1 T 2
y1 y2
y1
y2
x1 x 2 h x1 h x 2 h

y1 y 2 k y1 k y 2 k
x1 x 2 h x1 x 2 2h

y1 y 2 k y1 y 2 2k

No se cumple el primer axioma, por lo tanto T no es una transformacin lineal.


Teoremas:
Si T de V en W es una transformacin lineal entonces:
A) La imagen del cero vector de V es el cero vector de W.

T V W

Demostracin:

V es un E.V . X V
. X ( sabemos que)
X X V
T (X ) T ( X )
entonces :
T (V ) T ( . X ) .T ( X )
W
B) La imagen del inverso de X es el inverso de X.

T X T (X )
Demostracin:

V es un E.V . X V
entonces :

X 1. X

( sabemos que)

T ( X ) T (1. X ) 1.T ( X )
T(X )
C) La transformada de la combinacin lineal es la combinacin lineal de la transformada.

T (1V1 2V2 ... NVN ) 1T (V1 ) 2T (V2 ) ... N T (VN )


Demostracin:
Induccin matemtica

paso basico : P (1) 1


P(n) paso inductivo : P ( K ) P ( K 1)
P( N ) T (1V1 2V2 ... NVN ) 1T (V1 ) 2T (V2 ) ... N T (VN )

P(1) : T (1V1 ) 1T (V1 )


P(1) 1 P de la transformacion

Suponer: P(K) 1

T ( 1V1 2V2 ... K V K ) 1T (V1 ) 2 T (V 2 ) ... K T (V K )



X

T ( X ) 1T (V1 ) 2 T (V2 ) ... K T (V K )


P( K 1 ) T ( 1V1 2V2 ... K V K K 1V K 1 )

T ( X K 1VK 1 ) T ( X ) T ( X 1V K 1 )
T ( X ) K 1T (VK 1 )

1T (V1 ) 2 T (V2 ) ... K T (VK ) K 1T (VK 1 )

P( K 1) 1

P( K ) P ( K 1) 1
AP (n) N
Ojo: en la induccin matemtica solo se trata naturales.

T ( X ) W X V FALSO

Nota:
porque no me asegura que se cumpla esto.
Ncleo de una transformacin lineal:
Definicin: sea T de V en W una transformacin lineal entonces el ncleo de la transformacin
denotada por Nu(T) se define como

Nu (T ) X V / T ( X ) W

A la dimensin del ncleo de T se lo conoce como nulidad de T y se denota por

(T ) dim Nu (T ) .

Imagen de una transformacin:


Definicin: sea T de V en W una transformacin lineal entonces la imagen de la transformacin
denotada por Im(T) y se define como

Im( T ) X W / T X Y para a lg un X V .

A la dimensin de la imagen de T se lo conoce como rango de T y se denota por

(T ) dim Im( T ) .

Teoremas:
Sea T de V en W una transformacin lineal entonces:
1. El ncleo de T es un subespacio de V.
Demostracin:

X 1 , X 2 Nu (T ) X 1 X 2 Nu (T )

i)

X
X

V / T ( X 1 ) 0W X 2 V / T ( X 2 ) 0W V es un E.V.

) 0W

Nu (T ) / T ( X 1 ) 0W

Nu (T ) / T ( X 2

X1 X 2 T ( X1 X 2 ) T ( X1) T ( X 2 )
0W 0W
0W

ii)

, X Nu (T )

X Nu(T )

X Nu (T ) T ( X ) 0W
T (X ) .T ( X ) .0W 0W
Nu (T ) es un subespacio de V .
2. La imagen de T es un subespacio de V.
Demostracin:
i)

Y1 , Y2 Im( T )

Y1 Y2 Re(T )

Y1 Im( T ) Y1 W / T ( X 1 ) Y1 para a lg un X 1 V

Y2 Im( T ) Y2 W / T ( X 2 ) Y2 para a lg un X 2 V
Y1 Y2 T ( X 1 X 2 ) Y1 Y2

pero X 1V X 2 V

( X 1 X 2 ) V luego Y1 Y2 Re(T )

ii)

, Y Im( T ) .Y Re(T )
Y Im( T ) Y W / Y T ( X ) para a lg un X V

.Y T ( X )
T (X ) donde X V
Y Im( T )

Im(T) es un subespacio de V.
3. Sea T : V W una transformacin lineal, se cumple:

i ) Nu (T ) V
ii ) Im( T ) W
iii ) dim( V ) dim Nu (T ) dim Im( T )
4. Sea T : V W una transformacin lineal

Nu (T ) { } T Es inyectiva.
5. Sea T : V V una transformacin lineal que se conoce como endomorfismo, se cumple:

Nu (T ) { } T Es inyectiva T es sobreyectiva.
Demostracin:

T es inyectiva si, T (u ) T (v)


uv

i)

:
Sean u , v V talque:

T (u ) T (v)

T (u ) T (v) 0
T (u v) 0
(u v) Nu(T )
uv 0
u v

ii)

T es inyectiva, Nu (T ) { } ?
{ } Nu (T ) (Afirmacin)
Nu (T ) { } (Probar)
Sea u Nu (T ) T (u ) 0
T (0) 0
T (u ) T (0) u 0
u { } Nu (T ) { }
Nu (T ) { }
:

iii)

dim( V ) dim Nu(T ) dim Im( T ); dim Nu (T ) 0


Im( T ) V
dim Im( T ) dim V Im( T ) V

T Es sobreyectiva.
Ejemplo:
Determine si la transformacin dada es inyectiva, sobreyectiva, o ambas.

x x y

T
y 2x y

T : 2 2
Solucin:

x x y 0

Nu (T ) /
y
2
x

y
0

0
Nu(T )
0

x y 0
x y

y0

T es inyectiva.

dim Nu (T ) 0 dim Im( T ) x

Im( T ) 2 T es sobreyectiva.
Representacin matricial:
Sea T : una transformacin lineal finita. Entonces existe una matriz nica de mxn A T tal
n

que T(x)=AT.x , x .
Dicha matriz se denomina, matriz de informacin correspondiente a T o representacin matricial de
T.
Teoremas:
Sea T de Rn en Rm una transformacin lineal. Si AT es la matriz asociada a T, entonces:
n

1. Nu(T ) Nu ( AT )
2. dim Nu(T ) dim Nu ( AT )
3. Im( T ) Im( AT )
4. dim Im( T ) dim Im( AT )
5. dim Nu (T ) dim Im( T ) n
Ejemplo:
Sea T :
3

x x 2y z

T : y 2 x y z
z x 3 y 2z

; Determine A(T), Nu(T), Im(T), dim Nu(T ) , dim Im( T ) :
x 1 2 1 x
1 2 1

T : y 2 1 1 y A(T ) 2 1 1
z 1 3 2 z
1 3 2

1 2 1 0
1 2 1 0

Nu(T ) 0 5 3 0 0 5 3 0
0 5 3 0
0 0
0 0

5 y 3z 0
3
z
5
x 2y z 0
y

3
x 2 z z
5
z

x
5

z /5

3 z / 5 / z
z

Nu (T )

dim Nu (T ) 1
a
x a
x



Im( T ) b / T y b para a lg un y
c
z c
z



1

2
1

0
0

1
3

5
0

1 x
a
1

1 y b 2
c
1
2 z

2
1
3

1 b

2 c

3 b 2a c a
0 c a

Im( T ) b / a, b dim Im( T ) 2


a

Autovalores y autovectores
Definicin de autovalor: R (o a C, aunque no lo consideraremos) es un
autovalor de una matriz A, cuadrada, n n, si existe un vector

x R n ( a En ) , x 0 tal que A x = x .
A x se le llama autovector asociado a .
Tambin se utilizan los nombres valor propio y vector propio, respectivamente,
para autovalor y autovector.
Observaciones:
1. Si A x = x A 2 x = A x =2 x .
A n x =n x
Por tanto, para determinar cmo acta A n resulta til conocer y x ,
pues el estudio de n es mucho ms sencillo.
2. Si
x es un autovector asociado a , entonces k x es otro autovector
asociado a .
En efecto: si

A x = x A ( k x )=k ( A x )=k ( x )= ( k x )

Diagonalizacion

Una matriz cuadrada A, de orden n, se dice que es diagonalizable si existe una


matriz invertible P, de orden n, y una matriz diagonal, tal que P1 AP=D .
Otra manera de decirlo es: Una matriz cuadrada A es diagonalizable si es
semejante a una matriz diagonal.

Caso 1. Cuando todos los autovalores son distintos y


pertenecen a los reales:
Si una matriz cuadrada A, de orden n, tiene n autovalores reales distintos
diferentes de cero, entonces el conjunto { x 1 , x 2, , . , x n } es linealmente
independiente. Luego, la matriz A es diagonalizable.
Puede observarse que si { x 1 , x 2, , . , x n } son L.i

la matriz P={
x 1 , x 2, , . , x n } es inversible. Luego puede escribise que PD P1= A .
Ejemplos:
3 1 0
1. Diagonalizacin de A 1= 1 2 1
0 1 3

3 1
0
| A1 I|= 1 2 1 =0 (3)(1)( 4)=0
0
1 3
Autovalores: = 3; = 1; = 4 R
. Los tres autovalores son
simples
la matriz es diagonalizable.
Si = 3,
0 1 0 x
0

I
x

=
0

=
( 1
)
1 1 1 y
0
0 1 0 z
0

][ ] [ ]

y =0 x=t
x yz=0 y =0
y =0 z=t

[]

1
x 1= 0
1
Si = 1,

][ ] [ ]

2 1 0 x
0

( A1 I ) x =0 1 1 1 y = 0
0 1 2 z
0
2 x y=0 x=t
x + y z=0 y=2 t
y +2 z=0 z=t

[]
[

1
x 2= 2
1
Si = 4,

][ ] [ ]

1 1 0 x
0

( A1 I ) x =0 1 2 1 y = 0
0 1 1 z
0
x y=0 x=t
x2 y z=0 y=t
y z=0 z=t

[]

1
x 3= 1
1

La matriz

1 1 1
3 0 3
1
1
P= 0 2 1 P =
1 2 1
6
1 1 1
2 2 2

[ ]

3 0 0
P1 A 1 P=D= 0 1 0
0 0 4

2. Diagonalizacin de

| A2 I|=

3 0
2
A 2= 1 2 3
2 5 1

3
0
2
1
2
3 =0( + 6.341)( + 2.251)( 2.592)=0
2
5
1

Autovalores: = 6.341 ; =
tres autovalores son simples
Si = 6.341 ,
3.341
0
2

( A2 I ) x =0 1
4.341 3
2
5 5.341

2.251 ; = 2.592
R
. Los

la matriz es diagonalizable.

][ ] [ ]
x
0
y=0
z
0

3.341 x +2 z=0 x=0.598 t


x+ 4.341 y3 z=0 y=0.828 t
2 x 5 y +5.341 z=0 z=t

[ ]

0.598
x 1= 0.828
1
Si =

2.251 ,
0.749
0
2
x
0

I
x

=
0

=
( 2
)
1
0.251 3 y
0
2
5 1.251 z
0

][ ] [ ]

0.749 x +2 z=0 x=2.669 t


x+ 0.251 y 3 z =0 y=1.317 t
2 x 5 y +1.251 z=0 z=t

[ ]

2.669
x 2= 1.317
1
Si =

2.592 ,
5.592
0
2
x
0
( A2 I ) x =0 1
4.592
3
y =0
2
5
3.592 z
0

][ ] [ ]

5.592 x+ 2 z=0 x=0.357 t


x4.5923 z=0 y=0.575 t
2 x 5 y 3.592 z=0 z =t

[ ]

0.357
x 3= 0.575
1

La matriz

0.598 2.669 0.357


P= 0.828 1.317 0.575
1
1
1

3.374 0.457 0.396


P = 0.277
0.189 0.009
0.096 0.646 0.593
1

P1 A 2 P=D=

6.341
0
0
0
2.251
0
0
0
2.592

Caso 2. Cuando hay autovalores repetidos


(multiplicidad) y pertenecen a los reales:

Si una matriz cuadrada A, de orden n, es diagonalizable si y slo si todos


sus autovalores son reales y diferentes de cero, adems, la multiplicidad
geometrica de cada uno coincide con su multiplicidad algebraica.
La multiplicidad algebraica es la del autovalor: solucin doble, triple de
la ecuacin P ( )=| AI |=0.
La multiplicidad geometrica es la de los autovectores respectivos: la
dimension del espacio vectorial solucion del autosistema ( A I ) x =0
Ejemplos:

3. Diagonalizacin de

| A3 I|=

4 1 1
A 3= 2 5 2
1 1 2

4
1
1
2
2
5 2 =0 ( 3 ) ( 5 ) =0
1
1
2

Autovalores:

= 3; multiplicidad=2
= 5; multiplicidad=1

R
R

Si = 3,

][ ] [ ]

1 1 1 x
0

( A3 I ) x =0 2 2 2 y = 0
1 1 1 z
0

x+ yz=0 x=t x =0
2 x +2 y2 z=0 y =0 y=t
x+ yz=0 z=t z =t

[] []

1
0
x 1= 0 x 2= 1
1
1

Dim ( =3 )=multiplicidad=2 Si es diagonalizable

Si =5,

][ ] [ ]

1 1 1 x
0

( A3 I ) x =0 2 0 2 y = 0
1 1 3 z
0
x + y z=0 x=t
2 x 2 z=0 y=2 t
x+ y3 z=0 z=t

[]

1
x 3= 2
1

La matriz

[ ]

1 0 1
1 1 1
1
P= 0 1 2 P1= 2 0
2
2
1 1 1
1
1 1

[ ]

3 0 0
P A 3 P=D= 0 3 0
0 0 5
1

4. Diagonalizacin de

| A 4I |=

3 1 1
A 4 = 7 5 1
6 6 2

4
1
1
2
2
5 2 =0 (+2) (4)=0
1
1
2

Autovalores:

= -2; multiplicidad=2
= 4; multiplicidad=1

R
R

Si = -2,

][ ] [ ]

1 1 1 x
0

( A4 I ) x =0 7 7 1 y = 0
6 6 0 z
0
x + y z=0 x=t
7 x +7 yz =0 y=t
6 x +6 y =0 z=0

[]

1
x 1= 1
0

Dim ( =2 ) multiplicidad No es diagonalizabe


Si =4,

][ ] [ ]

7 1 1 x
0

( A4 I ) x =0 7 1 1 y = 0
6 6 6 z
0
7 x + yz =0 x=0
7 x + yz =0 y=t
6 x +6 y 6 z=0 z=t

[]

0
x 2= 1
1

Como la matriz A 4 tiene un maximode 2 vectores propios linealmente


independiente ,no es similar a una matriz diagonal ,o sea , A4
no es diagonalizable

Caso 3. Cuando hay autovalores que pertenecen a los


complejos:
Si una matriz cuadrada A, de orden n, tiene n autovalores complejos
distintos diferentes de cero, entonces el conjunto { x 1 , x 2, , . , x n } es
linealmente independiente. Luego, la matriz A es diagonalizable.
Puede observarse que si { x 1 , x 2, , . , x n } son L.i

la matriz P={
x 1 , x 2, , . , x n } es inversible. Luego puede escribise que PD P1= A .
Ejemplos:
1 5 4
5. Diagonalizacin de A 5= 1 1 3
3 4 1

[ ]

1
5
4
1
1
3 =0
3
4
1
( 7.228)(+ 2.1140.308 i)( +2.114 +0.308 i)=0

| A5 I|=

Autovalores: = 7.228 ; = 2.114 0.308 i ; = 2.114 +0.308 i


C
. Los autovalores son simples

la matriz es
diagonalizable.
Si =

7.228 ,
6.228
5
4
x
0

( A5 I ) x =0 1
6.228
3
y=0
3
4
6.228 z
0

][ ] [ ]

6.228 x +5 y +4 z =0 x=1.181t
x6.228 y +3 z=0 y=0.671t
3 x+ 4 y6.228 z=0 z =t

[ ]

1.181
x 1= 0.671
1

Si =

( A5 I ) x =0

2.114 0.308 i ,

][ ] [ ]

3.114+0.308 i
5
4
x
0
1
3.114 +0.308 i
3
y=0
3
4
3.114+ 0.308 i z
0

(3.114 +0.308 i) x+5 y + 4 z=0 x=( 0.3740.424 i) t


x+ ( 3.114+ 0.308i ) y+ 3 z =0 y=(1.059+ 0.241i)t
3 x+ 4 y +( 3.114+ 0.308i) z=0 z =t

0.3740.424 i
x 2= 1.059+0.241 i
1
Si =

( A5 I ) x =0

2.114+0.308 i ,

][ ] [ ]

3.1140.308 i
5
4
x
0
1
3.114 0.308i
3
y=0
3
4
3.1140.308 i z
0

(3.1140.308 i) x +5 y+ 4 z=0 x=(0.374+ 0.424 i) t


x+ ( 3.1140.308 i ) y +3 z=0 y =(1.0590.241 i)t
3 x+ 4 y +( 3.1140.308 i) z=0 z=t

0.374 +0.424 i
x 3= 1.0590.241i
1

La matriz

1.181 0.3740.424 i
0.374+ 0.424 i
P= 0 0.671 1.059+ 0.241i 1.0590.241i
1
1
1

17

17

17

0.259+3.927 x 10 i 0.456+2.775 x 10 i 0.3862.775 x 10


P1= 0.129+0.931 i
0.2280.433 i
0.3060.808 i
0.1290.931 i
0.228+0.433 i
0.306+ 0.808i

P1 A 5 P=D=

7.228
0
0
0
2.1140.308 i
0
0
0
2.114 +0.308 i

6. Diagonalizacin de

1 1 1
A 6= 1 2 1
1 1 3

1
1
1
A
I
=
| 6 | 1 2
1 =0
1
1
3
( +2)( +i (2 i+ 2 ) )( i ( 2i+ 2 ))=0
Autovalores: = 2 ; = i (2i+ 2 ) ; = i ( 2 i+ 2 ) C
. Los
autovalores son simples

la matriz es diagonalizable.
Si =

2 ,

( A6 I ) x = 0 1
1

][ ] [ ]

1 1 x
0
0
1 y=0
1 1 z
0

x+ yz=0 x=t
x z=0 y=0
x yz=0 z =t

[]

1
x 1= 0
1

Si =

i (2i+ 2 ) ,

][ ] [ ]

i ( 2 i+ 2 )
1
1
x
0

A
I
x

=
0

=
(
)
( 6
)
1
i 2i + 2
1
y
0
z
0
1
1
i (2i+ 2 )
1
i (2 i+ 2 ) x+ yz=0 x= (12 i 2) t
3
1
x +i (2 i+ 2 ) y + z=0 y= (2 i+ 2) t
3
x y +i (2 i+ 2 ) z=0 z=t

[ ]

1
(12i 2)
3
x 2= 1
(2 i+ 2)
3
1

Si = i ( 2 i+ 2 ) ,

( A6 I ) x = 0

][ ] [ ]

i ( 2 i+ 2 )
1
1
x
0
=
1
i ( 2i + 2 )
1
y
0
z
0
1
1
i ( 2i+ 2 )

1
i ( 2i+ 2 ) x+ y z=0 x= (1+ 2i 2) t
3
1
xi ( 2 i+ 2 ) y + z=0 y = (2 i+ 2) t
3
x yi ( 2i+ 2 ) z=0 z=t

[ ]

1
(1+2i 2)
3
x 3= 1
(2 i+ 2)
3
1

1
La matriz

P =

1
1
(12 i 2)
(1+2 i 2)
3
3
1
1
1
(2 i+ 2)
(2i+ 2)
3
3

1
P=[ 1 ]

1
2

1
2

1
1
1
i(i+ 2)
i(2i+ 2)
(1i 2)
4
4
4
1
1
1
i(i+ 2)
i(2i+ 2)
(1+i 2)
4
4
4

2
0
0
P A 6 P=D= 0 i (2i + 2 )
0
0
0
i ( 2i + 2 )
1

Caso 4. Cuando hay autovalores que son iguales a cero:

7. Diagonalizacin de

| A7 I|=

2 3 5
A 7= 0 3 0
6 9 15

2
3
5
0
3
0 =0 ( 3)(17)=0
6
9
15

Autovalores: = 0; = 3; = 17 R
simples
la matriz es diagonalizable.
Si = 0,
2 3 5 x
0

( A7 I ) x = 0 0 3 0 y = 0
6 9 15 z
0

][ ] [ ]

2 x +3 y +5 z=0 x=5 t
3 y=0 y =0
6 x+ 9 y+ 15 z=0 z =2t

[]

5
x 1= 0
2
Si = 3,

][ ] [ ]

1 3 5 x
0

A
I
x

=
0

=
( 7
)
0 0 0 y
0
6 9 12 z
0

x +3 y +5 z=0 x=3 t
0=0 y=14 t
6 x+ 9 y+ 12 z=0 z=9t

. Los tres autovalores son

[ ]
[

3
x 2= 14
9
Si = 17,

( A7 I ) x = 0

][ ] [ ]

15
3
5 x
0
0 12 0 y = 0
6
9 2 z
0

15 x +3 y +5 z =0 x=t
12 y=0 y=0
6 x+9 y2 z=0 z=3 t

[]

1
x 3= 0
3

La matriz

[ ]

3
17

5
3
1
P= 0 14 0 P1= 0
2
9 3
2
17

0 0 0
1
P A 7 P=D= 0 3 0
0 0 17

1
14
3
14

1
17
0

5
17

CONCLUSIONES:
-

En

matrices

aprendimos

conceptos

generales

sobre

matemtico, as como sus propiedades y aplicaciones.

dicho

arreglo

Se estudi la determinante como una funcin que le asigna a una matriz de


orden n, un nico nmero real de la matriz. As como sus aplicaciones y
propiedades.

Podemos decir que un espacio vectorial es una estructura algebraica creada


a partir de un conjunto no vaco y se estudi sus propiedades a partir de los
vectores que contena.

En las transformaciones lineales estudiamos el cambio que sufre un vector al


ser representado en otro espacio vectorial. Tambin los mtodos de
conversin y propiedades de las matrices de transicin que representan a la
transformacin lineal.

BIBLIOGRAFA:
-

Algebra de Matrices - Cristina Steelman Pasqual UOC.

Algebra Linea - Hall Bernard Kolman, David R. Hill.

ndice

Captulo 1:..matrices y determinantes

Capitulo2:sistema de ecuaciones lineales

Capitulo3..espacios vectoriales

Captulo 4.transformaciones lineales

Captulo 5..valor propio y vector propio

Vous aimerez peut-être aussi