Académique Documents
Professionnel Documents
Culture Documents
3 de enero de 2012
ndice
1. Revisin de Matrices 2
2. Espacios Vectoriales 3
3. Producto Interno 5
5. Transformaciones Lineales 10
6. Autovalores y Autovectores 11
8. Ecuaciones Diferenciales 17
1
1 Revisin de Matrices
2k+arg(a)
|a| ei( )
p
z n = a = z = n n con k = 0, 1, . . . , n 1
e(a+ib)t = ea (cos(bt) + i sin(bt))
1. det(AT ) = det(A),
2. det(AB) = det(A) det(B),
3. Si una la de A se suma a k(otra la) para producir una matriz B , det(B) = det(A),
4. Si dos las de A se intercambian de lugar para producir B , det (B) = det(A),
5. Si una la de A se multiplica por k para producir B , det (B) = k det (A),
6. Si toda la matriz A se multiplica por k para producir B , det (B) = k n det(A),
Qn
7. Si A es una matriz triangular, det (A) = i=1 aii .
2
Col (BA) Col(B) (son iguales si rg (A) = n)
N ul (A) N ul (BA) (son iguales si rg (B) = n)
Si rg (A) = n rg (BA) = rg (B)
Matrices semejantes: dos matrices cuadradas A y B son semejantes (notamos A B) si y solo si existe una
matriz P inversible tal que B = P 1 AP A = P BP 1 . Dos matrices semejantes pueden pensarse como dos
descripciones de un mismo operador lineal, pero con respecto a bases distintas. Estas dos matrices cumplen que:
1. det(A) = det(B)
2. tr (A) = tr(B)
3. rg (A) = rg(B)
4. pA () = pB () = (A) = (B)
2 Espacios Vectoriales
Espacio Dimensin
n
R n
n
CC n
n
CR 2n
nm
K nm
Pn n+1
C[a, b]
3
2.3 Operaciones con subespacios
Sean S1 , S2 , . . . , Sq subespacios de V.
Interseccin: S =
Tq
1. Si = {x V : x Si i = 1, . . . , q}.
i=1
Suma: S =
Pn Sm
2. i=1 Si = gen{ i=1 Bi }, donde Bi es base de Si .
Dos subespacios son suplementarios cuando estn en suma directa y su suma es todo el espacio.
2.4 Bases
{v1 , . . . , vn } genera V
Si dim(V) = n, {v1 , . . . , vn } V es base de V
{v1 , . . . , vn } es LI
| | |
CBC = CC (v1 ) CC (v2 ) CC (vn )
| | |
| | |
1
CCB = CB (w1 ) CB (w2 ) CB (wn ) = CBC
| | |
Adems: si B y C son bases ortonormales, entonces CBC es una matriz ortogonal.
4
3 Producto Interno
3.1 Axiomas
Sea < , >: VK VK R un producto interno.
1. < x, y > K y x, y V
2. < x, y >=< y, x > x, y V
3. < x, y >= < x, y > x, y V y K
4. < x, y >= < x, y > x, y V y K
5. < x, y + z >=< x, y > + < x, z > x, y, z V
6. < x, x >= 0 x V (si < x, x >= 0 entonces x = 0)
3.3 Deniciones
Ortogonalidad: < x, y >= 0 xy.
Norma de un vector : |x|2 =< x, x >. La norma depende del producto interno.
Propiedades de la norma:
1. |x| R x V
2. |x| 0 (|x| = 0 x = 0)
3. |k x| = |k| |x|
4. Desigualdad de Cauchy-Schwarz: | < x, y > | |x| |y|, x, y VK . Son iguales si x es paralelo a y.
5. Desigualdad triangular: |x + y| |x| + |y|.
2 2 2
6. Teorema de Pitgoras: si xy entonces|x + y| = |x| + |y| . La recproca slo vale para R.
2 2 2 2
7. Identidad del paralelogramo: |x + y| + |x y| = 2 |x| + |y| , x, y V.
5
3.4 Matriz asociada a un PI
Sea B = {v1 , v2 , . . . , vq } base de (VK , ). Entonces G Kqq , gij =< vi , vj > es la matriz del producto interno:
2
|v1 | (v1 , v2 )
(v1 , vq )
2
(v2 , v1 ) |v2 | (v2 , vq )
G=
. . .. .
. . .
. . . .
2
(vq , v1 ) (vq , v2 ) |vq |
Propiedades:
gii > 0 i = 1, 2, . . . , q.
GH = G.
G es denida positiva.
G1 .
H
< x, y >= CB (x) G CB (y)
Propiedades:
. .
x = |{z}
u + |{z}
v = PS (x) + PS (x)
S S
2 2 2
Por Pitgoras: |x| = |PS (x)| + PS (x) x V.
|PS (x)| |x| (si |PS (x)| = |x| entonces x S)
6
4.2 Expresin de la proyeccin y la reexin
Sea S un subespacio de V, y B = {v1 , v2 , . . . , vq } una BOG de S. Entonces x V:
q
. X < vi , x >
PS (x) = vi
i=1
< vi , vi >
1 0
.. .
.
. .
1
[PS ]B =
0
. ..
.
. .
0 0
(tantos 1 como la dimensin del espacio sobre el cual proyecto, y tantos 0 como la dimensin del complemento
ortogonal)
Nota: la matriz de un operador proyeccin en una BON es una matriz de proyeccin. En cualquier otra base,
no lo es.
(tantos 1 como la dimensin del espacio sobre el cual reejo, y tantos 1 como la dimensin del complemento
ortogonal)
wwT
H = Id 2
wT w
Propiedades de la matriz de Householder:
7
Es involutiva: H H = Id .
Es simtrica: HT = H.
Es inversible: H 1 y H 1 = H
Es ortogonal: H T H = HH T = Id.
4.6 Rotaciones en R3
Sea B = {v1 , v2 , v3 } una BON de R3 y sea T la rotacin de grados alrededor del eje v1 .
1 0 0
[T ]B = 0 cos() sin()
0 sin() cos()
v1 = x 1
x2 .v1
v2 = x 2 v1 .v1 v1
xp v1 xp v2 xp vp1
vp = x p v1 v1 v1 v2 v2 v2 . . . vp1 vp1 vp1
col(P ) = nul(P )
P y = y y col(P )
Si PS es matriz de proyeccin sobre S y PS es matriz de proyeccin sobre S entonces PS + PS = Id
Las columnas de P son una base del espacio sobre el cual proyectan.
rg(P ) = tr(P )
det(P ) 6= 0 si P 6= Id
Si P1 y P2 son matrices de proyeccin, y P1 P2 = P2 P1 = 0, entonces P 1 + P2 es matriz de proyeccin
y rg(P1 + P2 ) = rg(P1 ) + rg(P2 )
Sea Q una matriz cuyas columnas son una BON de S V. Entonces la nica matriz de proyeccin sobre
[PS ] = QQT . La matriz de proyeccin sobre S es PS = Id [PS ]
S es
Sea B = {v1 , v2 , . . . , vq } una base de S, y A la matriz que tiene por columnas a v1 , v2 , . . . , vq . Entonces la
H
1 H
nica matriz de proyeccin sobre S se obtiene mediante [Ps ] = A A A A = AA#
8
4.9 Inversas y pseudoinversas
Pseudoinversa: Sea A Knq tal que rg (A) = q . La matriz pseudoinversa de A es A# = (AH A)1 AH
Propiedades:
Si A es cuadrada e inversible, A1 = A#
A# Rqn
A# A = Id(q)
AA# = [P ]Col(A)
N ul AA# = [Col (A)]
d (Ax, b) d(Au, b) u Kq ,
|Ax| |b| (son iguales si b Col (A)), Figura 2: Cuadrados mnimos.
Observaciones:
1. Si x = 0 entonces b [Col (A)] . La recproca solo es cierta si A es inversible.
2. Si las columnas de A son LI, la solucin por cuadrados mnimos es nica y se obtiene mediante x =
T
1
A A A b = A b. Si las columnas de A son LD, el sistema AT Ax = AT b tiene innitas soluciones, y
T #
3. Si b Col(A), entonces toda solucin de Ax = b es una solucin exacta y por cuadrados mnimos.
4. El error de aproximacin E es igual a b b.
9
5 Transformaciones Lineales
Sea T L(VK , WK ) y A = [T ]BC con B base de V y C base de W la matriz de T.
3. T (0VK ) = 0WK .
10
5.4 Matriz asociada a una TL
Sea T L(VK , WK ), sea B = {v1 , v2 , . . . , vq } base de V y C = {w1 , w2 , . . . , wm } base de W. Entonces T se
puede escribir como T (x) = Ax, con A Kmq tal que:
| | |
A = [T ]BC = CC (T (v1 )) CC (T (v2 )) CC (T (vq ))
| | |
Propiedades:
N u (f ) N u (g f )
Im (g f ) Im(g)
Propiedades:
6 Autovalores y Autovectores
6.1 Autovalores y autovectores de una matriz cuadrada
Autovector: Un vector v 6= 0 es autovector de A Knn K : Av = v.
Autoespacio: El autoespacio de A asociado a un autovalor es S (A) = nul(A I).
Polinomio caracterstico: El polinomio caracterstico de una matriz A Knn es pA () = det(A I), y
tiene grado n. Si K=R el polinomio tiene a lo sumo n races. Si K=C tiene exactamente n races.
Autovalor: Los autovalores de una matriz son las races de su polinomio caracterstico.
Espectro de una matriz: (A) = { K : es autovalor de A}
11
6.2 Multiplicidad geomtrica y algebraica de un autovalor
mg () = dim (S (A))
ma () = nmero de veces que aparece como raz del polinomio caracterstico.
6.3 Propiedades
Sea A Knn .
1. es autovalor de AT ,
1 A1 S1 A1 = S (A),
2. es autovalor de y
3. r es autovalor de r A,
k
4. es autovalor de Ak , k N
5. +r es autovalor de A + r I.
1. (A) = (T ) B base de V
2. x es autovector deT CB (x) es autovector de [T ]B = A
Propiedades:
Si es autovalor de T , 1 es autovalor de T 1 .
[h (A)] = h[ (A)]
Si h es un polinomio en K y T (x) = Ax, entonces
Sh() h (A) = S (A)
T : VK VK es regular 0
/ (T )
6.5 Diagonalizacin
A Knn es diagonalizable A D existe una base de Kn compuesta por autovectores de A A
1
tiene n autovectores LI mg () = ma () (A) P inversible y D diagonal tal que: A = P DP ,
siendo P la matriz de autovectores y D la matriz de autovalores.
12
6.5.1 Matrices trivialmente diagonalizables
Nula: autovalor 0, autovectores: cualquier vector no nulo.
De proyeccin (A Knn , dim S = q): autovalor 1 con ma (1) = mg (1) = q , autovalor 0 con ma (0) =
mg (0) = n q
De reexin: autovalor 1 con ma (1) = q , autovalor -1 con ma (0) = n q
6.5.2 Propiedades
Si A es diagonalizable entonces An es diagonalizable (DA
n
= DAn y (An ) = n (A)). La recproca es falsa.
A es diagonalizable unitariamente.
13
1. A es diagonalizable ortogonalmente: A = P DP T (B es diagonalizable unitariamente con D real: B =
P DP H )
Propiedades:
det (A) R
Propiedades:
Preservan los productos internos (< Ax, Ay >=< x, y >) y las normas (|Ax| = |x|)
Si C es unitaria, BC y CB son unitarias
14
7.4 Formas cuadrticas
Una forma cuadrtica en Rn es una funcin Q : Rn R tal que Q (x) = xT Ax, donde A es una matriz simtrica
de n n.
Teorema de los ejes principales: sea A una matriz simtrica de n n. Entonces existe un cambio ortogonal
de variable, x = P y, donde P
es una matriz ortogonal tal que det (P ) = +1 e y es un nuevo vector, que
transforma la forma cuadrtica xT Ax a una forma cuadrtica y T Dy sin trminos de producto cruzado: Q(x) =
xT Ax = (P y)T A(P y) = y T (P T AP )y = y T DA y = g(y)
Perspectiva geomtrica de los ejes principales: sea la forma cuadrtica Q (x) = xT Ax, con A = P DP T .
El conjunto de todas las x Rn : xT Ax = c es una elipse, una hiprbola, dos rectas, un punto o ningn punto.
Si A es diagonal, la grca est en posicin estndar. Si A no es diagonal, la grca est girada hasta salirse
de la posicin estndar. Los ejes principales son los autovectores de A y son el nuevo sistema de coordenadas
para los cuales la grca est en posicin estndar.
Sea extremar una forma cuadrtica f : Rn R, f (x) = xT Ax (A simtrica), sujeto a la restriccin |x| = . El
2
mximo de f es max (A). y se alcanza en M = {x Smax (A) : |x| = }. El mnimo de f es min (A).2 y
se alcanza en m = {x Smin (A) : |x| = }.
7.7 DVS
Valores singulares: V S (A) = i i (AT A).
SeaA una matriz de m n con rango r. Entonces existe una matriz , y existen una matriz U ortogonal de
m m y una matriz V ortogonal de n n tales que A = U V T , donde:
15
D 0
Rmn es tal que = , y las entradas diagonales de D son los primeros r valores singulares
0 0
de A, ordenados en forma descendente: i 2 . . . r > 0.
V Rnn es una matriz cuyas columnas son una BON de autovectores {v1 , v2 , . . . , vn } asociados a los
autovalores de AT A.
Av1 Avr
U Rmm es una matriz cuyas primeras r columnas son los vectores
1 , . . . , r . Las otras columnas
m T
se obtienen completando una BON para R . Las columnas de U son autovectores de AA .
A Rnn A tiene n
es inversible VS positivos
V S (A)positivos = V S AT positivos
nn
Qn
Si A R , |det(A)| = i=1 V Si (A)
Si A es cuadrada y denida positiva, (A) V S(A)
Si AB , entonces V S (A) V S(B)
La matriz AT A (matriz de Gram de A) es siempre simtrica y semi denida positiva, con lo cual nunca
tendr valores singulares negativos. Ser denida positiva cuando A tenga columnas LI
2
SeaT : Rm Rn una transformacin lineal tal que T (x) = Ax. Sea la forma cuadrtica f (x) = |T (x)| =
x AT A x. Entonces:
T
T
1. El mximo de f (x) sujeto a |x| = 1 es max A A . Entonces el mximo de |T (x)| es V Smax (A) y
m
se alcanza en M = {x R : x Smax AT A , |x| = 1}.
T
2. El mnimo de f (x) sujeto a |x| = 1 es min A A . Entonces el mnimo de |T (x)| es V Smin (A) y se
m
alcanza en m = {x R : x Smin AT A , |x| = 1}.
16
7.10 DVS reducida con matrices de proyeccin y pseudoinversa
DVS reducida: Sea A Rnm . Si A = U V T , y rg (A) = r, entonces una DVS reducida de A es A = Ur r VrT
siendo Ur Knr , r Krr , VrT Krm .
Pseudoinversa de Moore-Penrose de A: A+ = Vr 1 T
r Ur
Propiedades:
Sea A Rnm :
1. A+ = A# cuando rg (A) = m
2. A+ A = Vr VrT = PF il(A)
3. AA+ = Ur UrT = PCol(A)
8 Ecuaciones Diferenciales
8.1 Independencia lineal y Wronskiano
Matriz de Wronski: Sea A = {f1 , f2 , . . . , fq } funciones denidas en un intervalo I R, a valores en C, con
derivada hasta el orden (q 1) continua en I. La matriz de wronski de A es, para cada x I:
f1 (x) fq (x)
0 0
M wA (x) = f1 (x) fq (x)
(q1) (q1)
f1 (x) fq (x)
La derivada del wronskiano es el determinante obtenido derivando la ltima la. La derivada del wrons-
kiano es la suma de q determinantes.
ED normal en I : an 6= 0 x I .
x0 I .
17
8.3.2 Variables separables: y0 = fg(x)
(x)
con y = y(x)
Separamos la ecuacin en g (x) dy = f (x) dx e integrando ambos miembros se tiene G (y) = F (x) + c.
0
ecuacin homognea asociada (y
1. Solucin de la + p (x) y = 0): es de variables separables. Una solucin es
yH (x) = e p(x)dx .
2. Solucin de la no homognea:
una solucin se obtiene multiplicando toda la ecuacin por el factor integrante
p(x)dx 0
de Lagrange: u (v) = e . Entonces, la ecuacin a resolver ser [u (v) .y] = u (v) .q(x)
Se dice adems que (x, y) es un factor integrante de la ecuacin P (x, y) dx + Q (x, y) dy = 0 si al multiplicar
la ecuacin por (x, y) la ecuacin resultante es diferencial exacta.
0
y1 y2 ... yn 0
u1
0 0 0
y1 y2 ... yn u0 0
2
. = .
.. .
. .. .
. .
..
. . . . .
(n) (n) (n) 0 f (x)
y1 y2 ... yn un an
18
Mtodo de coecientes indeterminados: aplicable cuando f (x) es exponencial, polinomio, seno y coseno,
siendo a2 y 00 + a1 y 0 + a0 y = f (x) con f (x) = p1 (x) .em1 x + . . . + pk (x) .emk x .
yP (t) = q1 (x) .em1 x + . . . + qk (x) .emk x .
Una vez armada la yP se reemplaza en la ED original, e igualando los trminos semejantes se hallan los
coecientes indeterminados.
c
n | | 1
n t ..
X
X= c i vi e i t = v1 e 1 t vn e .
i=1 | |
| {z } | c{z
n
}
(t)K nn
C
Pn i t
1. XH = i=1 ci vi e = (t) C
2. XP = (t) u(t) siendo u(t) tal que (t) u0 (t) = B
19
9.3.1 Caso A R22
A necesariamente posee un autovalor doble R de multiplicidad geomtrica 1, con lo cual la matriz J posee
un solo bloque correspondiente a :
1
J=
0
Respecto de la matriz P = v1 v2 AP = P J. La matriz P se obtiene hallando un par
deber ser inversible y
de vectores v1 y v2 LI que satisfagan las condiciones (A I) v1 = 0 y (A I) v2 = v1 . Observamos que v1 es
autovector de A asociado a .
1 0
J = 0 1
0 0
1 0
J = 0 0
0 0
20