Vous êtes sur la page 1sur 9

Transformada lineal

Se denomina aplicación lineal, función lineal o transformación lineal a


toda aplicación cuyo dominio y codominio sean espacios vectoriales que cumpla la siguiente
definición:

Sean V y W espacios vectoriales sobre el mismo espacio o campo K, y T una función


de V en W. T es una transformación lineal si para todo par de
vectores u y v pertenecientes a V y para todo escalar k perteneciente a K, se
satisface que:

1.

2.  donde k es un escalar.

Rango y nucleo T.L

Rango (álgebra lineal)


En álgebra lineal, el rango de una matriz es el número de columnas (filas respectivamente) que
son linealmente independientes. Si el rango fila y el columna son iguales, este número es llamado
simplemente rango de A. Comúnmente se expresa como rg(A).

El número de columnas independientes de una matriz m por n A es igual a la dimensión del espacio


columna de A. También la dimensión del espacio fila determina el rango. El rango de A será, por
tanto, mayor o igual que uno y menor o igual que el mínimo entre m y n.

[editar]Rango de una transformación lineal

El rango es una propiedad no sólo de las matrices sino extensible a las aplicaciones lineales de las
cuales las matrices son una representación fijada la base. Definamos en primer lugar el concepto de
rango de una aplicación lineal de forma genérica. Dada aplicación o transformación lineal:

Se define el rango simplemente como la dimensión del conjunto imagen de la aplicación:

Una propiedad muy importante del rango así definido y el rango de matrices definido anteriormente,
es que ambos coinciden. Es decir, dada una base arbitraria la aplicación lineal se puede representar
mediante esa base en forma de matriz resultando el rango de esa matriz idéntico al rango de la
apliación lineal que representa.

Para establecer más claramente la relación entre el rango de una aplicación lineal y una matriz que
represente dicha aplicación lineal, deben fijarse dos bases vectoriales en cada uno de los dos
espacios   y  , podemos expresar la
transformación lineal por una matriz   como una en una cierta base:

Siendo:

, la imagen del vector x.

, la antiimagen del vector y.

Como se dijo anteriormente, puede demostrarse que el rango de   coincide


con la dimensión de la imagen de f (véase transformación lineal para más detalles
acerca de la imagen y el kernel).

Cálculo del rango

Dada una aplicación lineal su rango puede calcularse fácilmente considerando una
base cualquiera y determinando el rango de la matriz que representa la aplicación
en dicha base, ya que el número obtenido no dependerá de la elección de la base.

Dada una matriz su rango puede determinarse sencillamente a partir del cálculo
de determinantes. Dada la matriz   de una aplicación lineal  :

se define el rango como el máximo entero r tal que existe un menor no nulo de


orden r:

Otra forma de obtener el rango de una matriz es mediante el método de Gauss-


Jordan, y será igual al número de filas no nulas de la matriz obtenida con este
método.

Aplicaciones

Una útil aplicación de calcular el rango de una matriz es la de determinar el número


de soluciones al sistema de ecuaciones lineales. El sistema tiene por lo menos una
solución si el rango de la matriz de coeficientes equivale al rango de la matriz
aumentada. En ese caso, ésta tiene exactamente una solución si el rango equivale
al número de incógnitas; en otro caso, la solución general tiene k parámetros libres,
donde k es la diferencia entre el número de incógnitas y el rango.

Una matriz de   es invertible (tiene inversa) si y sólo si su rango es máximo, es
decir, igual a  .

En teoría de control, el rango de una matriz se puede usar para determinar si un


sistema lineal es controlable u observable.

el núcleo de una transformación lineal está formado por el conjunto de todos los vectores del
dominio que tienen por imagen al vector nulo del codominio.

El núcleo de toda transformación lineal es un subespacio del dominio:

1.  dado que 
2. Dados 

3. Dados 

Se denomina nulidad a la dimensión del núcleo. 

O sea que la imagen de una transformación lineal está formada por el conjunto de todos
los vectores del codominio que son imágenes de al menos algún vector del dominio.

 La imagen de toda transformación lineal es un subespacio del codominio.


 El rango de una transformación lineal es la dimensión de la imagen.

Vector propio y valor propio

En álgebra lineal, los vectores propios, autovectores o eigenvectores de un operador lineal son los


vectores no nulos que, cuando son transformados por el operador, dan lugar a un múltiplo escalar
de sí mismos, con lo que no cambian su dirección. Este escalar λrecibe el nombre valor
propio, autovalor, valor característico o eigenvalor. A menudo, una transformación queda
completamente determinada por sus vectores propios y valores propios. Un espacio
propio, autoespacio o eigenespacio es el conjunto de vectores propios con un valor propio común.
Las transformaciones lineales del espacio —como la rotación, la reflexión, el ensanchamiento,
o cualquier combinación de las anteriores; en esta lista podrían incluirse otras transformaciones
— pueden interpretarse mediante el efecto que producen en los vectores. Los vectores pueden
visualizarse como flechas de una cierta longitud apuntando en una dirección
y sentido determinados.

 Los vectores propios de las transformaciones lineales son vectores que, o no se ven


afectados por la transformación o se ven multiplicados por un escalar, y por tanto no varían
su dirección.1
 El valor propio de un vector propio es el factor de escala por el que ha sido
multiplicado.
 Un espacio propio es un espacio formado por todos los vectores propios del mismo
valor propio, además del vector nulo, que no es un vector propio.
 La multiplicidad geométrica de un valor propio es la dimensión del espacio propio
asociado.
 El espectro de una transformación en espacios vectoriales finitos es el conjunto de
todos sus valores propios.

Por ejemplo, un vector propio de una rotación en tres dimensiones es un vector situado en
el eje de rotación sobre el cual se realiza la rotación. El valor propio correspondiente es 1 y
el espacio propio contiene a todos los vectores paralelos al eje. Como es un espacio de una
dimensión, su multiplicidad geométrica es uno. Es el único valor propio del espectro (de esta
rotación) que es un número real.

Formalmente, se definen los vectores propios y valores propios de la siguiente manera:


Si A: V → V es un operador lineal en un cierto espacio vectorial V, v es un vector diferente de
cero en V y c es un escalar tales que

entonces decimos que v es un vector propio del operador A, y su valor propio asociado
es c. Observe que si v es un vector propio con el valor propio c entonces cualquier
múltiplo diferente de cero de v es también un vector propio con el valor propio c. De
hecho, todos los vectores propios con el valor propio asociado c junto con 0, forman un
subespacio de V, el espacio propio para el valor propio c.

Matriz diagonalizable
En álgebra lineal una matriz cuadrada A se dice que es diagonalizable si es semejante a una matriz
diagonal, es decir, si mediante un cambio de base puede reducirse a una forma diagonal. En este
caso, la matriz podrá descomponerse de la forma A = PDP − 1 donde P es una matriz invertible cuyos
vectores columna son vectores propios de A y D es una matriz diagonal formada por los valores
propios de A.

Si la matriz A es semejante ortogonalmente a una matriz diagonal, es decir, si la


matriz P es ortogonal se dice entonces que la matriz A esdiagonalizable ortogonalmente, pudiendo
escribirse como A = PDPt. El teorema espectral garantiza que cualquier matriz
cuadradasimétrica con coeficientes reales es ortogonalmente diagonalizable. En este caso P está
formada por una base ortonormal de vectores propios de la matriz siendo los valores propios reales.
La matriz P es por tanto ortogonal y los vectores filas de P − 1 son los vectores columnas de P.

Definición
Sea   una matriz cuadrada con valores en un cuerpo  , decimos que la
matriz A es diagonalizable si, y sólo si, A se puede descomponer de la forma:

Donde:

  es una matriz diagonal cuya diagonal principal está formada por los elementos
de  , apareciendo cada uno tantas veces como indique su multiplicidad algebraica,
siendo   el espectro de  , es decir, el conjunto de autovalores de la matriz  :

  es la matriz cuyas columnas son los vectores que constituyen una base del
subespacio propio asociado a cada   siguiendo el orden establecido en D, esto es, los
vectores que forman el núcleo de la matriz  :

Endomorfismo diagonalizable
Un endomorfismo de espacio vectorial (aplicación lineal de un espacio vectorial en sí mismo)
se dice diagonalizable por similaridad (o simplemente diagonalizable) si existe una base en la
que su matriz asociada sea una matriz diagonal. Sin embargo la diagonalización no está
asegurada, es decir no es posible decir que todo endomorfismo sea diagonalizable. La
importancia de la diagonalización nos motiva a obtener una base en la que la matriz asociada a
un endomorfismo no diagonalizable sea más simple aunque no diagonal. Para ello se seguirán
las mismas técnicas que para diagonalización, usando la teoría
sobre autovalores y autovectores (también llamados valores y vectores propios o en
inglés eigenvalues y eigenvectors). Recordemos que dado un operador lineal   
decimos que W subespacio de V es T-invariante si   se tiene que 

Aplicaciones
Diagonalizar una matriz es muy importante en el Álgebra Lineal, pues se cumple lo siguiente:

facilitando mucho el cálculo de las potencias de  , dado que siendo D una matriz diagonal, el
cálculo de su p-ésima potencia es muy sencillo:

[editar]Ejemplos

[editar]Diagonalización de una matriz


Artículo principal: Cálculo de valores propios y vectores propios de matrices

"Diagonalizar una matriz" se reduce a encontrar sus vectores y valores propios. Tomemos la
matriz:

y veamos que es diagonalizable:

 Esta matriz tiene los valores propios: 


 Así   es una matriz 2 por 2 con 2 valores propios diferentes, entonces se dice que es
diagonizable.Si queremos diagonalizar  necesitamos calcular los correspondientes
vectores propios. Ellos son:

Uno podría verificar fácilmente esto mediante:

 Ahora,   es la matriz invertible con los vectores propios de   como columnas:

 con inversa 

 Hallemos ahora la matriz diagonal, usando esta matriz P como sigue:

 Realizamos el cálculo introduciendo los datos:


 Luego resulta que existen matrices   y   tales que

 cumpliendo   y   los requisitos pedidos al principio, y por tanto la


matriz   es diagonalizable.

[editar]Potencias de una matriz diagonalizable


Podemos calcular, por ejemplo, la séptima potencia de la matriz anterior:

[editar]Función de una matriz diagonalizable


No sólo pueden calcularse, potencias de una matriz, sino cualquier función que esté definida
sobre el espectro de la matriz. Por ejemplo puede calcularse la exponencial de la matriz
anterior como:

[editar]Matrices no diagonalizables
No todas las matrices cuadradas son diagonalizables, pero existen procedimientos similares
para hallar matrices   invertibles y matrices  diagonales a bloques de tal modo que

ofreciendo también soluciones o atajos para resolver los problemas que requieren de la
diagonalización de una matriz (ver Forma canónica de Jordan).

[editar]Teoremas sobre matrices diagonalizables

 Toda matriz simétrica de coeficientes reales es diagonalizable y sus autovalores son


reales.
 Dados dos matrices A y B, si AB = BA y una de ellas es diagonalizable, entonces la
otra es diagonalizable. Además la base en que las dos matrices toman la forma diagonal es
la misma.

 Matriz semejante
 En álgebra lineal, se dice que dos matrices A y B de n-por-n sobre
el cuerpo K son semejantes si existe una matriz invertible P de n-por-nsobre K tal que:
 P −1AP = B.
 Uno de los significados del término transformación de semejanza es una transformación de
la matriz A en la matriz B.
 En teoría de grupos, la semejanza se llama clase de conjugación.

Propiedades
Las matrices semejantes comparten varias propiedades:

 poseen el mismo rango,
 el mismo determinante,
 la misma traza,
 los mismos valores propios (aunque los vectores propios, en general, serán distintos),
 el mismo polinomio característico, y
 el mismo polinomio mínimo.

Hay dos razones para estas características:

1. dos matrices semejantes pueden pensarse como dos descripciones de una


misma transformación lineal, pero con respecto a basesdistintas;
2. la transformación X   P−1XP es un automorfismo del álgebra asociativa de todas las
matrices de n-por-n.

Debido a esto, para una matriz A dada, estamos interesados en encontrar una "forma normal"
sencilla B que sea semejante a A: el estudio de A se reduce de esta manera al estudio de la
matriz semejante (y más sencilla) B. Por ejemplo, A se llama diagonalizable si es similar a
una matriz diagonal. No todas las matrices son diagonalizables, pero por lo menos sobre
los números complejos (o cualquier cuerpo algebraicamente cerrado), toda matriz es semejante
a una matriz en forma de Jordan. Otra forma normal, la forma canónica racional, se aplica en
cualquier campo. Observando las formas de Jordan o las formas canónicas racionales
de A y B, puede decidirse inmediatamente si A y B son semejantes.

La semejanza de matrices no depende del cuerpo base: si L es un cuerpo conteniendo


a K como subcuerpo, y A y B son dos matrices enK, entonces A y B son semejantes como
matrices sobre K si y solo si son semejantes como matrices sobre L. Esto es bastante útil: uno
puede agrandar en forma segura el cuerpo K, por ejemplo para obtener un cuerpo
algebraicamente cerrado; las formas de Jordan pueden computarse sobre el cuerpo grande y
puede usarse para determinar si las matrices dadas son semejantes sobre el cuerpo pequeño.
Este método puede usarse, por ejemplo, para mostrar que toda matriz es semajante a
su traspuesta.

Si en la definición de semejanza, la matriz P puede elegirse para que sea una matriz de


permutación, entonces A y B son semejantes en permutación; si P puede elegirse para que sea
una matriz unitaria, entonces A y B son unitariamente equivalentes. El teorema
espectral establece que toda matriz normal es unitariamente equivalente a alguna matriz
diagonal.

Vous aimerez peut-être aussi