Vous êtes sur la page 1sur 40

UNIVERSIDAD RURAL DE GUATEMALA

AGRONOMIA

SEDE: 059

ALEJANDRA EUNICE JIMENEZ LAJUJ 17-059-0001

CUARTO SEMESTRE

MATEMÀTICA IV

ING. JORGE ARMANDO YAT

PRIMERA FASE TEXTO PARALELO

Guatemala, 17 de agosto de 2019


MATRICES
En matemática, una matriz es un arreglo bidimensional de números. Dado que puede
definirse tanto la suma como el producto de matrices, en mayor generalidad se dice que
son elementos de un anillo. Una matriz se representa por medio de una letra mayúscula
(A, B, …) y sus elementos con la misma letra en minúscula (a,b, …), con un doble
subíndice donde el primero indica la fila y el segundo la columna a la que pertenece.

Las matrices se utilizan para múltiples aplicaciones y sirven, en particular, para


representar los coeficientes de los sistemas de ecuaciones lineales o para representar
transformaciones lineales dada una base. En este último caso, las matrices desempeñan
el mismo papel que los datos de un vector para las aplicaciones lineales.
Pueden sumarse, multiplicarse y descomponerse de varias formas, lo que también las
hace un concepto clave en el campo del álgebra lineal.

 SISTEMAS DE ECUACIONES LINEALES


Un sistema de ecuaciones lineales es un conjunto de ecuaciones (lineales) que tienen
más de una incógnita. Las incógnitas aparecen en varias de las ecuaciones, pero no
necesariamente en todas. Lo que hacen estas ecuaciones es relacionar las incógnitas
entre sí.

Ejemplo de un sistema:

{3x+2y=1x−5y=6{3x+2y=1x−5y=6
Es un sistema de dos ecuaciones con dos incógnitas (xx e yy.

Resolver un sistema de ecuaciones consiste en encontrar el valor de cada incógnita


para que se cumplan todas las ecuaciones del sistema.

La solución al sistema del ejemplo anterior es

x=1

y=−1

Pero no siempre existe solución, o bien, pueden existir infinitas soluciones. Si hay una
única solución (un valor para cada incógnita, como en el ejemplo anterior) se dice que
el sistema es compatible determinado. No hablaremos de los otros tipos ya que en esta
página sólo se estudian los sistemas determinados.

Para resolver un sistema (compatible determinado) necesitamos tener al menos tantas


ecuaciones como incógnitas.

En esta página resolvemos sistemas de dos ecuaciones (lineales) con dos incógnitas
mediante los métodos que describimos a continuación, que se basan en la obtención de
una ecuación de primer grado.

 Método de sustitución: consiste en despejar o aislar una de las incógnitas (por


ejemplo, xx) y sustituir su expresión en la otra ecuación. De este modo,
obtendremos una ecuación de primer grado con la otra incógnita, yy. Una vez
resuelta, calculamos el valor de xx sustituyendo el valor de yy que ya
conocemos.
 Método de reducción: consiste en operar entre las ecuaciones como, por
ejemplo, sumar o restar ambas ecuaciones, de modo que una de las incógnitas
desaparezca. Así, obtenemos una ecuación con una sola incógnita.
 Método de igualación: consiste en aislar en ambas ecuaciones la misma
incógnita para poder igualar las expresiones, obteniendo así una ecuación con
una sola incógnita.

No olvidemos que, si multiplicamos una ecuación por un número distinto de 0, la


ecuación inicial y la obtenida son equivalentes. Esto quiere decir que ambas ecuaciones
tienen las mismas soluciones y, por tanto, podemos trabajar con una u otra. Usaremos
esta propiedad con frecuencia en el método de reducción.

 DETERMINANTES
La función determinante es de gran importancia en el álgebra ya que, por ejemplo, nos
permite saber si un matriz es regular (si tiene inversa) y, por tanto, si un sistema de
ecuaciones lineales tiene solución. Además, en el caso de que el sistema de ecuaciones
tenga una única solución, podemos calcularla aplicando determinantes (regla de
Cramer). Otras aplicaciones: el cálculo del producto vectorial de dos vectores y
determinar si un conjunto de vectores es linealmente independiente.
Es importante que recordéis:
Una matriz tiene inversa si su determinante es distinto de 0.
Las filas de una matriz o sus columnas son linealmente dependientes si, y sólo si, su
determinante es 0.
La función determinante se define para matrices cuadradas. Su definición formal (como
función multilineal alternada) es complicada, pero existen reglas y métodos para
calcular los determinantes.
Tenemos una regla para cada dimensión.
 Dimensión 1x1
Si la dimensión de la matriz es 1, sólo tiene un elemento y su determinante es dicho
elemento:
 Dimensión 2x2
La matriz cuadrada de dimensión 2 tiene la forma

Regla: calculamos el determinante restan el producto de los elementos de las


diagonales:

 Dimensión 3x3
La matriz cuadrada de dimensión 3 tiene la forma

Regla: calculamos el determinante mediante la llamada regla de Sarrus. Una forma de


aplicar la regla de Sarrus es escribir las tres columnas de la matriz seguidas de la primer
y la segunda columna:
Los elementos de las diagonales con flecha hacia abajo (azul) se multiplican y se
suman; los de las otras diagonales (rojo) se multiplican y se restan:

Normalmente, podemos aplicar la regla de Sarrus sin necesidad de escribir 5 columnas,


pero tenéis que pensar vosotros mismos la regla porque es complicado explicarla y
entenderla por escrito.

 SISTEMAS DE ECUACIONES LINEALES


En matemáticas y álgebra lineal, un sistema de ecuaciones lineales, también conocido
como sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de
ecuaciones lineales (es decir, un sistema de ecuaciones en donde cada ecuación es de
primer grado), definidas sobre un cuerpo o un anillo conmutativo. Un ejemplo de
sistema lineal de ecuaciones sería el siguiente:

El problema consiste en encontrar los valores desconocidos de las variables x1, x2 y


x3 que satisfacen las tres ecuaciones.
El problema de los sistemas lineales de ecuaciones es uno de los más antiguos de la
matemática y tiene una infinidad de aplicaciones, como en procesamiento digital de
señales, análisis estructural, estimación, predicción y más generalmente en
programación lineal así como en la aproximación de problemas no lineales de análisis
numérico.
Representación gráfica
La intersección de dos planos que no son paralelos coincidentes es una recta.
Un sistema con {\displaystyle n} n incógnitas se puede representar en el n-espacio
correspondiente.

En los sistemas con 2 incógnitas, el universo de nuestro sistema será el plano


bidimensional, mientras que cada una de las ecuaciones será representada por una recta.
La solución será el punto (o línea) donde se intersequen todas las rectas representan a
las ecuaciones. Si no existe ningún punto en el que se intersequen al mismo tiempo
todas las líneas, el sistema es incompatible, o lo que es lo mismo, no tiene solución.
En el caso de un sistema con 3 incógnitas, el universo será el espacio tridimensional,
siendo cada ecuación un plano dentro del mismo. Si todos los planos intersecan en un
único punto, las coordenadas de este serán la solución al sistema. Si, por el contrario,
la intersección de todos ellos es una recta o incluso un plano, el sistema tendrá infinitas
soluciones, que serán las coordenadas de los puntos que forman dicha línea o
superficie.
Para sistemas de 4 o más incógnitas, la representación gráfica no existe, por lo que
dichos problemas no se enfocan desde esta óptica.

Tipos de sistemas lineales


Los sistemas de ecuaciones se pueden clasificar según el número de soluciones que
pueden presentar. De acuerdo con ese caso se pueden presentar los siguientes casos:
Sistema compatible si tiene solución, en este caso además puede distinguirse entre:
Sistema compatible determinado cuando tiene una única solución.
Sistema compatible indeterminado cuando admite un conjunto infinito de soluciones.
Sistema incompatible si no tiene solución.
Quedando así la clasificación:
Los sistemas incompatibles geométricamente se caracterizan por (hiper)planos o rectas
que se cruzan sin cortarse. Los sistemas compatibles determinados se caracterizan por
un conjunto de (hiper)planos o rectas que se cortan en un único punto. Los sistemas
compatibles indeterminados se caracterizan por (hiper)planos que se cortan a lo largo
de una recta [o más generalmente un hiperplano de dimensión menor]. Desde un punto
de vista algebraico los sistemas compatibles determinados se caracterizan porque el
determinante de la matriz es diferente de cero:

Resolución de sistemas de ecuaciones lineales


Sustitución
El método de sustitución consiste en despejar en una de las ecuaciones con cualquier
incógnita, preferiblemente la que tenga menor coeficiente y a continuación sustituirla
en otra ecuación por su valor.

En caso de sistemas con más de dos incógnitas, la seleccionada debe ser sustituida por
su valor equivalente en todas las ecuaciones excepto en la que la hemos despejado. En
ese instante, tendremos un sistema con una ecuación y una incógnita menos que el
inicial, en el que podemos seguir aplicando este método reiteradamente. Por ejemplo,
supongamos que queremos resolver por sustitución este sistema:

Igualación
El método de igualación se puede entender como un caso particular del método de
sustitución en el que se despeja la misma incógnita en dos ecuaciones y a continuación
se igualan entre sí la parte derecha de ambas ecuaciones.
Tomando el mismo sistema utilizado como ejemplo para el método de sustitución, si
despejamos la incógnita {\displaystyle y} y en ambas ecuaciones nos queda de la
siguiente manera:

Reducción
Este método suele emplearse mayoritariamente en los sistemas lineales, siendo pocos
los casos en que se utiliza para resolver sistemas no lineales. El procedimiento,
diseñado para sistemas con dos ecuaciones e incógnitas, consiste en transformar una
de las ecuaciones (generalmente, mediante productos), de manera que obtengamos dos
ecuaciones en la que una misma incógnita aparezca con el mismo coeficiente y distinto
signo. A continuación, se suman ambas ecuaciones produciéndose así la reducción o
cancelación de dicha incógnita, obteniendo así una ecuación con una sola incógnita,
donde el método de resolución es simple.
Método gráfico
Rectas que pasan por el punto: (2,4)
Consiste en construir la gráfica de cada una de las ecuaciones del sistema. El método
(manualmente aplicado) solo resulta eficiente en el plano cartesiano, es decir para un
espacio de dimensión.
El proceso de resolución de un sistema de ecuaciones mediante el método gráfico se
resuelve en los siguientes pasos:
 Se despeja la incógnita en ambas ecuaciones.
 Se construye para cada una de las dos ecuaciones de primer grado obteniendo
la tabla de valores correspondientes.
 Se representan gráficamente ambas rectas en los ejes coordenados.
En este último paso hay tres posibilidades:
 Si ambas rectas se cortan, las coordenadas del punto de corte son los únicos
valores de las incógnitas (x,y). "Sistema compatible determinado".
 Si ambas rectas son coincidentes, el sistema tiene infinitas soluciones que son
las respectivas coordenadas de todos los puntos de esa recta en la que coinciden
ambas. «Sistema compatible indeterminado».
 Si ambas rectas son paralelas, el sistema no tiene solución en los reales, pero sí
en los complejos.
ELIMINACIÓN DE GAUSS-JORDÁN
En matemáticas, la eliminación de Gauss Jordan, llamada así en honor de Carl Friedrich
Gauss y Wilhelm Jordan es un algoritmo del álgebra lineal que se usa para determinar
las soluciones de un sistema de ecuaciones lineales, para encontrar matrices e inversas.
Un sistema de ecuaciones se resuelve por el método de Gauss cuando se obtienen sus
soluciones mediante la reducción del sistema dado a otro equivalente en el que cada
ecuación tiene una incógnita menos que la anterior. El método de Gauss transforma la
matriz de coeficientes en una matriz triangular superior. El método de Gauss-Jordan
continúa el proceso de transformación hasta obtener una matriz diagonal.
o Algoritmo de eliminación de Gauss-Jordan
1. Ir a la primera columna no cero de izquierda a derecha.
2. Si la primera fila tiene un cero en esta columna, intercambiarlo con otra que
no lo tenga.
3. Luego, obtener ceros debajo de este elemento delantero, sumando múltiplos
adecuados del renglón superior a los renglones debajo de él.
4. Cubrir el renglón superior y repetir el proceso anterior con la submatriz
restante. Repetir con el resto de los renglones (en este punto la matriz se
encuentra en forma escalonada).
5. Comenzando con el último renglón no cero, avanzar hacia arriba: para cada
renglón obtener 1 delantero e introducir ceros arriba de éste sumando
múltiplos correspondientes a los renglones correspondientes.
Una variante interesante de la eliminación de Gauss es la que llamamos eliminación de
Gauss-Jordan, (debido al mencionado Gauss y a Wilhelm Jordan), esta consiste en ir
obteniendo los 1 delanteros durante los pasos uno al cuatro (llamados paso directo) así
para cuando estos finalicen ya se obtendrá la matriz en forma escalonada reducida.
GAUSSIANA
Recordad que para resolver un sistema de ecuaciones podemos, sin alterar las
soluciones del sistema:
 Intercambiar el orden de las ecuaciones.
 Sumar algunas de sus ecuaciones.
 Multiplicar alguna ecuación por un número distinto de 0.
Esto es precisamente lo que se hace en el método de Gauss: se modifican las ecuaciones
para obtener un sistema mucho más fácil de resolver, pero, en lugar de hacerlo sobre
las ecuaciones, se hace sobre la matriz ampliada del sistema.
El método de eliminación de Gauss consiste en operar sobre la matriz ampliada del
sistema hasta hallar la forma escalonada (una matriz triangular superior). Así, se
obtiene un sistema fácil de resolver por sustitución hacia atrás.
Si finalizamos las operaciones al hallar la forma escalonada reducida (forma lo más
parecida a la matriz identidad), entonces el método se denomina eliminación de Gauss-
Jordan.
En los ejemplos veremos que una vez terminado el proceso, resolver el sistema es
directo. Además de esto, veremos que

 Si se obtiene la matriz identidad, el sistema es compatible determinado (como


en el sistema 1).
 Si se obtiene alguna fila de ceros con término independiente distinto de 0, el
sistema es incompatible (como en el sistema 2).
 Si se obtiene alguna fila de ceros y no estamos en el caso anterior, el sistema es
compatible indeterminado (como en el sistema 3).

SISTEMAS DE ECUACIONES HOMOGÉNEAS


Todo sistema de ecuaciones lineales tiene una solución, una infinidad de soluciones,
o ninguna solución. Y son estas soluciones las que se intentarán obtener a partir de
nuestra ecuación. En esta ocasión se tratará un tipo especial de sistemas de
ecuaciones, que son las homogéneas.
Un sistema de ecuaciones lineales es homogéneo si todos los términos constantes son
cero; es decir, el sistema tiene la forma:

Todo sistema homogéneo de ecuaciones lineales es consistente, ya que x1 = 0, x2 = 0,


…, xn = 0 siempre es una solución. Esta solución se conoce como solución trivial; si
existen otras soluciones, se dice que son soluciones triviales.

Dado que un sistema homogéneo de ecuaciones lineales debe ser consistente, se tiene
una solución o infinidad de soluciones. Puesto que una de estas soluciones es trivial, se
puede afirmar lo siguiente: Para un sistema homogéneo de ecuaciones lineales, se
cumple exactamente una de las siguientes proposiciones:

 El sistema tiene sólo una solución trivial


 El sistema tiene una infinidad de soluciones no triviales además de la trivial

Existe un caso en el que queda asegurado que un sistema homogéneo tiene soluciones
no triviales; a saber, siempre que el sistema comprende las incógnitas que ecuaciones.
Para ver la razón de esto, considere el ejemplo siguiente de cuatro ecuaciones con cinco
incógnitas.

A continuación, veamos un ejemplo. Resolvamos el sistema homogéneo de ecuaciones


lineales que sigue, aplicando la eliminación de Gauss- Jordan.
Recordemos que cada columna será asiganda a una variable, en este caso para x1, x2,
x3, x4 y x5 por lo que tendremos 5 columnas. La última columna es asignada a la
columna de resultados, en este caso 0. Cada ecuación será asignada a su vez a una
hilera. Cómo tenemos 4 ecuaciones, la matriz es de 4x5 y un vector adicional de 4x1,
para formar la matriz aumentada

Primero mostraremos la matríz A, que se forma a partir del sistema de ecuaciones, y la


matríz B, que es el vector que contiene los resultados de las ecuaciones.

Ahora, obtenemos la matriz aumentada concatenando A y B. Esta será denotada


como (A|B), y en nuestro ejemplo tiene la siguiente forma:

Con esta matriz se buscará su forma escalonada, lo cual se realiza aplicando


eliminación gaussiana. La matriz resultante es:

SISTEMAS DE ECUACIONES LINEALES: ELIMINACIÓN DE GAUSS-


JORDÁN Y GAUSSIANA
 Eliminación de Gauss-Jordanç
Es un algoritmo del álgebra lineal para determinar las soluciones de un sistema de
ecuaciones lineales, y encontrar matrices e inversas.
Características
En matemáticas, eliminación de Gauss-Jordan, debe su nombre a Carl Friedrich Gauss
y Wilhelm Jordan. Se le considera un algoritmo del álgebra lineal para determinar las
soluciones de un sistema de ecuaciones lineales, encontrar matrices e inversas.
Un sistema de ecuaciones se resuelve por el método de Gauss cuando se obtienen sus
soluciones mediante la reducción del sistema dado a otro equivalente en el que cada
ecuación tiene una incógnita menos que la anterior.
El método de Gauss transforma la matriz ampliada en una matriz triangular superior.
El método de Gauss-Jordan continúa el proceso de transformación hasta obtener una
matriz en forma escalonada reducida.
Si se trata de un sistema compatible determinado, el método termina al obtener una
matriz diagonal; o una matriz triangular superior si es un sistema compatible
indeterminado. Si, en cambio, es un sistema incompatible, se obtiene una matriz con al
menos una fila formada por ceros (correspondientes a los coeficientes de las incógnitas)
y un único elemento no cero (correspondiente al término independiente).

Algoritmo
Ir a la columna no cero extrema izquierda
Si la primera fila tiene un cero en esta columna, intercambiarlo con otra que no lo tenga.
Luego, obtener ceros debajo de este elemento delantero, sumando múltiplos adecuados
del renglón superior a los renglones debajo de él.
Cubrir el renglón superior y repetir el proceso anterior con la submatriz restante.
Repetir con el resto de los renglones (en este punto la matriz se encuentra en forma
escalonada).
Comenzando con el último renglón no cero, avanzar hacia arriba: para cada renglón
obtener un 1 delantero e introducir ceros arriba de éste sumando múltiplos
correspondientes a los renglones correspondientes.
 Eliminación Gaussiana
Es un método numérico que se utiliza para reducir una matriz. Es decir, para llevar
la matriz a la forma escalonada reducida por renglones. Hay otros métodos como
Gauss-Jordán o Montante. El método consta de dos fases:
1. La primera cuyo fin es escalonar la matriz: esto lo hace de izquierda a
derecha y de arriba hacia abajo, y
2. La segunda donde reduce: esto lo hace de abajo hacia arriba y de derecha
a izquierda.
En su aplicación solo requiere operaciones elementales de renglón. El uso de
eliminación Gaussiana no solo se limita a resolver sistemas de ecuaciones lineales
sino también se puede aplicar al cálculo de inversas de matrices o a la comparación
de
espacios generados. Es decir, es un método genérico y, por lo tanto, no debe
suponer que la matriz es una matriz aumentada de un sistema. Hasta el momento,
es el método que requiere menos operaciones aritméticas cuando se aplica a una
matriz general.
Pasos del algoritmo de Eliminación Gaussiana:
I. Fase de Escalonamiento:
1. Determine la primera columna (a la izquierda) no cero.
2. Si el primer elemento de la columna es cero, intercambie el renglón por un
renglón inferior que no tenga cero en esa posición.
3. Por eliminación, obtenga ceros abajo del elemento delantero (pivote) en los
renglones debajo de ´el.
4. Cubra el renglón y la columna de trabajo y repita el proceso comenzando en el
paso 1.
II. Fase de Reducción:
5. Comenzando con el ´ultimo renglón no cero avance hacia arriba
escalando el renglón para obtener un 1 delantero (pivote) y haga ceros
arriba de ´el utilizando eliminación.

ÁLGEBRA MATRICIAL
El uso del álgebra matricial permite presentar de una manera clara y sintética los
desarrollos y resultados de los diferentes métodos econométricos. Este capítulo
pretende familiarizar al usuario con el manejo de matrices mediante el programa
Shazam Professional y, al mismo tiempo, proporcionar un resumen razonablemente
conciso sobre el tema.
Matrices
Una matriz es una colección de números ordenados rectangularmente:
Las matrices se suelen designar con letras mayúsculas (A) y sus elementos, con la
misma denominación, pero en minúsculas y con dos subíndices (aij), donde el primero
hace referencia a la fila y el segundo a la columna, por ejemplo, el elemento genérico
aij será el que se sitúe en la fila i-ésima y en la columna j-ésima.
La dimensión de una matriz indica el número de filas y el número de columnas que
contiene. A es una matriz T por k (T x k), es decir, tiene T filas y k columnas.
Un vector es una colección de números ordenados en una fila (vector fila) o en una
columna (vector columna). Por tanto, una matriz también puede ser interpretada como
un conjunto de vectores columna o un conjunto de vectores fila. La interpretación de
una matriz como un conjunto de vectores columna sugiere una interpretación natural
del conjunto de datos de una muestra, lo cual facilita los desarrollos econométricos.
Shazam permite definir matrices de varias formas:
- Utilizando el editor de matrices
- Utilizando el comando READ
- Utilizando el comando COPY
INVERSA DE UNA MATRIZ CUADRADA
En matemáticas, en particular en álgebra lineal, una matriz cuadrada A de orden n se
dice que es invertible, no singular, no degenerada o regular si existe otra matriz
cuadrada de orden n, llamada matriz inversa de A y representada como A−1, tal que:
A.A-1= A-1. A = In, donde In es la matriz identidad de orden n y el producto utilizado
es el producto de matrices usual.
Una matriz cuadrada no invertible se dice que es singular o degenerada. Una matriz es
singular si y sólo si su determinante es nulo.
La inversión de matrices es el proceso de encontrar la matriz inversa de una matriz
dada.
Ejemplo

Propiedades de la matriz inversa


 La inversa de una matriz, es única.
 La inversa del producto de dos matrices es el producto de las inversas
cambiando el orden:
 Si la matriz es invertible, también lo es su transpuesta, y el inverso de su
transpuesta es la transpuesta de su inversa, es decir:

 Y, evidentemente:

 Una matriz con coeficientes en los reales es invertible si y sólo si el


determinante de A es distinto de cero. Además, la inversa satisface la igualdad:

DETERMINANTES Y SUS PROPIEDADES


Los determinantes tienen las siguientes propiedades que son útiles para simplificar su
evaluación.
En los párrafos siguientes consideramos que A es una matriz cuadrada.

Propiedad 1.
Si una matriz A tiene un renglón (o una columna) de ceros, el determinante de A es
cero.

Ejemplo 1.

Sea

Desarrollando por cofactores del primer renglón se tiene


Propiedad 2.

El determinante de una matriz A es igual al determinante de la transpuesta de A.

Esto es

Ejemplo 2.

Sea

La transpuesta de A es

Propiedad 3.

Si se intercambian dos renglones (o dos columnas) de una matriz A entonces el


determinante cambia de signo.

Ejemplo 3.
Sea con

Intercambiando los renglones 1 y 2 la matriz queda

con

Note que los determinantes se calcularon expandiendo por cofactores de la primera


columna.

Propiedad 4.
Si una matriz A tiene dos renglones (o dos columnas) iguales entonces det A =
0.

Ejemplo 4.

Sea entonces
Propiedad 5.
Cuando un solo renglón (o columna) de una matriz A se multiplica por un escalar r el
determinante de la matriz resultante es r veces el determinante de A, r det A.

Ejemplo 5.

Sea cuyo determinante se calculó en el ejemplo 2,

Multiplicando el tercer renglón de A por el escalar r = 3 se tiene la matriz B siguiente

cuyo determinante, desarrollado por cofactores de la primera columna de B es

Propiedad 6.
Si un renglón de la matriz A se multiplica por un escalar r y se suma a otro
renglón de A, entonces el determinante de la matriz resultante es igual al determinante
de A, det A. Lo mismo se cumple para las columnas de A.
Ejemplo 6.

Sea cuyo determinante se calculó en el ejemplo 2,

Multiplicando la segunda columna de A por el escalar 2 y sumándola a la columna 3 se


obtiene la matriz B siguiente

Expandiendo por cofactores de la primera columna se tiene

Propiedad 7.
Si A y B son matrices de , el determinante del producto AB es igual al producto
de los determinantes de A y de B.

Esto es
Ejemplo 7.

Sean y

con y

El producto

Y su determinante es

Entonces .

Propiedad 8.

El determinante de la matriz identidad I es igual a 1 (uno)

Ejemplo 8.

I= det I = (1)(1) – (0)(0) = 1

Propiedad 9.
El determinante de una matriz singular, es decir, que no tiene inversa, es igual a 0 (cero)

Ejemplo 9.

J= |J| = (1)(-12) – (-3)(4) = -12 +12 = 0

Se puede fácilmente comprobar que la matriz J no tiene inversa.

Uso de las propiedades para calcular determinantes de alto orden.

Al utilizar las operaciones elementales sobre renglones, se puede reducir un


determinante a una forma más fácil de evaluar. Si se reduce a una forma triangular
superior o inferior, el determinante es el producto de los elementos de la diagonal
principal. Al hacerlo hay que tomar en cuenta las propiedades 3, 5 y 6, como en el
siguiente ejemplo.

Ejemplo 10.

Calcular el determinante de la matriz A de


Simplificamos el cálculo del determinante de A reduciendo por renglones

Entonces, la permutación P14 cambia el signo de det A , las

operaciones y no cambian el valor del determinante.


De esta forma

Se podría seguir reduciendo a la forma triangular, pero observando que hay varios ceros
en el tercer renglón resulta fácil desarrollar por cofactores, primero de la primera
columna, y después del tercer renglón:

TÉCNICAS DE INTEGRACIÓN Y APLICACIONES


Se entiende por métodos de integración cualquiera de las diferentes técnicas
elementales usadas para calcular una anti derivada o integral indefinida de una función.
Así, dada una función f(x), los métodos de integración son técnicas cuyo uso
(usualmente combinado) permite encontrar una función F(x) tal que

lo cual, por el teorema fundamental del cálculo equivale a hallar una función F(x) tal
que f(x) sea su derivada.
Método de sustitución
Uno de los dos procedimientos más habituales para la resolución
de integrales complicadas es el llamado método de sustitución o de cambio de variable.
Esta técnica consiste en introducir una nueva variable t para sustituir a una expresión
apropiada del integrando, de manera que la expresión resultante sea más fácil de
integrar. Por ejemplo, la integral:

se simplifica notablemente si se aplica el cambio t = sen x. Entonces, se cumpliría que


dt = cos x dx, con lo que la integral quedaría reducida a:

Finalmente se desharía el cambio de variable, con lo que el resultado final sería:

Integración por partes


El método de la integración por partes se emplea para simplificar el cálculo de la
integral de un producto de funciones que puedan interpretarse como del tipo u
(x) v¿(x). La fórmula de la integración por partes es la siguiente:

Este método resulta indicado particularmente cuando v du es más fácil de integrar


que u dv.

Cálculo de áreas

La integral de una función continua entre los dos extremos de un intervalo [a, b] y tal
que f (x) 0 x [a, b] coincide con el área comprendida entre dicha función, el eje
horizontal y las dos rectas que delimitan los intervalos, de ecuaciones x = a y x = b.

Este principio puede servir también para calcular las áreas comprendidas entre curvas,
por simples operaciones aritméticas de adición y sustracción.

La integral de f (x) en el intervalo [a, b] coincide con el valor del área R.

Por convenio, dicha área se dice que es positiva cuando f (x) 0 en el intervalo, y
negativa si f 0 en [a, b]. Cuando la función tiene signo variable, las partes de la misma
situadas por encima del eje horizontal añadirán valor positivo al área global, y las que
discurran por debajo sumarán valores negativos a la misma.
Áreas formadas por dos curvas. Por consideraciones geométricas, el área de la
intersección se calcula restando a la integral de f (x) en el intervalo [-1, 1] el valor de
la integral de g (x) para ese mismo intervalo.

Integración numérica

En ocasiones, el cálculo de una integral definida en un intervalo resulta tan complicado


que se hace casi irresoluble. En estos casos, se puede aplicar un método de integración
numérica aproximada, consistente en dividir el intervalo de definición en un conjunto
de subintervalos iguales, de manera que se trazan sus imágenes sobre la curva y se unen
todos puntos imagen mediante segmentos rectilíneos.

Siendo f (x) la función de origen, y [a, b] el intervalo de integración, que se puede


dividir en n subintervalos iguales de amplitud h tales que a = x0 < x1 < x2 < ¿<< xn =
b, la región limitada por la curva de f (x) puede obtenerse aproximadamente a partir de
la siguiente expresión:

Esta ley se llama regla de los trapecios. Evidentemente, cuanto mayor es el número de
intervalos escogido, más cerca estará el valor obtenido del área real situada bajo la
curva.
REGLAS BÁSICAS DE INTEGRACIÓN
Derivada de una función:

Se define como la razón de cambio de la variable dependiente respecto a la variable


independiente.

Las derivadas de las diferentes funciones básicas son:

la derivada de una constante, la derivada de una función idéntica, la derivada de una


suma y diferencia de dos funciones, la derivada del producto de dos funciones, la
derivada del cociente de dos funciones y la derivada de una potencia.

Derivada de una constante:

La derivada de una constante se define como igual a cero.

y=k

Derivada de una función idéntica:

La derivada de una función idéntica se define como igual a uno.


y=x

Derivada de la suma y diferencia de dos funciones:

se define como la derivada de la suma y la diferencia de las dos funciones.

Derivada del producto de dos funciones:

Es igual a la primera función multiplicada por la derivada de la segunda función más


la segunda función multiplicada por la derivada de la primera función.

Derivada del cociente de dos funciones:

Es igual a el denominador multiplicado por la derivada del numerador menos el


numerador multiplicado por la derivada del denominador, todo esto dividido entre el
denominador elevado al cuadrado.
Derivada de una potencia:

Es igual al número que corresponde al exponente multiplicado por la función elevada


al exponente disminuido en uno.

Una de las muchas aplicaciones de las derivadas es que la derivada geométricamente


representa la pendiente de una función

Definición de recta tangente con pendiente m:

Si f está definida en un intervalo abierto que contiene a c y además existe el límite

entonces, la recta que pasa por (c,f(c)) y cuenta con la pendiente m es la recta tangente
de f en el punto (c,f(c)).

Ejemplo:
Calcular las pendientes de las rectas tangente a la gráfica de

f(x) = x2 + 1 en los puntos (0,1) y (-1,2) y representarlos en una gráfica.

Solución:
Utilizando las reglas básicas de derivación tenemos que
f′(x)=d[x2]dx+d[1]dx=2xf′(x)=d[x2]dx+d[1]dx=2x
f′(x)=2xf′(x)=2x
f′(0)=2(0)=0f′(0)=2(0)=0
f′(−1)=2(−1)=−2f′(−1)=2(−1)=−2
Las gráficas de las rectas que tienen está pendiente son:

Derivada de una potencia

Cálculo integral:

La integración de define como la operación inversa o contraria a la derivación, a la


integración es llamada muchas veces anti derivada. La integración se representa por el
símbolo ∫ que es un s alargada esta notación fue utilizada por primera vez por
LEIBNITZ, otra notación que se utilizaba era A(x) que significa anti derivada. De
manera que la integral de una función f(x) es otra función p(x). La función que se
obtiene como resultado de integral f(x) es conocida como función primitiva de f(x).

Ejemplo las funciones primitivas de f(x) = x4son:

Estas son primitivas ya que cuando derivamos cada una de estas funciones nos da como
resultado x4x4

Integral indefinida:

Como se acaba de ver cada una de las funciones anteriores tienen como derivada f(x)
= x4 , esto significa que esta tiene varias funciones primitivas ,y esta solo difieren en
una constante C.
La constante C, la cual no es una constante definida al obtener la primitiva de la
función, por esta razón a estas integrales se le conoce como indefinidas.

Por tanto todas aquellas funciones de la forma

INTEGRACIÓN POR PARTES

El método de integración por partes permite calcular la integral de un producto de dos


funciones aplicando la fórmula:

∫ f(x) g'(x)dx = f(x) g(x) − ∫ f'(x) g(x)dx


Existen varios métodos de integración, consistiendo todos ellos en reducir la integral
buscada a una integral a conocida, como por ejemplo una de las de la tabla, o bien
reducirla una integral más sencilla.

El método de integración por partes está basado en la derivada de un producto de


funciones como se muestra a continuación

d(u·v) = u dv + v du

por eso es que se usa para integrales que contienen dos funciones que se multiplican
entre sí.

∫d(u·v) = ∫u dv + ∫v du

Se llama integración por partes porque la integral se divide en dos partes: en una el
integrando es u y otra en la otra es v. La integral debe estar completa y sin alterar la
operación dentro de ella. Consejos:

1.- La función correspondiente a dv debe ser la función más fácil de integrar, 2.- En u
deben ir aquellas funciones que no tienen integral directa (funciones logarítmicas e
inversas), luego se pueden considerar las funciones algebraicas puesto que la derivada
es reductiva. Las funciones trigonométricas y exponenciales son más sencillas de
trabajar.

Cuando el integrando está formado por un producto (o una división, que podemos tratar
como un producto) se recomienda utilizar el método de integración por partes que
consiste en aplicar la siguiente fórmula:
Regla mnemotécnica: Un Día Vi Una Vaca MENOS Flaca Vestida De Uniforme
(UDV = UV - FVDU).

Aunque se trata de un método simple, hay que aplicarlo correctamente.

Método:

1. El integrando debe ser un producto de dos factores.


2. Uno de los factores será u y el otro será dv.
3. Se calcula du derivando u y se calcula v integrando dv.
4. Se aplica la fórmula.

INTEGRALES TRIGONOMÉTRICAS

Se trata de integrales en la que aparecen las funciones trigonométricas: sen x, cos x,


tan x. Estas funciones pueden aparecer dentro de una expresión racional P/Q, para
este caso hay una cambio siempre válido, es el llamado cambio general que las
transforma en integrales racionales.

CAMBIO GENERAL:

Según esto para expresar el seno y el coseno como funciones de t, podemos


considerar:

expresiones que se obtienen de: sen 2A = 2 sen A cos A; cos 2A = cos²A - sen²A,
haciendo 2A = x. Con lo cual, podemos poner:
Ejemplo : Hallemos la integral,

Solución: Realizamos el cambio indicado,

con lo que nos queda:

una integral racional cuyo resultado es:

El alumno puede practicar (utilizando el cambio general o éste visto aquí) las
integrales:
CAMBIO ALTERNATIVO:

En ocasiones nos aparecen integrales en las que (1) aparece la función tangente
y/o (2) aparecen las funciones seno y coseno elevadas a potencias pares, en estos
casos conviene realizar un cambio que llamaremos "trigonométrico alternativo":

Apoyándonos en una circunferencia


trigonométrica, cuyo radio es 1, hacemos el
cambio:

Por la gráfica, observamos un triángulo


rectángulo cuyos catétos miden 1 y t (el segmento rojo es la tangente de x), entonces
la hipotenusa es la raiz de estos valores al cuadrado. Entonces podemos poner:

con este cambio las integrales trigonométricas se convierten a racionales, pero se


exige que en ellas el seno y al coseno estén elevados a potencias pares para que al
sustituir desaparezcan los radicales del denominador.

ELIMINACIÓN DE GAUSS-JORDAN Y GAUSSIANA


llamada así en honor de Carl Friedrich Gauss y Wilhelm Jordan es un algoritmo del
álgebra lineal que se usa para determinar las soluciones de un sistema de ecuaciones
lineales, para encontrar matrices e inversas. Un sistema de ecuaciones se resuelve por
el método de Gauss cuando se obtienen sus soluciones mediante la reducción del
sistema dado a otro equivalente en el que cada ecuación tiene una incógnita menos que
la anterior. El método de Gauss transforma la matriz de coeficientes en una matriz
triangular superior. El método de Gauss-Jordan continúa el proceso de transformación
hasta obtener una matriz diagonal.

Supongamos que es necesario encontrar los números "x", "y", "z", que satisfacen
simultáneamente estas ecuaciones:

Esto es llamado un sistema lineal de ecuaciones. El objetivo es reducir el sistema a otro


equivalente, que tenga las mismas soluciones. Las operaciones (llamadas elementales)
son estas:

 Multiplicar una ecuación por un escalar no nulo.


 Intercambiar de posición dos ecuaciones
 Sumar a una ecuación un múltiplo de otra.

Estas operaciones pueden representarse con matrices elementales que se usan también
en otros procedimientos como la factorización LU o la diagonalización por
congruencia de una matriz simétrica.

En nuestro ejemplo, eliminamos x de la segunda ecuación sumando 3/2 veces la


primera ecuación a la segunda y después sumamos la primera ecuación a la tercera. El
resultado es:
ALGEBRA MATRICIAL

En matemática, una matriz es un arreglo bidimensional de números. Dado que puede


definirse tanto la suma como el producto de matrices, en mayor generalidad se dice que
son elementos de un anillo. Una matriz se representa por medio de una letra mayúscula
(A, B…) y sus elementos con la misma letra en minúscula (a, b, …), con un doble
subíndice donde el primero indica la fila y el segundo la columna a la que pertenece.

Las matrices se utilizan para múltiples aplicaciones y sirven, en particular, para


representar los coeficientes de los sistemas de ecuaciones lineales o para
representar transformaciones lineales dada una base. En este último caso, las matrices
desempeñan el mismo papel que los datos de un vector para las aplicaciones lineales.

Pueden sumarse, multiplicarse y descomponerse de varias formas, lo que también las


hace un concepto clave en el campo del álgebra lineal.

INTEGRACIÓN POR PARTES


Consideremos dos funciones diferenciables e integrables, a partir de ellas puede
hallarse una fórmula interesante:

una expresión que tradicionalmente se expresa:

La integración por partes nos permite transformar la integral de la izquierda en otra


integral, la del término de la derecha, que sea más sencilla de hallar.

Vous aimerez peut-être aussi