Vous êtes sur la page 1sur 17

EIGEN SISTEMA DE LA MATRIZ

HESSIANA
Valores y vectores propios
Valores y vectores propios
Valores y vectores propios
Valores y vectores propios
Matriz Hessiana

La función general de una función cuadrática es:

donde la matriz A es simétrica. Para encontrar el gradiente de la función se utiliza la siguiente


propiedad:

donde h representa a un vector constante.


Considerando una función cuadrática que cuenta con un punto estacionario en el origen, y su valor es cero:

Debido a que A es una matriz simétrica, sus eigenvectores serán mutuamente ortogonales. Esto se significa
que si creamos una matriz con los eigenvectores como las columnas, la inversa de dicha matriz será la misma
que la transpuesta (Con esto asumimos que hemos normalizado los eigenvectores).

Donde lamda son los eigenvalores de A. Podemos reescribir la ecuación como:


Para el ejemplo, se considera la siguiente función:

La matriz Hessiana y sus eigenvalores y eigenvectores son:


Considerando la siguiente función:

La matriz Hessiana y los eigenvalores y eigenvectores:


Curvas de nivel
Curvas de nivel
Una curva de nivel es la representación de una gráfica de tres
dimensiones a una de dos con una entrada bidimensional y una
salida unidimensional.
Curvas de nivel
Curvas de nivel
Curvas de nivel

f(x,y)=x⁴−x²+y²
Curvas de nivel
Pasos:

1. Obtener tu función f(x,y)


2. Igualar la función a una constante c (z=c)
3. Despejar y para distintos valores de c

Ejemplo: x²+y²+z² = 25
Conclusiones
Se ha visto durante todos las exposiciones que son procesos no muy complejos y que
solamente se necesita plantear correctamente la matriz hessiana.

Por otro lado con los valores maximos y minimos logramos saber la altura medida,
valores al momento de trazar la curva de una función.

Se ha aprendido a aplicar la matriz hessiana lo cual es de gran importancia porque así


se puede determinar el comportamiento de una función.
Conclusiones
El aprendizaje por desempeño es una de los temas más importantes de las reglas de aprendizaje de
la red neuronal. Con el aprendizaje del rendimiento, los parámetros de red se ajustan para
optimizar el rendimiento de la red. En este tema, se han introducido herramientas que
necesitaremos para comprender las reglas de aprendizaje de desempeño.

Después de ver estos temas, se debería poder:

i. Realizar una expansión de la serie de Taylor y utilizarla para aproximar una función.

ii. Calcular una derivada direccional

iii. Encontrar puntos estacionarios y probar si podrían ser mínimos.

Utilizaremos estos conceptos en temas posteriores.

Vous aimerez peut-être aussi