Vous êtes sur la page 1sur 22

Convolutional Neural

Networks
CNNs o ConvNets
David Neyra Gutiérrez
Universidad Nacional de San Agustín
Arequipa-Perú
¿Que es una CNNs o ConvNets?

Convolutional Neural Networks es una categoría de Redes Neuronales


que han demostrado ser muy eficaces en áreas tales como
reconocimiento y clasificación de imágenes.

Donde se encuentra

Facebook utiliza redes neuronales para sus algoritmos de


etiquetado automático, Google para su búsqueda de fotos, Amazon
para sus recomendaciones de productos, Pinterest para su
personalización de alimentación en el hogar e Instagram para su
infraestructura de búsqueda.
Convolución

Una convolución es un operador matemático que Forma Simple


transforma dos funciones f y g en una tercera función que
en cierto sentido representa la magnitud en la que se Una función de ventana deslizante
superponen f y una versión trasladada e invertida de g. aplicada a una matriz.
Ejemplo Convolución
Imagen como matriz

Idea
Una imagen podemos representarla como
una matriz de números, los cuales pueden
ser representados con números de [0-255]
Uso de la convolución
Ejemplo
ReLU - Unidad Lineal Rectificada

ReLU

Una operación adicional llamada ReLU se ha


utilizado después de cada operación de
convolución. ReLU significa Unidad Lineal
Rectificada y es una operación no lineal.
Función de Activación
Ejemplo de ReLU
Pooling - Agrupamiento

POOL Ejemplo
El agrupamiento espacial (también Max = 7, 1, 5, 9 => 9
llamado submuestreo o downsampling)
reduce la dimensionalidad de cada mapa Min = 7, 1, 5, 9 => 1
de características, pero conserva la
información más importante. El Avg = 7, 1, 5, 9 => 5.5
agrupamiento espacial puede ser de
diferentes tipos: Max, Average, Sum, etc. Sum = 7, 1, 5, 9 => 22
POOL en Matriz
Ejemplo POOL en imagenes
Pasos CNNs o ConvNets
CNNs línea de ejecución
Pasos CNNs ConvNets
Comportamiento Interno

Datos

NumI = 3 (RGB)
NumN = 5 f = función de
b = bias activación ReLU
Cambio de Pesos

Cambio de Pesos

Este es el equivalente matemático de un dL / dW


donde W son los pesos en una capa en particular.
Ahora, lo que queremos hacer es realizar un paso
hacia atrás a través de la red, que es determinar
qué pesos contribuyeron más a la pérdida y Donde
encontrar maneras de ajustarlos para que
disminuya la pérdida. Una vez que calculamos esta W = Pesos
derivada, pasamos al último paso que es la
actualización de peso. Aquí es donde tomamos
Wi = Peso Inicial
todos los pesos de los filtros y los actualizamos η = Factor de
para que cambien en la dirección opuesta al Aprendizaje
gradiente.
Matemáticamente

Convolución

ReLU

POOL

Salida

Tam Pool Tam Imagen


Matematicamente
Derivada parcial del Error con Pesos Tener en cuenta

Ecuación de Backpropagation
Deltas

Función de Activación
Error a la capa anterior

Convolución
Algoritmo

Algoritmo de ConvNets
• Paso 1: Inicializamos todos los filtros y parámetros / pesos con valores aleatorios.
• Paso 2:La red toma una imagen de entrenamiento como entrada, pasa por el paso
de propagación hacia adelante y encuentra las probabilidades de salida para cada
clase.
Digamos que las probabilidades de salida para una imagen son
[0.2, 0.4, 0.1, 0.3]
• Paso 3: Calcule el error total en la capa de salida Error = Σ ½ (objetivo - salida) ²
• Paso 4: Utilice Backpropagation para calcular los gradientes del error con respecto a
todos los pesos de la red y use el descenso de gradiente para actualizar todos los
valores / pesos de los filtros y los valores de los parámetros para minimizar el error de
salida.
Cuando se introduce de nuevo la misma imagen, las probabilidades de salida podrían
ser ahora
[0.1, 0.1, 0.7, 0.1], que está más cerca del vector objetivo [0, 0, 1, 0].

• Paso 5: Repita los pasos 2-4 con todas las imágenes del conjunto de entrenamiento.
Casos de Estudio

Algunas Redes Neuronales Convolucionales


▪ LeNetLas : primeras aplicaciones ▪ GoogLeNet: El ganador del ILSVRC
exitosas de las Redes Convolucionales 2014 fue una Red convolucional de
fueron desarrolladas por Yann LeCun en Matthew Zeiler y Rob Fergus.
1990
▪ VGGNet: Cuenta con una arquitectura
▪ AlexNet El primer trabajo que extremadamente homogénea que sólo
popularizó Redes Convolucionales en realiza 3x3 convoluciones y 2x2 POOL
Visión por Computadora fue el AlexNet desde el principio hasta el final
por Alex Krizhevsky
▪ ResNet: ResNets son actualmente de
▪ ZF Net: El ganador del ILSVRC 2013 fue lejos los modelos de redes neuronales
una Red convolucional de Matthew convolucionales de última generación y
Zeiler y Rob Fergus. son la opción predeterminada para usar
ConvNets en la práctica
Fin

Gracias!!!!

Vous aimerez peut-être aussi