Vous êtes sur la page 1sur 6

GESTIÓN DE RIESGOS A CONSIDERAR EN

SOLUCIONES DEPP LEARNING


Blácido Gabriel Mariluz Karina
July 2019

1 Introducción
El Deep Learning es sin duda el área de investigación más popular dentro del
campo de la inteligencia artificial. La mayorı́a de las nuevas investigaciones que
se realizan, trabajan con modelos basados en las técnicas de Deep Learning;
ya que las mismas han logrado resultados sorprendes en campos como Proce-
samiento del lenguaje natural y Visión por computadora. Asi como también
nos podemos encontrar con riesgos al utilizar Deep Learning, en los diferentes
campos de aplicación.

2 Aspectos teóricos
Aprendizaje Profundo El aprendizaje profundo o Deep Learning es un tema de
conocimientos de frontera de ciencia de la inteligencia artificial, la cual es parte
de la ciencia computacional; se aplica en redes neuronales, visión por computa-
dora, aprendizajes artificiales, sistemas expertos (Bengio et al, 2015). Apren-
dizaje profundo es el descubrimiento automático de abstracción, con la creencia
de que las representaciones más abstractas de datos tales como imágenes, video y
señales de audio tienden a ser más útiles: representan el contenido semántico de
los datos, divorciado de caracterı́sticas de bajo nivel de los datos sin procesar, es
un subconjunto del machine Learning o Aprendizaje de Máquina. El aprendizaje
profundo es un tema que cada vez adquiere mayor relevancia en el campo de la
inteligencia artificial (IA). Siendo una subcategorı́a del aprendizaje automático,
el aprendizaje profundo trata del uso de redes neuronales para mejorar cosas
tales como el reconocimiento de voz, la visión por ordenador y el procesamiento
del lenguaje natural. Rápidamente se está convirtiendo en uno de los campos
más solicitados en informática. En los últimos años, el aprendizaje profundo
ha ayudado a lograr avances en áreas tan diversas como la percepción de obje-
tos, la traducción automática y el reconocimiento de voz (LeCun et al, 2015).
Con la aplicación del aprendizaje profundo se ha logrado el reconocimiento del
lenguaje natural, reconocimiento de imágenes, traducción y funcionamiento de

1
numerosas aplicaciones de la inteligencia artificial (Kim, 2017). Se está estable-
ciendo un paralelismo con la neurologı́a, las redes neuronales de la inteligencia
artificial permiten generar sistemas que imitan el funcionamiento del cerebro en
la forma en que este clasifica la información recibida, se ha identificado objetos
en función de los rasgos que contienen. Se trata de programas que realizan sus
diagnósticos o predicciones basándose en la probabilidad. Su forma de apren-
dizaje contempla la retroalimentación; en sucesivas vueltas reciben el grado de
acierto de sus dictámenes y realizan las correcciones oportunas. El concepto
de aprendizaje profundo o Deep Learning hace referencia a que las redes neu-
ronales tienen una estructura basada en numerosas capas (Bengio, 2013). Una
red neuronal: Es el intento de poder realizar una simulación computacional del
comportamiento de partes del cerebro humano mediante la réplica en pequeña
escala de los patrones que éste desempeña para la formación de resultados a
partir de los sucesos percibidos. Concretamente, se trata de poder analizar y
reproducir el mecanismo de aprendizaje y reconociendo de sucesos que poseen
los seres más evolucionados. Se trata de poder analizar y reproducir el mecan-
ismo de aprendizaje y reconociendo que posee el cerebro humano a la gestión
del riesgo (Ricote, 2006).

3 RIESGOS EN SOLUCIONES DEEP LEARN-


ING
Existen riesgos a los que se enfrenta el aprendizaje profundo en la actualidad:
3.1. Deep Learning actual es un devorador de datos: Los algoritmos basados
en el aprendizaje profundo carecen de mecanismos para aprender términos ab-
stractos a través de la mera definición verbal y necesitan ser entrenados con
millones de datos. Ante situaciones o problemas donde los datos no están
disponibles en grandes cantidades, el aprendizaje profundo puede no resultar
la mejor solución.
3.2. Deep Learning actual es muy superficial y ofrece pocas oportunidades
de transferencia: Los sistemas actuales no comprenden realmente los conceptos
y han sido entrenados para actuar en determinados escenarios o situaciones.
Cuando se llevan a cabo los denominados test de transferencia en los que el
algoritmo es confrontado con escenarios que difieren, aunque sea ligeramente,
de aquellos en los que ha sido entrenado, las soluciones que ofrece resultan
superficiales.
3.3. Deep Learning actual no puede tratar de forma natural con una es-
tructura jerárquica: Las correlaciones que establecen este tipo de sistemas entre
distintos elementos son llanas y no jerárquicas, como en una lista en la que cada
elemento está al mismo nivel que los demás. Cuando se enfrentan con una es-
tructura jerárquica, tal a una frase subordinada a otra, estos algoritmos pueden
aproximarse de forma inadecuada al análisis. Los sistemas de reconocimiento
del lenguaje basados en el aprendizaje profundo abordarán la frase como una se-
cuencia de palabras. En una frase como el adolescente que previamente atravesó

2
el Atlántico estableció un record de vuelo alrededor del mundo, la cláusula prin-
cipal serı́a el adolescente que estableció un record de vuelo alrededor del mundo,
mientras que previamente atravesó el Atlántico estarı́a subordinada a la primera.
Marcus duda que el sistema pueda reconocer esa jerarquı́a.
3.4. Deep Learning actual choca con las inferencias abiertas: Cuando el ser
humano lee un texto está en la capacidad de inferir cosas de él que no están
directamente referenciadas o solo parcialmente. Puede adivinar las intenciones
de un personaje determinado a través de un diálogo en el que las muestra de
forma indirecta. El aprendizaje profundo consigue desenvolverse con éxito en
situaciones en las que la solución está contenida en un texto, pero empieza
a tener problemas cuando esta no es tan explı́cita, bien porque se combinen
muchas frases, bien porque las frases sean explı́citas, pero que hagan alusión a
un trasfondo que no aparece en el fragmento de texto.
3.5. El Deep Learning actual no es lo suficientemente transparente: Gen-
eralmente, se habla de la opacidad de las redes neuronales, haciendo referencia
a que son sistemas que analizan millones de parámetros para tomar decisiones
cuyo funcionamiento concreto queda fuera del conocimiento de sus creadores.
El funcionamiento de una red neuronal profunda se basa en miles de neuronas
simuladas almacenadas en cientos de capas interconectadas. Algo excesivamente
más opaco e inaccesible que cualquier código de programación convencional
3.6. El Deep Learning actual no ha sido debidamente integrado con el
conocimiento previo: La principal aproximación al aprendizaje profundo es her-
menéutica, es decir, auto contenida y aislada de cualquier conocimiento poten-
cialmente útil. El proceso suele consistir en entrenar al sistema con una base
de datos que asocia outputs o productos con los respectivos inputs, haciéndole
aprender la relación entre ambos para solucionar un problema dado. Un conocimiento
previo no suele ser introducido en el algoritmo. Pone el ejemplo concreto de un
sistema destinado a estudiar la fı́sica de las torres que se derrumban en el que
no se han introducido previamente las leyes de Newton, aunque el algoritmo las
acaba deduciendo más o menos a base al análisis de los millones de ejemplos
que se le han introducido en su fase de entrenamiento.
3.7. El Deep Learning actual no es capaz de distinguir claramente causalidad
y correlación: Aunque el aprendizaje profundo aprende a establecer relaciones
entre los insumos que recibe de información y el output o producto, no se puede
hablar de que entienda la relación de causalidad. Por ejemplo, un sistema podrı́a
encontrar la correlación entre la altura de una persona y la riqueza en el uso del
lenguaje.
3.8. El Deep Learning actual cree vivir en un mundo estable: El aprendizaje
profundo funciona mejor en un mundo estable con reglas precisas, como, por
ejemplo, un juego de mesa, y no tan bien en entornos menos predecibles, como
puede ser la evolución de los sistemas financieros.
3.9. El Deep Learning actual funciona bien como una aproximación, pero a
veces sus soluciones no son fiables del todo: Por las razones expuestas anterior-
mente, el aprendizaje profundo funciona bien en determinadas situaciones, pero
puede ser fácilmente engañado, por lo que hay que tratar con mucha cautela sus
predicciones y dictámenes.

3
3.10. El Deep Learning actual es difı́cil de aplicar en la ingenierı́a: El autor
apunta los riesgos de trabajar con el aprendizaje automático, pues considera
que son sistemas que pueden funcionar en determinadas circunstancias, pero
para los cuales es difı́cil garantizar que funcionarán en circunstancias alterna-
tivas con datos nuevos que pueden no parecerse a los que han sido utilizados
en su entrenamiento. Esto impide que se pueda utilizar para desarrollar inge-
nierı́a robusta Los riesgos en soluciones Deep Learning se da cuando este tema
se aplica a un determinado campo de acción de las ciencias computacionales,
tales como: redes neuronales, inteligencia artificial, aprendizajes artificiales, en
general, estos pueden ser los riesgos en soluciones Deep Learning: Riesgos en
procesos de búsquedas complejas Riesgos en los procesos de resolución de prob-
lemas complejos Riesgos en el análisis y comprensión de lenguajes naturales
Riesgos en los procesos de aprendizaje natural Riesgos en las aplicaciones en
desarrollo e implementación de inteligencia artificial a la Robótica Riesgos en
procesos de Visión por computadora Reconocimiento de voz Sistemas expertos
Redes neuronales Lógica Difusa
Para el presente trabajo se van a tomar los riesgos de Deep Learning que se
presentan en Redes Neuronales, tal como riesgos en los procesos de aprendizaje
natural, riesgos en las aplicaciones en desarrollo e implementación de inteligencia
artificial a la Robótica, análisis de sentimientos en textos, y
3.11. Riesgos Procesos de aprendizaje natural: El aprendizaje natural con
redes neuronales se aplica a procesos de aprendizaje en medicina (enseñanza
de cirugı́a y micro cirugı́a, estudios complejos de pacientes en estado de coma,
etc.), administración (problemas complejos de finanzas, tomas de decisiones bajo
incertidumbre, etc.), matemáticas (demostración de nuevos teoremas, leyes de
los grandes números, etc.), ingenierı́a (Sistemas expertos, computación cuántica,
simulaciones de plantas industriales, etc.). Sin embargo, como todo método
corre el riesgo de que pueda fallar o conllevar a resultados erróneos, estos riesgos
pueden generar altos costos económicos, de vidas, y costos incalculables por la
naturaleza compleja que estudia (Pérez y Fernández, 2007).
3.12. Riesgos en las aplicaciones en desarrollo e implementación de inteligen-
cia artificial a la Robótica: La implementación de sistemas de aprendizaje ar-
tificial en los robots podrı́a traer múltiples riesgos al ser humano, tales como:
incumplimiento de la aplicación de las leyes de la robótica, construcción de
un mundo menos humano debido a que los robots quitarı́an trabajo a cientos
de miles de personas, riesgo de que los robots adquieran inteligencia propia,
creación de robots para asesinatos selectivos, riesgos futuros de dominio del
robot sobre el hombre, o que el hombre pierda el control de los robots imple-
mentados con inteligencia artificial, riesgos de rompimiento de los códigos de la
ética moral en el diseño y construcción de robots, etc. (Bostrom y Yudkowsky,
2011).
3.13. Riesgos de análisis de sentimientos en textos: El análisis de sentimiento
a nivel de Tweet tiene como objetivo principal a la clasificación de la opinión
expresada en estos textos cortos en español, en donde se verifica y desarrollan
recursos para el procesado del texto previo a su clasificación, tales como la gen-
eración de un diccionario afectivo, y experimentación con el algoritmo FastText,

4
la cual aprende eficientemente representaciones de palabras partiendo de cor-
pus de tamaño reducido, ası́ como también en la presentación de una amplia
variedad de soluciones basadas en redes neuronales profundas (Deep Learning)
demostrando el gran potencial de las mismas en tareas de análisis de lenguaje.
Los resultados obtenidos nos permiten comprobar la capacidad de aprendizaje
de este tipo de algoritmos en esta tarea de procesamiento del lenguaje natural
(Dı́az-Galiano et al., 2018). En el campo del procesado de texto, la necesidad
de realizar un correcto tratamiento de este tipo de datos para su posterior uso
en algoritmos de Inteligencia Artificial, ha sido estudiada extensamente, desde
el punto de vista del análisis de sentimiento en general (Haddi, Liu, y Shi, 2013)
como en el caso concreto de análisis de sentimientos sobre textos cortos infor-
males como son los tweets (Sing y Kumari, 2016). En ambos artı́culos se han
llegado a conclusiones que demuestran la importancia y el papel que juega el
pre procesamiento de textos en tareas como el análisis de sentimientos, con el
objetivo de eliminar ruido y reducir la dimensionalidad del problema para mejo-
rar la clasificación. El riesgo que el pre procesado conlleva es la no mejora la
predicción del sentimiento, la misma que podrı́a conllevar a mayores problemas
de interpretación y manipulaciones erróneas de los sentimientos de las opiniones
polı́ticas u opiniones de satisfacciones de un producto o sentimientos por una
determinada marca comercial. (Montañés Salas et al., 2017).
3.14. Riesgos en procesos de visión por computadora: La visión por com-
putadora o visión artificial son sistemas de inteligencia artificial que permite
al hardware ver el entorno mediante sensores programados con software de in-
teligencia artificial. Los programas de inteligencia artificial, hasta la fecha to-
davı́a han demostrado muchas falencias como para asegurar una fiabilidad del
100

Figure 1: The Universe

5
4 Conclusion
References
[1] Yoshua Bengio. Deep learning of representations: Looking forward. In
Adrian-Horia Dediu, Carlos Martı́n-Vide, Ruslan Mitkov, and Bianca
Truthe, editors, Statistical Language and Speech Processing, pages 1–37,
Berlin, Heidelberg, 2013. Springer Berlin Heidelberg.

Vous aimerez peut-être aussi