Vous êtes sur la page 1sur 24

REPÚBLICA BOLIVARIANA DE VENEZUELA.

MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN


UNIVERSITARIA, CIENCIA Y TECNOLOGÍA (MPPECT).
UNIVERSIDAD ALEJANDRO HUMBOLDT.

Inteligencia Artificial.

Autor: CI:
González Peña, Luis Manuel. 20308978
Sección: DCM0901IIV1.
Profesor: Boscan, Asdrubal.
Asignatura: Robótica y sistemas expertos.

Caracas junio 2018


ÍNDICE

pp

INTRODUCCION……………………………………….……………………………i

DESARROLLO
Nociones y Antecedentes Históricos de Inteligencia Artificial..……..…….1
Características de la Inteligencia Artificial.……………..……..…….2
Diferentes teorías:.……………………………….………..……..…….4
Diferentes metodologías: .………………………..……..…….4
Objetivos de la Investigación en Inteligencia Artificial.……..……..…….5
Formas de considerar situaciones complejas…….………..……..…….6
Algoritmos.………………………..…………………………..……..…….7
Base de Conocimiento. Sistemas Basados en Conocimiento...……..…….10
Sistema computarizado capaz de resolver problemas en el dominio en el cual
posee conocimiento específico………………………………..……..…….11
Inteligencia Artificial débil..……………………..……..…….11
Las características principales…..………………..……..…….11
Los principales problemas asociados a este método……..……..…….12
Sistemas Expertos como Sistemas de Informació n Orientados al
Servicio.……………………………..…………………………..……..…….12
Componentes: software de interfaz, base de datos, programa
computacional..…………………..…………………………..……..…….13
Redes Neuronales.………………..…………………………..……..…….14
El Perceptrón unicapa..………………………………..……..…….15
El Perceptrón multicapa..……………………………..……..…….16
El peligro de la inteligencia artificial…………………………..……..…….17
La capacidad de las máquinas contra las del cerebro hum ano.…17
Imitar a la naturaleza en beneficio de la humanidad..……………………….18
El temor a las inteligencias artificiales...…………………………..……..….18

CONCLUSIONES………………………………………………………….………20

BIBLIOGRAFÍA…………………………………………………………….………21
INTRODUCCIÓN

La Inteligencia Artificial comenzó como el resultado de la investigación en


psicología cognitiva y lógica matemática. Se ha enfocado sobre la explicación del
trabajo mental y construcción de algoritmos de solución a problemas de propósito
general. Punto de vista que favorece la abstracción y la generalidad.
La Inteligencia Artificial es una combinación de la ciencia del computador,
fisiología y filosofía, tan general y amplio como eso, es que reúne varios campos
(robótica, sistemas expertos, por ejemplo), todos los cuales tienen en común la creación
de máquinas que pueden "pensar".
La idea de construir una máquina que pueda ejecutar tareas percibidas como
requerimientos de inteligencia humana es un atractivo. Las tareas que han sido
estudiadas desde este punto de vista incluyen juegos, traducción de idiomas,
comprensión de idiomas, diagnóstico de fallas, robótica, suministro de asesoría experta
en diversos temas.
Es así como los sistemas de administración de base de datos cada vez más
sofisticados, la estructura de datos y el desarrollo de algoritmos de inserción, borrado
y locación de datos, así como el intento de crear máquinas capaces de realizar tareas
que son pensadas como típicas del ámbito de la inteligencia humana, acuñaron el
término Inteligencia Artificial en 1956.
Trabajos teóricos fundamentales fueron el desarrollo de algoritmos
matemáticos por Warren McCullock y Walter Pitts, en 1943, necesarios para posibilitar
el trabajo de clasificación, o funcionamiento en sentido general, de una red neuronal.
En 1949 Donald Hebb desarrolló un algoritmo de aprendizaje para dichas redes
neuronales creando, en conjunto con los trabajos de McCullock y Pitts, la escuela
creacionista. Esta escuela se considera hoy como el origen de la Inteligencia Artificial,
sin embargo se trató poco por muchos años, dando paso al razonamiento simbólico
basado en reglas de producción, lo que se conoce como sistemas expertos.

i
Nociones y Antecedentes Históricos de Inteligencia Artificial.

Definiciones sobre Inteligencia Artificial:


 Disciplina científico-técnica que trata de crear sistemas artificiales capaces de
comportamientos que, de ser realizados por seres humanos, se diría que
requieren inteligencia.
 Estudio de los mecanismos de la inteligencia y las tecnologías que lo sustentan.
(Newell, 91)
 Intento de reproducir (modelar) la manera en que las personas identifican,
estructuran y resuelven problemas difíciles (Pople, 84)
 Son ciertas herramientas de programación, entendiendo por herramientas:
o Lenguajes: LISP, PROLOG
o Entornos de desarrollo: shells
o Arquitecturas de alto nivel: nodo y arco, sistemas de producciones
Desde sus comienzos hasta la actualidad, la Inteligencia Artificial ha tenido que
hacer frente a una serie de problemas:
 Los computadores no pueden manejar (no contienen) verdaderos significados.
 Los computadores no tienen autoconciencia (emociones, sociabilidad, etc.).
 Un computador sólo puede hacer aquello para lo que está programado.
 Las máquinas no pueden pensar realmente.
En 1843, Lady Ada Augusta Byron, patrocinadora de Charles Babbage planteó el
asunto de si la máquina de Babbage podía "pensar".
Los primeros problemas que se trató de resolver fueron puzzles, juegos de ajedrez,
traducción de textos a otro idioma.
Durante la II Guerra Mundial Norbert Wiener y John Von Neumann establecieron
los principios de la cibernética en relación con la realización de decisiones complejas
y control de funciones en máquinas.

1
Características de la Inteligencia Artificial.

1. Una característica fundamental que distingue a los métodos de Inteligencia


Artificial de los métodos numéricos es el uso de símbolos no matemáticos,
aunque no es suficiente para distinguirlo completamente. Otros tipos de
programas como los compiladores y sistemas de bases de datos, también
procesan símbolos y no se considera que usen técnicas de Inteligencia
Artificial.

2. Las conclusiones de un programa declarativo no son fijas y son determinadas


parcialmente por las conclusiones intermedias alcanzadas durante las
consideraciones al problema específico. Los lenguajes orientados al objeto
comparten esta propiedad y se han caracterizado por su afinidad con la
Inteligencia Artificial.

3. El comportamiento de los programas no es descrito explícitamente por el


algoritmo. La secuencia de pasos seguidos por el programa es influenciado por
el problema particular presente. El programa especifica cómo encontrar la
secuencia de pasos necesarios para resolver un problema dado (programa
declarativo). En contraste con los programas que no son de Inteligencia
Artificial, que siguen un algoritmo definido, que especifica, explícitamente,
cómo encontrar las variables de salida para cualquier variable dada de entrada
(programa de procedimiento).

4. El razonamiento basado en el conocimiento, implica que estos programas


incorporan factores y relaciones del mundo real y del ámbito del conocimiento
en que ellos operan. Al contrario de los programas para propósito específico,
como los de contabilidad y cálculos científicos; los programas de Inteligencia
Artificial pueden distinguir entre el programa de razonamiento o motor de

2
inferencia y base de conocimientos dándole la capacidad de explicar
discrepancias entre ellas.

5. Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de


Inteligencia Artificial los programas no pueden trabajar con este tipo de
problemas. Un ejemplo es la resolución de conflictos en tareas orientadas a
metas como en planificación, o el diagnóstico de tareas en un sistema del mundo
real: con poca información, con una solución cercana y no necesariamente
exacta.

La Inteligencia Artificial incluye varios campos de desarrollo tales como: la


robótica, usada principalmente en el campo industrial; comprensión de lenguajes y
traducción; visión en máquinas que distinguen formas y que se usan en líneas de
ensamblaje; reconocimiento de palabras y aprendizaje de máquinas; sistemas
computacionales expertos.

Los sistemas expertos, que reproducen el comportamiento humano en un


estrecho ámbito del conocimiento, son programas tan variados como los que
diagnostican infecciones en la sangre e indican un tratamiento, los que interpretan datos
sismológicos en exploración geológica y los que configuran complejos equipos de alta
tecnología.

Tales tareas reducen costos, reducen riesgos en la manipulación humana en


áreas peligrosas, mejoran el desempeño del personal inexperto, y mejoran el control de
calidad sobre todo en el ámbito comercial.

3
Diferentes teorías:

1. Construir réplicas de la compleja red neuronal del cerebro humano (bottom-


up).
2. Intentar imitar el comportamiento del cerebro humano con un computador (top-
down).

Diferentes metodologías:

1. La lógica difusa: permite tomar decisiones bajo condiciones de incerteza.


2. Redes neuronales: esta tecnología es poderosa en ciertas tareas como la
clasificación y el reconocimiento de patrones. Está basada en el concepto de
"aprender" por agregación de un gran número de muy simples elementos.

Este modelo considera que una neurona puede ser representada por una unidad
binaria: a cada instante su estado puede ser activo o inactivo. La interacción entre las
neuronas se lleva a cabo a través de sinapsis. Según el signo, la sinapsis es excitadora
o inhibidora.
El perceptrón está constituido por las entradas provenientes de fuentes externas, las
conexiones y la salida. En realidad un perceptrón es una Red Neuronal lo más simple
posible, es aquella donde no existen capas ocultas.
Para cada configuración de los estados de las neuronas de entrada (estímulo) la
respuesta del perceptrón obedece a la siguiente dinámica: se suman los potenciales
sinápticos y se comparan con un umbral de activación. Esta suma ponderada es también
llamada campo. Si el campo es mayor que un umbral, la respuesta de la neurona es
activa, si no, es inactiva.
Con una arquitectura tan simple como la del perceptrón no se puede realizar más
que una clase de funciones "booleanas" muy simples, llamadas linealmente separables.
Son las funciones en las cuales los estados de entrada con salida positiva pueden ser
separados de aquellos a salida negativa por un hiperplano. Un hiperplano es el conjunto

4
de puntos en el espacio de estados de entrada, que satisfacen una ecuación lineal. En
dos dimensiones, es una recta, en tres dimensiones un plano, etc.
Si se quieren realizar funciones más complejas con Redes Neuronales, es necesario
intercalar neuronas entre las capas de entradas y de salida, llamadas neuronas ocultas.
Una red multicapas puede ser definida como un conjunto de perceptrones, ligados entre
sí por sinapsis y dispuestos en capas siguiendo diversas arquitecturas. Una de las
arquitecturas más comúnmente usada es llamada feedforward: con conexiones de la
entrada a las capas ocultas y de éstas hacia la salida.
El funcionamiento de una Red Neuronal es gobernado por reglas de propagación
de actividades y de actualización de los estados.

Objetivos de la Investigación en Inteligencia Artificial.

Los investigadores en inteligencia artificial se concentran principalmente en los


sistemas expertos, la resolución de problemas, el control automático, las bases de datos
inteligentes y la ingeniería del software (diseños de entornos de programación
inteligente).
Otros investigadores están trabajando en el reto del reconocimiento de patrones
donde se espera un rápido progreso en este campo que abarca la comprensión y la
síntesis del habla, el proceso de imágenes y la visión artificial.
Finalmente, la fundamental investigación sobre la representación del
conocimiento, la conceptualización cognoscitiva y la comprensión del lenguaje natural.
Uno de los principales objetivos de los investigadores en inteligencia artificial
es la reproducción automática del razonamiento humano.
El razonamiento de un jugador de ajedrez no siempre es el mismo que el de un
directivo que se pregunta la viabilidad de fabricar un nuevo producto. Un niño jugando
con bloques de madera en una mesa no tiene idea de la complejidad del razonamiento
necesario para llevar a cabo la construcción de una pirámide, e intentar que un robot
hiciera lo mismo que el niño requeriría un largo programa de computador.

5
Formas de considerar situaciones complejas

 deducción, que permite obtener conclusiones de reglas cuyas premisas hemos


comprobado
 inducción que produce reglas a partir de observaciones parciales.

Estos dos tipos principales pueden utilizarse de un modo analítico (el razonamiento
se divide en submódulos que son más difíciles de manejar, o de un modo sintético
(inverso del proceso anterior, juntando elementos que se separaron anteriormente).
La inducción puede tener lugar cuando se comparan situaciones que son casi
similares, con parámetros desconocidos en una situación dada asignándole los valores
que tienen ya en una situación de referencia; este es un razonamiento por analogía.
Los métodos para razonar son variados. La iteración significa repetir la misma
secuencia de razonamiento hasta que se alcance una condición de final; la recursión
consiste en una forma particular del razonamiento que se llama a sí misma, como
aquellas muñecas rusas que están unas dentro de otras, hasta llegar a un problema
simple que es fácil de resolver.
Las estrategias para el razonamiento pueden hacer uso de la especialización, la
reducción al absurdo, de la eliminación de caminos poco prometedores y de la
reducción de las diferencias.
En todos los casos, la organización jerárquica del conocimiento y la segmentación
de los problemas son métodos que se emplean siempre al intentar resolver un problema
complejo.
La función asignada a los sistemas expertos es la de razonar.

6
Algoritmos.

Cuando una tarea se realiza por medio de un algoritmo perfectamente definido


de almacenamiento, clasificación o cálculo, lo puede hacer un computador. Este
concepto de algoritmo, secuencial, fijo y de determinadas operaciones, es incapaz de
manejar problemas donde el camino del razonamiento es variable y donde deben
afrontarse situaciones diversas sin haber sido especificadas.
La Inteligencia Artificial hace uso de un tipo de lenguaje diferente como es el
caso de LISP y PROLOG.
En 1932, Cannon visualizó la evolución natural como un proceso de
aprendizaje. Alan Turing reconoció, en 1950, que debe haber una conexión obvia entre
el aprendizaje de máquina y la evolución, y señaló que se podrían desarrollar programas
para jugar ajedrez usando esta técnica. Campbell conjeturó en 1960 que en todos los
procesos que llevan a la expansión del conocimiento, se involucra un proceso ciego de
variación y supervivencia selectiva.
Los primeros intentos de aplicar de manera formal la teoría de la evolución, a
problemas prácticos de ingeniería, apareció en las áreas de control de procesos
estadísticos, aprendizaje de máquina y optimización de funciones. Tal vez el primer
intento serio de este tipo se dio en el trabajo que realizaron Box y sus colegas en 1957,
en el desarrollo de una técnica que denominaron operación evolutiva, la cual se aplicó
a una planta de manufactura, y que se implanto sobre la base de los votos de un comité
de jefes técnicos. Bajo este esquema, la calidad del producto avanzaba a través de
mutaciones aleatorias y la selección era determinada por el comité.
Por su parte, Friedberg intentó, en 1958, hacer que un programa en lenguaje
máquina se mejorara a sí mismo, seleccionando instrucciones que se asociaran más
frecuentemente con un resultado exitoso. Aunque Friedberg nunca mencionó
explícitamente estar simulando la evolución natural, esa es la interpretación más
comúnmente aceptada de su trabajo, y a pesar de que tuvo cierto éxito evolucionando
manipuladores de bits y determinando las interconexiones de una caja negra de 1400
terminales, la comunidad de Inteligencia Artificial de la época prestó poca atención a

7
su trabajo. Por ejemplo, Minsky lo criticó duramente, argumentando que una búsqueda
puramente aleatoria era mucho mejor que el algoritmo de Friedberg.
El trabajo de Bremermann, en 1958, se enfocó más a la optimización,
introduciendo el importante manejo de un valor de aptitud, y definiendo a un individuo
como una cadena de símbolos binarios (unos y ceros). Bremermann advirtió,
acertadamente, que la mutación jugaba un papel importante en la evolución, pues
impedía el estancamiento en mínimos locales. Aunque muchas de sus ideas se usan hoy
en día, Bremermann cometió el error de tratar de optimizar funciones lineales y
convexas, obteniendo resultados decepcionantes, pues sus algoritmos evolutivos tenían
que ser complementados con otras heurísticas para converger en una solución. Hoy
sabemos que los algoritmos evolutivos difícilmente pueden competir con las técnicas
tradicionales de optimización en esos dominios.
Barricelli ofreció, en 1954, una de las primeras simulaciones que usaba
principios evolutivos, utilizando los mismos procedimientos generales que se usan hoy
en día en la disciplina conocida como vida artificial. Sin embargo, en este trabajo, así
como el que Reed realizó posteriormente en 1967, se concluyó que la cruza no parecía
mejorar la velocidad de la adaptación selectiva, y el operador primordial era la
mutación.
Fue Fogel el que introdujo la primera técnica evolutiva que realmente funcionó
más o menos dentro de los lineamientos actuales de la computación evolutiva. Su
programación evolutiva consistía en hacer evolucionar autómatas de estados finitos por
medio de mutaciones. Fogel introdujo los importantes conceptos de población y
selección, y aunque las revisiones iniciales de su trabajo fueron favorables, algunos
investigadores, como Solomonoff, enfatizaron que el método de Fogel no debía verse
en su estado actual (en 1966) como algo particularmente útil para resolver problemas,
a excepción de los más simples posibles. Solomonoff vio a la programación evolutiva
como una especie de búsqueda escalando la colina modelada mediante autómatas, y
otros investigadores como Holland, Kieras, Rada y Lenat compartieron esa opinión.
Otra técnica evolutiva dirigida particularmente a la optimización de funciones
continuas de alta complejidad se desarrolló en Alemania, en 1965, por Rechenberg y

8
Schwefel. Esta técnica, llamada estrategia evolutiva, se utilizó inicialmente para
resolver problemas de ingeniería que desafiaban a los métodos de optimización
tradicionales, como el gradiente conjugado, y se basa en la modificación sistemática de
un vector de números reales (representando las variables de decisión del problema)
mediante operadores probabilísticos, usando ciertos criterios para decidir en qué
dirección dirigir la búsqueda. La estrategia evolutiva utiliza como operador principal a
la mutación, y en su versión más reciente usa la cruza como operador secundario.
Aunque el australiano Fraser propuso, desde fines de los 50, un procedimiento
muy similar al que John Holland llamó planes evolutivos a fines de los 60, es al
segundo al que se le suele atribuir la creación de la técnica que se conoce como
algoritmo genético, a raíz de que Holland publicara el libro "Adaptation in Natural and
Artificial Systems" en 1975.
La principal diferencia del algoritmo genético con las técnicas antes
mencionadas, es que utiliza la cruza como operador principal y a la mutación como
operador secundario (e incluso opcional). El algoritmo genético, al igual que las redes
neuronales, funciona como una caja negra que recibe ciertas entradas y produce (tras
una cantidad de tiempo indeterminada) las salidas deseadas. Sin embargo, a diferencia
de éstas, los algoritmos genéticos no necesitan entrenarse con ejemplos de ningún tipo,
sino que son capaces de generar sus propios ejemplos y contraejemplos que guíen la
evolución a partir de poblaciones iniciales totalmente aleatorias.
Los mecanismos de selección del más apto y de reproducción sexual del
algoritmo genético, son los encargados de preservar las características más adecuadas
de cada individuo a fin de hacer converger a la población en soluciones óptimas.
Los algoritmos genéticos se distinguen también por no quedar atrapados
fácilmente en mínimos locales, como la mayor parte de las técnicas de búsqueda
clásicas, además de usar operadores probabilísticos más robustos que los operadores
determinísticos, que las otras técnicas suelen usar.
No obstante, siendo una heurística, tampoco pueden garantizar encontrar
siempre la solución óptima, si bien la experiencia acumulada hasta la fecha parece
demostrar que, cuando se utilizan apropiadamente, pueden proporcionar soluciones

9
muy aceptables y, en la mayoría de los casos, superiores a las encontradas con otras
técnicas de búsqueda y optimización.
Aunque aún atacados por algunos sectores de la comunidad de Inteligencia
Artificial, los algoritmos genéticos, al igual que las redes neuronales, se han ido
ganando poco a poco, y sobre la base de la efectividad de sus resultados en aplicaciones
prácticas, el reconocimiento de los investigadores como una técnica efectiva en
problemas de gran complejidad, como lo demuestra un número creciente de
conferencias y publicaciones especializadas alrededor del mundo, en los últimos años.

Base de Conocimiento. Sistemas Basados en Conocimiento.

Los métodos generales desarrollados para la resolución de problemas y técnicas


de búsqueda al inicio de la era de la Inteligencia Artificial demostraron no ser
suficientes para resolver los problemas orientados a las aplicaciones, ni fueron capaces
de satisfacer los difíciles requerimientos de la investigación.
A este conjunto de métodos, procedimientos y técnicas, se lo conoce como
Inteligencia Artificial Débil. La principal conclusión que se derivó de este trabajo
inicial fue que los problemas difíciles sólo podrían ser resueltos con la ayuda del
conocimiento específico acerca del dominio del problema.
La aplicación de estas ideas dio lugar al desarrollo de los denominados Sistemas
Basados en Conocimiento (Knowledge Based Systems) y al aparecimiento de la
Ingeniería Cognoscitiva, como una rama de la Inteligencia Artificial, que estudia los
sistemas basados en el conocimiento. La definición de un sistema basado en
conocimiento puede ser la siguiente:

10
Sistema computarizado capaz de resolver problemas en el dominio en el cual
posee conocimiento específico.

La solución es esencialmente la misma que hubiera dado un ser humano


confrontado con idéntico problema, aunque no necesariamente el proceso seguido por
ambos puede ser igual.
El simple concepto dado, puede causar confusión ya que muchos sistemas
basados en programas convencionales podrían ser incorrectamente categorizados como
sistemas basados en conocimiento. Esta inconsistencia puede ser aclarada, sobre la base
de tres conceptos fundamentales que distinguen a los sistemas basados en conocimiento
de los programas algorítmicos convencionales y de los programas generales basados
en búsqueda:

Inteligencia Artificial débil.

 Primero, la separación del conocimiento y el modo en que es usado.


 Segundo, la naturaleza del conocimiento empleado (heurística antes que
algorítmica).
 Tercero, El uso de conocimiento específico de un determinado dominio.

Las características principales.

 amplia difusión del conocimiento


 fácil modificación
 respuestas coherentes
 disponibilidad casi completa
 conservación del conocimiento
 capacidad de resolver problemas disponiendo de información incompleta
 capacidad de explicar los resultados y la forma de obtenerlos

11
Los principales problemas asociados a este método.

 las soluciones no siempre son las mejores o correctas


 conocimiento limitado frente al dominio de un experto
 carecen del sentido común o criterio que puede tener un experto
 es difícil extraer todo el conocimiento que maneja un experto.

Sistemas Expertos como Sistemas de Información Orientados al Servicio.

En la Conferencia de Dartmouth en 1956 donde Newell, Shaw y Simon


presentaron sus programas para demostrar las proposiciones lógicas (Logical Theorist).
La expresión de Inteligencia Artificial la inventó en aquel mismo año John McCarthy.
En 1959-60, aparece un programa demostrador de teoremas basado en la lógica
proposicional (General Problem Solver, por Newell, Shaw y Simon).
La década comprendida entre 1960-70 vio sentar los principios básicos de la
investigación en las estructuras en árbol así como el movimiento de ideas empleadas
actualmente en la resolución de problemas y los sistemas expertos. Los textos de
Newell y Simon (1972) y Nillson (1971) marcan el final de este periodo.
Los principales métodos de búsqueda en estructuras en árbol, que todavía se
emplean hoy en los programas de sistemas expertos, estaban ya disponibles en esos
años.
Las primeras aplicaciones se hicieron en problemas fáciles de describir, pero
complejos de resolver, como por ejemplo: juego de ajedrez y demostración de teoremas
matemáticos.
Los sistemas expertos orientados al servicio derivaron de la necesidad de
resolver problemas cada vez más complejos, con poca información estructurada y con
resultados probables, donde uno de los caminos era encontrar la mejor solución a un
problema, no necesariamente la única posible.
Los hechos para una base de conocimiento deben ser adquiridos a partir de
experiencias humanas a través de entrevistas y observaciones. Este conocimiento es
usualmente representada en la forma de reglas "if-then" (reglas de producción): " si
alguna condición es verdadera, entonces la siguiente inferencia puede ser hecha (o
alguna acción tomada)". La base de conocimientos de un sistema experto mejor incluye
miles de reglas. Un factor de probabilidad es con frecuencia unido a las conclusiones
de cada regla de producción, porque la conclusión no es una certeza.
Por ejemplo, un sistema para el diagnóstico de enfermedades del ojo debe
indicar, basado en información que apoye esto, un 90% de probabilidad de que una
persona tiene glaucoma, y este puede también listar conclusiones con más bajas
posibilidades.

12
Un sistema experto puede desplegar la secuencia de reglas a través de las cuales
éste llega a su conclusión. Trazar el flujo ayuda al usuario para apreciar la credibilidad
de su recomendación y es útil como una herramienta de aprendizaje para estudiantes.
Los expertos humanos frecuentemente emplean las reglas heurísticas, o "regla
del pulgar", además de la simple producción de reglas. Por ejemplo, un administrador
de crédito puede saber que un solicitante con una historia pobre de crédito, con un
registro limpio desde que adquirió un nuevo empleo, puede actualmente ser un buen
sujeto de crédito.
Los sistemas expertos han incorporado tales reglas heurísticas e
incrementándolas tienen la habilidad de aprender a partir de la experiencia. Sin
embargo, los sistemas expertos son más bien soporte o apoyo más que reemplazos para
los expertos humanos.

Componentes: software de interfaz, base de datos, programa computacional.

Una relativamente nueva categoría de sistemas de información orientada al


servicio es el sistema experto, llamado así porque su base de datos guarda una
descripción de habilidades en la toma de decisiones de experiencias humanas en un
estrecho dominio de procedimientos, tales como interpretación médica de imagen,
impuestos, diseño de piping, configuración de hardware en un sistema de
computadores, equipamiento para reparar malfuncionamientos o, en la preparación de
cerveza.

La motivación para construir sistemas expertos es el deseo de replicar el escaso,


in estructurado y quizás el pobremente documentado conocimiento empírico de
especialistas que de este modo puede ser rápidamente usado por otros.

Un programa computacional que usa inteligencia artificial resuelve problemas


en un dominio especializado que ordinariamente requiere experiencia humana.

El primer sistema experto fue desarrollado en 1965 por Edward Feigenbaum y


Joshua Lederberg de la Universidad de Standford en California, USA. Dendral fue
diseñado para analizar componentes químicos.

Los sistemas expertos ahora tienen aplicaciones comerciales en campos tan


diversos como diagnóstico médico, ingeniería petrolera e inversión financiera.

Para realizar tareas de aparente inteligencia, un sistema experto recurre a tres


componentes: un software de interfaz, una base de conocimiento y un motor de
inferencia.

13
Redes Neuronales.

Las Redes Neuronales surgieron del movimiento conexionista, que nació junto
con la Inteligencia Artificial simbólica o tradicional. Esto fue hacia los años 50, con
algunos de los primeros ordenadores de la época y las posibilidades que ofrecían.
La Inteligencia Artificial simbólica se basa en que todo conocimiento se puede
representar mediante combinaciones de símbolos, derivadas de otras combinaciones
que representan verdades incuestionables o axiomas.
Así pues, la Inteligencia Artificial tradicional asume que el conocimiento es
independiente de la estructura que maneje los símbolos, siempre y cuando la 'máquina'
realice algunas operaciones básicas entre ellos. En contraposición, los 'conexionistas'
intentan representar el conocimiento desde el estrato más básico de la inteligencia: el
estrato físico. Creen que el secreto para el aprendizaje y el conocimiento se halla
directamente relacionado con la estructura del cerebro: concretamente con las neuronas
y la interconexión entre ellas. Trabajan con grupos de neuronas artificiales, llamadas
Redes Neuronales.
Cada neurona puede tener infinitas entradas llamadas Dendritas que
condicionan el estado de su única salida, el Axón. Este Axón puede ir conectado a una
Dendrita de otra neurona mediante la Sinapsis correspondiente, de la siguiente manera:

El Axón da un nivel eléctrico correspondiente a sus entradas y a la importancia


que le da a cada una de ellas. De esta forma, una neurona puede no reaccionar ante un

14
nivel muy alto de una de sus entradas, o dar una salida muy favorable cuando otra de
ellas está mínimamente activa.
En las primeras etapas de nuestra vida, cuando realizamos el aprendizaje de
nuestros cerebros, entrenamos nuestras neuronas mediante el éxito o fracaso de una
acción a unos estímulos sensoriales.
Cuando cierta acción realizada en respuesta a alguna entrada sensorial es
exitosa (por ejemplo, al beber agua calmamos la sed), las conexiones sinápticas entre
un grupo de neuronas se fortalecen, de manera que cuando tengamos una sensación
sensorial parecida, la salida será la correcta. De esta forma se forman fuertes
conexiones entre grupos de neuronas, que pueden servir para realizar otras acciones
complejas.

El Perceptrón unicapa.

Un Perceptrón unicapa no es más que un conjunto de neuronas no unidas entre


sí, de manera que cada una de las entradas del sistema se conectan a cada neurona,
produciendo cada una de ellas su salida individual:
Como se ha dicho, un conjunto de neuronas no sirve para nada si previamente
no se le enseña qué debe hacer.
Existen tres métodos de aprendizaje para un Perceptrón: Supervisado, Por Refuerzo
y No Supervisado.
 En el Aprendizaje Supervisado se presentan al Perceptrón unas entradas con
las correspondientes salidas que se quiere éste aprenda. De esta manera la red
primero, calcula la salida que da ella para esas entradas y luego, conociendo el
error que está cometiendo, ajusta sus pesos proporcionalmente al error que ha
cometido (si la diferencia entre salida calculada y salida deseada es nula, no se
varían los pesos).
 En el Aprendizaje No Supervisado, solo se presentan al Perceptrón las
entradas y, para esas entradas, la red debe dar una salida parecida.

15
 En el Aprendizaje Por Refuerzo se combinan los dos anteriores, y de cuando
en cuando se presenta a la red una valoración global de como lo está haciendo.

El Perceptrón multicapa.

Esta estructura nació con la intención de dar solución a las limitaciones del
Perceptrón clásico o unicapa, y supuso el resurgimiento del movimiento conexionista.
Como su nombre indica, se trata de unos cuantos (dos o tres) perceptrones unicapa
conectados en cascada, como en la siguiente figura:
El problema de este tipo de Perceptrón está en su entrenamiento, ya que es
difícil modificar correctamente los pesos de la capa oculta (la capa 1 en el ejemplo
anterior). Para poder hacer aprender cosas a un Perceptrón de este tipo, se implementó
el algoritmo de BackPropagation, que tal como su nombre indica tiene la función de ir
propagando los errores producidos en la capa de salida hacia atrás.
El proceso de aprendizaje tiene un gran coste de tiempo. Debido a eso, todavía
no se ha estudiado a fondo. Las redes neuronales todavía se han de desarrollar mucho.
Aún se debe estudiar para qué sirven realmente, conocer en qué tareas pueden resultar
realmente útiles, ya que por ejemplo, es difícil saber cuánto tiempo necesita una red
para aprender cierta tarea, cuántas neuronas se necesitan como mínimo para realizar
cierta tarea, etc.
Las redes neuronales pueden llegar a ser algo realmente importante, pero
todavía hace falta tiempo para estudiar cómo almacenan el conocimiento para
desarrollar el hardware paralelo específico que requieren.
En la robótica, las redes neuronales también parecen prometer mucho, sobre todo en su
sensorización, para que el robot sea capaz de generalizar lo que siente como estímulos
individuales a considerar.

16
El peligro de la inteligencia artificial

Observar a una máquina que derrota al campeón del mundo de uno de los juegos
de estrategia más difíciles del planeta ya no es una novedad. Aplicaciones que deciden
por nosotros, robots que nos asisten en las tareas de la vida diaria o máquinas de
combate que pueden organizarse y atacar por sí solas, son algunos ejemplos del avance
que el ser humano ha conseguido en el campo de la inteligencia artificial.

La capacidad de las máquinas contra las del cerebro humano.

A pesar de que las computadoras solo están programadas para ejecutar


comandos, lo hacen de manera mucho más rápida que el ser humano y muy pocas veces
se equivocan como nosotros. Un ejemplo de ello sería una 'simple' multiplicación, por
ejemplo, 567 por 397 (intente ejecutarla). La máquina daría el resultado exacto antes
de que un humano siquiera se acerque a la solución. De hecho, la computadora más
rápida del planeta, la Sunway TaihuLight china, podría realizar unos 90.000 billones
de estas operaciones en un segundo.
Sin embargo, según destaca el profesor de Inteligencia Artificial de la Universidad
Técnica Estatal Bauman de Moscú (BMSTU), Valeri I. Térejov, en una entrevista
exclusiva a RT, cuando se habla de inteligencia lo importante no es la rapidez de
procesamiento, sino el "paralelismo" de las acciones o cuántas operaciones simultáneas
puede ejecutar un procesador, y es aquí donde el ser humano no tiene competencia.
Aunque los procesos eléctrico-químicos del cerebro para la transmisión de la
información son bastante lentos, los más de 1.000 billones de conexiones que
mantienen sus neuronas lo han convertido en una de las creaciones de la naturaleza más
impresionantes y efectivas para la supervivencia.

17
Imitar a la naturaleza en beneficio de la humanidad.

Como ya lo destaca Stephen Hawking, uno de los seres humanos más


inteligentes de la historia, un ser artificial con capacidades superiores a las
nuestras podría convertirse en algo muy beneficioso para el ser humano, pues las
máquinas podrían resolver problemas para los que no tenemos soluciones, como la cura
contra el cáncer.
Durante las últimas décadas, el ser humano ha obtenido buenos resultados en
su intento de reproducir algunas partes de las principales funcionalidades de esta
'máquina natural'. A partir de algoritmos de última generación como las redes
neuronales convolucionales (ConvNet), se ha logrado imitar funcionalidades como la
vista o el oído "con más del 90 % de efectividad" en tareas de reconocimiento de las
imágenes o separación de los sonidos emitidos por varios instrumentos, afirma Térejov.
“La desventaja de crear un ser muy parecido al humano es que herede nuestras
capacidades emocionales y simplemente se niegue a ejecutar las tareas que se le
asignen.”Valeri I. Térejov, profesor de la Universidad Técnica Estatal Bauman de
Moscú.
Por el momento la Ciencia ha logrado reproducir sistemas inteligentes sencillos.
Así, científicos rusos han creado un modelo computacional completo de un gusano,
uno de los organismos multicelulares 'más simples' de la naturaleza. Por su parte,
asistentes personales como Siri de Apple o Alexa de Amazon, logran imitar una parte
de nuestra capacidad para mantener un diálogo y buscar soluciones a problemas
básicos, aunque no siempre de la mejor forma.

El temor a las inteligencias artificiales.

Más allá de las múltiples ventajas de estos sistemas, muchos se plantean una
posibilidad real de que se repita un escenario parecido al de películas como 'Terminator'
o 'Matrix', con un final apocalíptico en el que la raza humana es dominada por seres
con una inteligencia superior que nosotros mismos hemos creado.

18
El especialista de la BMSTU explica que existe la creencia de que a medida que
enseñemos y ampliemos las capacidades de las redes neuronales artificiales, podría
llegar un momento en que estas "comiencen a pensar por sí solas". Incluso actuamente
existen desarrollos tan avanzados que ejecutan procesos en capas que los
científicos "no logran interpretar", destaca.
Es precisamente este desconocimiento lo que causa un temor de que una
hipotética capacidad evolutiva de las máquinas se convierta en un verdadero problema
para nuestra especie, cuando el ser humano sea 'una molestia' para su desarrollo.
Hawking advierte que ningún ser humano desearía encontrarse en una situación en la
que nuestras acciones vayan en contra de estos seres más evolucionados, pues no
tardarían en destruirnos al igual que nosotros lo haríamos —sin pensarlo ni un
segundo, con una colonia de hormigas que se interponga en la construcción de una
central hidroeléctrica.
"Existe la creencia de que si incrementamos la potencialidad de las redes
neuronales artificiales, llegará un momento en que estas estructuras adquieran su
propia conciencia".Valeri I. Térejov, profesor de la Universidad Técnica Estatal
Bauman de Moscú.
El temor de convertirse en esclavos de unos seres que por ahora solo nos hacen
la vida más fácil se hace eco en las mentes más destacadas. Se trata de una preocupación
que ha hecho que grandes personalidades del sector tecnológico como Bill Gates
(Microsoft), Elon Musk (Tesla), Steve Wozniak (Apple) hayan reunido esfuerzos e
incluso invertido millones de dólares en el desarrollo de tecnologías que aseguren que
en el futuro las máquinas se comporten de manera 'amigable' con el hombre.
De cualquier manera, la posibilidad de crear una inteligencia artificial ideal está muy
lejos de hacerse realidad. A pesar de que el ser humano vive en una época crucial en el
desarrollo tecnológico, tal vez estemos a décadas o siglos de crear un ser
“superinteligente”. O quizás ese día nunca llegue.

19
CONCLUSIONES

Dentro del ámbito de las Ciencias de la Computación la Inteligencia Artificial


es una de las áreas que causa mayor expectación, incluso dentro de la sociedad en
general, debido a que la búsqueda para comprender los mecanismos de la inteligencia,
ha sido la piedra filosofal del trabajo de muchos científicos por muchos años y lo sigue
siendo.
Dentro de las áreas de la Inteligencia Artificial lo que más ha atraído, es el
aprendizaje de máquinas, resultando vital el proceso de emular comportamientos
inteligentes.
Que un sistema pueda mejorar su comportamiento sobre la base de la
experiencia que recoge al efectuar una tarea repetitiva y que además, tenga una noción
de lo que es un error y que pueda evitarlo, resulta apasionante.
¿Pueden los computadores aprender a resolver problemas a partir de ejemplos?
No hace tanto tiempo esta pregunta bordeaba la ciencia ficción, pero ahora es
objeto de profundos y prometedores estudios.
Las redes de neuronas formales son máquinas que poseen esta capacidad de
aprendizaje. Son máquinas propuestas como modelos extremadamente simplificados
del funcionamiento del cerebro que sienta las bases de un modelo colectivo, donde el
sistema global presenta propiedades complejas que no pueden predecirse a partir del
estudio individual de sus componentes.
Los estudios teóricos de redes de neuronas reflejan estos dos aspectos: el de la
modelización de fenómenos cognitivos y el del desarrollo de aplicaciones.
Por ejemplo para una máquina, la clasificación de rostros, datos médicos o
reconocimiento de letras son tareas difíciles, más que para un ser humano. La máquina
necesita del aprendizaje, donde el asunto consiste en adaptar los parámetros de un
sistema, en este caso artificial, para obtener la respuesta deseada.
Los métodos tradicionales en Inteligencia Artificial que permitieron el
desarrollo de los primeros sistemas expertos y otras aplicaciones, ha ido de la mano de
los avances tecnológicos y las fronteras se han ido expandiendo constantemente cada
vez que un logro, considerado imposible en su momento, se vuelve posible gracias a
los avances en todo el mundo, generando incluso una nueva mentalidad de trabajo que
no reconoce fronteras físicas ni políticas. Se entiende como un esfuerzo común.
La comprensión de los mecanismos del intelecto, la cognición y la creación de
artefactos inteligentes, se vuelve cada vez más una meta que sueño, a la luz de los
enormes logros, tan solo en alrededor de medio siglo de desarrollo de las ciencias de la
computación y de poner la lógica al servicio de la construcción de sistemas.

20
BIBLIOGRAFÍA

ACTUALIDAD RT (2018).
[Página web en línea]. Disponible: https://actualidad.rt.com/actualidad/236625-
peligro-inteligencia-artificial-maquinas-dominar-mundo
[Consulta: 2018, junio 15].
SALESFORCE, (2017).
[Página web en línea]. Disponible:
https://www.salesforce.com/mx/products/einstein/ai-deep-dive/
[Consulta: 2018, junio 15].
WIKIPEDIA, (2018).
[Página web en línea]. Disponible:
https://es.wikipedia.org/wiki/Inteligencia_artificial
[Consulta: 2018, junio 15].

21

Vous aimerez peut-être aussi