Vous êtes sur la page 1sur 54

Inteligencia Artificial

Captulo I

Introduccin a la IA
Agentes inteligentes

Un agente inteligente

Procesos INTERNOS

ENTRADAS
Sensor del ambiente
V
Oye
Toca
Gusta
Huele

Conoce

Comprensin/
intencionalidad

Razona

Comportamiento
SALIDAS

Tipificando a un agente inteligente


SENSORES
PERCEPCIONES

?
AMBIENTE

AGENTE

ACCIONES

EFECTORES

Qu es un agente inteligente
Un agente inteligente es cualquier cosa que pueda
percibir un mundo perceptual en que est anidado (ambiente)
mediante SENSORES y
actuar sobre ese mundo mediante EFECTORES (o actuadores)
sinnimo de ambiente es espacio de problema
sinnimo de agente inteligente es operador que transforma un input en
output dentro del espacio de problema

META de la IA Disear un agente inteligente/racional que


opere o acte adecuadamente en sus ambientes.
Discusin sobre adecuadamente
Fijar alguna medida de adecuadamente (buen xito)
Tener en cuenta el PRR Principio de Racionalidad Restringida
de Herbert Simon

PRR (Herbert Simon)


El Principio de la Racionalidad Restringida alega que la
racionalidad ptima ideal NO es el buen xito perfecto.
Ningun ser humano apela a una mayor racionalidad que
justo la necesaria para sus fines prcticos.
Las limitaciones de un agente
con los SENSORES que tiene
con los EFECTORES que tiene y
con la POTENCIA COMPUTACIONAL
disponible y
(en algunos casos) ptima econmica
conducen a que la racionalidad ideal sea
imposible e
imprctica.

Algo ms (Herbert Simon)

La razn es solamente un
instrumento porque
no nos puede predecir hacia donde ir - no nos
propone metas
a lo sumo nos ayuda a decidirnos cmo llegar a
una meta (a travs del anlisis de medios y fines)

Agentes Racionales
Racionalidad e Inteligencia

Qu es un agente racional
El que acta maximizando el valor
esperado de la medida de buen xito
(funcin de utilidad) en el logro de su meta
Racional no es omnisciente
Racional no es clarividente
Racional ideal en conflicto con el PRR

10

Racionalidad
Satisfaccin de restricciones
Depende de
LA SECUENCIA DE PERCEPCIONES - TODO LO QUE EL
AGENTE HA PERCIBIDO HASTA AHORA (GESTIN DE LA
MEMORIA).
No se puede criticar a un agente por no saber lo que nunca supo

LA MEDIDA DE BUEN XITO ELEGIDA


Funcin de utilidad

CUNTO CONOCE EL AGENTE DEL AMBIENTE EN QUE


OPERA
Lista de hiptesis de cmo es el mundo

LAS ACCIONES QUE EL AGENTE EST EN CONDICIONES DE


REALIZAR

11

Grado de Racionalidad - Nivel


de Conocimiento - Newell

Grado de racionalidad grado con el cual el


agente racional maximiza su medida de buen
xito en lograr una meta,
sujeta a su disponibilidad de
sensores, efectores, potencia de cmputo y conocimiento
internalizado.

Allen Newell define el nivel de conocimiento por el


nmero de reglas usadas respecto de su
disponibilidad total de reglas. Ningun robot es
responsable por no usar reglas que no conoce.
a un termostato le han dado dos reglas y las usa

12

AGENTE INTELIGENTE IDEAL


El agente inteligente ideal es el que,
para cualquier secuencia arbitraria de
percepciones, logre con su ACCION
maximizar la medida de su buen xito.
Para ello usa
conocimiento interiorizado
secuencia de percepciones

13

Agentes autnomos
Son agentes autnomos los que no se guan
por reglamento externo alguno.

14

Agentes Racionales y problemas


Complejidad y racionalidad

P, NP, NP completo, NP duro


P. Son problemas que se pueden resolver en tiempo polinmico (lo cual
significa rpido). Son muy frecuentes. Son P los que tienen tiempos de
ejecucin O(n) y O(log n)

NP. Un problema es NP si se puede verificar rapidamente (esto es, en

tiempo polinmico) que la solucin hallada es correcta (aunque haya


sido complicadsimo hallar dicha solucin). NP se refiere a tiempo
polinomial no-determinstico donde la voz no-determinstico
significa en la prctica obtenida por adivinacin. Si alguien adivina
alguna solucin, es rpido verificar si es correcta como solucin.
No se ha podido probar que un arbitrario problema NP se pueda
reducir a P, lo cual lleva al tema de la clase de problemas NP-duros.
La subclase de problemas NP-completos se interpretan como que
la voz completo indica el ejemplo ms difcil de resolver dentro del
tipo de problema.

16

Teora de la completitud NP
Problemas NP-duros. Si fuesen polinmicos se verificara P =
NP. Algunos problemas, como quizs el clsico del viajante de
comercio, es probable que sean imposibles de resolver en
cualquier computadora arbitraria (se trata de un problema NPduro, hasta donde se conoce). Se lo debe resolver, p. ej., de forma
aproximada y no exacta, o usando heursticas.
De ello se deduce que
ya sea la inteligencia natural
o la inteligencia artificial

NO son ilimitadas en sus capacidades.

De ello se vuelve a deducir que la racionalidad prctica resulta


estar restringida.
Nadie debe esmerarse por aplicar la racionalidad ms all de
sus necesidades prcticas. PRR
Caso lmite el termstato con sus dos reglas - Alto nivel de conocimiento.

17

Agentes Racionales
Percepciones y acciones

Mapeo ideal
percepciones acciones
El diseo o mapeo ideal especifica qu
acciones debe encarar el agente ideal
en respuesta a cualquier secuencia
arbitraria de percepciones
Se concreta con una tabla real o virtual
Ejercicio de la racionalidad
Sandwich

Percepciones Razonamiento Acciones

19

Cometido de la IA
El cometido de la IA es el diseo de un Programa
de agente : una funcin que permita implantar el
mapeo del agente para pasar de percepciones

a acciones.

Este programa se ejecutar en


algn tipo de dispositivo de cmputo, al que se
denominar arquitectura (puede ser una
computadora sencilla o hardware especial). En
alguno mbitos se utilizan agentes de software
(o robots de software o softbots).

Agente = arquitectura + programa


20

Funciones y programas de agentes


El agente queda completamente especificado con la funcin del
agente que mapea lo que describe la ecuacin

a = f (P,M,A)

sobre todo el componente principal a = f (P)


en principio uno puede suministrar cualquier secuencia perceptual posible para ver
qu sucede - una tabla que resuma esa informacin podra ser inmensa

El programa de agente trata de implementar la funcin de


agente en forma concisa (ejemplo: clculo de la raiz cuadrada en
una calculadora de bolsillo)
Un programa de agente toma una percepcin singular como
input y mantiene el estado interno

21

PaMA

Estrategia de divide y vencers

a = f(datos)
a = f(P,M,A)
Ejemplo - Piloto automtico (taxista reemplazado por
un agente inteligente )
Percepciones ??
acciones ??
Metas ??
Ambiente ??

22

PaMA
Para identificar a un agente debemos analizar su PaMA:

Ejemplos de
descripciones
PaMA de un
dado agente
tpico
P-percepcin
a-accin
M-meta
A-ambiente

23

Anlisis PaMA
En cualquier algoritmo aplicado a la IA debemos reconocer cmo cada parte
contribuye a dicha meta.
Analicemos las mquinas (limitadas) de la IA como agentes inteligentes.
La meta planteada por la medida del buen xito de ese agente suele ser
combinacin de varias submetas.

El anlisis PaMA es un ejemplo de

la estrategia general de la ingeniera de dividir para conquistar

P+a+M+A cada sumando es ms fcil que la suma ponderada.

la aplicacin del ANLISIS DE REQUISITOS , que resuelve un problema


analizando qu es obtenible como input y qu es deseado como output.

Otro Ejemplo: al analizar un sistema de imgenes por satelite,


percepciones: pixels de intensidad y longitud de onda variables
acciones:
mover la cmara, cambiar el filtro, imprimir informacin
metas:
identificacin cercana a la realidad de todos los objetos de la imagen
ambiente:
imgenes distorsionadas provenientes de una cmara de satelite.

24

Taxista Robotpiloto automtico


Percepciones

video
acelermetro, instrumental del tablero
sensores del motor
teclado

acciones

gestin del volante


acelerar y frenar
bocina
hablar/dibujar

Metas
seguridad, llegar a destino, maximizar ganancias, obedecer las leyes,
satisfaccin del cliente

Ambiente
calles urbanas, avenidas, trfico, peatones, clima, tipo de cliente

25

Estructura de un agente inteligente


ESQUEMA GENRICO DE UN AGENTE:
function
functionSkeleton-Agent(percept)
Skeleton-Agent(percept)returns
returnsaction
action
static:
static:memory,
memory,the
theagent's
agent'smemory
memoryofofthe
theworld
world
memory
memory
Update-Memory(memory,
Update-Memory(memory,percept)
percept)
action

Choose-Best-Action(memory)
action Choose-Best-Action(memory)
memory
memory
Update-Memory(memory,
Update-Memory(memory,action)
action)
return
returnaction
action

Desde un punto de vista estricto, no es necesario que el agente guarde en su


memoria las percepciones entrantes dependera del dominio. Un dominio es
un fragmento del mundo acerca del que deseamos adquirir conocimiento.
El esquema del agente no incorpora la medida de buen xito en su meta se
entiende que ella est siendo aplicada externamente.

26

Estructura de los Agentes


Racionales
Tipos de Agentes

Tipos de Agentes
Agentes sin informacin actualizada de su mundo
Tabla
encontrar la accin siguiente usar una tabla en memoria del tipo secuencia de
percepciones/accin. Sera una tabla demasiado voluminosa para repetir la accin ya
experimentada antes.

Agentes reflejos con un nico estado (simples)


se basan en reglas condicin/accin y se implementan con un sistema de
PRODUCCIN. Carecen de memoria referida a estados pasados del mundo.

28

Lo ms sencillo:
DISPONER DE UNA TABLA
function
functionTable-Driven-Agent(percept)
Table-Driven-Agent(percept)returns
returnsaction
action
static:
static:percepts,
percepts,aasequence,
sequence,initially
initiallyempty
empty
table,
table,aatable
tableindexed
indexedby
bypercept
perceptsequences,
sequences,initially
initiallyfully
fullyspecified
specified
append
appendpercept
percepttotothe
theend
endofofpercepts
percepts
action
action
LookUp(percepts,
LookUp(percepts,table)
table)
return
action
return action

Por qu fracasa el ideal de disponer de una tabla de consulta?


Esta arquitectura tiene los siguientes inconvenientes
tamao excesivo (no factible)
falta de adaptacin.

Qu tamao tendra que tener la tabla? (Caso lmite, el ajedrez)


El agente podr aprender de sus errores?
De dnde provendra dicha table en primera instancia?

29

Agente reactivo simple


Agente
Sensores
Cmo es el mundo en este
momento
cambios
conocimiento

Qu accin debo
hacer en este
momento

Ambiente

Reglas SiEntonces

Efectores
30

Qu es un agente reactivo simple?

Las reglas condicin-accin


permiten establecer la conexin
entre percepcin y accin.
Se indica el estado interno, nico
en un momento dado del proceso
de decisin.
Se indica la base de conocimiento
en forma de reglas de produccin.
Programa del agente:

Interpret-input genera una


descripcin abstracta del estado
mostrado por la percepcin
Rule-match proporciona una regla
del conjunto que satisface la
percepcin

function
functionSimple-Reflex-Agent(percept)
Simple-Reflex-Agent(percept)returns
returnsaction
action
static:
rules,
a
set
of
condition-action
rules
static: rules, a set of condition-action rules
state
state
Interpret-Input(percept)
Interpret-Input(percept)
rule

Rule-Match(state,
rule Rule-Match(state,rules)
rules)
action
action
Rule-Action[rule]
Rule-Action[rule]
return
returnaction
action

31

Tipos de Agentes
Bien informados de lo que pasa en su mundo
Agentes con memoria
con un estado interno que sirve para seguirle la pista a los estados pasados de su mundo.

Agentes focalizados en encontrar la meta


adems de disponer de informacin sobre el estado, tienen informacin sobre situaciones
deseables para alcanzar la meta. Lgicamente, agentes de este tipo tienen bajo
consideracin eventos del futuro.

Utilidad focalizados en mejorar la utilidad de sus acciones


basan su decisin en la teora axiomtica clsica de la utilidad para actuar racionalmente.

32

Qu es un agente bien informado?


Agente

Sensores

Estado
Cmo evoluciona el mundo

Reglas Si
- Entonces
conocimiento

Ambiente

Qu producen mis acciones

Cmo es el mundo en este


momento

Qu accin debo
hacer en este
momento

Efectores
33

Agentes bien informados

La actualizacin del estado


interno requiere dos tipos de
conocimiento codificado

conocimiento acerca de la forma en


que el mundo cambia,
independientemente de las acciones
del agente.
conocimiento acerca de la forma en
que el mundo cambia con motivo de
la accin del agente

Pero el conocimiento del estado


interno no siempre es suficiente

function
functionReflex-Agent-With-State(percept)
Reflex-Agent-With-State(percept)returns
returnsaction
action
al elegir entre dos rutas alternativas
static:
rules,
a
set
of
condition-action
rules
(en una interseccin girar o no girar
static: rules, a set of condition-action rules
state,
el volante del coche?) no se alcanzar
state,aadescription
descriptionofofthe
thecurrent
currentworld
world
el objetivo final
state
state
Update-State(state,
Update-State(state,percept)
percept)
pues se requiere conocer la meta a
rule

Rule-Match(state,
rules)
rule Rule-Match(state, rules)
lograr para finalizar la tarea con xito action Rule-Action[rule]
action Rule-Action[rule]
state
state
Update-State(state,
Update-State(state,action)
action)
return
returnaction
action

34

Qu es un agente orientado a
metas?
Agente

Sensores

Estado

Cmo evoluciona el mundo?


Cmo es el mundo en este
momento

Ambiente

Qu producen
mis acciones?

Qu sucedera si
emprendo la accin A?

Reglas Si
- Entonces
conocimiento

Qu accin debo
hacer en este
momento

Efectores
35

Agentes basados en Metas

Razonando acerca de acciones

un agente reflejo solo acta basado en conocimientos precomputados (reglas)


la bsqueda y la planificacin ayudan a razonar acerca de qu accin logra la meta
el agente es menos eficiente pero ms adaptativo y flexible

Qu argumentar acerca de acciones alternativas que llegan a la meta

hay que maximizar la utilidad de las acciones, esto es, elegir aquella que logra la meta mejor
de todas.

36

Arquitectura General de Agentes basados en Metas


Input
Inputpercept
percept
state
state
Update-State(state,
Update-State(state,percept)
percept)
goal
goal
Formulate-Goal(state,
Formulate-Goal(state,perf-measure)
perf-measure)
search-space

Formulate-Problem
search-space Formulate-Problem(state,
(state,goal)
goal)
plan

Search(search-space
,
goal)
plan Search(search-space , goal)
while
while(plan
(plannot
notempty)
empty)do
do
action
action
Recommendation(plan,
Recommendation(plan,state)
state)
plan

Remainder(plan,
state)
plan Remainder(plan, state)
output
outputaction
action
end
end

Los agentes simples no tienen acceso a su medida de buen xito

En ese caso el diseador elige la meta y la incorpora por diseo a su agente

Similarmente, los agentes tontos no pueden formular su propio problema

en cuyo caso dicha formulacin tambien se debe incorporar al diseo

El bucle while (mientras) - ver arriba - es la fase de ejecucin de la


conducta de este tipo de agentes
Ntese que en esta arquitectura se sobreentiende que para la fase de ejecucin no
importa monitorizar el ambiente.

37

Qu es un agente basado en
utilidad?
Agente

Sensores

Estado

Cmo evoluciona el mundo?

Ambiente

Qu producen
mis acciones?

Cmo es el mundo en este


momento
Qu sucedera si
emprendo la accin A?

Soy feliz as?

UTILIDAD

Qu hago ahora?

conocimiento

Efectores
38

Agentes basados en Utilidad

Funcin Utilidad
es un mapeo de estados bajo la forma de nmeros reales
lleva a decisiones racionales en dos tipos de situaciones
evaluacin de compromisos entre metas en conflicto
evaluacin de metas en conflicto

39

Agentes basados en utilidad


Las metas no bastan para generar una conducta de

alta

calidad.
Las metas permiten establecer una distincin entre estados
felices e infelices.
Si se prefiere un estado en lugar de otro, se dice que ese estado
ofrece mayor utilidad al agente.

Utilidad
Funcin que caracteriza el grado de satisfaccin
En temas venideros se mencionar frecuentemente
PRINCIPIO DE MAXIMA UTILIDAD ESPERADA

el

40

Ambientes
Caractersticas y tipos

Propiedades de los Ambientes


Accesible/Inaccesible
Si los sensores proporcionan todo lo que hay que saber sobre el estado
completo del ambiente - necesario para elegir una accin - entonces el
ambiente es accesible al agente. Esos ambiente resultan convenientes, ya que
liberan al agente de la tarea de mantener actualizado su inventario del mundo.

Determinstico/No-determinstico (estocstico)
Si el estado siguiente del ambiente est determinado plenamente por el estado
presente del mismo, y por la accin del agente - se trata de un ambiente
determinstico. As el agente escapa de la incertidumbre.

Episdico/No-episdico
Un ambiente episdico implica que los episodios siguientes no dependen de las
acciones que ocurran en episodios previos (como en las clsicas cadenas de
Markov). Esto permite al agente que no se preocupe por la planificacin de lo
que pueda ocurrir.

42

Propiedades de los Ambientes (2)


Esttico/Dinmico
Ser esttico todo ambiente que no cambie mientras el agente est pensando.
No tiene importancia el tiempo que se usa en pensar y no necesita monitorizar
el mundo mientras piensa. El tiempo carece de valor mientras se computa una
buena estrategia. En otro caso ser dinmico.

Discreto/Continuo
Discreto - con escaso nmero de percepciones y acciones en el ambiente.
Continuo - en otro caso.

Sin adversario/con adversarios racionales


Sin adversario - ausencia de otros agentes racionales adversarios: la
consecuencia es que el agente se libera de competir con dichos adversarios en
el mismo juego.
Los ambientes ingenieriles suelen ser sin adversario.
Los ambientes sociales y econmicos aumentan en su complejidad por la
presencia de interacciones entre uno o ms adversarios (por ejemplo en la
Bolsa).

43

Tipos de ambientes y sus caractersticas


Solitario
Taxi

Accesible ??
Determinstico ??
Episdico ??
Esttico ??
Discreto ??

44

Tipos de ambientes y sus caractersticas


Solitario
Taxi

s - s - no - s - s
no - no -no - no - no

Accesible
Determinstico
Episdico
Esttico
Discreto

45

Ambientes en Internet

e_mail
Grupos de noticias
WWW
FTP
Juegos en lnea
Foros
Buscadores con diversos agentes
Ambiente apto para minera de datos
Bibliotecas virtuales (p.ej., de IA)
46

Tipos de ambientes y sus


caractersticas

47

An Agent Portfolio

34

Broker-Corredor de comercio---Spider-Buscador, literal araa .

48

Programa bsico para el ambiente


procedure
procedureRun-Environment(state,
Run-Environment(state,Update-Fn,
Update-Fn,agents,
agents,termination)
termination)
input:
state,
the
initial
state
of
the
environment
input: state, the initial state of the environment
Update-Fn,
Update-Fn,function
functiontotomodify
modifythe
theenvironment
environment
agents,
a
set
of
agents
agents, a set of agents
termination,
termination,aapredicate
predicatetototest
testwhen
whenwe
weare
aredone
done
repeat
repeat
for
foreach
eachagent
agentininagents
agentsdo
do
Percept[agent]
Percept[agent]
Get-Percept(agent,
Get-Percept(agent,state)
state)
end
end
for
foreach
eachagent
agentininagents
agentsdo
do
Action[agent]

Program[agent](Percept[agent])
Action[agent] Program[agent](Percept[agent])
end
end
state
state
Update-Fn(actions,
Update-Fn(actions,agents,
agents,state)
state)
until
termination(state)
until termination(state)

Programa bsico para simular ambientes


proporciona las percepciones a los agentes anidados en ese ambiente
absorbe una accin de cada agente en la unidad de tiempo
actualiza el ambiente cada unidad de tiempo

49

Simulador de ambiente al tanto de las


medidas de buen xito de los agentes
function
functionRun-Eval-Environment(state,
Run-Eval-Environment(state,Update-Fn,
Update-Fn,agents,
agents,
termination,
Performance-Fn)
termination, Performance-Fn)returns
returnsscores
scores
local
local: :scores,
scores,aavector
vectorthe
thesame
samesize
sizeasasagents,
agents,initially
initiallyall
all00
repeat
repeat
for
foreach
eachagent
agentininagents
agentsdo
do
Percept[agent]

Get-Percept(agent,
Percept[agent] Get-Percept(agent,state)
state)
end
end
for
foreach
eachagent
agentininagents
agentsdo
do
Action[agent]
Action[agent]
Program[agent](Percept[agent])
Program[agent](Percept[agent])
end
end
state
state
Update-Fn(actions,
Update-Fn(actions,agents,
agents,state)
state)
scores

Performance-Fn(scores,
agents,
scores Performance-Fn(scores, agents,state)
state)
until
termination(state)
until termination(state)
return
returnscores
scores

Casi siempre, los agentes se han diseado para satisfacer una


cierta clase de ambiente
medicin de buen xito en ese ambiente, definido por un estado inicial singular
y una funcin de actualizacin particular.

50

Resumen
Tema I

Resumen
Los principales contenidos del tema I son:
Un agente percibe y acta en un cierto ambiente, posee una
arquitectura dada y est implementado a travs de un programa
de agente.
Un agente ideal (omnisciente) siempre elige aquella accin
mediante la cual se maximiza su logro esperado, sujeta a la
secuencia de percepciones recibida hasta ese momento.
Un agente autnomo usa su experiencia propia en lugar de usar
conocimiento incorporado por su diseador referente al
ambiente.
Un programa de agente mapea la ruta entre percepcin y accin y
actualiza el estado interno de dicho agente.
Un agente reflejo (o reactivo) responde de inmediato a las
percepciones segn la regla accin/percepcin. (jugador de ping
pong).

52

Resumen
Un agente basado en metas acta de tal manera que pueda
obtener el logro de la meta programada.
Un agente basado en utilidad maximiza su propia funcin de
utilidad.
Poder representar el conocimiento (y a veces lograr que ese
conocimiento pueda ser legible por el humano) es importante
para que el diseo tenga buen xito.
No todos los ambientes son iguales para el agente. Hay unos que
son ms difciles que otros. Los ms difciles son los ambientes
inaccesibles, no-determinsticos, no-episdicos, dinmicos y
continuos.
Uno fcil sera el de un robot encargado de hacer tostadas.

53

Resumen y conclusiones razonadas

La inteligencia artificial se ha presentado como la tecnologa de la


construccin de agentes inteligentes, con lo cual se unifican temas que no
tenan relacin con otros enfoques (caso de la robtica y la visin).

Es evidente que el hilo conductor es el de ir complicando gradualmente los


programas de agente , las funciones de agente ( utilidad,, actualizacin y
desempeo) y los programas de ambiente ( informacin bsica y detallada).

Obviamente la nocin de agente aglutina en una meta clara a toda la


inteligencia artificial, la cual, sin embargo, al estar enlazada con los ambientes,
pierde por suerte toda posibilidad de ser una disciplina auto-contenida,
pasando a tener condicin de multi-disciplinar.

54

Vous aimerez peut-être aussi