Vous êtes sur la page 1sur 8

Inteligencia Artificial - Universidad Peruana

Los Andes
16/04/2014
Ing. CIP Loncn Salazar, Pierre Paul 1
SESIN N 02
Docente: Ing. CIP Loncn Salazar, Pierre Paul
CURSO:
INTELIGENCIA ARTIFICIAL
2
Los Agentes y
su Entorno
3
AGENTE
Agente (Diccionario RAE):
Que obra o tiene virtud de obrar.
Persona que acta en representacin de otro (agente artstico, comercial,
inmobiliario, de seguros, de bolsa, etc).
Un agente es cualquier cosa capaz de percibir su medioambiente con la
ayuda de sensores y actuar en ese medio utilizando actuadores.
Un agente es un sistema conformado por hardware y/o software que
basa su comportamiento en las percepciones que tiene del medio
ambiente mediante sus sensores y en las reglas de comportamiento
incorporadas en el software.
Agentes software (softbots): Aplicaciones informticas con capacidad
para decidir cmo deben actuar para alcanzar sus objetivos
Agentes inteligentes: Agentes software que pueden funcionar
fiablemente en un entorno rpidamente cambiante e impredecible
Ejemplos: Labores diarias realizadas en internet, Comprar por internet (la
tienda en casa), Sistema de diagnstico mdico, Anlisis de imgenes
satelitales, Robot ensamblador de partes, Controlador de una refinera

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

4

TIPIFICANDO A UN AGENTE
I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

5
AGENTE
I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

Comprensin/
intencionalidad
Comportamiento
Ve
Oye
Toca
Gusta
Huele
ENTRADAS
Procesos INTERNOS
SALIDAS
Sensor del ambiente
Razona
Conoce
6
AGENTE SEGN WOOLDRIDGE - 1995
Un agente es un sistema de computacin capaz de
actuar de forma autnoma y flexible en un entorno,
entendiendo por flexible que sea:

Reactivo: El agente es capaz de responder a
cambios en el entorno en que se encuentra
situado.

Pro-activo: El agente debe ser capaz de intentar
cumplir sus propios planes u objetivos.

Social: Debe poder comunicarse con otros agentes
mediante algn tipo de lenguaje de comunicacin
de agentes.

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

Inteligencia Artificial - Universidad Peruana
Los Andes
16/04/2014
Ing. CIP Loncn Salazar, Pierre Paul 2
7
REACTIVO
Si se garantiza que el ambiente de un programa es fijo, este
no necesita preocuparse por su propio xito o fracaso el
programa simplemente se ejecuta ciegamente.
Ejemplo ambiente fijo: Un compilador
Pero, el mundo real no es fijo: las cosas cambian y la
informacin es incompleta. La mayora de los ambientes
interesantes son dinmicos.
El software para dominios dinmicos es difcil de construir: los
programas deben tener en cuenta la posibilidad de falla.
Deben preguntarse a s mismos si vale la pena realizar una
accin.
Un sistema reactivo es aquel que mantiene una interaccin
constante con su ambiente, y responde a los cambios que
ocurren en este (en un tiempo es que la respuesta es til)

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

8
PRO-ACTIVO
Reaccionar ante un ambiente es fcil
(por ejemplo: reglas estmulo-respuesta)
Pero, generalmente queremos agentes que hagan cosas
por nosotros.
Esto requiere: comportamientos orientados a metas
Pro-actividad = generar y tratar de alcanzar metas; no
guiarse solamente por los eventos; tomar la iniciativa
Reconocer oportunidades.
I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

9
HABILIDAD SOCIAL
El mundo real es un ambiente multi-agente: no
podemos ir por ah tratando de alcanzar metas sin
tomar en cuenta a los otros.
Algunas metas slo pueden ser alcanzadas con la
cooperacin de otros.
Lo mismo ocurre con muchos ambientes
computacionales, ejemplo: Internet.
La habilidad social en agentes es la habilidad de
interactuar con otros agentes (y posiblemente con
humanos) por medio de algn tipo de lenguaje de
comunicacin de agentes, y quizs cooperar con otros.

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

10
OTRAS PROPIEDADES DE AGENTES -
FRANKLIN
Continuidad Temporal: se considera un agente un proceso
sin fin, ejecutndose continuamente y desarrollando su
funcin.
Autonoma: un agente es completamente autnomo si es
capaz de actuar basndose en su experiencia, es capaz de
adaptarse aunque el entorno cambie severamente. Una
definicin menos estricta de autonoma sera cuando el
agente percibe el entorno.
Sociabilidad: permite a un agente comunicarse con otros
agentes o incluso con otras entidades.
Racionalidad: el agente siempre realiza lo correcto a partir
de los datos que percibe del entorno.
Reactividad: un agente acta como resultado de cambios en
su entorno. En este caso, un agente percibe el entorno y esos
cambios dirigen el comportamiento del agente.
I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

11
OTRAS PROPIEDADES DE AGENTES -
FRANKLIN
Pro-actividad: un agente es pro-activo cuando es capaz de
controlar sus propios objetivos a pesar de cambios en el
entorno.
Adaptatividad: est relacionado con el aprendizaje que un
agente es capaz de realizar y si puede cambiar su
comportamiento basndose en ese aprendizaje.
Movilidad: capacidad de un agente de trasladarse a travs de
una red telemtica.
Veracidad: asuncin de que un agente no comunica
informacin falsa a propsito.
Benevolencia: asuncin de que un agente est dispuesto a
ayudar a otros agentes si esto no entra en conflicto con sus
propios objetivos.
I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

12
OTRAS PROPIEDADES DE AGENTES
NAVAJA SUIZA DE PARUNAK
I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

Inteligencia Artificial - Universidad Peruana
Los Andes
16/04/2014
Ing. CIP Loncn Salazar, Pierre Paul 3
13
OTRAS PROPIEDADES DE AGENTES
- NWANA
I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

14
Buen
comportamiento:
El concepto de
racionalidad
15
QU ES UN AGENTE INTELIGENTE?
Un agente inteligente es cualquier cosa que pueda
Percibir un mundo perceptual en que est anidado (ambiente)
mediante SENSORES y
Actuar sobre ese mundo mediante EFECTORES (o actuadores)
sinnimo de ambiente es espacio de problema
sinnimo de agente inteligente es operador que transforma un input
en output dentro del espacio de problema

META de la IA Disear un agente inteligente/racional que
opere o acte adecuadamente en sus ambientes.
Discusin sobre adecuadamente
Fijar alguna medida del buen xito
Tener en cuenta el Principio de Racionalidad Restringida de Herbert
Simon

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

16
QU ES UN AGENTE RACIONAL?
En cada posible secuencia de percepciones, un agente
racional deber emprender aquella accin que
supuestamente maximice su medida de rendimiento,
basndose en las evidencias aportadas por la secuencia
de percepciones y en el conocimiento que el agente
mantiene almacenado
Considerar:
Ser Racional (maximiza el rendimiento esperado) no
significa ser omnisciente (maximiza el resultado real)
Ser Racional no es ser clarividente
Ser Racional ideal entra en conflicto con el PRR (Principio de
Racionalidad Restringida).

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

17
QU ES UN AGENTE RACIONAL?
Un agente es algo que razona, un agente informtico
debe tener otros atributos que los distingan de los
programas convencionales (dotados de controles
autnomos, perciban su entorno, que persistan durante
un periodo de tiempo prolongado, que se adapten a los
cambios, y que sean capaces de alcanzar objetivos
diferentes.
Un Agente Racional es aquel que acta con la intencin
de alcanzar el mejor resultado o, cuando hay
incertidumbre, el mejor resultado esperado

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

18
RACIONALIDAD
Depende de los siguientes factores:
La medida de rendimiento que define el criterio de xito
Cunto conoce el agente del ambiente en que opera
Las acciones que el agente est en condiciones de realizar
La secuencia de percepciones - todo lo que el agente ha
percibido hasta ahora (gestin de la memoria).

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

Inteligencia Artificial - Universidad Peruana
Los Andes
16/04/2014
Ing. CIP Loncn Salazar, Pierre Paul 4
19
ADEMS
El Principio de la Racionalidad Restringida alega que la
racionalidad ptima ideal NO es el buen xito perfecto.
Ningn ser humano apela a una mayor racionalidad que
la justo necesaria para sus fines prcticos.
Las limitaciones de un agente:
con los SENSORES que tiene
con los EFECTORES que tiene y
con la POTENCIA COMPUTACIONAL
disponible y
(en algunos casos) ptima econmica
conducen a que la racionalidad ideal sea:
imposible e
imprctica.

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

20
La naturaleza del
entorno
21
ESPECIFICACIN DEL ENTORNO DE
TRABAJO
Para definir el entorno de trabajo de un agente se utiliza el
acrnimo REAS = Rendimiento, Entorno, Actuadores,
Sensores.

En el diseo de un agente inteligente la primera tarea es
ubicarnos en el panorama
a = f(datos)
a = f(P,M,A)

El anlisis REAS es un ejemplo de
la estrategia general de la ingeniera de dividir para conquistar
R+E+A+S cada sumando es ms fcil que la suma ponderada.
la aplicacin del ANLISIS DE REQUISITOS, que resuelve un
problema analizando qu es obtenible como input y qu es
deseado como output.

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

22
EJEMPLO:
REAS DE UN AGENTE:
TAXISTA AUTOMTICO
Rendimiento:
Seguro, rpido, legal, viaje confortable, maximizacin del beneficio

Entorno:
Carreteras, otro trfico, peatones, clientes

Actuadores:
Direccin, acelerador, freno, seal, bocina, visualizador

Sensores:
Cmaras, sonar, velocmetro, GPS, tacmetro, visualizador de la
aceleracin, sensores del motor, teclado

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

23
EJEMPLO:
PAMA DE UN AGENTE:
TAXISTA AUTOMTICO
Percepciones:
Video, acelermetro, instrumental del tablero, sensores del motor,
teclado

Acciones:
gestin del volante, acelerar y frenar, bocina, hablar/graficar

Metas:
seguridad, llegar a destino, maximizar ganancias, obedecer las leyes,
satisfaccin del cliente

Ambiente:
calles urbanas, avenidas, trfico, peatones, clima, tipo de cliente

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

24
EJEMPLO:
PAMA DE UN SISTEMA DE IMGENES
SATELITALES
Percepciones:
Pixeles de intensidad y longitud de onda variables

Acciones:
Mover la cmara, cambiar el filtro, imprimir letreros como
tanque82

Metas:
Identificacin cercana a la realidad de todos los objetos de la
imagen

Ambiente:
Imgenes distorsionadas provenientes de una cmara satelital

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

Inteligencia Artificial - Universidad Peruana
Los Andes
16/04/2014
Ing. CIP Loncn Salazar, Pierre Paul 5
25
REAS OTROS EJEMPLOS
Para identificar a un agente debemos analizar su REAS:
I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

26
PROPIEDADES DE LOS ENTORNOS DE
TRABAJO
Accesible (totalmente observable) / Inaccesible (parcialmente
observable)
Si los sensores proporcionan todo lo que hay que saber sobre el estado
completo del ambiente - necesario para elegir una accin - entonces el
ambiente es accesible al agente. Esos ambiente resultan convenientes,
ya que liberan al agente de la tarea de mantener actualizado su
inventario del mundo.

Determinstico / No-determinstico (estocstico)
Si el estado siguiente del ambiente est determinado plenamente por
el estado presente del mismo, y por la accin del agente - se trata de
un ambiente determinstico. As el agente escapa de la incertidumbre.

Episdico / No-episdico (secuencial)
Un ambiente episdico implica que los episodios siguientes no
dependen de las acciones que ocurran en episodios previos (como en
las clsicas cadenas de Markov). Esto le autoriza al agente que no se
deba preocupar por la planificacin de lo que puede ocurrir.

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

27
PROPIEDADES DE LOS ENTORNOS DE
TRABAJO
Esttico / Dinmico
Ser esttico todo ambiente que no cambie mientras el agente est
pensando. No tiene importancia el tiempo que se usa en pensar y no
necesita monitorear el mundo mientras piensa. El tiempo carece de valor
mientras se computa una buena estrategia. En el otro caso ser dinmico.

Discreto / Continuo
Discreto - con escaso nmero de percepciones y acciones en el ambiente.
Continuo - el otro caso.

Sin adversario / con adversarios racionales
Sin adversario - ausencia de otros agentes racionales adversarios: la
consecuencia es que el agente se libera de la preocupacin de la estrategia
de dichos adversarios en el mismo juego.
Los ambientes ingenieriles suelen ser sin adversario.
Los ambientes sociales y econmicos aumentan en su complejidad por la
presencia de interacciones entre uno o ms adversarios (por ejemplo en la
Bolsa).

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

28
EJEMPLOS DE LOS ENTORNOS DE
TRABAJO
I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

29
Estructura de los
Agentes
30
COMETIDO DE LA IA
El cometido de la IA es el diseo de un Programa de
Agente: una funcin que permita implantar el mapeo
del agente para pasar por el sandwich de
percepciones a acciones. Este programa se ejecutar en
algn tipo de dispositivo de cmputo, al que se
denominar arquitectura (puede ser una computadora
sencilla o hardware especial). En algunos mbitos se
utilizan agentes de software (o robots de software o
softbots).

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

Agente = arquitectura + programa
Inteligencia Artificial - Universidad Peruana
Los Andes
16/04/2014
Ing. CIP Loncn Salazar, Pierre Paul 6
31
FUNCIONES Y PROGRAMAS DE AGENTES
El agente queda completamente especificado con la
funcin del agente que mapea lo que describe la
ecuacin
a = f (P,M,A)
sobre todo el componente principal a = f (P)
en principio uno puede suministrar cualquier secuencia perceptual
posible para ver qu sucede - una tabla que resuma esa informacin
podra ser inmensa
donde la funcin del agente es f
El programa de agente trata de implementar la funcin
de agente en forma concisa
Un programa de agente toma una percepcin singular
como input y mantiene el estado interno
I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

32
ESTRUCTURA DE UN AGENTE
INTELIGENTE
Como todos los agentes tienen una estructura bsica o mnima o
esqueltica igual, se puede investigar cul es ella.
Resulta as un AGENTE ESQUELTICO:






Desde un punto de vista estricto, no es necesario que el agente
guarde en su memoria las percepciones entrantes depende del
dominio. Un dominio es un fragmento del mundo acerca del que
deseamos adquirir conocimiento.
El agente esqueltico no incorpora la medida de buen xito en su
meta se entiende que ella est siendo aplicada externamente.

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

function Skeleton-Agent(percept) returns action
static: memory, the agent's memory of the world

memory Update-Memory(memory, percept)
action Choose-Best-Action(memory)
memory Update-Memory(memory, action)
return action
33
TIPOS DE AGENTES
No Bien informados de lo que pasa
Tabla-intensivos
para encontrar la accin siguiente usar una tabla en memoria del tipo
secuencia de percepciones/accin. Se trata de una tabla bastante voluminosa
para repetir la accin ya experimentada antes.
Agentes reflejos con un nico estado (simples)
se basan en reglas condicin/accin y se implementan con un sistema de
PRODUCCIN. Carecen de memoria referente a estados pasados del mundo.
Bien informados de lo que pasa
Agentes con memoria
con un estado interno usado para seguirle la pista a los estados pasados del
mundo.
Agentes meta-intensivos
adems de disponer de informacin sobre el estado, tienen una clase de
informacin sobre la meta que describe situaciones deseables. Agentes de este
tipo tienen bajo consideracin eventos del futuro.
Utilidad-intensivos
basan su decisin en la teora axiomtica clsica de la utilidad para actuar
racionalmente.

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

34
IDEAL: DISPONER DE UNA TABLA
Lo bsico de un agente tabla-intensivo:







Por qu fracasa el ideal de disponer de una tabla de consulta?
Esta arquitectura adolece de
tamao excesivo (no factible)
falta de adaptacin.
Qu tamao tendra que tener la tabla? (Caso lmite, el termstato)
El agente podra aprender de sus errores?
De dnde podra provenir dicha tabla en primera instancia?

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

function Table-Driven-Agent(percept) returns action
static: percepts, a sequence, initially empty
table, a table indexed by percept sequences, initially fully
specified

append percept to the end of percepts
action LookUp(percepts, table)
return action
35
AGENTE REACTIVO SIMPLE
Las reglas condicin-accin permiten establecer la conexin entre
percepcin y accin.
A la derecha del agente se indica el estado interno, nico en un
momento dado del proceso decisional.
A la derecha est la base de conocimiento en forma de reglas de
produccin.
El sencillo programa del agente aparece ms abajo
Interpret-input genera una descripcin abstracta del estado mostrado
por la percepcin
Rule-match produce una regla del conjunto que satisface la percepcin

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

function Simple-Reflex-Agent(percept) returns
action
static: rules, a set of condition-action rules

state Interpret-Input(percept)
rule Rule-Match(state, rules)
action Rule-Action[rule]
return action
36
AGENTE REFLEJO SIMPLE
I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

sensores
efectores
Cmo es el mundo
en este momento ?
Qu accin debo
emprender en este
momento ?
Reglas de condicin-accin
Agente reflejo
simple
Inteligencia Artificial - Universidad Peruana
Los Andes
16/04/2014
Ing. CIP Loncn Salazar, Pierre Paul 7
37
AGENTES CON MEMORIA
La actualizacin del estado interno requiere dos tipos de
conocimiento codificado
conocimiento acerca de la forma como el mundo cambia -
independiente de las acciones del agente.
conocimiento acerca de la forma en que el mundo cambia con motivo
de la accin del agente
Pero el conocimiento del estado interno no siempre es suficiente
para elegir entre rutas decisionales alternativas(en una interseccin
doblar o no doblar el volante del coche?)
pues se requiere conocer la meta a lograr

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

function Reflex-Agent-With-State(percept) returns
action
static: rules, a set of condition-action rules
state, a description of the current world

state Update-State(state, percept)
rule Rule-Match(state, rules)
action Rule-Action[rule]
state Update-State(state, action)
return action
38
AGENTE REFLEJO SIMPLE CON
ESTADO INTERNO
I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

sensores
efectores
Cmo es el mundo en
este momento ?
Qu accin debo
emprender en este
momento ?
Reglas de condicin-accin
Qu producen mis acciones ?
Cmo evoluciona el mundo ?
Estado
Agente reflejo simple
con estado interno
39
AGENTES BASADOS EN METAS
Razonando acerca de acciones
un agente reflejo solo acta basado en conocimientos
precomputados (reglas)
la bsqueda y la planificacin ayudan a razonar acerca de
cul accin logra la meta
el agente es menos eficiente pero ms adaptativo y flexible
Qu argumentar acerca de acciones alternativas que
llegan a la meta
hay que maximizar la utilidad de las acciones, esto es, elegir
aqulla que logra la meta mejor que otras.

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

40
AGENTES BASADOS EN METAS
(ARQUITECTURA)
Los agentes simples no tienen acceso a su medida de buen xito
En ese caso el diseador elige la meta y la incorpora por diseo a su agente
Similarmente, los agentes tontos no pueden formular su propio problema
en cuyo caso dicha formulacin tambin se debe incorporar al diseo
El bucle while (mientras) - ver arriba - es la fase de ejecucin de la
conducta de este tipo de agentes
Ntese que en esta arquitectura se sobreentiende que para la fase de
ejecucin no importa monitorear el ambiente.

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

Input percept
state Update-State(state, percept)
goal Formulate-Goal(state, perf-measure)
search-space Formulate-Problem (state, goal)
plan Search(search-space , goal)
while (plan not empty) do
action Recommendation(plan, state)
plan Remainder(plan, state)
output action
end
41
AGENTES BASADO EN METAS
I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

Agente basado
en metas
sensores
efectores
Cmo es el mundo en
este momento ?
Qu accin debo
emprender en este
momento ?
Metas
Qu producen mis acciones ?
Cmo evoluciona el mundo ?
Estado
Qu sucedera si emprendo
la accin A ?
42
AGENTES BASADOS EN UTILIDAD
Funcin Utilidad
es un mapeo de estados bajo la forma de nmeros reales
lleva a decisiones racionales en dos tipos de situaciones
evaluacin de trueques entre metas en conflicto
evaluacin de metas en conflicto
Las metas no bastan para generar una conducta de alta calidad.
Las metas permiten establecer una distincin entre estados
felices e infelices.
Si se prefiere un estado en lugar de otro, se dice que ese estado
ofrece mayor utilidad al agente.

Utilidad
Funcin que caracteriza el grado de satisfaccin.
En temas venideros se mencionar frecuentemente el PRINCIPIO DE
MAXIMA UTILIDAD ESPERADA
I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

Inteligencia Artificial - Universidad Peruana
Los Andes
16/04/2014
Ing. CIP Loncn Salazar, Pierre Paul 8
43
AGENTES BASADO EN UTILIDAD
I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

Agente basado
en utilidad
sensores
efectores
Cmo es el mundo en
este momento ?
Qu accin debo
emprender ahora ?
Utilidad
Qu producen mis acciones ?
Cmo evoluciona el mundo ?
Estado
Qu sucedera si emprendo
la accin A ?
Qu tan a gusto me
encontrar en tal estado
?
44
AGENTES QUE APRENDEN
En la grfica previa se estudia un modelo general de agente
aprendiz, modelo novedoso con respecto a lo ya estudiado.
Comparado con los tres diagramas del captulo 2 de r&n
(Agentes inteligentes), este cuarto diagrama tiene diferencias.
Aparece una entrada adicional (en rojo) ajeno al agente, que
es el estndar de desempeo que est marcado aparte por
el diseador si se trata de un agente aprendiz autnomo o no
supervisado, o bien corresponde a un maestro en el
aprendizaje supervisado. El error debe irse corrigiendo.
La zona de conexin directa entre sensores y efectores est
regulada por un elemento de procesamiento del desempeo
en el futuro inmediato, influible por maquinaria auxiliar de
aprendizaje, maquinaria corregida por el error detectado.
Las metas del aprendiz pueden tener distintos significados.
Estudiaremos algunos de estos mdulos en detalle.

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

45
AGENTES QUE APRENDEN
I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

M
e
d
i
o

A
m
b
i
e
n
t
e

Elemento de
aprendizaje
Elemento
de actuacin
cambios
conocimiento
Nivel de actuacin
Critica
Retroali-
mentacin
Actuadores
Sensor
Generador de
problema
Objetivos a
aprender
46
RESUMEN
Un agente percibe y acta en un cierto ambiente, posee una
dada arquitectura y est implementado a travs de un
programa de agente.
Un agente ideal (omnisciente) siempre elige aquella accin
mediante la cual se maximiza su logro esperado, sujeta a la
secuencia de percepciones recibida hasta ese momento.
Un agente autnomo usa su experiencia propia en lugar de
usar conocimiento incorporado por su diseador referente al
ambiente.
Un programa de agente mapea la ruta entre percepcin y
accin y actualiza el estado interno de dicho agente.

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

47
RESUMEN
Un agente reflejo (o reactivo) responde de inmediato a las
percepciones.
Un agente meta-intensivo (o basado en metas) acta de tal
manera de obtener el logro de su meta internalizada.
Un agente utilidad intensivo (o basado en utilidad)
maximiza su propia funcin de utilidad.
Poder representar el conocimiento (y a veces lograr que ese
conocimiento pueda ser legible por el humano) es importante
para que el diseo tenga xito.
Los ambientes cambian y se presentan como
dramticamente ms difciles para unos agentes que para
otros. Los ms difciles son los ambientes inaccesibles, no-
determinsticos, no-episdicos, dinmicos y continuos. Un
ambiente fcil es el representado por un robot encargado de
hacer tostadas.

I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

48
I
n
g
.
C
I
P
L
o
n
c

n
S
a
l
a
z
a
r
,
P
i
e
r
r
e
P
a
u
l

Vous aimerez peut-être aussi