0 évaluation0% ont trouvé ce document utile (0 vote)
78 vues9 pages
Este documento discute los conceptos fundamentales de agentes inteligentes en inteligencia artificial. Define un agente como un sistema computacional capaz de actuar de manera autónoma para satisfacer sus objetivos y metas mientras interactúa con su entorno. Explica que la inteligencia artificial se enfoca no solo en comprender la inteligencia sino también en construir agentes racionales, y que el concepto de agente es inherente a la inteligencia artificial.
Este documento discute los conceptos fundamentales de agentes inteligentes en inteligencia artificial. Define un agente como un sistema computacional capaz de actuar de manera autónoma para satisfacer sus objetivos y metas mientras interactúa con su entorno. Explica que la inteligencia artificial se enfoca no solo en comprender la inteligencia sino también en construir agentes racionales, y que el concepto de agente es inherente a la inteligencia artificial.
Este documento discute los conceptos fundamentales de agentes inteligentes en inteligencia artificial. Define un agente como un sistema computacional capaz de actuar de manera autónoma para satisfacer sus objetivos y metas mientras interactúa con su entorno. Explica que la inteligencia artificial se enfoca no solo en comprender la inteligencia sino también en construir agentes racionales, y que el concepto de agente es inherente a la inteligencia artificial.
La Inteligencia Articial tiene como objetivo el estudio de las entidades inteligentes;
pero a diferencia de la losofa, la psicologa, las neurociencias, y dems disciplinas cuyo objeto de estudio est relacionado con la inteligencia, su meta no tiene que ver nicamente con la comprensin de estas entidades, sino con su construccin. La cons- truccin de agentes racionales como concepto unicador dentro de la Inteligencia Articial, constituye el curiosamente llamado, nuevo enfoque de la Inteligencia Arti- cial, claramente denido en el texto introductorio de Russell y Norvig [19]. Incluso antagonistas de las tecnologas basadas en agentes, como Lanier 1 , coinciden en que el concepto de agente es inherente al de Inteligencia Articial. Ciencias Cognitivas Inteligencia Articial Filosofa Neuro Ciencias Lingistica Psicologa Cognitiva Figura 1: La Inteligencia Articial en el contexto de las Ciencias Cognitivas: la diferencia es su constructivismo inherente. Varela [21] situa a la Inteligencia Articial entre las Ciencias Cognitivas (Ver gura 1), enfatizando su constructivismo inherente que la diferencia de otras disciplinas que comparten objetivos similares: losofa, neuro ciencias, lingistica, losofa cognitiva, etc. Esta geografa, cabe mencionar, es de suma utilidad para reexionar acerca del carcter cientco e ingenieril de la Inteligencia Articial. Por tanto, no deja de ser sorprendente que no sea hasta nales de los aos ochenta que el concepto de agente es incorporado a la Inteligencia Articial, como un tema que se pretende unicador. Parte del problema, pudiera deberse a un distanciamien- to entre los intereses cientcos y prcticos del rea. Este captulo espera ofrecer un acercamiento entre ambas perspectivas. Primero Qu es un agente? De donde adop- tamos este trmino? 1 Lanier [11] argumenta que la interaccin de los agentes articiales con los humanos, difcilmente pueden calicarse de inteligente. En su opinin nuestros actuales agentes resultan un verdadero peligro para la humanidad Estos agentes no se volvern inteligentes, pero los humanos ajustarn su comportamiento y sus expectativas al limitado comportamiento de algo que se les ha presentado como inteligente. 1 2 Histricamente, fuera de la Inteligencia Articial, el trmino agente ha sido usado con dos acepciones. Primero, a partir de Aristteles [1] y hasta nuestros das, en - losofa el trmino agente se ha referido a una entidad que acta con un propsito dentro de un contexto social. Segundo, la nocin legal de agente, como la persona que acta en benecio de otra con un propsito especco, bajo la delegacin limitada de autoridad y responsabilidad, estaba ya presente en el derecho Romano y ha sido ampliamente utilizada en economa [14]. En el contexto de la computacin [25], el concepto de agente se consolida como una solucin a las demandas actuales: ubicuidad, interconexin, inteligencia, delegacin y homocentrismo. Esto es, en entornos como el que se muestra en la gura 2,donde tenemos una diversidad de dispositivos de cmputo distribuidos en nuestro entorno e interconectados, los agentes inteligentes emergen como la herramienta para delegar adecuadamente nuestro trabajo y abordar esta problemtica desde una perspectiva ms familiar para usuarios, programadores y diseadores. Internet Telefona Cine/TV Banca Tiendas Trabajo Escuela Figura 2: El entorno computacional actual: ubicuo, interconectado, social, inteligente? Franklin y Graesser [8] argumentan que todas las deniciones del trmino agente en el contexto de la Inteligencia Articial, se basan en alguna de estas dos acepciones histricas. Una denicin consensual de agente [19, 26] puede ser: Un agente es un sistema computacional capaz de actuar de manera aut- noma para satisfacer sus objetivos y metas, mientras se encuentra situado persistentemente en su medio ambiente. Esta denicin que puede parecer demasiado general, provee una abstraccin del concepto de agente basada en su presencia e interaccin con el medio ambiente (Ver la Figura 3). Russell y Subramanian [18] encuentran que esta abstraccin presenta al menos tres ventajas: 1. Nos permite observar las las facultades cognitivas de los agentes al servicio de encontrar cmo hacer lo correcto. 3 Ambiente agente Percepcin Accin Figura 3: Abstraccin de un agente a partir de su interaccin con el medio ambiente. 2. Permite considerar diferentes tipos de agente, incluyendo aquellos que no se supone tengan tales facultades cognitivas. 3. Permite considerar diferentes especicaciones sobre los sub-sistemas que com- ponen los agentes. Consideren el ejemplo 1. Es discutible concebir un daemon de sistema operativo co- mo un agente, pero tal sistema cumple con la denicin consensual de agente. Es ms, este agente se las arregla para identicar a su usuario, encontrar su buzn electrnico en la red, buscar mensajes nuevos y comunicar al usuario la presencia de stos. Las tres ventajas sealadas de tal denicin, se aplican en este caso. El resultado inmediato es que podemos aproximar la denicin de xbiff de una manera ms comprensible para el usuario, sin referenciar en lo absoluto a los protocolos propios del correo-e como POP, IMAP, MAPI, etc., ni a implementacin particular alguna. Ejemplo 1. El deamon de X Windows xbiff est situado en un ambiente UNIX, vigilando constantemente el buzn de su usuario para avisarle cuando llegan mensajes nuevos a travs de una interfaz grca. Si bien hemos presentado al xbiff como un agente, no hemos dicho que se trate de una entidad inteligente. Se dice que un agente es racional si hace lo correcto 2 . Una primera aproximacin a la denicin de lo correcto consiste en asumir que una accin correcta es aquella que causa que el agente tenga un mayor xito. Esto reduce el problema de la racionalidad a denir cmo y cuando se debe evaluar el xito del agente. El trmino medida de desempeo se reere al criterio usado para determinar el xi- to de un agente. Es preferible manejar una medida de desempeo objetiva impuesta por alguna forma de autoridad. Esto es, nosotros como observadores estableceremos para cada agente, un estndar de lo que signica ser exitoso en un ambiente dado, y usaremos ese estndar para medir el desempeo del agente. Bajo ninguna circunstan- cia, el agente puede manipular 3 tal estndar. El ejemplo 2 nos muestra una medida de desempeo que cumple con las caractersticas mencionadas. Ejemplo 2. En el Segundo Torneo Nacional de Robots Limpiadores 2005 (Xalapa, Ver., M- xico), el desempeo del agente es establecido por un estndar externo al agente, especicado mediante la formula de evaluacin diseada por los organizadores: 2 En su ingls original, la frase tiene mayor peso Do the right thing. 3 Un agente que manipula la medida de desempeo, suele llegar a razonamientos del tipo Al n y al cabo, quin diablos quiere una maestra. 4 PT = X i (CL i DA i ) (TMax/TOper) donde: PT es el puntaje total. El segundo trmino evala la persistencia del agente: TMax es el tiempo mximo de la prueba y TOper es el tiempo que el robot se mantuvo en operacin. Si el robot trabaja durante toda la prueba no es penalizado, si no la puede terminar, si lo es. El primer trmino evala la capacidad del agente. Para ello el piso a limpiar, rectangular, se divide conceptualmente en celdas. CL i es la i-sima celda limpiada con xito, o si se preere toma valor 1 si la celda se limpio, y 0 en caso contrario. DA i es el valor de dicultad de acceso a la i-sima celda limpiada. Es necesario precisar que la racionalidad de un agente se dene en relacin con el xito esperado dado lo que el agente ha percibido. Esto es, no podemos exigir a un agente que tome en cuenta lo que no puede percibir, o haga lo que sus efectores no pueden hacer. Por lo tanto, la racionalidad de un agente a un tiempo dado depende de: La medida de desempeo que dene el estndar de xito. La secuencia de percepciones del agente, esto es, todo lo que el agente halla percibido hasta el tiempo dado. El conocimiento del agente sobre el medio ambiente en el que est situado. La habilidad del agente, esto es, las acciones que el agente puede llevar a cabo con cierta destreza. Un agente racional ideal es aquel que para toda secuencia de percepciones posible, selecciona y ejecuta una accin que se espera maximice la medida de desempeo, con base en la informacin que proveen su percepcin y conocimiento sobre el ambiente. Luego entonces, es posible describir un agente por medio de una tabla con las acciones que el agente toma en respuesta a cada posible secuencia de percepciones. Esta tabla se conoce como el mapeo percepcin-accin. Por lo tanto un mapeo ideal describe a un agente ideal y dene el diseo de un agente ideal. A la bsqueda de un mecanismo que aproxime este mapeo ideal, se le conoce como el problema de seleccin de accin. El ejemplo 3 muestra el mapeo ideal de xbiff. Ejemplo 3. En el caso de xbiff el mapeo ideal es muy sencillo. Si el buzn contiene al menos un mensaje con la etiqueta nuevo, desplegar el icono de mensaje nuevo; en cualquier otro caso, desplegar el icono de mensajes ledos. . Independientemente de la implementacin usada para construir a xbiff, no resulta natural identicar a los daemons de UNIX como agentes y menos an como agentes inteligentes. Foner [7] argumenta que para ser percibido como inteligente, un agente debe exhibir cierto tipo de comportamiento, caracterizado ms tarde por Wooldridge . 5 y Jennings [26], como comportamiento exible y autnomo. Este tipo comportamien- to se caracteriza por su: Reactividad. Los agentes inteligentes deben ser capaces de percibir su medio ambiente y responder a tiempo a los cambios en l, a travs de sus acciones. Iniciativa. Los agentes inteligentes deben exhibir un comportamiento orientado por sus metas, tomando la iniciativa para satisfacer sus objetivos de diseo (pro- activeness). Sociabilidad. Los agentes inteligentes deben ser capaces de interaccionar con otros agentes, posiblemente tan complejos como los seres humanos, con miras a la satisfaccin de sus objetivos. Una caracterizacin ms detallada de autonoma es presentada por Covrigaru y Lind- say [4]. Su desiderata, que incluye algunos de los aspectos ya mencionados, expresa que un agente se percibe como autnomo en la medida en que: 1. Su comportamiento est orientado por sus metas y es capaz de seleccionar que meta va a procesar a cada instante. 2. Su existencia se da en un perodo relativamente mayor al necesario para satisfa- cer sus metas. 3. Es lo sucientemente robusto como para seguir siendo viable a pesar de los cambios en el ambiente. 4. Puede interaccionar con su ambiente en la modalidad de procesamiento de in- formacin. 5. Es capaz de exhibir una variedad de respuestas, incluyendo movimientos de adaptacin uidos; y su atencin a los estmulos es selectiva. 6. Ninguna de sus funciones, acciones o decisiones, est totalmente gobernada por un agente externo. 7. Una vez en operacin, el agente no necesita ser programado nuevamente por un agente externo. De entre todos estos puntos, el sexto requiere una defensa rpida puesto que la dimensin social de los agentes no ser abordada en este texto 4 . En losofa poltica liberal, es aceptado que los agentes solo pueden llegar a ser autnomos si se da un conjunto de condiciones necesarias para ello. Diferentes condiciones son consideradas, por ejemplo Rawls [17] habla de bienes primarios, bienes que son medios necesarios para que el agente tenga mayor xito para satisfacer sus intenciones y avanzar en su plan de vida a largo trmino. Es necesaria una pluralidad de tales bienes para congurar lo que l llama contexto de eleccin. Esta pluralidad es posible nicamente si el agente tiene una relacin cercana con su ambiente social y cultural. En el contexto de Inteligencia Articial, es Newell [16] en su Unied Theories of Cognition (p. 20), 4 Castelfranchi [3] presenta una excelente introduccin a las interacciones sociales entre agentes. 6 quien ofrece argumentos similares y seala la bimodailidad entre la autonoma y la pertenencia a una comunidad social. Covrigaru y Lindsay argumentan que ser autnomo, depende no slo de la habili- dad para seleccionar metas u objetivos de entre un conjunto de ellos, ni de la habilidad de formularse nuevas metas, sino de tener el tipo adecuado de metas. Los agentes ar- ticiales son usualmente diseados para llevar a cabo tareas por nosotros, de forma que debemos comunicarles que es lo que esperamos que hagan. En un sistema compu- tacional tradicional esto se reduce a escribir el programa adecuado y ejecutarlo. Un agente puede ser instruido sobre que hacer usando un programa, con la ventaja co- lateral de que su comportamiento estar libre de incertidumbre. Pero programar un agente de esta forma, atenta contra su autonoma, teniendo como efecto colateral la incapacidad del agente para enfrentar situaciones imprevistas mientras ejecuta su pro- grama. Las metas y las funciones de utilidad son dos maneras de indicarle a un agente lo que hacer, sin decirle cmo hacerlo. . Por medio ambiente, entendemos el espacio donde un agente, o un grupo de ellos, se encuentra situado. Brooks [2] argumenta que el medio ambiente por excelencia es el mundo real, y en su propuesta todo agente toma una forma robtica. Por el contrario, Etzioni [5], considera que no es necesario que los agentes tengan implementaciones robticas porque los ambientes virtuales, como los sistemas operativos y el web, son igualmente vlidos que el mundo real. En esta presentacin asumimos la posicin de Etzioni, resaltando que lo importante es que la interaccin del agente con su ambiente se de en los trminos sealados en nuestra denicin de agente, esto es, en forma autnoma bajo persistencia temporal. Russell y Norvig [19] sealan que, ms all de esta controversia, es importante identicar que existen diferentes tipos de ambientes: Observable vs. Parcialmente observable. Si los sensores de un agente le per- miten percibir el estado completo del ambiente en cada punto en el tiempo, decimos que el ambiente es observable. Un ambiente es efectivamente observa- ble si los sensores del agente detectan todos los aspectos relevantes para decidir que accin debe llevarse a cabo. Relevancia aqu depende de la denicin de funcin de desempeo. Los ambientes observables son convenientes debido a que en ellos, un agente no necesita mantener el historial de estados del ambien- te para ser efectivo. Un ambiente puede ser parcialmente observable debido a la imprecisin y el ruido en los sensores; o bien porque algunos aspectos del ambiente caen fuera del rango de lectura de los sensores. Determinista vs. Estocstico. Si el prximo estado del ambiente est determina- do por la accin que ejecuta el agente, se dice que el ambiente es determinista. Si otros factores inuyen en el prximo estado del ambiente, ste es estocstico. Si el ambiente es parcialmente observable, entones aparecer como no estocstico. Esto es particularmente cierto en el caso de ambientes complejos, donde es di- fcil dar seguimiento a los aspectos no observables del ambiente. Generalmente . 7 es mejor considerar estas propiedades del ambiente, desde el punto de vista del agente. El carcter estocstico del ambiente captura dos nociones importantes: 1. El hecho de que los agentes tienen una esfera de inuencia limitada, es decir, en el mejor de los casos tienen un control parcial de su ambiente; 2. y el hecho de que las acciones de un agente puede fallar y no lograr el resultado deseado por el agente. Por ello, es ms sencillo construir agentes en ambientes deterministas. Si el am- biente es determinista, excepto para las acciones de otros agentes, se dice que el ambiente es estratgico. Episdico vs. Secuencial. En un ambiente episdico, la experiencia de un agen- te puede evaluarse en rondas. Las acciones se evalan en cada episodio o ronda , esto es, la calidad de la accin en los episodios subsecuentes, no depende de las acciones ocurridas en episodios previos. Por ejemplo, el detector de basura en las botellas de una cervecera es episdico: la decisin de si una botella esta sucia o no, no depende de los casos anteriores. Dada la persistencia temporal de los agentes, estos tienen que hacer continuamente decisiones locales que tienen consecuencias globales. Los episodios reducen el impacto de estas consecuen- cias, y por lo tanto es ms fcil construir agentes en ambientes episdicos. Un programa que juega ajedrez est en un ambiente secuencial. Esttico vs. Dinmico. Si el ambiente puede cambiar mientras el agente se en- cuentra deliberando, se dice que es dinmico; de otra forma, se dice esttico. Si el ambiente no cambia con el paso del tiempo, pero si lo hace con las acciones del agente si lo hace, se dice que el ambiente es semi-dinmico. Los ambientes dinmicos tienen dos consecuencias importantes: Un agente debe percibir con- tinuamente, porque an si no ha ejecutado ninguna accin entre los tiempos t 0 y t 1 , el agente no puede asumir que el estado del ambiente sea el mismo en t 0 que en t 1 ; Otros procesos en el ambiente pueden interferir con las acciones del agente, incluyendo las acciones de otros agentes. Por lo tanto, es ms sencillo disear agentes en ambientes estticos. Discreto vs. Continuo. Si hay un nmero limitado de posibles estados del am- biente, distintos y claramente denidos, se dice que el ambiente es discreto; de otra forma se dice que es continuo. Esta propiedad puede aplicarse al estado del ambiente; a la forma en que se registra el tiempo y; a las percepciones y acciones de los agentes.Es ms fcil construir agentes en ambientes discretos, porque las computadoras tambin son sistemas discretos y aunque es posible simular siste- mas continuos con el grado de precisin deseado, una parte de la informacin disponible se pierde al hacer esta aproximacin. Por lo tanto, la informacin que manejan los agentes discretos en ambientes continuos es inherentemente aproximada. Mono vs. Multi-Agente A pesar de que esta categorizacin de los ambientes parece obvia, esconde una cuestin en extremo relevante: Qu entidades en el sistema son considerados por el agente como agentes? En general, un agente 8 considerara a otra entidad como un agente si su desempeo depende del com- portamiento de esa entidad. La clave aqu es el concepto de interaccin que da lugar a ambientes competitivos y cooperativos. Esta categorizacin sugiere que es posible encontrar diferentes clases de ambientes. Russell y Norvig [19] presentan algunos ejemplos de ambientes bien estudiados en Inteligencia Articial y sus propiedades (ver Cuadro 1). Cada ambiente, o clase de am- bientes, requiere de alguna forma agentes diferentes para que estos tengan xito. La clase ms compleja de ambientes corresponde a aquellos que son inaccesibles, no epi- sdicos, dinmicos, continuos y multi-agente, lo que desgraciadamente corresponde a nuestro ambiente cotidiano. Ambiente Observable Determinista Episdico Esttico Discreto SMA Crucigrama si si no si si mono Ajedrez con reloj si estratgico no semi si multi Backgammon si estocstico no si si multi Poker parcial estocstico no si si multi Tutor ingls parcial estocstico no no si multi Brazo robtico efectivo estocstico si no no mono Control renera parcial estocstico no no no mono Robot navegador parcial estocstico no no no mono Anlisis imgenes si si si semi no mono Manejo de autos parcial estocstico no no no multi Diagnstico parcial estocstico no no no mono Cuadro 1: Ejemplos de ambientes estudiados en Inteligencia Articial y sus propiedades se- gn Russell y Norvig [19]. Con los elementos discutidos hasta ahora, es posible denir a un agente racional como aquel que exhibe un comportamiento exible y autnomo, mientras est situado en un sistema de informacin, por ej., un sistema operativo o el web. Esto constituye lo que Wooldridge y Jennings [26] llaman la nocin dbil de agente, como contra parte de una nocin fuerte que adems de las propiedades mencionadas hasta ahora, utiliza trminos que hacen referencia a propiedades que solemos aplicar exclusivamente a los seres humanos y que he entrecomillado hasta ahora en el texto: creencias, deseos, intenciones. Si descartamos que el medio ambiente sea un sistema de informacin necesariamente, los robots pueden ser caracterizados como agentes racionales. . Hasta el momento hemos hablado de los agentes en trminos de su comportamiento. En algn momento tendremos que discutir los detalles internos de los agentes. Nues- tro trabajo consistir en disear un programa de agente: una funcin que implemente la seleccin de accin. Asumimos que tal programa se ejecutar en algn dispositivo de cmputo, identicado como la arquitectura del agente. La arquitectura de un agente puede ser una simple computadora, o puede incluir dispositivos hardware especiales, como cmaras de vdeo, sonares, etc. Adems, la arquitectura puede proveer software . 9 Agente Desempeo Ambiente Actuadores Sensores Sistema salud paciente, paciente, hospital, preguntas, lecturas, diagnstico minimizar costos y persona, pruebas reportes, mdico demandas tratamientos diagnsticos, respuestas Cuadro 2: Ejemplos de agentes y su descripcin PAGE segn Russell y Norvig [19]. que funcione como el sistema operativo del agente, por ejemplo, que facilite la inter- accin del programa de agente con la computadora donde se ejecuta, de forma que el agente pueda ser programado a un nivel ms alto. La siguiente expresin resume la relacin entre agente, arquitectura y programa: agente = arquitectura +programa Antes de disear al programa de un agente, debemos tener una idea clara de las posibles percepciones, acciones, medida de desempeo a satisfacer y la clase de am- biente en la que el agente estar situado. Por sus siglas en ingls, a esta descripcin se le conoce como PEAS (performance, environment, actuators, sensors). El Cuadro 2 mues- tra un caso de estudio. . Se sugiere una lectura rpida de los captulos uno y dos del libro de Russell y Nor- vig [19] para una panormica del tema de los agentes racionales con respecto a la Inteligencia Articial. Huns y Singh [10] ofrecen una coleccin de artculos funda- mentales en el rea, algunos de los cuales sern revisados en las tareas del curso. Wei [23] estructur el primer texto completo y coherente sobre el estudio de los Sis- temas Multi-Agentes. Su introduccin al libro es altamente recomendable como una revisin de los problemas propios del rea. Finalmente Wooldridge [25] nos ofrece un texto de introduccin bsico a los Sistemas Multi-Agentes, imprescindible por su cobertura y complejidad moderada. Problema 1. Describa un ejemplo de agente y su medio ambiente. Base su descripcin en el esquema PEAS Existe un mapeo ideal para su agente? Puede denir una medida de desempeo para su agente? Problema 2. Describa un agente nanciero que opera en un mercado de valores, en los trmi- nos utilizados en este captulo.