Académique Documents
Professionnel Documents
Culture Documents
Intelligence Artificielle
Distribuée/SMAs
Intelligence Artificielle IAD/SMA
IA Distribuée?
• On passe d’un paradigme psychologique à un
paradigme sociologique.
=> des sociétés d’”unités” qui travaillent en
commun pour aboutir à un but global.
IA Distribuée?
L’intelligence Artificielle Distribuée conçoit et étudie des
systèmes dans lesquels des unités (agents, …) opèrent de
façon collective et décentralisée pour accomplir des tâches
dans un environnement commun.
Métaphore du “penseur” :
la machine pense et, elle sait
quelque chose par elle-même
Limites
- Les grandes
réalisations sont l’oeuvre
de groupes et de
Métaphore des organisations sociales,
sociétés.
Action et Interaction deviennent plus importantes
que l’intelligence individuelle.
- Les capacités
coopérer (contrôle)
cognitives d’un individu
collaborer (allocation de tâches)
résultent de son
négocier (résolution de conflits)
environnement social
se coordonner (synchronisation)
PLUSIEURS RAISONS.....
Intelligence Artificielle IAD/SMA
RAISONS INDUSTRIELLES
SITUTIONS NATURELLEMENT DISTRIBUEES
■ Distribution fonctionnelle dans les activités humaines
(comme la conception d’un produit, par exemple) :
■ Points de vue et langages (ontologies) variés
■ Décomposition du problème en fonction des spécialités
■ Comment assister ces activités de façon automatisée ?
■ Systèmes multi-experts
Intelligence Artificielle IAD/SMA
CONCRETEMENT…
ENVIRONNEMENT
Intelligence Artificielle IAD/SMA
Qu’est-ce qu’un agent ?
Pour un humain:
- Capteurs : oreilles, yeux, nez, peau, …
- Effecteurs : mains, bras, jambes, bouche, …
Pour un robot :
- Capteurs : caméra vidéo, laser, capteur infra-rouge, tactile, …
- Effecteurs : bras robotisé, roues, pinces, …
Pour un agent logiciel (softbot) :
- Capteurs : données, chaînes de caractères, …
- Effecteurs : données, chaînes de caractères, …
Intelligence Artificielle IAD/SMA
Agents vs Objets
Objet: entité passive possédant un état et sur lequel on peut effectuer des
opérations.
Agents vs Objets
Intelligence Artificielle IAD/SMA
AGENT: typologie
• agent rationnel
– IA, comportement délibératif, perceptions, croyances, buts
– ex : système expert, BDI ( Plate-forme JACK, 3APL,…)
• agents logiciels
– ex : démons Unix, virus informatiques, robots Web
• agents mobiles
– code mobile -> objet mobile -> agent mobile (processus)
– motivations : minimisation communications distantes, informatique nomade
– technologie en avance sur les besoins
– problèmes de sécurité, coquilles vides
• agent assistant
– secrétaire virtuelle (trie le mail, gère les RdVs...)
– < logiciel utilisateur + assistant >
Intelligence Artificielle IAD/SMA
AGENT: typologie
• agent robotique
– architectures de contrôle de robots
– sélection de l’action
– robotique collective (ex : RoboCup, déminage...)
• vie artificielle
– alternative à l’IA classique
– modélisation/simulation des propriétés fondamentales de la vie (adaptation,
reproduction, auto-organisation...)
– importation de métaphores biologiques, éthologiques...
– ex : algorithmes à base de fourmis (agents) pour routage de réseaux
• systèmes multi-agents
– résolution distribuée (décentralisée) de problèmes
– coordination, organisation
– ex : robotique collective
Intelligence Artificielle IAD/SMA
- Architecture:
* Organisation matérielle et logicielle
* Contrôle les capteurs et « fabrique » les séquences perceptives
* Exécute les programmes et les actions ( contrôle les effecteurs)
Structure générale
d'un agent
qui interagit avec
d'autres agents
Intelligence Artificielle IAD/SMA
------
–Agent simple réflexe
Réactif
Cognitif
retourne l’action
retourne l’action
Intelligence Artificielle IAD/SMA
retourne l’action
Intelligence Artificielle IAD/SMA
Ex. taxi-driver: il existe plusieurs chemins pour arriver à destination, et certains sont plus courts que d’autres.
Pour palier ce problème, il faut introduire une fonction d’utilité. Elle a pour rôle de permettre de départager les
objectifs quand ils s’opposent, ou en cas d’incertitude sur leur réalisation.
Intelligence Artificielle IAD/SMA
5. Agent apprenant
Une question générale qu’on peut se poser, c’est comment l’agent sait-il choisir l’action qu’il doit effectuer. S’il
utilise des règles : comment les a-t-il eues ? Si c’est une fonction d’utilité, comment a-t-elle été définie ?
- Première solution : c’est le concepteur qui s’en est chargé. Beaucoup de travail
- Deuxième solution : l’agent a appris tout seul. L’avantage ici est de pouvoir lâcher l’agent dans un
environnement complètement inconnu.
Module d’action
correspond à un agent précédemment décrit
Modèle de performance
répertorie des situations bonnes ou mauvaises pour
l’agent. Le Module de critique les compare à la situation
actuelle pour faire un retour au module d’apprentissage.
Module de Critique
fournit une évaluation de la qualité du comportement de
l’agent en se basant sur un modèle de performance.
Module d’apprentissage
utilise un retour (une critique) des actions précédemment
effectuées pour déterminer comment le module d’action
doit être modifié pour mieux se comporter dans le futur.
Générateur de problèmes
il suggère des actions dans le but d’engranger des
nouvelles expériences et des nouvelles informations.
Exploration,..
Intelligence Artificielle IAD/SMA
Environnement
1. Spécification de l’environnement
- P : mesure de la performance
- E : environnement de l’agent (le monde (contexte) dans lequel il évolue)
- A : effecteurs
- S : capteurs
2. Propriétés de l’environnement
-Complètement/partiellement observable
-Déterministe/stochastique
- Épisodique/séquentiel
- Statique/dynamique
- Discret/continu
• Ex :
jeu d’échecs est discret pour tout sauf le temps.
Taxi est continu pour tout
- Mono-agent/Multi-agent
3. Exemples
Intelligence Artificielle Agents Intelligents
Propriétés de l’environnement
–Partiellement observable
–Stochastique
–Séquentielle
–Dynamique
–Continue
–Multi-agent
Mesure de performance
Formellement, la mesure de performance se présente sous la forme d’une fonction
associant un nombre réel à la succession des états de l’environnement :
V: S∗→R
où S* est l’ensemble des historiques possibles.
- la mesure doit être la plus objective possible, c’est pourquoi elle dépend de
l’environnement, elle est extérieure à l’agent. Par exemple un agent humain n’est
pas forcément objectif quand il s’agit de s’auto-évaluer : certaines personnes se
surestiment, d’autres se sous-estiment.
- Pour résumer :
Externe
Propre à la tâche
Intelligence Artificielle Agents Intelligents
Agent rationnel
Rationnel = basé sur le raisonnement
« For each possible percept sequence, an ideal rational agent should do whatever action is
expected to maximize its performance measure, on the basis of the evidence provided by
the percept sequence and whatever buil-in knowledge the agent has. »
Russel, Norvig, page 33.
Mesure de performance:
Agent rationnel
Rationnel (c’est)
- Exploration
- Apprentissage
- Autonomie
AGENT RATIONNEL
Le modèle BDI (Belief-Desire-Intention)
Le modèle BDI (Belief-Desire-Intention) est un modèle de raisonnement utilisé
en intelligence artificielle et ayant ses racines en philosophie et sciences
cognitives. Il est largement utilisé comme modèle de raisonnement agent
notamment dans la plateforme JACK (http://www.agent-software.com ) ou
3APL.
SMA
- Faire coopérer un ensemble d’entités pro-actives et
relativement indépendantes appelés « agents » et dotés d’un
comportement intelligent ou pas
[1] Ferber J., Les Systèmes Multi-Agents, vers une intelligence collective, — collection iia,
Inter-éditions, 1995.
[2] Guessoum Z. and Briot J.P., From active objects to autonomous agents. IEEE
Intelligence Artificielle IAD/SMA
SMA
Un SMA peut-être :
■ Ouvert : les agents y entrent et en sortent librement (ex: un
café, une application de commerce électronique, etc.)
■ Fermé : l'ensemble d'agents reste le même (ex: un match de
football, un système multi-experts)
■ Homogène : tous les agents sont construits sur le même modèle
(ex: une réunion de travail, une colonie de fourmis)
■ Hétérogène : des agents de modèles différents, de granularité
différentes (ex: un éco-système)
■ Mixte (ou non) : les agents « humains » sont partie intégrante du système
(ex: un groupe de travail médié par des agents assistants) (implique ouvert et
hétérogène)
Les applications les plus complexes concernent les SMA ouverts, hétérogènes et
mixtes… mais la plupart des recherches se font sur les systèmes fermés et homogènes.
Intelligence Artificielle Agents Intelligents
Références
En français
– Jacques Ferber, Les systèmes multi agents, InterEditions 1995 réédité
en 200. La référence en français.
– Eric Bonabeau et Guy Theraulaz, Intelligence Collective, Hermès
1994. Tout sur la « Swarm Intelligence ».
– JFIADSMA, tous les Actes des Journées Francophones en Intelligence
Artificielle Distribuéeet Systèmes Multi Agents, Colloque annuel.
En anglais
– Stuart Russel, Peter Norvig, Artificial Intelligence ― a modern
approach, la version 2002 s’intitule « the agent release » et intègre les
concepts agents dans le cadre de l’IA classique.
– Alan H. Bond, Les Gasser Ed., Readings in Distributed Artificial
Intelligence, Morgan Kaufmann, 1988. Un recueil très classique des
articles fondateurs sur l’IAD.
– Michael J. Wooldridge, An Introduction to multi agent systems, J.
Wiley & sons, 2002. Une bonne introduction aux agents rationnels,
fondés sur les logiques (LPO et modales).
Quelques autres références utiles
Articles de base
P. R. Cohen et H. J. Levesque. Intention is choice with commitment. Artificial
Intelligence, 42(3): 213-261, 1990.
Article de référence sur les aspects logiques.
A. S. Rao et M. Georgeff. BDI Agents : From Theory to Practice, In V. Lesser (ed.):
Proceedings of the first International Conference on Multi-Agent Systems, pages 312-
319. MIT Press, 1995.
Tentative d’intégration des fondements théoriques des BDI et des aspects
d’implémentation.
A. S. Rao et M. Georgeff. Decision procedures of BDI logics. Journal of Logic and
Computation, 8(3): 293-344, 1998.
Techniques de raisonnement en logique BDI.
BDI [CiteSeer; NEC Research Institute; Steve Lawrence, Kurt Bollacker, Lee Giles]
De nombreux articles récents sur le modèle BDI.
Ouvrages
M. E. Bratman. Intentions, Plans, and Practical Reason. Harvard University Press:
Cambridge, MA, 1987.
La référence de base pour les aspects philosophiques.
M. Wooldridge. Reasoning about Rational Agents. Intelligent Robots and
Autonomous Agents. MIT Press, Cambridge, Massachussetts, 2000.
Synthèse présentant l’approche BDI autour de la logique LORA.
Tutoriels
R. Schmidt, D. Tishkovsky, U. Hustadt, M. Fisher, C. Dixon. Proof Methods for
Multi-Agents Systems. Séminaire de Dagstuhl, Nov. 2002.
Résultats de complétude et de complexité pour quelques-unes des logiques les plus
utilisées.
M. Pauly et M. Wooldridge. BDI Logics. 1st North American Summer School in
Logic, Language, and Information with the 11th Logic, Language, and Computation,
Colloquium, NASSLLI '02, Stanford, CA, June 24-30, 2002.
Présentation succincte des langages de description logique.
M. Luck. Introduction to Autonomous Agents and Multi-Agent Systems. CACM,
1994.
Présentation de quelques architectures agents. Problèmes d’interaction et de
partage de ressources.