Vous êtes sur la page 1sur 12

Sommaire

2 Agents intelligents 2

2
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2.2 Dénition d'un agent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2.2.1 L'agent et son environnement . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2.2 Dénition d'un agent intelligent . . . . . . . . . . . . . . . . . . . . . . . 3
2.2.3 Dénition d'un agent rationnel . . . . . . . . . . . . . . . . . . . . . . . 4
2.2.4 La mesure de performance . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.3 Environnement de la tâche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3.1 Description PEAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3.2 Propriétés de l'environnement . . . . . . . . . . . . . . . . . . . . . . . . 6
2.3.3 Le monde réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4 Structure d'agent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4.1 Agent simple réexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4.2 Agent réexe avec état interne . . . . . . . . . . . . . . . . . . . . . . . . 8
2.4.3 Agent basé sur le but . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.4.4 Agent basé sur l'utilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4.5 Agent apprenant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

1
Chapitre 2
Agents intelligents

2.1 Introduction
L'intelligence articielle, nous pouvons distinguer deux objectifs principaux : la compréhen-
sion de l'intelligence et création d'agents intelligents.
 Commençons par la compréhension de l'intelligence, cette branche concerne principa-
lement les neuro-scientiques qui développe des modèles mathématiques du fonction-
nement du cerveau au niveau neuronal. Elle concerne aussi le domaine des sciences
cognitives et psychologie qui permet de comprendre le raisonnement humain, de prédire
la performance d'un humain à une tâche  ex. : l'architecture ACT-R pour évaluer le
risque couru en parlant au téléphone lors de la conduite d'une voiture.
 L'autre branche est la création d'agents intelligents pour prendre ou nous aider à prendre
des décisions, principalement l'agent doit avoir des capacités fondamentales comme : Per-
ception, Représentation des connaissances (modélisation), Raisonnement, Apprentissage,
Prise de décisions.
Dans ce cours nous nous intéressons à la création d'agents intelligents et précisément à
l'approche de l'agent rationnel qui présente deux avantages :
 C'est une approche plus générale que la loi de la pensée car une inférence correcte n'est
qu'un mécanisme parmi d'autres pour atteindre un comportement rationnel.
 C'est une approche plus adaptée à un développement scientique, car le standard du
rationnel est mathématiquement bien déni et généralisé.

2.2 Dénition d'un agent


Un agent peut être toute chose qui peut percevoir son environnement à l'aide de CAPTEURS
(SENSORS) et agir sur cet environnement à l'aide d'ACTIONNEURS (ACTUATORS). Un
agent peut PERCEVOIR, PENSER, et AGIR. Quand on parle d'agent il peut être un agent
humain, robot, ou logiciel.
 Un agent humain a des yeux, des oreilles et d'autres organes comme capteurs, et des
mains, des pieds, une voix qui travaillent comme actionneurs.
 Un agent robotique a : des caméras, des capteurs infrarouges. . . comme capteurs, et
plusieurs moteurs comme actionneurs.
 Un agent logiciel a : clavier, contenus de chiers comme capteurs d'entrées, et un écran,
accès en écritures agit sur ces entrées en achant le résultat sur l'écran.

2
Par : Dr S. Mechiouri Agents intelligent Année 2023/2024

2.2.1 L'agent et son environnement


Le processus agent f prend en entrée une séquence d'observations (percepts) et retourne
une action :

f : P∗ → A
En pratique, ce processus est implémenté par un programme sur une architecture matérielle
spécique.

Function Skeleton - agent ( percept ) return action


static memory // the agent memory of the world

memory := Update - Memory ( memory , percept )


action := Choose - Best - Action ( memory )
memory := Update - Memory ( memory , action )

return action ;

2.2.2 Dénition d'un agent intelligent


Un agent intelligent est une entité autonome qui agit sur son environnement en utilisant des
capteurs et actionneurs dans le but d'atteindre un objectif. Il est aussi capable d'apprendre de
son environnement.

Exemple : Aspirateur autonome Comme on peut le voir dans la gure suivante, l'aspira-
teur se trouve dans l'environnement suivant :
 Deux pièces : A, B
 Deux états : Sale, Propre
 Mouvements de l'agent : Droite, Gauche
L'aspirateur peut nettoyer la pièce ou il est.

La séquence de perception et actions de l'aspirateur est résumé dans le tableau suivant :

3 sur 12
Par : Dr S. Mechiouri Agents intelligent Année 2023/2024

Remarque : La table a une taille illimitée car il faut dénir une limite de longueur des
séquences des percepts.

2.2.3 Dénition d'un agent rationnel


Un agent rationnel agit "correctement" dans le but de maximiser sa mesure de performance
avec toutes ses actions en fonction de sa perception du monde et de ses connaissances.

Remarque : Un agent rationnel ne veut pas dire que l'agent est omniscient. Un agent
omniscient connait le résultat de ses actions et peut agir en conséquence MAIS l'omniscience
est impossible en réalité.

La rationalité d'un agent est mesurée par sa mesure de performance Pour chaque séquence
de perception possible, un agent rationnel devra sélectionner une action qui doit maximiser
sa mesure de performance en prenant en compte la séquence de perception et la connaissance
acquise par l'agent. La rationalité dépend de quatre caractéristiques.
 La mesure de performance est prise en :
Evaluant le comportement dans son environnement.
Comparant entre deux agents ( Perception, Prise de décision, Action).
 La connaissance préalable de l'environnement par l'agent.
 Les meilleures actions que l'agent peut eectuer.
 La séquence de perception de l'agent à ce jour.

2.2.4 La mesure de performance


Une fonction objective mesurant la qualité d'un comportement de l'agent. Il est important
de bien choisi la mesure de performance.

Exemple : Aspirateur autonome Mesure de performance : Quantité de saleté ramassé en


8 heures. L'agent pourrait ramasser la saleté, la redéposer et ainsi de suite.

Une meilleure solution : Une meilleure option : Récompenser l'agent pour un plancher
propre.

Pour cela, on peut attribuer un point pour chaque carré propre à chaque intervalle de temps.
Peut-être avec une pénalité pour l'électricité consommée.

4 sur 12
Par : Dr S. Mechiouri Agents intelligent Année 2023/2024

De manière Générale, il est conseillé de concevoir des mesures de performance en accord


avec l'objectif (ce que l'on veut obtenir dans l'environnement) plutôt que d'accorder avec ce
qu'on pense qu'un agent devrait faire.

2.3 Environnement de travail


Les environnements de travail en intelligence articielle font référence aux situations ou
aux contextes dans lesquels les systèmes ou les agents intelligents opèrent et interagissent.
Ces environnements peuvent être réels ou virtuels, simples ou complexes, et ils présentent
des dés spéciques à résoudre. Les agents intelligents sont conçus pour accomplir des tâches
dans ces environnements, en prenant des décisions et en eectuant des actions en fonction des
informations disponibles.
Donc la première étape pour la conception d'un agent intelligent est de dénir l'environ-
nement de travail (Task environment). La compréhension et la conception appropriée de ces
environnements sont essentielles pour développer des agents performants et adaptables.

2.3.1 Description PEAS


La spécication de l'environnement contient les quatre éléments suivants : (PEAS)
 Mesure de la performance (Performance Mesure)
 Environnement (Environment) : Les éléments de l'environnement
 Actionneur (Actuators) : Les actions que l'agent peut eectuer
 Capteurs (Sensors) : La séquence d'observation ou percepts de l'agent

Exemple : Taxi Autonome

Exemple : Diagnostic médical automatisé

5 sur 12
Par : Dr S. Mechiouri Agents intelligent Année 2023/2024

2.3.2 Propriétés de l'environnement


Complètement observable VS Partiellement observable

Dans un environnement complètement observable, l'agent a accès un état complet de l'en-


vironnement à chaque instant grâce à ses capteurs.

Connu VS Inconnu

Dans un environnement connu l'agent connait les lois qui régissent l'environnement.

Déterministe VS Indeterministe(Stochastique

Dans un environnement déterministe, l'état suivant de l'environnement est entièrement dé-


terminé par l'état courant et l'action eectuée par l'agent

Episodique VS Séquentiel

Dans un environnement épisodique, les opérations/comportements de l'agent sont divisés


en épisodes :
 chaque épisode consistant à observer l'environnement et eectuer une seule action,
 et le choix de chaque action dans un épisode ne dépendant que de cet épisode
Dans un environnement séquentiel, la décision actuelle peut aecter les décisions futures

Statique VS Dynamique

Un environnement statique ne change pas lorsque l'agent n'agit pas.

Discret VS Continu

Dans l'environnement discret, on trouve un nombre limité et clairement distincts de données


sensoriels et d'actions.

Mono-Agent VS Multi-Agents

Dans l'environnement mono-agent, un agent opérant seul dans un environnement.

6 sur 12
Par : Dr S. Mechiouri Agents intelligent Année 2023/2024

2.3.3 Le monde réel


Il est important de noter que le type d'environnement détermine généralement l'architecture
de l'agent.

Le monde réel est complexe, il est :


 Partiellement observable
 Stochastique
 Séquentiel
 Dynamique
 Continue
 Multiagent

Exemple : conduite automatisée d'une voiture.

2.4 Structure d'agent


Un agent est complètement dénit par une fonction d'agent qui relie chaque séquence de
perceptions à une action. (Décrit le comportement de l'agent).

Fonction agent - guide - tableAction ( percept )


Entree : T - actions % Table d ' actions indexee
par la sequence de perceptions
seq := seq + percept % initialement la sequence est vide
action := Recherche ( seq , T - actions )
Return Action ;

L'objectif est de concevoir un programme d'agent qui implémente la fonction d'agent


Un tel programme doit fonctionner sur machine. Pour cela, on parle d'architecture qui va
décrire l'équipement avec les capteurs et actionneur(eecteurs) qu'utilise l'agent intelligent.
Ex : Ordinateurs, automobiles, caméra...etc.

Agent = Architecture + Programme


Le programme élaboré pour chaque type d'agent doit s'adapter à son architecture. On distingue
4 catégories d'agents qui évoluent, en passant par l'agent réactif jusqu'à l'agent cognitif, de la
manière suivante :

2.4.1 Agent simple réexe


Les agents réactifs agissent uniquement sur la base de leur perception actuelle, ignorant
le reste (pas d'historique, ni de mémoire) La fonction de l'agent basée sur condition/action)
réussit seulement si l'environnement est complètement observable.

7 sur 12
Par : Dr S. Mechiouri Agents intelligent Année 2023/2024

function SIMPLE - REFLEX - AGENT ( percept ) returns action

persistent : rules % un ensemble de regles condition - action

state := INTERPRET - INPUT ( percept ) % Genere une description abstraite


de l ' etat courant

rule := RULE - MATCH ( state , rules ) % Premiere regle de l ' ensemble des
regles qui correspond a l ' etat actuel .

action := rule . ACTION

return action

Exemple :
 Agent : Conducteur de voiture autonome
 Situation : Freinage du véhicule de devant
 Règle Condition/Action :
 Condition : les lumières de freinage du véhicule de devant se sont déclenchées.
 Action : enclencher le freinage.

Si Voiture-de-devant-freine Alors enclencher le freinage.

2.4.2 Agent réexe avec état interne


Ce type d'agent est mieux adapté à un monde partiellement observable, Son état actuel est
stocké dans l'agent an de maintenir une sorte de structure qui décrit la partie du monde qui
ne peut pas être vu . Cette connaissance sur "comment le monde fonctionne  est appelé un
modèle du monde.
Ce type d'agent devrait maintenir une sorte de modèle interne qui dépend de l'historique
des perceptions et reète ainsi quelque aspects inobservés de l'état actuel . Il choisit alors une
action de la même manière que l'agent réexe simple.

8 sur 12
Par : Dr S. Mechiouri Agents intelligent Année 2023/2024

function MODEL - BASED - REFLEX - AGENT ( percept ) returns an action


persistent :
state % La conception de l ' agent de l ' etat actuel du monde
transition model % Une description sur comment le prochain
etat depend de l ' etat actuel et de l ' action
sensor model % une description de comment l ' etat actuel
par rapport a la perception de l ' agent .
rules ,
action , % L ' action la plus recente , initialement aucune .

state := UPDATE - STATE ( state , action , percept ,


transition model , sensor model )

rule := RULE - MATCH ( state , rules )

action := rule . ACTION

return action

Exemple : Système de navigation pour une voiture autonome


L'agent utilise le modèle interne de la route, du trac, des obstacles, des règles de conduite
et de la destination pour choisir la meilleure action à eectuer en fonction de ses capteurs.
Le modèle interne permet à l'agent de prédire les conséquences de ses actions et de tenir
compte de l'état actuel/passé de l'environnement.

2.4.3 Agent basé sur le but


Cet agent utilise des états buts. ie. des situations désirables, puis choisit l'action qui se
rapproche le plus du but.

9 sur 12
Par : Dr S. Mechiouri Agents intelligent Année 2023/2024

Exemple : Agent nettoyeur


but1 = se recharger Action :  J'ai besoin de me recharger bientôt donc je me rap-
proche d'une zone avec prises 
but2 = ne pas tomber en panne  Et en plus j'y vais lentement pour économiser mes
batteries (si elles sont très faibles) 

Remarque : Parfois, les buts sont en conits.

2.4.4 Agent basé sur l'utilité


L'utilité est une fonction qui permet de mesurer la désirabilité d'un état, la satisfaction
de l'agent.
 Utilité : Etat → valeur.
 La fonction utilité est mieux adaptée que la fonction but dans les cas suivants :
 L'agent a des buts contradictoires.
 L'agent agit dans un environnent non déterministe, il n'est pas certain de pouvoir
atteindre ses buts.

10 sur 12
Par : Dr S. Mechiouri Agents intelligent Année 2023/2024

Exemple : Si Utilité (ne pas tomber en panne) > Utilité (se recharger) Alors Ma batterie
est proche de zéro, je m'arrête et j'envoie un signal d'alarme

2.4.5 Agent apprenant


Souvent, il est très fastidieux voire impossible de dénir le comportement de l'agent à la
conception. c'est la qu'intervient l'apprentissage. Il permet :
 De simplier la conception.
 À l'agent d'avoir plus de exibilité.
 À l'agent d'agir dans des environnements inconnus et de devenir meilleur avec le temps
Un agent apprenant est composé de quatre parties conceptuelles :
 Module d'apprentissage : Produit des progrès en absorbant la connaissance depuis
son environnement.
 Critique : Permet d'évaluer les performances de l'agent par rapport à un référentiel de
performances prédéterminé.
 Module de performance : Choisit une action externe.
 Générateur de problèmes : fait des recommandations d'activités qui donneront lieu
à des expériences inédites et éducatives.

Exemple : Taxi autonome


 Module de performance : conduire le taxi, de choisir les itinéraires, de gérer les arrêts
et les déplacements. . .etc.
 Critique : le critère pourrait être lié à la sécurité des passagers, à l'ecacité du trajet,
à la satisfaction des clients...etc.
 Module d'apprentissage : utiliser des techniques d'apprentissage automatique pour
améliorer les compétences de conduite, optimiser les itinéraires en fonction des conditions
de trac. . .etc.
 Générateur de problèmes : Il pourrait simuler des conditions de trac variées, des
comportements de conducteurs imprévisibles, des situations d'urgence. . .etc.

2.5 Conclusion
 Un agent est un artefact (robot, logiciel. . .) qui perçoit et agit sur un environnement.
 La mesure de performance évalue le succès du comportement de l'agent.
 L'environnement de travail varie selon diérentes dimensions.
 Le programme d'un agent implémente la fonction d'agent.

11 sur 12
Par : Dr S. Mechiouri Agents intelligent Année 2023/2024

 4 Agents aux fonctionnalités croissantes, basées sur les : Reexes, les modèles, les buts,
et l'utilité.
 Chaque agent peut être amélioré par l'apprentissage

12 sur 12

Vous aimerez peut-être aussi