Vous êtes sur la page 1sur 26

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/309238376

Intelligence Artificielle

Chapter · December 2006

CITATIONS READS

0 7,633

1 author:

Reda Adjoudj
University of Sidi-Bel-Abbes
77 PUBLICATIONS 262 CITATIONS

SEE PROFILE

All content following this page was uploaded by Reda Adjoudj on 18 October 2016.

The user has requested enhancement of the downloaded file.


Intelligence Artificielle
Plan de cours - Décembre 2006

Dr ADJOUDJ Réda
Département d‘Informatique (Université de Djillali Liabès, Sidi Bel-Abbès)
Adjoudj@univ-sba.dz
Cours préparé pour
Institut d‘Informatique (Centre Universitaire Moulay Taher, Saïda)

Sujets abordés dans ce cours :


Chap1_ Introduction à la l'intelligence artificielle
Chap2_ L’agent intelligent
Chap3_ La logique
Chap4_ L’inférence logique
Chap5_ La recherche (aveugle et heuristique)
Chap6_ La planification
Chap7_ La représentation des connaissances
Chap8_ L'apprentissage de connaissances
Description du module
Introduction à l’intelligence artificielle. Notion d’agent intelligent. Logique des propositions.
Logique des prédicats. Logique floue. Logique temporelle. Inférence en logique des propositions
et logique des prédicats. Systèmes experts. Résolution de problèmes à l’aide d’algorithmes de
recherche. Recherche aveugle. Recherche heuristique. Planification. Représentation des
connaissances. Introduction au web sémantique et aux ontologies. Apprentissage automatique.
Arbres de décision. K plus proches voisins. Réseaux de neurones. Algorithme génétique.

Objectifs généraux
Ce module est une introduction à l’intelligence artificielle. Il fournit une vue d’ensemble de
plusieurs aspects nécessaires pour concevoir un agent intelligent. L’enseignement est orientée
vers les techniques et méthodes pratiques du domaine, avec quelques notions plus abstraites sur
les notions d’intelligence. Les étudiants sont amenés à réfléchir sur les difficultés liées à ce
domaine.

Objectifs spécifiques
Ce module a comme objectifs plus particuliers de :
• Enseigner aux auditeurs les fondements et les applications de l’intelligence artificielle ;
• Familiariser les auditeurs avec les différents algorithmes et techniques de base du domaine ;
• Familiariser les auditeurs avec les notions abstraites d’intelligence et de rationalité ;
• Permettre aux auditeurs de connaître les différentes aspects nécessaires pour concevoir un
agent intelligent ;
• Comprendre les enjeux liés au domaine et de connaître quelques développements en matière de
recherche et développement ;
• Développer des applications simples en intelligence artificielle ;
• Comprendre les difficultés liées à l’intelligence artificielle en comparaison avec l’intelligence
humaine.

2
Chapitre 1 : Introduction à l‘Intelligence Artificielle (IA)
1.1.Qu’est-ce que l’intelligence ?
Cela dépend à qui on pose la question…
• Selon Turing
- Ce qui rend difficile la distinction entre une tâche réalisée par un être humain ou
par une machine.
• Selon Darwin
- Ce qui permet la survie de l'individu le plus apte, parfaitement adapté à son
environnement.
• Selon Edison
- Tout ce qui fait que cela fonctionne et produit le plus de revenus pour l'entreprise.

1.2.Quelques définitions
ƒ Qu'est-ce que l'intelligence ?
-“La faculté de connaître et comprendre, incluant la perception, l'apprentissage, l'intuition, le
jugement et la conception.”(Petit Robert)
-“La faculté de connaître et de raisonner.”(Dictionnaire American Heritage)
-“Application de la connaissance à la résolution de problèmes.”(Newell et Simon)
ƒ Qu'est-ce que la connaissance ?
- La compétence qui permet de résoudre des problèmes.
ƒ Qu'est-ce que la raisonnement ?
- La génération de nouvelles connaissances.

1.3.Idées variées sur l’IA


ƒ IA est la simulation des processus intelligents chez l’humain…
ƒ IA est la reproduction des méthodes ou des résultats du raisonnement ou de l’intuition
humains…
ƒ IA est l’étude des facultés mentales par des méthodes de calcul et informatiques…
ƒ Utiliser des modèles de calcul pour simuler un comportement intelligent…
Des machines imitant les humains…

N.B: Source : http://cui.unige.ch/DI/cours/IA/

2.Penser comme un humain


Comment fonctionne notre cerveau ?
-Requiert des théories scientifiques de l’activité interne du cerveau par introspection ( inves-
tigation de ses pensées intérieures et de ses sentiments) ou expériences psychologiques.
-Implémenter les théories et comparer avec les humains.
Comment valider ces systèmes :
-Il faut prédire et tester le comportement de sujets humains (sciences cognitives) ou il faut
identifier directement à partir de données neurologiques (neurosciences cognitives).

3
3.Agir comme un humain
ƒ Test de Turing
-Un individu communique avec un interlocuteur invisible à
l'aide d'un terminal d'ordinateur.
-Il doit décider si l'interlocuteur est un être humain ou un
système d'IA imitant un être humain.
ƒ Capacités requises :
-Traitement du langage naturel.
-Représentation des connaissances.
-Raisonnement automatique.
-Apprentissage.

4.Penser rationnellement

ƒAristote et le processus de raisonnement correct, la logique.


Ex: Socrate est un homme ; tous les hommes sont mortels; donc Socrate est mortel.
ƒAu 19e siècle, la logique formelle permet d’écrire des énoncés sur les objets dans le monde et
leurs relations.
-Lien entre les mathématiqueset la philosophievers l’ IA moderne.
ƒProblèmes :
-Il est difficile de traduire les connaissances et les états du monde réel en des équations logiques
(incertitude)
-Il y a une différence entre résoudre un problème en principe et le résoudre réellement
(complexité)

N.B : Rationnel :
1.qui est conforme au bon sens (• avoir un comportement rationnel )
2.logique et sensé (• il a un esprit très rationnel )
3.qui est conçu avec un souci de méthode et de logique (• dans les nouvelles
bibliothèques, le rangement est plus rationnel )
4.[philosophie] que l'on ne conçoit que par la raison(• le principe rationnel de la
faculté de juger )

5.Agir rationnellement
Comportement rationnel :
-Faire la bonne chose, c’est-à-dire celle qui devrait, selon les informations disponibles,
maximiser l’accomplissement d’un but.

N’implique pas nécessairement un raisonnement, ex. réflexe de cligner des yeux


-mais le raisonnement devrait être au service d’une action rationnelle.

4
5.1.Agent rationnel
-Agent rationnel : une entité qui perçoit et agit dans un environnement pour accomplir ses buts en
fonction de ses capacités ou de ses croyances (ou de ses connaissances).
-Pour chaque environnement ou tâche, on recherche l’agent qui obtient les meilleures
performances.
-La rationalité parfaite n’est pas atteignable en raison des limitations de calculs, donc le but est de
concevoir le meilleur programme avec les ressources disponibles.

5.2.Une entité intelligente

5.3.Un "agent" intelligent

6.Comment concevoir un agent intelligent ?


ƒApproche «symbolique»
-fondée principalement sur la logique
-manipule des expressions et met en oeuvre des processus de raisonnement
-nécessite une représentation explicite des connaissances du problème et des méthodes de
résolution
- demande un effort important de programmation

5
ƒ Approche neuro-mimétique
-s’inspire de la réalité biologique
-en construit des modèles informatiques
- demande peu ou pas de programmation explicite
- exploite des processus d’apprentissage
- permet de développer des systèmes auto-adaptatifs et évolutifs
ƒ Approche hybride neuro-symbolique

6.1.Un champ pluri-disciplinaire


Philosophie
- logique, méthodes de raisonnement, esprit comme système physique ;
fondements : apprentissage, langage, rationalité
Mathématiques
- représentations formelles et preuves, algorithmes, (in)décidabilité, probabilité
Psychologie
- adaptation, phénomènes de perception et de contrôle moteur, techniques expérimentales
(psychophysique, etc.)
Linguistique
- représentation des connaissances, grammaire
Neurosciences
- substrat physique et biologique de l'activité mentale
Théorie du contrôle
- Systèmes asservis, stabilité, concept d’agent optimal simple

7.Humain vs machine (vs :versus=contre)


Certaines tâches difficiles pour l'être humain sont "faciles" pour la machine
- Jeux de dames, d’échec …
- Planification en logistique (système DART à DARPA)
- établissement d'horaires de compagnies aériennes
- Détection de fraudes
- Tri de courrier
- Preuve de théorèmes
- Conception automatique
- Mots-croisés
Certaines tâches faciles pour l'être humain sont difficiles pour la machine
- Reconnaissance de la parole
- Reconnaissance de visages
- Composition en musique et en art
- Navigation automatique
- Activités motrices (marche)
- Compréhension du langage naturel
- Raisonnement de sens commun

6
8. Brève histoire de l’IA
1943 McCulloch & Pitts : modélisation des neurones
1950 “Computing Machinery and Intelligence” de A. Turing
1952-69 Période euphorique (une période euphorique de croissance économique )!
1950s 1er programmes d'IA : programme de jeu de dame de A. Samuel,
“Logic Theorist” de A. Newell & H. Simon
1956 réunion de Dartmouth: le terme "Intelligence Artificielle“ est adopté
1965 algorithme de J. A. Robinson pour le raisonnement logique
1966-74 IA découvre la complexité des calculs
recherche en réseaux de neurones disparaît (presque) complètement
1969-79 1er développements de système à base de connaissances
1980-88 industrie des systèmes experts en plein boum
1988-93 industrie des systèmes experts s'effondre : “Hiver de l'IA”
1985-95 réseaux de neurones redeviennent populaires
1988- résurgence des méthodes de décision probabilistes
“Nouvelle IA” : vie artificielle, algorithmes génétiques, …
1995- Agents, agents partout…

9.L’IA d’aujourd’hui
9.1.Prédictions et Réalité…
a) Dans les années 60 un célèbre professeur du MIT disait : “ à la fin de l'été on aura développé
un oeil électronique”.
En 2002, il n'y a toujours pas de système de vision par ordinateur capable de comprendre une
scène dynamique complexe.
Mais des systèmes informatiques effectuent couramment :
- surveillance du trafic routier
- reconnaissance de visages
- analyse d'images médicales
- etc.
b)En 1958, H. Simon (CMU) prédisait que dans 10 ans un ordinateur serait champion d'échecs.
Cette prédiction s'est vérifiée en 1998 (!!!)
Aujourd'hui les ordinateurs on gagné les titres de champions du monde aux jeux de dames et
d'échecs, mais ils sont (encore?) très mauvais aux autres jeux.
c)Dans les années 70, beaucoup croyaient que des robots informatisés seraient partout de l'usine
au domicile.
Aujourd'hui quelques industries (automobile, électronique) sont très robotisées, mais les robots
domestiques sont encore du domaine du futur.
Mais aujourd’hui des robots :
• ont exploré Mars
• réalisent des opérations du cerveau et du cœur
• humanoïdes sont opérationnels et disponibles à la location.
http://world.honda.com/news/2001/c011112.html

7
9.2.L'IA aujourd'hui
• Ambitions initiales abandonnées
-on ne pense plus faire une Intelligence Artificielle à court terme.
• Les retombées de l’IA sont partout
- objets, agents, méthodologies, représentation des connaissances
- approches causales, qualitatives
- fouille de données, fouille de texte
- statistiques non-linéaires (réseaux neuronaux)
- programmation par contraintes
- nouvelles méthodes d’optimisation (évolution artificielle)

10.En résumé sur l'IA...


-Aujourd’hui l’IA est partout sans que l’on s’en rende compte ou préoccupe.
-Rôle de plus en plus important dans la conception, les interfaces, Internet, les robots, …
-Une meilleure intégration de l'IA dans les applications informatiques
-Une démarche génie logiciel n’est pas toujours facile. Des environnements: JAVA, Prolog,
Smalltalk, etc.
-Evolution de l'IA intelligence artificielle vers l'IA informatique avancée…

11.Grands domaines de l'IA…


• Reconnaissance et synthèse de la parole ex: réservation d’hôtel, annuaire téléphone
• Reconnaissance et synthèse d'images ex: effets spéciaux au cinéma, vidéo-surveillance
• Reconnaissance de l'écriture ex: reconnaissance chèques, codes postaux
• Langage naturel ex: interfaces, text mining, Web Mining
• Planification
• Aide à la décision ex: contrôle de trajectoire du satellite Voyager
• Aide à la programmation ex : agents d’interface
• Apprentissage / Adaptation ex: construction de systèmes experts, classification
automatique de galaxie, contrôleurs de robots ...
• Jeux ex : Echecs (DeeperBlue à 2600), Checkers (Champion), Othello (Champion),
BackGammon (champion), GO (bon amateur).
• Médecine ex : Aide à la décision (Systèmes experts), prédiction de patients à risques,
analyse automatique d ’images médicales

8
Chapitre 2 : Agents intelligents

1. Qu’est-ce qu’un agent intelligent ?


Agent intelligent : tout ce qui perçoit son
environnement à l’aide de ses capteurs et
qui agit sur son environnement à l’aide de
ses actionneurs « effecteurs ».

1. Pour un humain:
a. Capteurs: oreilles, yeux,
nez, peau, …
b. Actionneurs: mains, bras, jambes, bouche, …
2. Pour un robot :
a. Capteurs: caméra vidéo, laser, capteur infra-rouge, tactile, …
b. Actionneurs: bras robotisé, roues, pinces, …
3. Pour un agent logiciel (softbot):
a. Capteurs: données, chaînes de caractères, …
b. Actionneurs: données, chaînes de caractères, …

Exemple 1 : recherche d’un but

Exemple 2: poursuite d’une cible


_ le robot doit garder la cible en vue
_ la trajectoire de la cible n'est pas connue à l'avance
_ le robot ne connaît pas tous les obstacles à l'avance
_ décision rapide nécessaire

9
2.Environnement de la tâche
La première étape lors de la conception d’un agent est de spécifier l’environnement de la tâche
qui contient les quatre éléments suivants :
- Mesure de la performance
- Environnement
- Actionneurs
- Capteurs

Exemple :
Conducteur de taxi automatique
- Mesure de performance : sécurité, vitesse, légalité, confort, profits, etc.
- Environnement : routes, autres autos, piétons,
- Actionneurs : volant, accélérateur, frein, clignotant,
- Capteurs : caméras, sonar, odomètre, indicateur de vitesse, capteurs du moteur, etc.

N.B : odomètre : instrument servant à mesurer une distance et la vitesse à laquelle elle est parcourue
2.1.Propriétés de l’environnement
• Complètement observable vs partiellement observable : Est-ce que les capteurs de l’agent
lui donne accès à l’état complet de l’environnement à tout moment.
• Déterministe vs stochastique : Est-ce que le prochain état de l’environnement est
complètement déterminé par son état courant et l’action de l’agent?
• épisodique vs séquentielle :Un épisode est une séquence perception-action. Le prochain
épisode ne dépend pas des actions effectuées dans les épisodes précédents.
• Statique vs dynamique : Est-ce que l’environnement change pendant que l’agent délibère?
• Discret vs continu : La distinction entre discret et continu peut être appliquée à l’état de
l’environnement, à la façon dont le temps est géré, et aux perceptions et aux actions de
l’agent.
• Un agent vs multi-agents : Est-ce qu’il y a plus qu’un agent interagissant ensemble?

Exemples d’environnements :

10
3.Agent & multi-agents
3.1.Structure d’un agent
Il y a 4 types de base en ordre de généralité grandissante :
a. Agent simple réflexe
b. Agent réflexe avec état interne
c. Agent basé sur les buts
d. Agent basé sur l’utilité

a.Agent simple réflexe

b.Agent réflexe avec état interne

11
c. Agent basé sur les buts

d.Agent basé sur l’utilité


3.2.Systèmes multi-agents
a).La métaphore du penseur : L’IA classique est basée sur une définition de l’intelligence
comme caractéristique individuelle :
-les systèmes experts
-le test de Turing
-la métaphore du “penseur” : une machine peut-elle penser, ou savoir quelque chose par elle
même ?
-un groupe n’est pas considéré comme ayant une intelligence en propre.

b).Le "penseur" dans une organisation


Limites du paradigme du “penseur” :« les grandes réalisations sont l’œuvre de groupes, de
sociétés humaines »
- monuments: pyramides, temples, cathédrales
- automobiles, avions
- ports
- ordinateurs, réseaux
- “on” a marché sur la lune

12
c)Définition: Notion de système multi-agent (SMA) :
- population d’agents
- autonomes en interaction
- métaphore des organisations (sociales)
- on met l’accent sur l’action et l’interaction

Système multi-agents : illustration

d)Quand distribuer un problème ?


Distribution vs centralisation :
- Les entités physiques sont distinctes ex : contrôle aérien
- Les problèmes sont spatialement distribués ex : supervision de réseau
- Les problèmes sont fonctionnellement distribués ex : pilotage d’un bateau
- Les experts sont multiples ex : construction d’un avion
- On manque de méthodes globales de résolution rapide ex : satisfaction de contraintes

e)But : l'émergence
Un but des systèmes multi-agents : émergence de nouveaux comportements
• i.e. voir quelque chose apparaître qui n'était pas programmé
• Fourmis
o inspiration biologique
o chaque fourmi est simple, mais le groupe fait beaucoup
• Internet
o recherche distribuée
o chacun contribue un peu, l'ensemble devient énorme
• Humains
o Un humain est déjà une intelligence complexe
o Plusieurs humains peuvent résoudre ensemble beaucoup plus qu’un seul

13
Chapitre 3 : La Logique
1.Logique des propositions
1.1.Introduction
• La logique des propositions s'intéresse à des énoncés (les propositions) qui peuvent être soit
vrais soit faux, ainsi qu'aux rapports entre ces énoncés.
• Les éléments de base de la logique des propositions sont les propositions atomiques (également
appelées atomes).
• Propositions atomiques :
1. Saïda est en Algérie
2. L’Algérie est en Europe
• Interpréter une proposition consiste à lui attribuer une valeur logique V (pour vrai) ou F (pour
faux).

1.2.Connecteurs
• Connecteurs :
^ : ET, v : OU, ¬ : NON, => : IMPLIQUE, ⇔ : EQUIVALENT
• Une proposition générale correspond à des propositions atomiques connectées suivant des
règles :
(A^B) v C v D
A^B : SBA est en Algérie et l’Algérie est en Afrique
• Pour pouvoir interpréter une proposition il est nécessaire d'avoir une interprétation de
chaque proposition atomique qui la compose.

1.3.Table de vérité des formules de base


Table de vérité (interprétation des formules de base) :

1.4.Interprétation (exercice)
a).Soit l'interprétation I définie comme :
I(A) = V ; I(B) = F ; I(C) = V
Alors, interprétez les formules composées de A, B et C
A^B
A ^ (¬C v B)
A v ¬A
Solution
A^B=V^F=F
A ^ (¬C v B) = V ^ (¬V v F) = V ^ (F v F) = V ^ F = F
A v ¬A = V v ¬V = V v F = V

14
b).Soit une nouvelle interprétation J:
J(A) = V ; J(B) = V ; J(C) = F
Alors l'interprétation des formules est la suivante :
A^B=V^V=V
A ^ (¬C v B) = V ^ (¬F v V) = V ^ (V v V) = V ^ V = V
A v ¬A = V v ¬V = V v F = V

N.B: Dans ce cas, l'interprétation des formules change.

1.5.Table de vérité des formules complexes


On peut aussi construire la table de vérité d'une formule plus complexe, en la décomposant en
partie : Par exemple : A ^ (¬C v B)

1.6.Modèles (définitions)
• On se demande, pour une formule donnée, s'il existe une interprétation dans laquelle cette
formule est vraie.
- Un tel état est appelé un modèle.
- Un modèle d'une formule f est une interprétation I telle que I(f) = V.
- Il peut exister zéro, un ou plusieurs modèles pour une formule donnée.
• Un modèle d'une ensemble F = {f1, f2, ..., fk} de formules est une interprétation qui rend vraie
chaque formule f1, f2,..., fk de F.
• S'il existe au moins un modèle de F on dit que F est satisfaisable, sinon il est inconsistant.

Exemple :
1. Vérifiez que l'ensemble F de formules ci dessous est satisfaisable :
F = {P ^ Q, Q v R}
Combien de modèles différents de F existe-t-il ?
2. Même question si on ajoute à F la formule ¬P ?
Solution 1
Trouvez les modèles de F = {P ^ Q , Q v R}.
P ^ Q est Vrai si P est Vrai et Q est Vrai
Q v R est Vrai si Q est Vrai ou si R est Vrai
Résultat : Il existe deux modèles pour F :
1) P=Vrai, Q=Vrai, R=Vrai
2) P=Vrai, Q=Vrai, R=Faux
Il existe au moins un modèle pour F, donc F est satisfaisable.

15
Solution 2
Trouvons les modèles de F = {P ^ Q , Q v R, ¬P}.
P ^ Q est Vrai si P est Vrai et Q est Vrai
Q v R est Vrai si Q est Vrai ou si R est Vrai
¬P est Vrai si P est Faux
Résultat : Il n'existe aucun modèle pour F :
• P ne peut pas être Vrai et Faux en même temps
• Donc F est inconsistant.

1.7.Les règles Logiques


• Double négation
¬ (¬A) équivaut à A
• Idempotence
A ^ A équivaut à A
A v A équivaut à A
• Associativité
A ^ (B ^ C) équivaut à (A ^ B) ^ C
A v (B v C) équivaut à (A v B) v C
• Commutativité
A ^ B équivaut à B ^ A
A v B équivaut à B v A
• Distributivité
OU : (A ^ B) v C équivaut à (A v C) ^ (B v C)
ET : (A v B) ^ C équivaut à (A ^ C) v (B ^ C)
• Lois de De Morgan
¬ (A ^ B) équivaut à ¬A v ¬B
¬ (A v B) équivaut à ¬A ^ ¬B
• Implication
A => B équivaut à ¬A v B
• Double Implication
A ⇔ B équivaut à (A => B) ^ (B => A)

N.B : Ces équivalences permettent d’effectuer toutes sortes d’opérations sur les propositions. On
voit, par exemple, que pour une proposition P donnée on peut toujours trouver une proposition P'
équivalente qui ne contient ni ⇔ ni =>.
1.8.Avantages de la logique propositionnelle
Elle est déclarative :
-les connaissances et le processus d’inférence sont séparés
-l’inférence est indépendante du domaine.
Permet d’avoir des informations partielles, disjointes et négatives.
Elle est compositionnelle : la signification d’une phrase dépend de la signification de ses parties.
La signification d’une phrase est indépendante du contexte.
1.9Désavantages de la logique propositionnelle
Elle a un pouvoir de représentation très limité.
Ex: On ne peut pas dire que “tous les pays sont jolis” ou que “Jules mange un fruit”

16
2.Logique Des Prédicats Ou Logique Du Premier Ordre
2.1.Vers la logique des prédicats
-Mise en évidence des prédicats
-Regardons de plus près les propositions atomiques. En général, elles sont composées d'objets (ce
dont on parle) et d'un prédicat (ce qu'on en dit).
Exemple:
“Ali est grand”, le prédicat est grand s’applique à l’objet Ali.
“Ali mange une pomme”, le prédicat mange s'applique aux objets Ali et pomme.
On pourrait réécrire les propositions ci-dessus sous une forme qui met en évidence le prédicat et
les objets, soit :
- est_grand(Ali) et
- mange(Ali, pomme).
La forme habituelle est : nom_prédicat(objet1, objet2, ...).
-Dans certains domaines comme les mathématiques des notations particulières ont été inventées
pour exprimer certains prédicats.
- On écrit par exemple 3 < 56 plutôt que inférieur (3, 56), ou 1/2 = 3/6 plutôt que égal(1/2, 3/6).
2.2.Les variables dans la logique des prédicats.
-L'introduction de variables permet de formuler deux types d'énoncés. D'une part des énoncés
universels dans lesquels les variables représentent tous les objets d'un domaine.
-Par exemple, dans le domaine des nombres entiers: X < X+1
Ici X représente n'importe quel nombre entier.
-De même, dans l’énoncé italien(X) =>européen(X) , X représente n’importe quelle personne
ayant la propriété d’être italien.

-On utilise toutes les notions de la logique des propositions et on introduit de nouveaux concepts
pour la logique du premier ordre.

-D'autre part une variable peut servir à exprimer l'existence de quelque chose, sans qu'on
connaisse encore précisément cette chose. Par exemple, dans l'équation
3X – 8 = 22
X représente un nombre, encore inconnu, qui existe et qui a la propriété que si on le multiplie par
trois et qu'on lui soustrait huit on obtient 22.
-De même, dans père(“Mohamed”, X), X représente la personne qui est le père de “Mohamed”.
-En logique des prédicats ces deux usages sont précisé à l'aide des quantificateurs :
∀ (pour tout) et ∃ (il existe).

2.3.Quantificateur universel
-Vrai si et seulement si toutes les phrases sont vraies.
∀x P est vrai si P est vrai pour tous les objets x dans l’univers. D’où le nom de
quantificateur universel.

Ex1 :Tous les chats sont des mammifères:


∀x Chat(x) =>Mammifère (x)

17
Ex 2:Tous dans la classe sont intelligents:
∀x Dans(x,Classe) =>Intelligent (x)
Erreur courante :
∀x Dans(x,Classe) ^ Intelligent (x)
Tous sont dans la classe et tous sont intelligents !
2.4.Quantificateur existentiel
-Vrai si certains des énoncés sont vrais.
∃x P est vrai si Pest vrai pour certains des objets dans l’univers.
Ex1:Spot a une soeur qui est un chat:
∃x Soeur(x,Spot) ^ Chat(x)
Ex2: Quelqu’un dans la classe est intelligent:
∃x Dans(x,Classe) ^ Intelligent(x)
Erreur courante:
∃x Dans(x,Classe) =>Intelligent(x)
Est vraie si quelqu’un n’est pas dans la classe, ce qui ne dit pas grand chose.
2.5.Exemples des quantificateurs
-Tous les Italiens sont gentils
∀x Pays(x,Italie) =>gentil (x)
Attention : ∀x Pays(x, Italie) ^ Gentil(x)
-Tout le monde est italien et tout le monde est gentil
-On élimine le quantificateur en donnant une valeur à x
{x/Alberto} : Pays(Alberto,Italie) =>Gentil (Alberto)
-Un espagnol est gentil
∃x Pays(x,Espagne) ^ Gentil(x)
Attention : ∃x Pays(x,Espagne) =>Gentil(x)
vrai s‘il existe quelqu'un qui n'est pas espagnol (qu'il soit gentil ou non)

-Une mère est un parent de sexe féminin


∀x,y Mère(x, y) ⇔ Féminin (x) ^ Parent (x, y)
2.6.Propriétés des quantificateurs
∀ x ∀ y équivaut à ∀ y ∀ x
∃ x ∃ y équivaut à ∃ y ∃ x
∃ x ∀ y n'équivaut pas à ∀ y ∃ x
∃x ∀y Aime(x,y) : Il existe quelqu'un qui aime tout le monde
∀y ∃x Aime(x,y) : Tout le monde est aimé au moins par une personne
Dualité :
(1) ∀x Aime(x,riz) vs (2) ¬∃x ¬Aime(x,riz)
(1) Tout le monde aime le riz
(2) Il n'existe personne qui n'aime pas le riz
(1) ∃x Aime(x,orange) vs (2) ¬∀x ¬Aime(x,orange)
(1) Il existe quelqu'un qui aime les oranges
(2) Ce n'est pas tout le monde qui n'aime pas les oranges

18
-Un quantificateur peut être exprimé en utilisant l’autre.
∀x P ≡ ¬∃x ¬P
∃x P ≡ ¬∀x ¬P
-Exemples :
∀x Aime(x,Fruit) ≡ ¬∃x ¬Aime(x,Fruit)
∃x Aime(x,Viande) ≡ ¬∀x ¬Aime(x,Viande)

Egalité
Vrai si l’énoncé fait référence au même objet.
Exemples:
-Le père de Jean est Henry : Père(Jean) = Henry
-Richard a au moins deux frères ∃x,y Frère(x,Richard) ^ Frère(y,Richard) ^ ¬(x=y)
- On peut aussi utiliser la notation x≠y comme abréviation de ¬(x=y)

3.Autre logique:Logique floue


3.1.introduction à La logique floue
Jusqu'à présent, une proposition était soit vraie, soit fausse :
-deux choix possibles
-par exemple, l'eau est froide ou l'eau est chaude
Avec la logique floue, la valeur d'une proposition est un nombre réel de l'intervalle [0,1].
-Une proposition peut être en partie vraie et en partie fausse.
-L'eau est froide (0), chaude (1) ou l'eau est tiède (0.5)
Donc, nous ne manipulons plus des valeurs Vrai ou Faux, mais des valeurs numériques
entre 0 et 1.
3.2.Règles de la logique floue
A ^ B = min (A,B) (le plus petit des deux)
A^B = A si A<B
A^B = B si B<A
A v B = max (A,B) (le plus grand des deux)
AvB = A si A>B
AvB = B si B>A

¬A = 1-A (inverse de A)
-Si A et B valent 0 ou 1, alors on revient à la logique des propositions.
Exemples :
1 ET 0.3 donne 0.3
0.67 ET 0 donne 0
0.12 OU 0.98 donne 0.98
NON 0.54 donne 0.46

19
4.Autre logique :Logique temporelle
4.1.introduction à la Logique temporelle de Allen
-Les buts du système:
-Exprimer la connaissance relative et imprécise.
-Permettre l'incertitude (expression des contraintes).
-Supporter le raisonnement dans des échelles variables
-Supporter la persistance (raisonnement par défaut).
Exemple : si j'ai garé ce matin ma voiture dans le parking, elle doit toujours être là
(même si on ne peut le prouver).
-Dans le système d'Allen(la logique temporaire) le temps est représenté par des
intervalles:
-Intervalle : Un ensemble T = {t} ordonné de points tel que
(∀ t- ) (∀ t ∈ T ) ( t- < t) et
(∀ t+) (∀ t ∈ T ) ( t+ > t)
La paire t-, t+ forme les points limites de l'intervalle.
4.2.Les 13 relations entre intervalles

4.3.Gestion de l'incertitude
-L'utilisation d'une liste permet de gérer l'incertitude par des contraintes.
-Exemples :
t1 d t2 t1 --(d)--> t2
(t1 d t2) ou (t2 d t1) ou (t1 < t2) t1 --(d, di, <)--> t2
(t1 < t2) ou (t2 < t1) ou (t1 m t2) t1 --(<, >, m)--> t2

-Lorsqu'un nouvel intervalle est introduit dans le réseau,toutes ses conséquences sont
calculées par propagation des contraintes.
Exemple : • B ---(<, m)---> C
• A ------(d)----> B
• D ------(d)----> C

20
donne : A -----(<)-----> D

graphiquement : B ---(<, m)---> C


↑ ↑
(d) (d)
| |
A D
4.4.Propagation de contraintes
-La propagation est définie par un tableau 12 x 12 des relations de transitivité.
-Opérateur T de relation de transitivité (selon le tableau)
-La relation = est omise.
-Le tableau de transitivité est utilisé afin de développer les relations possible de chaque
paire d'intervalles.
-Quand une nouvelle relation est affirmée, il faut propager les contraintes sur les autres
relations.
4.5.Relations de transitivité

Exemple
(A < B) et (B ? C)
(une ligne du tableau 12x12)

4.6.Exemple de propagation
-Soient les relations suivantes dans une logique de relations temporelles :
-Evénement A rencontre événement B (A m B)
-Evénement B rencontre événement C (B m C)
-Evénement D est après événement A (D > A)
-Evénement D est avant événement C (D < C)
Quelles sont les relations possibles entre D et B (transitivité avec A) ?
T( D > A, A m B ) = ( d, f, oi, mi, >)
Quelles sont les relations possibles entre D et B (transitivité avec C) ?
T( D < C, C mi B ) = (<, o, m, d, s)
Quelles sont les relations possibles entre D et B après une propagation de contraintes?
(D d B)

21
Chap.4.Représentation des connaissances

4.1.Introduction :
• Problème central en IA
-L'IA cherche à reproduire l'intelligence humaine
-L'intelligence humaine est basée sur la connaissance
-Comment représenter la connaissance en informatique ?
o Pour comprendre une scène ou une histoire, il faut trouver une correspondance
entre les éléments perçus et les choses connus.
o Les perceptions brutes (les phénomènes) sont compris par associations aux
catégories mentales (les concepts, telles que : Actions, Temps, Objets physiques,
Croyance).

Ö Cela exige une représentation !

4.2. Acquisition et modélisation


Mise en évidence de deux problèmes en amont :
1-L'acquisition des connaissances
• Comment donner la connaissance à une machine ?
Ö l'apprentissage !

2-La modélisation des connaissances


• Comment définir ce qu'est la connaissance ?
• Comment la traduire en structures manipulables par un Algorithme(un logiciel) ?
4.3. Ingénierie ontologique :
_ Pour des problèmes jouets, la représentation n’est pas vraiment importante.
_ Les domaines complexes demandent des représentations plus général et plus flexible.
_ Comment représenter des concepts comme: Actions, Temps, Objets physiques, Croyance.
_ La représentation de ces concepts abstraits est appelé l’ingénierie ontologique.
4.4.Hiérarchie de concepts

22
4.5.Catégories
L’interaction avec le monde est au niveau des objets, mais le raisonnement a souvent lieu au
niveau des catégories.
En logique du premier ordre (LPO), on peut utiliser les prédicats ou les objets pour représenter
les catégories.
Ex: BallonDeFootball( b) ou BallonDeFootballs
 Membre( b, BallonDeFootballs) ou b ∈ BallonDeFootballs
 SousEnsemble( BallonDeFootballs, Ballons) ou BallonDeFootballs ⊂ Ballons

4.5.1.Propriétés des catégories :


1.Héritage : permet de simplifier la base de connaissances.
Ex : Catégorie Nourriture: Toutes les instances de Nourriture sont comestibles.
- Fruit est une sous-classe de Nourriture, (Sous-Classe/Sous-catégorie)
- Pomme est une sous-classe de Fruit
- Alors, on sait que toutes les pommes sont comestibles.
2. Les relations de sous-classe organise les catégories en taxonomie.

Exemple de taxonomie :

4.6.Logique du premier ordre(LPO) et catégories :


Un objet est membre d’une catégorie :
BFb ∈ BallonDeFootballs

Une catégorie est une sous-classe(sous-catégorie) d’une autre :


BallonDeFootballs ⊂ Ballons
Tous les membres d’une catégorie ont certaines propriétés :
x ∈ BallonDeFootballs => Rond(x)
Les membres d’une catégorie peuvent être reconnus en identifiant certaines propriétés :
(Blanc(x) ^ Noir(x) ^ Rond(x) ^ Diamètre(x)=25cm ^ x ∈ Ballons) => x ∈ BallonDeFootballs

23
4.7.Caractéristiques des catégories
• Disjointes: Deux catégories sont disjointes si elles n’ont pas de membres en commun.
Ex: animaux et végétaux
• Décomposition exhaustive: Décomposition d’une catégories en toutes les sous-classes
possibles. Ex: Algériens, Marocains, Tunisiens, Mauritaniens et Sahraouies est une
décomposition exhaustive de la catégorie Maghrébins.
• Partition: décomposition exhaustive et disjointe. Ex : Mâle et Femelle est une partition
de la catégorie Animaux.
• Un objet fait partie d’un autre : On utilise la relation PartieDe
Ex: PartieDe(Oran, Algérie)
Rq : PartieDe est transitive
• Mesures : Comment représenter des mesures ?
Une mesure peut avoir différentes unités, donc il faut représenter l’unité
 Ex: Longueur(L) = Pouces(1.5) = Centimètres(3.81)
On peut exprimer les conversions :
Centimètres(2.54 x d) = Pouces( d)
Pour les grandeurs qualitatives, on va plutôt ordonner les symboles.
Ex: Difficulté( exercice1) > Difficulté( exercice2)

4.8.Introduction au Web Sémantique & aux Ontologies


4.8.1.Introduction
Internet : base de connaissances
Internet, et surtout le Web, est aujourd'hui la plus grande source de connaissance qui existe.
Cependant, les connaissances sur Internet sont très peu structurées.
Exemple : Moteurs de recherche
Problème : sémantique des mots
Aujourd'hui, beaucoup de travaux cherchent à donner un sens au connaissances que l'on trouve
sur Internet.

4.8.2.Ambiguïtés des mots

24
4.8.3.Le Web sémantique
Plusieurs travaux de recherche actuels essaient de formaliser la connaissance sur Internet.

Problèmes :
- Le sens d'un mot change selon les domaines (ex: voiture)
- Chacun développe ses pages par lui-même (besoin d'un standard)
- Travail de formalisation de la connaissance très complexe
Ex : Beaucoup de domaines, de définitions différentes, …
- Le mot (étiquette) est différent selon les langues.
Ex : Traduction automatique des mots.

4.8.4.Les ontologies
Voie de recherche actuelle (W3C) : Ontologie
_ Une ontologie représente les connaissances structurées d'un domaine
- par une hiérarchie de termes (syntaxe)
- par une hiérarchie de relations possibles entre les termes (sémantique)
_ Normes (langages) W3C pour structurer les connaissances :
- RDF / RDFS(extension de XML pour la connaissance structurée)
- Plusieurs ontologies existantes, mais pas encore de standards

25

View publication stats

Vous aimerez peut-être aussi