Vous êtes sur la page 1sur 59

Cours Fondement de l’intelligence artificielle (IA)

Chapitre1: Introduction à l’intelligence artificielle

2-BC

Année universitaire : 2020/2021

1
Plan
• Motivation
• Définition de l’IA
• Nature de l’IA
• Objectifs de l’IA
• Historique de l’IA
• Domaines de l’IA
• Agents intelligents

2
Motivation

3
Motivation
• Quelques succès récents de l’IA

Watson gagne DeepMind réalise


devant des performances à AlphaGo gagne CMU’s Libratus
des champions niveau humain sur de devant le champion gagne devant le
Jeopardy(2011) nombreux jeux Atari Go mondial (2016) meilleur joueur de
(2015) poker (2017)

4
Motivation

• Pendant des années, nous avons essayé de comprendre le processus de la


pensée humaine, à savoir comment percevoir, comprendre , prévoir et
manipuler un monde complexe.
• Le domaine de l’intelligence artificielle, ou IA, tente non seulement de
comprendre des entités intelligentes, mais aussi d’en construire.

5
Définition de l’IA
Qu’est ce que l’intelligence artificielle?
• Premièrement qu’est ce que « l’intelligence? »
• Le concept d’intelligence est souvent intuitivement associé à l’humain
• Intelligence = décisions rationnelles
• Décisions rationnelles = décisions permettant de bien performer son environnement
• Notion de « performances » mesurables
• Tests pour mesurer les performances

6
Définition de l’IA

• IA: une branche de l’informatique qui étudie l’intelligence humaine par sa


modélisation et sa simulation au moyen de programmes informatiques.
• IA: la capacité d’une machine à imiter le comportement intelligent de
l’homme

7
Définition de l’IA
• « L’intelligence artificielle est la science qui consiste à faire à des machines ce que l’homme
fait moyennant une certaine intelligence » (M. Minsky)
• « L’IA est l’étude des idées qui permettent aux ordinateurs d’être intelligents »
(P. H. Winston)
• « L’IA est l’étude des facultés mentales à l’aide de modèles de type calculatoire »
(McDermott & Charniak)
• « L’IA a pour but de faire exécuter par l’ordinateur des tâches pour lesquelles l’homme dans
un contexte donné est aujourd’hui meilleur que la machine »
(Alliot & Schiex 1994)

8
Nature de la discipline
• L’intelligence artificielle est à la fois une science et un ensemble de technologies inspirées—mais
typiquement opérant différemment– de la façon dont les humains utilisent leur cerveau et leur
corps pour percevoir/sentir, apprendre, raisonner et agir.
• L’IA est une science: elle cherche à découvrir le réel, les mécanismes de raisonnement et de
compréhension (Interpréter, déduire, généraliser, apprendre…)
• L’IA est une technique, elle exploite les possibilités du réel
o Démontrer un théorème
o Diagnostiquer une maladie ou une défaillance dans un équipement
o Planifier la réalisation d’un tâche complexe
o Analyser une image et identifier son contenu
o Piloter un robot dans un univers inconnu

9
Nature de la discipline

• Le domaine de l’IA est influencé par plusieurs disciplines :

10
Nature de la discipline
Plusieurs disciplines :
• informatique (comment programmer et implanter l’IA?)
• mathématiques, statistique (limites théoriques de l’IA?)
• neurosciences (comment le cerveau fonctionne?)
• psychologie cognitive (comment l’humain réfléchit?)
• économie, théorie de la décision (comment prendre une décision rationnelle?)
• linguistique (quelle est la relation entre le langage et la pensée?)
• philosophie (quel est le lien entre le cerveau et l’esprit?)

11
Objectifs de l’IA

Créer des systèmes (logiciels ou machines) intelligents qui:


• Pensent/réfléchissent/raisonnent comme des humains et/ou
• Pensent/réfléchissent/raisonnent rationnellement et/ou
• Se comportent/agissent/réagissent comme les humains et/ou
• Se comportent/agissent/réagissent rationnellement

12
Objectifs de l’IA

Système qui pense Système qui pense


Comme les humains Rationnellement
(modèle cognitif) (logique)

Système qui agit Système qui agit


Comme les humains Rationnellement
(test de Turing) (agents intelligents)

13
Penser comme des humains
l’approche cognitive

• Un programme pense-t-il comme un humain?


• Déterminer comment pense les êtres humains?
• Les sciences cognitives regroupent un ensemble de disciplines scientifiques
dédiées à la description, l'explication, et le cas échéant la simulation, des
mécanismes de la pensée humaine, animale ou artificielle.
• L’IA est la réalisation de programmes imitant dans leur fonctionnement
l’esprit humain.

14
Agir comme des humains
le test de Turing
• Proposé par Alain Turing (1950)
• But : vérifier si une machine est « intelligence »
• Test opérationnel pour établir un comportement intelligent : l’imitation
• Un questionneur humain (C) interroge deux intervenants cachés:
➢ une machine (A);
➢ et un humain (B).
• Les communications C-A et C-B se font via une interface texte.
• Si le questionneur C ne parvient pas à distinguer les réponses données par
la machine A de celles données par la personne B, A est «intelligent».

15
Agir comme des humains
le test de Turing

• Capacités nécessaires pour réussir le test de Turing


➢ Traitement du langage naturel
➢Mémoire/représentation des connaissances
➢Raisonnement
➢Apprentissage

16
Penser rationnellement
les « lois de la pensée »

• Quels sont les arguments et les processus de pensée corrects?


• Aristote a essayé de codifier le « bien penser ».
Exemple: Tous les hommes sont mortels + Socrate est un homme donc Socrate
est mortel.
• Domaine de la logique

17
Agir rationnellement

• Comportement rationnel : faire la chose adéquate


• La chose adéquate: celle, qui étant données les informations disponibles, doit
permettre d’atteindre au mieux l’objectif

18
Questionnement de l’IA

• Peut-on créer un système aussi intelligent qu’un humain?


• Peut-on créer un système aussi intelligent qu’une abeille?
• Peut-on créer un système évolutif, qui communique, s’auto-améliore,
apprend, planifie, a des émotions, ….

19
Historique de l’IA
Naissance
• Période de gestation:
➢Neurone artificiel pour faire des déductions logiques (1943).
➢Réseaux de neurones (thèse de Minsky et Edmond au département de mathématiques).
• Naissance de l’IA(1956)
➢ lors d’un congrès à Darmouth par deux chercheurs: John McCarthy et Marvin Minsky

20
Historique de l’IA
• 1943 McCulloch & Pitts : Modèle du cerveau avec un circuit booléen
• 1950 Turing’s ”Computing Machinery and Intelligence”
• 1950 69 Les grandes espérances
• Années 50 Premiers programmes d’IA, jeux d’échecs de Samuel, Théoricien logique de
Newell & Simon, moteur géométrique de Gelernter
• 1956 Conférence de Dartmouth : adoption du terme ”Intelligence Artificielle”
• 1965 Algorithme complet pour le raisonnement logique de Robinson
• 1966-74 L’IA découvre la complexité computationnelle
La recherche sur les réseaux de neurones disparait presque
• 1969-79 Premiers développements des systèmes fondés sur les connaissances
21
Historique de l’IA

• 1980-88 Explosion de l’industrie des systèmes experts


• 1988-93 Fin de l’industrie des systèmes experts : ” l’hiver de l’IA”
• 1985-95 Retour en grâce des réseaux de neurones
• 1988 Résurgence des modèles probabilistes ;
l’IA devient une science ”Nouvelle IA” : vie artificielle, algorithmes génétiques, soft computing
• 1995 Des agents partout . . .
• 2003 IA de niveau humain de retour sur l’agenda, Big data

22
Domaines de l’IA
• Planification autonome (NASA), logistique (Armée)
• Planification du trafic (Société de transport : routier et aérien)
• Diagnostique(médecine, analyse financière, systèmes experts)
• Robotique (industrie, aérospatiale )
• Compréhension du langage et la traduction automatique
• Apprentissage
• Reconnaissance de la parole, des images, des textes
• Interfaces homme-machine
• Vision par ordinateur
• Jeux (jeu d’échec, AlphaGo,…)
• Contrôle automatique (les voitures autonomes)
• Assistance personnelle (Iphone, Smartphone…)
23
L’IA aujourd’hui

Reconnaissance d’images

Assistants Virtuels

24
L’IA aujourd’hui

Robots
autonomes

Voitures sans pilote


IA des jeux

25
L’IA aujourd’hui

26
L’IA aujourd’hui

27
Les langages de programmation en IA

• Lisp (1960, J. MacCarthy)


• SmallTalk(1972, A. Kay)
• Prolog (1973, A. Colmerauer),
• Prolog with constraints
• JAVA (1994) ,
• C++, ...

28
Agents
• Un agent est n’importe quel entité qui perçoit son environnement par des capteurs (sensors)
et agit sur cet environnement par des actionneurs (actuators)
• Un agent humain a:
➢ des yeux, des oreilles, et d’autres senseurs
➢ des mains, des jambes, une bouche et d’autres actionneurs
• Un agent robot a:
➢ des caméras, des capteurs infra rouges et autres capteurs
➢ des roues, des jambes, des bras-articulés, et d’autres actionneurs
• Un agent logiciel a:
➢ un clavier, un accès lecture à un disque dur et autres capteurs
➢ un écran, un accès écriture à un disque dur comme actionneurs
29
Agents et environnements

• Le processus agent f prend en entrée une séquence d’observations (percepts) et retourne


une action f : P* → A
• En pratique le processus est un implémenté par un programme sur une architecture
matérielle particulière

30
Aspirateur robotisé

• Observations (données sensorielles): position et état des lieux


Par exemple: [A,Clean],
[A,Dirty],
[B,Clean],
• Actions : Left, Right, Suck, NoOp
31
Agents rationnels
• Un agent rationnel doit agir «correctement» en fonction de ce qu’il perçoit et de ses capacités
d’action: l’action correcte est celle permettant à l’agent de réussir le mieux.
• Mesure de performance: une fonction objective mesurant la qualité d’un comportement de
l’agent.
• Par exemple, une mesure de performance pour le robot aspirateur pourrait être:
➢ la quantité de déchets aspirés
➢ la propreté des lieux
➢ la durée de la tâche
➢ le bruit généré
• Agent rationnel: étant donné une séquence d’observations (données sensorielles) et des
connaissances propres, un agent rationnel devrait choisir une action qui maximise la
mesure de performance

32
Agents rationnels
• Rationalité ne veut pas dire «qui sait tout»
(par exemple, connaît tous les effets de ses actions)!
• Rationnel ne veut pas dire «parfait»
➢la rationalité maximise la performance espérée
➢la perfection maximise la performance réelle/actuelle
➢mais souvent on ne peut pas connaître la performance réelle avant l’action
• Un agent peut effecteur des actions d’observation pour cueillir des informations nécessaires à
sa tâche
• Un agent est autonome s’il est capable d’adapter son comportement aux changement dans
l’environnement (capable d’apprendre, de planifier, etc.)

33
Modèle PEAS

• PEAS: Un modèle de conceptions des agents par la spécification des


composantes majeures suivantes:
➢mesure de performance (Performance)
➢éléments de l’environnement (Environnement)
➢les actions que l’agent peut effectuer (Actionneurs ou Actuators)
➢la séquence des observations ou percepts de l’agent (Capteurs ou Sensors)
• PEAS = Performance, Environment, Actuators, Sensors
34
Modèle PEAS pour un robot taxi

• Agent: Voiture auto-conduite de Google (ou robot taxi)


• Mesure de performance: sécurité, vitesse, respect du code routier, voyage confortable,
maximisation des profits
• Environnement: route, trafic, piétons, clients
• Actionneurs: volant, changement de vitesse, accélérateur, frein, clignotants, klaxon
• Senseurs: caméras, sonar, speedometer, GPS, odomètre, témoins du moteur, etc.

35
Modèle PEAS pour un diagnostic médical
automatisé

• Agent: système de diagnostique médical


• Mesure de performance: santé des patients, minimisation des coûts, satisfaction des patients
• Environnement: patients, hôpital, personnel soignant
• Actionneurs: moniteur pour afficher des questions, les résultats de tests ou de diagnostique,
le traitement, etc.
• Senseurs: clavier et souris pour saisir les symptômes, les réponses aux questions, etc.

36
Caractéristiques d’environnement

• Différents problèmes auront des environnements avec des caractéristiques différentes


• Caractéristiques que l’on distingue:
➢ Complètement observable (vs. partiellement observable)
➢ Déterministe (vs. stochastique)
➢ Épisodique (vs. séquentiel)
➢ Statique (vs. dynamique)
➢ Discret (vs. continu)
➢ Agent unique (vs. multi-agent)

37
Caractéristiques d’environnement

• Complètement observable (vs. partiellement observable): grâce à ses capteurs,


l’agent a accès à l’état complet de l’environnement à chaque instant
• Le jeu des échecs est complètement observable
on voit la position de toutes les pièces
• Le jeu du poker est partiellement observable
on ne connaît pas les cartes dans les mains de l’adversaire

38
Caractéristiques d’environnement

• Déterministe (vs. stochastique): l’état suivant de l’environnement est entièrement déterminé


par l’état courant et l’action effectuée par le ou les agents
• Le jeu des échecs est déterministe
déplacer une pièce donne toujours le même résultat
• Le jeu du poker est stochastique
la distribution des cartes est aléatoire
• Notes importantes :
➢ on considère comme stochastique les phénomènes qui ne peuvent pas être prédits parfaitement
➢ on ne tient pas compte des actions des autres agents pour déterminer si déterministe ou pas

39
Caractéristiques d’environnement

• Épisodique (vs. séquentiel): les opérations/comportements de l’agent sont divisés en


épisodes:
➢ chaque épisode consiste à observer l’environnement et effectuer une seule action
➢ cette action n’a pas d’influence sur l’environnement dans l’épisode suivant
• La reconnaissance de caractères est épisodique
la prédiction du système n’influence pas le prochain caractère à reconnaître
• Le jeu du poker est séquentiel
décider si je mise ou pas a un impact sur l’état suivant de la partie

40
Caractéristiques d’environnement

• Statique (vs. dynamique): l’environnement ne change pas lorsque le ou les agents


n’agissent pas
• Le jeu des échecs est statique
l’état du jeu ne change pas si personne joue
• Le jeu de stratégie en temps réel est dynamique
Les unités ont une certaine autonomie;
elles peuvent évoluer même si aucun joueur ne fait une action.

41
Caractéristiques d’environnement

• Discret (vs. continu): un nombre limité et clairement distincts de données


sensorielles et d’actions
• Le jeu des échecs est dans un environnement discret
toutes les actions et état du jeu peuvent être énumérées
• La conduite automatique d’une voiture est dans un environnement continu
l’angle du volet est un nombre réel

42
Caractéristiques d’environnement

• Agent unique (vs. multi-agent): un agent opérant seul dans un environnement


• Résoudre un Sudoku est à agent unique
aucun adversaire
• Le jeu des échecs est multi-agent
il y a toujours un adversaire

43
Caractéristiques d’environnement

• Parfois, plus d’une caractéristique est appropriée


• Déplacement d’un robot
➢si seul dans un environnement, ses déplacements sont théoriquement
déterministes (la physique mécanique est déterministe)
➢par contre, puisqu’un robot ne contrôle pas parfaitement ses mouvements, on
préfère normalement modéliser comme stochastique
• On identifie souvent les caractéristiques d’environnement en réfléchissant à
comment on programmerait/simulerait cet environnement

44
Structures des agents

• 4 types de base en ordre de généralité grandissante :


➢ Agent réflexe simple
➢ Agent réflexe avec état interne
➢ Agent basé sur les buts
➢ Agent basé sur l’utilité
• Tous ces types peuvent être transformés en agents apprenants.

45
Agent réflexe simple

• Ce type d’agent choisit ses actions en se basant uniquement sur le percept


courant, en ignorant les percepts précédents.

46
Agent réflexe simple

47
Inconvénients des agents réflexes

• Les agents réflexes sont simples, mais leur intelligence est très limitée!
• L’environnement doit être complètement observable.
• L’agent ne peut fonctionner que si une décision correcte peut être prise en
fonction de la perception courante

48
Agent réflexe avec état interne

• Agent avec état interne.


• L’agent doit connaître son environnement (ex : mémorisation de la topologie
de l’environnement)
• L’agent doit maintenir un état interne qui dépend de l’historique des
perceptions
• La mise à jour de cet état interne nécessite deux types de connaissances à
encoder dans l’agent:
▪ Une information sur la manière dont le monde évolue indépendamment de l’agent
▪ Une information sur la manière dont les actions de l’agent affectent l’environnement
49
Agent réflexe avec état interne

50
Problème de l’état interne

• Un état interne n’est pas suffisant pour décider quoi faire


▪ A une intersection, faut-il tourner à gauche, à droite ou aller tout droit ?
▪ La bonne décision est dépendante de l’endroit où le chauffeur doit aller.
• Il faut aussi doter l’agent de la possibilité de gérer des buts
▪ décrit les situations qui sont « désirables »
▪ influence le choix des actions à entreprendre
▪ beaucoup plus flexible qu’un ensemble rigide de règles
▪ les règles peuvent être « réécrites » sous forme de buts
▪ Ex: ne pas rentrer dans un véhicule
51
Agent basé sur les buts

• Connaître l’état courant de l’environnement n’est pas toujours suffisant pour décider de
l’action à accomplir (ex. décision à une jonction de route)
• L’agent a besoin d’une information sur le but qui décrit les situations désirables
• L’agent peut alors combiner cette information avec l’information sur les résultats des actions
possibles afin de choisir l’action qui satisfait le but
• Un tel agent nécessite des capacités de recherche et de planification

52
Agent basé sur les buts

53
Problème des agents basés sur les buts

• Avoir des buts n’est pas suffisant !


▪ Il faut pouvoir choisir, parmi les actions possibles permettant de mener à un but, la
meilleure (ex: trajet)
▪ Il faut pouvoir effectuer des compromis entre différents buts (ex: aller le plus vite
possible, tout en respectant le code de la route, tout en assurant un certain confort, etc.)
• Il faut pouvoir doter l’agent d’une certaine forme de calcul d’utilité
▪ Calcule le « contentement » de l’agent dans tel ou tel état en fonction de ses buts
▪ Associée à la mesure de performance anticipée d’une action

54
Agent basé sur les utilités

• Les buts ne font la distinction que entre un état « heureux » ou « pas heureux ».
• Fonction d’utilité: état nombre (valeur)
• Aide dans deux cas où les buts échouent :
➢ Buts en conflits (ex: vitesse et sécurité)
➢ Lorsqu’il y a plusieurs buts

55
Agent basé sur les utilités

56
Agent apprenant

• Souvent, il est très fastidieux ou même impossible de définir le comportement


de l’agent à la conception.
• L’apprentissage permet:
➢ de simplifier la conception
➢à l’agent d’avoir plus de flexibilité
➢ à l’agent d’agir dans des environnements inconnus et de devenir meilleur
avec le temps.

57
Agent apprenant

58
Conclusion
• En résumé, l’intelligence artificielle s’intéresse à tout sujet qui permettrait de reproduire toute
capacité de l’intelligence humaine
• Un agent est quelque chose qui perçoit et agit sur son environnement
• Idéalement, on aimerait concevoir un agent rationnel
par rationnel, on veut dire qui maximise sa performance espérée (moyenne)
• L’espace des agents possibles est très large
➢ dépend de la tâche à résoudre
➢ chaque algorithme qu’on va voir est associé à un type d’agent spécifique
• Il existe plusieurs types d’environnement
leurs caractéristiques vont déterminer quel algorithme on devrait utiliser

59

Vous aimerez peut-être aussi