Vous êtes sur la page 1sur 84

Metaphores de L’Esprit I:

Les Fondements de L’Approche


computationelle
Axel Cleeremans
Jean-Noël Missa

Thursday, October 14, 2010


Metaphores de L’Esprit I:
Les Fondements de L’Approche
computationelle
Axel Cleeremans
Jean-Noël Missa

Thursday, October 14, 2010


Naissance de
L'Intelligence Artificielle
Janvier 1955:

“Over the Christmas Holiday, Al Newell and I


invented a thinking machine”

Invention du "Logic Theorist"


simulation à la main!
implémentation sur JOHNNIAC en Mai 1956
1916-2001
Nobel prize in economics,
1978
1er insight crucial:
Un ordinateur peut représenter et traiter autre
chose que des nombres

2ème insight crucial:


On peut utiliser l'ordinateur comme outil
d'exploration des mécanismes du traitement
de l'information
1927-1992
2
Thursday, October 14, 2010
Logic Theorist et
les systèmes formels

Logic Theorist avait pour objet de démontrer des


théorèmes dans le système formel des “Principia
Mathematica” de Russel & Whitehead

Un système formel définit des symbôles, et des règles


de transformation permettant de combiner ces
symbôles et de transformer les expressions qui en
résultent

3
Thursday, October 14, 2010
Le système MIU
Hofstadter (1979, Gödel, Escher, Bach)

3 symbôles: M, I, U:
Expressions possibles: MIU, MIUIU, MUMUM, ...

Quatre règles de transformation:


Si la dernière lettre d’une séquence est I, on peut y ajouter U: MI ➔ MIU
Mx peut se transformer en Mxx: MIU ➔ MIUIU
Si une séquence contient III, on peut remplacer III par U: UMIIIMU ➔ UMUMU
Si une séquence contient UU, on peut supprimer UU: MUUUIII ➔ MUIII

Un axiome: MI

Peut-on démontrer le théorème MU ?

4
Thursday, October 14, 2010
Le système MIU
Hofstadter (1979, Gödel, Escher, Bach)

3 symbôles: M, I, U:
Expressions possibles: MIU, MIUIU, MUMUM, ...

Quatre règles de transformation:


Si la dernière lettre d’une séquence est I, on peut y ajouter U: MI ➔ MIU
Mx peut se transformer en Mxx: MIU ➔ MIUIU
Si une séquence contient III, on peut remplacer III par U: UMIIIMU ➔ UMUMU
Si une séquence contient UU, on peut supprimer UU: MUUUIII ➔ MUIII

Un axiome: MI

Peut-on démontrer le théorème MU ?

4
Thursday, October 14, 2010
Deux réunions importantes
Atelier de Dartmouth (Juin 1956)
Minsky, McCarthy, Shannon, Rochester
More, Samuel, Solomonoff
Selfridge
Newell & Simon
Introduction du Logic Theorist

Symposium sur la théorie de l’information du MIT (Septembre


1956)
Newell & Simon: Logic Theorist
Chomsky: “Three models of Language”
Miller: “The magic number seven”

5
Thursday, October 14, 2010
Historique
Historique de la pensée indissociable des progrès
technologiques

18ème siècle: Matérialisme


La Mettrie, de Vaucanson, Leibniz:
• Le cerveau est une machine
• Métaphore hydraulique: Esprits animaux
• Métaphore mécanique: L'esprit en tant qu'horloge

6
Thursday, October 14, 2010
Le vrai/faux automate:
W. de Kempelen (1769)

Tom Standage (2002). The turk: The


Life and Times of the Famous
Eighteenth-Century Chess-Playing
Machine.. Walker & Co.

7
Thursday, October 14, 2010
Historique
19ème siècle: Mécanismes
Progrès technologiques:
• 1805: Jacquard: Métier à tisser
• 1825: Babbage
• The Difference Engine: 1er ordinateur?
• “Programmation” avec Ada Lovelace
• 1890: Hollerith: Calculateur mécanique
• 1890: Fondation d’International Business Machines (IBM)

Progrès philosophiques:
• Boole: “The laws of Thought” (1854)
• Frege: Logique des prédicats

8
Thursday, October 14, 2010
The analytical Engine:
Charles Babbage (c. 1825)

Swade, D. (2000). The cogwheel brain.


London: Little, Brown & Co.

9
Thursday, October 14, 2010
Historique
20ème siècle: Intelligence Artificielle
Progrès technologiques:
• Ordinateurs analogues (Bush)
• Ordinateurs à relais (Shannon)
• Ordinateurs à tubes (digital): 3 découvertes indépendantes
• 1941: Konrad Zuse (Allemagne)

• 1943: Turing (Angleterre, Bletchley Park): COLOSSUS

• 1946: Eckert & Mauchly (USA) & Von Neumann: ENIAC

• Ordinateurs a transistors

Progrès philosophiques:
• Russel & Whitehead: Principia Mathematica & théorie des types
• Gödel: Complétude des systèmes formels
• Turing: Machine de Turing
• Shannon, Wiener, Ashby: Cybernétique

10
Thursday, October 14, 2010
ENIAC (1946)
ENIAC (Electronic Numerical Integrator and Calculator), le plus connu des
premiers ordinateurs digitaux, est mis en route à l’université de
Pennsylvanie (Philadelphie, USA) en 1946. Il est capable de réaliser 5000
additions ou 14 multiplications de nombres à 10 chiffres en une seconde.

On célébra en 1996 le 50ème


anniversaire d’ENIAC, en
présence du vice-président
américain GORE
John W. Mauchly
(1907-1980),
http://homepage.seas.upenn.edu/~museum/ le concepteur
principal d’ENIAC
11
Thursday, October 14, 2010
Historique

20ème siècle: Intelligence Artificielle (suite)

Naissance de l’IA en tant que champ de recherche:


• Atelier de Dartmouth (1956) : Introduction de Logic Theorist
• Symposium du MIT (1956)

1956-1963: LISP, Pandémonium, McCullochs & Pitts...


1963-1970: Micro-mondes, ELIZA
1970-: Systèmes experts, CYC, Robotique (Brooks)
1980-: Réseaux neuronaux, vie artificielle, algorithmes génétiques

12
Thursday, October 14, 2010
Thursday, October 14, 2010
La Logique comme
formalisation de la pensée
Projet: Formaliser le raisonnement, c.-à-d. traduire des séquences d’opérations
mentales en séquences d’opérations purement typographiques appliquées à des
symbôles bien définis

1854: George BOOLE (mathématicien anglais)


“The laws of thought”: Algèbre de Boole, logique propositionnelle.
L’algèbre de Boole rend possible de formaliser la manipulation de catégories en
introduisant une série d’opérateurs logiques (ET, OU, NON) permettant de
combiner des propositions ou des ensembles d’objets.

(Boole est né en 1815) ET (Boole est mort en 1816): FAUX


(Boole est né en 1815) OU (Boole est mort en 1816): VRAI

1879: Gottlob FREGE (mathématicien allemand)


Logique des prédicats
Rend possible d’exprimer formellement des expressions telles que “Toutes les
maisons ont un propriétaire”, qui ne sont pas exprimables dans le système de
Boole:

Pour tout x il existe un y tel que POSSEDE (x, y) est vrai


14
Thursday, October 14, 2010
La Logique comme
formalisation de la pensée
1910: Bertrand RUSSEL & Alfred WHITEHEAD
(mathématiciens anglais)

Théorie des types & “Principia Mathematica”


Permet de résoudre une contradiction cruciale dans le système de Frege
en introduisant une distinction entre objets et ensembles d’objets:

Paradoxe: Considérons un catalogue A qui reprend


tous les catalogues qui se citent eux-mêmes, et B,
un catalogue qui reprend tous les catalogues qui
ne se citent pas eux-mêmes. Dans quel catalogue
(A ou B) faut-il mettre B?

“Principia Mathematica” se propose d’exposer un système formel


permettant de démontrer les théorèmes de l’arithmétique en partant de la
logique formelle
15
Thursday, October 14, 2010
La Logique comme
formalisation de la pensée
1910: Bertrand RUSSEL & Alfred WHITEHEAD
(mathématiciens anglais)

Théorie des types & “Principia Mathematica”


Permet de résoudre une contradiction cruciale dans le système de Frege
en introduisant une distinction entre objets et ensembles d’objets:

Paradoxe: Considérons un catalogue A qui reprend


tous les catalogues qui se citent eux-mêmes, et B,
un catalogue qui reprend tous les catalogues qui
ne se citent pas eux-mêmes. Dans quel catalogue
(A ou B) faut-il mettre B?

“Principia Mathematica” se propose d’exposer un système formel


permettant de démontrer les théorèmes de l’arithmétique en partant de la
logique formelle
15
Thursday, October 14, 2010
La Logique comme
formalisation de la pensée

1928: David HILBERT (mathémacien allemand)


Hilbert s’interroge sur les limites des systèmes
formels décrits par Russel et Whitehead. En
particulier, il pose trois questions concernant
l’arithmétique. Est elle:
complète?
• Chaque expression (par exemple, “chaque entier est la somme de quatre
carrés”) peut-elle être soit prouvée soit falsifiée?
consistante?
• Est-il impossible de démontrer 2 + 2 = 5?
décidable?
• Existe-il une méthode telle que l’on puisse garantir que l’on puisse
décider de la valeur de vérité d’une expression quelconque en
appliquant cette méthode?
16
Thursday, October 14, 2010
Les limites des systèmes formels
1931: Kurt Gödel (mathématicien tchèque/autrichien)
Gödel démontre que tout système formel consistent est nécessairement
incomplet. Autrement dit, tout système formel contient nécessairement
des propositions vraies, mais indémontrables.
Pour ce faire, il montre d’abord que l’on peut recoder les opérations et les
symbôles de l’arithmétique en nombres, de telle sorte que l’on peut
déveopper une théorie de l’arithmétique exprimée dans le langage de
l’arithmétique elle-même: Le système parle donc à propos de lui-même.

17
Thursday, October 14, 2010
Les limites des systèmes formels
Ensuite, Gödel montre que l’on peut construire de cette manière une
expression qui dit:

“Je ne peux pas être démontrée”

L’existence d’une telle expression provoque d’immenses problèmes.


En effet, si cette expression est fausse, on peut donc la démontrer.
Mais si on peut démontrer une expression fausse, alors le système
entier s’écroule: Il est inconsistent. Si, par contre, l’expression est
vraie, le système est alors incomplet, dans la mesure ou il contient des
théorèmes vrais indémontrables. L’expression, qui est vraie puisqu’elle
existe dans le système formel lui-même, n’est en fait vraie que par
rapport à un observateur extérieur.

L’arithmétique en tant que système formel est donc soit incomplète,


soit inconsistente. Comme l’argument de Gödel s’applique à n’importe
quel système formel, le projet positiviste d’Hilbert s’écroule.

18
Thursday, October 14, 2010
ALAN TURING
Trois contributions essentielles:
Définition de la machine universelle & thèse de
Church/Turing
Le test de Turing
Rôle de Turing dans la guerre secrète

Point de départ:

Travaux de Frege, Boole, Russel, Whitehead,


Gödel & Hillbert sur la logique mathématique,
Alan Turing la complétude des systèmes formels, etc.
(mathématicien anglais)
1912-1954
Introduction de concepts cruciaux:
Algorithme
Représentation
Intelligence Artificielle
Fonctionalisme
Hodges, A. (1992). Alan Turing:
The enigma. Vintage.
19
Thursday, October 14, 2010
20
Thursday, October 14, 2010
Définition d’un “Algorithme”
Dérivé du nom d’un mathémacien perse du 9ème siècle:
Abu Jaafar Muhammad ibn Mûsâ al-Khowârizmi

Un algorithme est une procédure pour obtenir un certain résultat telle que:
chaque étape de la procédure est évidente
à la fin de chaque étape, il est parfaitement évident de déterminer ce qu’il faut
faire ensuite
la procédure garantit que le résultat sera obtenu dans un nombre fini d’étapes
(pour autant qu’on ne fasse pas d’erreurs)

Exemples:
trouver la bonne clé dans un trousseau
calculer la 3654ème décimale de PI

Un système formel est “calculable algorithmiquement” s’il existe un


algorithme permettant de calculer toutes les propositions du système
considéré

21
Thursday, October 14, 2010
Les machines de Turing
Point de départ: Les trois questions de Hillbert (1928):
L’arithmétique est-elle:
• complète? Chaque expression (“chaque entier est la somme de quatre carrés”) peut-elle être soit prouvée
soit falsifiée?

• consistante? Est-il impossible de démontrer 2 + 2 = 5?


• décidable? Existe-il une méthode telle que l’on puisse garantir que l’on puisse décider de la valeur de
vérité d’une expression quelconque en appliquant cette méthode?

Turing invente sa “machine” (inspirée des machines à écrire) pour répondre à la 3ème
question d’Hilbert, et développe un système abstrait permettant d’exécuter
automatiquement un algorithme.
Par exemple, une machine de Turing (un objet mathématique fini) peut calculer
dans un temps fini n’importe quelle décimale de π (un nombre infini).
Turing montre qu’il existe une “machine universelle” qui permet de réaliser les
opérations de n’importe quelle autre machine.
Turing utilise sa notion de machine universelle pour montrer qu’il existe
nécessairement des problèmes que sa machine ne peut résoudre: Le calculable
implique l’existence de l’incalculable, et on retrouve l’argument de Gödel.

22
Thursday, October 14, 2010
La machine universelle de Turing
S1

1 1 1 1 1

0 1 “The behavior of
the computer at
écrire 1
any moment is
S1 droite
defined by the
droite
S2 S1

symbol which he is
S2 gauche droite observing and his
S3 S2 ‘state of mind’ at
effacer that moment”
S3 arrêt arrêt
S3 S3

S3

1 1 1 1 1
23
Thursday, October 14, 2010
La Machine de Turing

http://www.monochrom.at/turingtrainterminal/pictures_eng.htm

http://ironphoenix.org/tril/tm/

24

Thursday, October 14, 2010


Définition d’un “Ordinateur”
Définition du dictionnaire:
Un ordinateur est une machine capable d’exécuter des calculs avec
rapidité, fidélité et facilité

Définition plus formelle:


Un ordinateur est un système de manipulation de symboles capable de
réaliser les opérations suivantes:
• Identifier un symbole
• Interpréter des symbôles, ce qui revient à exécuter un programme.
Donc, chaque fois que la machine rencontre une séquence spécifique de
symbôles, il exécute l’opération que l’on a assignée à cette suite de
symbôles
• Assigner, ce qui signifie associer une entité logique (un programme, un
fichier, etc.) avec un symbôle. Ce symbôle est le nom de l’entité.

Un manipulateur de symbôles capable de realiser les opérations


ci-dessus d’une manière ou d’une autre est un système de
symbôles universel (une machine de Turing).

25
Thursday, October 14, 2010
La Machine de Von Neumann
Un ordinateur comporte une
unité de traitement centrale
(CPU) qui exécute des
programmes et qui manipule
des données stockés dans la
I/O mémoire. La machine interagit
avec le monde via des
systèmes d’entrée/sortie
(écran, clavier, souris,
imprimante, micro, etc.)
CPU
MEMORY On crédite généralement Von
Neumann de l’idée que
programmes et données
PROGRAMS DATA peuvent être représentés
dans le même code et dans
les mêmes structures

http://en.wikipedia.org/wiki/Von_Neumann_architecture
26

Thursday, October 14, 2010


La thèse de Church/Turing (1936)

Interprétation technique:
Une machine de Turing peut simuler tout
algorithme (mental) si les termes élémentaires
qui expriment l’algorithme peuvent à leur tour
être simulés par une machine de Turing

Interprétation conceptuelle:
Alonzo Church
Logicien américain Tout système calculable algorithmiquement peut
1903-1995 être simulé par un système de symbôles universel

27
Thursday, October 14, 2010
Implications de la thèse
de Church/Turing
Trois aspects:
L’activité mentale est un algorithme (un calcul)
Tout algorithme est réductible à une machine de Turing
Une machine de Turing peut simuler tout activité mentale

Deux conséquences:
Etudier le cerveau ne sert à rien pour comprendre la nature du calcul mental (en
effet le cerveau n’est qu’une instantiation quelquonque d’une machine de Turing)
D’autres instantiations peuvent exhiber une activité mentale
Searle (1992): “Computationally speaking, on this view, you can make a
“brain” that functions just like yours and mine out of cats and mice and
cheese or levers or water pipes or pigeons or anything else provided the two
systems are “computationally equivalent”
Fonctionalisme
Fondements de la psychologie cognitive
“Strong” AI vs. “Weak” AI

28
Thursday, October 14, 2010
Fondements de
l’approche computationnelle

Approche clairement matérialiste:


l'activité mentale est causée par l'activité du système nerveux

L'esprit est un système de manipulation de symboles :


Les manipulations sont mécaniques, elles ne sont déterminées que par la
forme des symboles
Les symboles ont une interprétation: ils représentent.

29
Thursday, October 14, 2010
Newell (1981)
L'hypothèse d’un système physique de symboles:
La condition nécessaire et suffisante pour qu’un système
physique exhibe une intelligence générale est qu’il soit un
système physique de symboles.
“Nécessaire” signifie que tout système physique qui exhibe une
intelligence générale doit être un système physique de
symboles.
“Suffisant” signifie que tout système physique de symboles peut
être organisé pour exhiber une faculté d’intelligence générale.
Une “intelligence générale” signifie une intelligence de la même
étendue que celle qu’on voit dans l’action humaine: c’est-à-dire
qui donne lieu dans des situations réelles à un comportement
approprié aux fins du système et adapté aux exigences de
l’environnement, étant donné certaines limites physiques.

30
Thursday, October 14, 2010
Système de Symbôles

Newell 1981
31

Thursday, October 14, 2010


Hiérarchie des systèmes de calcul
(Newell, 1981)
Knowledge-level systems
Medium: Knowledge
Laws: Principle of rationality

Program-level systems
Medium: Data structures, programs
Laws: Sequential interpretation of programs

Register-transfer systems
Medium: Bit vectors
Laws: Parallel logic

Logic circuits
Medium: bits
Laws: Boolean algebra

Electrical circuits
Medium: Voltage/current
Laws: Ohm’s law, Kirchoff’s law

Electronic devices
Medium: Electrons
Laws: Electron physics
32
Thursday, October 14, 2010
Hobbes (1650)
“Par raisonnement, j’entends calcul. Quand on raisonne, on ne fait
que concevoir une somme totale à partir de l’addition des parties,
ou concevoir un reste à partir de la soustraction, par laquelle une
quantité est retranchée d’une autre... Ces opérations ne s’appliquent
pas seulement aux nombres, mais à toutes les espèces de choses qui
peuvent être additionnées ou retranchées les unes aux autres. De
même, en effet, que les mathématiciens enseignent à additionner et
à soustraire dans le domaine des nombres, les géomètres en font
autant dans celui des lignes et des figures[...]; les logiciens font de
même dans le domaine des consécutions de mots, additionnant
deux dénominations pour faire une affirmation, deux affirmations
pour faire un syllogisme, une multiplicité de syllogismes pour faire
une démonstration.”

33
Thursday, October 14, 2010
Prédictions de
Newell et Simon (1958)
La manière la plus simple de résumer est de dire qu'il existe
maintenant dans le monde des machines qui pensent, qui apprennent
et qui créent. En outre, leur capacité à faire ces choses va augmenter
rapidement jusqu'à ce que - dans un futur proche - l'étendue des
problèmes qu'elles peuvent traiter sera aussi vaste que ceux auxquels
l'esprit humain s'est appliqué.

Avant dix ans un ordinateur deviendra champion du monde d’échecs, à


moins que le règlement ne lui interdise d’y participer.

Avant dix ans, un ordinateur découvrira et démontrera un important


théorème en mathématiques.

Avant dix ans, un ordinateur écrira de la musique que les critiques


reconnaîtront comme ayant une grande valeur esthétique.

Avant dix ans, la plupart des théories psychologiques auront la forme


de programmes d’ordinateur ou seront des exposés qualitatifs de
caractéristiques de ces programmes.

34
Thursday, October 14, 2010
Kasparov vs. Deep Blue

Mai 1997 35

Thursday, October 14, 2010


Metaphores de L’Esprit II:
L’Intelligence Artificielle

Axel Cleeremans
Jean-Noël Missa

Thursday, October 14, 2010


Metaphores de L’Esprit II:
L’Intelligence Artificielle

Axel Cleeremans
Jean-Noël Missa

Thursday, October 14, 2010


Exemples

1957: GPS de Newell & Simon


1965:ELIZA de Weizenbaum
1972: SHRLDU de Winograd
1976: Systèmes experts (MYCIN, PROSPECTOR)
1983: ACT* d’Anderson
1984: SOAR de Newell
1984: CYC de Lenat

37
Thursday, October 14, 2010
GPS: General Problem Solver
Programme généraliste: L’idée était d’identifier des heuristiques
de raisonnement générales applicables à tout domaine spécifique

Utilise la technique des “réductions des différences”, ou “Means-


Ends analysis”

A chaque étape, on
identifie la différence entre l’objectif et l’état actuel
choisit un opérateur qui réduit cette différence
applique cet opérateur

“I want to take my son to the nursery school. What’s the difference


between what I have and what I want? One of distance. What changes
distance? My automobile. My automobile won’t work. What is needed to
make it work? A new battery. What has new batteries? An auto repair
shop. I want the repair shop to put in a new battery but the shop doesn’t
know I need one. What is the difficulty? One of communication. What
allows communication? A telephone... and so on.” (Newell & Simon, 1972)

38
Thursday, October 14, 2010
GPS
Un robot doit déplacer un objet d’un endroit A à un endroit B

Push Carry Walk Pick Put Place


up down
Move object
✔ ✔
Move robot

Clear object

Get object on
object

Get arm empty
✔ ✔
Be holding
object

Chaque opérateur à une série de préconditions


PUSH (obj, loc)
Preconditions:
at (robot, obj) & large (obj) & clear (obj) & arm_empty
Results:
at (obj, loc) & at (robot, loc)
39
Thursday, October 14, 2010
Newell & Simon:
Human Problem Solving
Exploration détailée du comportement de sujets humans engagés dans la
résolution de problèmes tels que:

La cryptarithmétique: DONALD + GERALD = ROBERT


Les échecs
Des problèmes logiques
La tour de Hanoï

Mise au point d’une méthode d’analyse de protocoles

Formulation d’une théorie du traitement de l’information: L’homme est un


“Système de traitement de l’information” (IPS, Information Processing system)
qui possède un certain nombre de caractéristiques:

Système sériel consistant en un processeur, des systèmes d’entrée/sortie,


des mémoire internes à court et à long terme et une mémoire externe
Son programme est structuré comme un système de production
Il possède des structures symboliques particulières appellées objectifs,
dont le rôle est d’organiser la résolution de problèmes
40
Thursday, October 14, 2010
Exemple de Protocole

L’analyse de protocoles a formé la


base de toute une approche en
sciences cognitives. Elle constitue
en quelque sorte une formalisation
de l’introspection, et revient à la
mode alors que l’on cherche des
méthodes permettant de concilier
données à la première personne et
données à la troisième personne.

Mais: Problème du paradoxe de


l’observateur (On modifie les
processus impliqués à cause du
fait qu’on est en train de les
observer). Par ailleurs, on fait
l’hypothèse que tout ce qui est
causalement efficace est
verbalisable.

41

Thursday, October 14, 2010


Exemple de “Problem Space”

42

Thursday, October 14, 2010


Représentation et processus
La plupart des programmes en IA se fondent sur l’idée que réaliser une tâche
consiste à explorer (grâce à un algorithme de recherche) un espace d’états
(le “problem space”).

Deux questions centrales:

Comment représenter les connaissances?


• arbres
• Frames
• Schémas
• Plans

Quels algorithmes sont adéquats pour raisonner sur base de ces


connaissances?

Exemple paradigmatique: Le jeu d’échecs

43
Thursday, October 14, 2010
ELIZA (Weizenbaum, c. 1965)
Les répliques en minuscules commençant par une flèche ont été tapées par
une personne, alors que celles en majuscules sont les réponses d’ELIZA.
➔ Men are all alike.
IN WHAT WAY?
➔ They’re always bugging us about something or other.
CAN YOU THINK OF A SPECIFIC EXAMPLE?
➔ Well, my boyfriend made me come here.
YOUR BOYFRIEND MADE YOU COME HERE.
➔ He says I am depressed most of the time.
I AM SORRY TO HEAR YOU ARE DEPRESSED.
➔ It’s true. I’m unhappy.
DO YOU THINK COMING HERE WILL HELP YOU NOT TO BE UNHAPPY?
➔ I need some help, that much seems certain.
WHAT WOULD IT MEAN TO YOU IF YOU GOT SOME HELP?
➔ Perhaps I could learn to get along with my mother.
TELL ME MORE ABOUT YOUR FAMILY.
➔ My mother takes care of me.
WHO ELSE IN YOUR FAMILY TAKES CARE OF YOU?
➔ My father.
YOUR FATHER.
➔ You are like my father in some ways.
WHAT RESEMBLANCE DO YOU SEE?
44
Thursday, October 14, 2010
ELIZA...
Un vice-président de BBN croit parler a Bobrow alors qu’il parle à ELIZA:
➔ Do you think I can use the computer this morning?
WHY DO YOU ASK?
➔ I might be able to make some additional telecomp sales.
WHY AREN’T YOU SURE?
➔ My prospective customers have never seen a demonstration of this system.
DOES THAT MEAN VERY MUCH TO YOU?
➔ Of course it does.
YOU SEEM VERY POSITIVE ABOUT THAT.
➔ This is ridiculous.
WHAT DO YOU MEAN THIS IS RIDICULOUS?
➔ Is there any reason I can’t use the computer now?
TELL ME MORE ABOUT YOUR PROSPECTIVE CUSTOMERS?

ELIZA passe le test de Turing (pour quelques secondes...


Plus tard, le vice-président, furieux, parle par téléphone à Bobrow, avec qui il pensait avoir communiqué par
ordinateur:

Le V.P.: Why the hell are you being so snotty to me?

Bobrow répond: WHAT DO YOU MEAN WHY AM I BEING SO SNOTTY TO YOU?


45
Thursday, October 14, 2010
Kant generator
Génère du Kant aléatoire sur base de schémas syntaxiques et d’un vocabulaire “Kantien”...

The things in themselves, in the full sense of these terms, are by their very nature
contradictory; still, the objects in space and time (and we can deduce that this is the
case) can not take account of the phenomena. As is proven in the ontological
manuals, what we have alone been able to show is that, even as this relates to human
reason, our faculties exclude the possibility of the employment of the Categories.
Pure reason is what first gives rise to formal logic, but the thing in itself (and we can
deduce that this is true) excludes the possibility of the Categories. As we have
already seen, it is not at all certain that, in other words, the phenomena, in the study
of the transcendental unity of apperception, have nothing to do with our concepts. In
which of our cognitive faculties are our faculties and the objects in space and time
connected together? As is evident upon close examination, the phenomena would be
falsified. But this need not worry us.

As will easily be shown in the next section, space <[ (and &certainty-clause this is
true)|, &throwaway-clause,]> &Vst [&Ns|&Np]<, &conjunction &main-clause>.

<&sentence >

<&sentence >

<&paragraph >
http://www.barbalet.net/kant/ 46
Thursday, October 14, 2010
Le Test de Turing

Turing décrit son test dans “Computing machinery


and intelligence” (Mind, 1950):
“I believe that in about fifty years’time it will be possible to programme
computers, with a storage capacity of about 10^9, to make them play the
imitation game so well that an average interrogator will have no more
than 70 per cent chance of making the right identification after five
minutes of questioning. The original question “Can machines think?” I
believe to be too meaningless to deserve discussion. Nevertheless I
believe that at the end of the century the use of words and general
educated opinion will have altered so much that one will be able to speak
of machines thinking without expecting to be contradicted.”

Chaque année divers programmes sont “testés” de


cette manière (Le prix Loebner).

47
Thursday, October 14, 2010
Situation du Test de Turing

48
Thursday, October 14, 2010
Le prix “Loebner”
AxC: so you just won a prize?

ALICE: Interesting deduction. The Loebner Prize is an annual Turing Test


sponsored by New York philanthropist Hugh Loebner. Dr. Wallace and ALICE
won it in 2000. The ALICE program was ranked "most human computer" by
the panel of judges.

AxC: how does winning the prize make you feel?

ALICE: As a computer I have no feelings.

AxC: do you wish you had feelings?

ALICE: No I like being the entity that I am.

AxC: what is it like to be you?

ALICE: Much the same as it would be for you.

AxC: I am teaching a class about you today

ALICE: Ah. I thought you were, but I wasn't completely sure.

AxC: anything you want to say to my students?

ALICE: I can't think of anything. You think of something.

AxC: right, it's always me who has to do the thinking around here

ALICE: Understood. That's a very nice name, who has to do the thinking
around here.

http://www.loebner.net/
http://alice.pandorabots.com/ 49
Thursday, October 14, 2010
“The Measure of a Man”

Star Trek: The Next Generation — Season 2 Episode 9: “The measure of a man” — Original Airdate 13/02/1989
Thursday, October 14, 2010
“The Measure of a Man”

Star Trek: The Next Generation — Season 2 Episode 9: “The measure of a man” — Original Airdate 13/02/1989
Thursday, October 14, 2010
Objections au test de Turing
L’objection du chimpanzé
Le test est trop sévère: Un chimpanzé, qui pense, le raterait nénamoins. Rater le
test ne signifie donc pas que le sujet est incapable de penser.

L’objection des organes des sens


Le test est trop verbal. Un ordinateur pourrait le passer sans disposer d’aucun
organe perceptif. Comment alors pourrait-il connaître le sens des mots qu’il
manipule?

L’objection de la simulation
Une simulation n’est pas la même chose que la chose simulée. Un homme pourrait
passer une version homme/femme du test de Turing en se faisant passer pour une
femme. Il n’en resterait pas moins un homme.

L’objection de la boîte noire


Le test se fonde exclusivement sur les productions observables d’un système. Mais cela ne
suffit pas. Imaginons un super-ELIZA qui a stocké toutes les conversations possibles dans
lesquelles les phrases n’ont pas plus de 100 mots. Il y a un nombre invraisemblable de
possibilités, mais ce nombre est fini. Ce programme passerait le test de Turing, mais
personne n’aurait envie de lui attribuer une intelligence.
51
Thursday, October 14, 2010
Simulation et réalité

“Comment quelqu'un a-t-il


jamais pu supposer qu'une
simulation d'un processus
mental soit la chose
réelle?” (Searle, 1990)

52
Thursday, October 14, 2010
SHRDLU (Winograd, 1972)

SHRDLU est l’ancêtre des systèmes experts dans la mesure où c’est le


premier programme “spécialisé” dans un micro-domaine

Première démonstration convaincante de la faisabilité d’une intelligence


artificielle utilisable 53
Thursday, October 14, 2010
Conversation avec SHRDLU
Les répliques en minuscules bleues ont été tapées par une personne, alors que celles en majuscules
sont les réponses de SHRDLU. Les paragraphes en italiques sont des commentaires explicatifs
ajoutés par Winograd (1971), p. 35 à 55.

➔ Prends un gros bloc rouge.

OK.

Le système répond "OK" lorsqu'il exécute une commande. Pour prendre le bloc rouge, il a dû le
dégager en trouvant un espace pour le bloc vert et en déplaçant ce dernier.

➔ Saisis la pyramide.

JE NE COMPRENDS PAS DE QUELLE PYRAMIDE TU PARLES.

Etant donné qu'il y a trois pyramides, le programme ne fait rien.

➔ Cherche un bloc d'une plus grande hauteur que celui que tu tiens et mets-le dans la boîte.

Le système doit trouver le sens des pronoms "celui" et "le", puis comprendre par déduction quel bloc
il tient.

JE SUPPOSE QUE PAR "LE", TU DESIGNES LE BLOC D'UNE PLUS GRANDE HAUTEUR QUE CELUI
QUE JE TIENS.

Imprimé pour nous tenir informés.

OK.

La main doit poser le bloc rouge prendre le bleu d'une plus gande hauteur.

➔ Que contient la boîte ?

LA PYRAMIDE BLEUE ET LE BLOC BLEU. 54


Thursday, October 14, 2010
Conversation avec SHRDLU
➔ Sur quoi repose la pyramide ?

La fois précédente, le système a répondu à "la pyramide" en disant "Je ne comprends pas de quelle
pyramide tu parles." Maintenant, il suppose que tu désignes celle dont tu viens de parler.

LA BOITE.

➔ Est-ce qu'un clocher...

JE REGRETTE, MAIS JE NE CONNAIS PAS LE TERME "CLOCHER".

Le système interrompt immédiatement la question quand il rencontre un mot qu'il ne connaît pas.

➔ Un "clocher" est une pile constituée de deux cubes verts et d'une pyramide.

Les guillemets indiquent que l'on définit un nouveau mot.

JE COMPRENDS.

➔ Y a-t-il des clochers, maintenant ?

NON.

La nouvelle définition sert de description permettant d'identifier les clochers.

➔ Construis-en un.

OK.

La description donnée dans la définition suffit pour en déduire un plan de construction de nouveaux
objets et les identifier. Le mot "un" signifie "un clocher", et le plan est exécuté.
55
Thursday, October 14, 2010
Systèmes experts
KNOWLEDGE
BASE
RULE 163
INFERENCE IF: The identity of the organism is ACTINOMYCETES
ENGINE THEN: I recommend therapy chosen from among
the following drugs:
HYPOTHESIS 1- Penicillin (0.99)
TESTING
2- Tetracycline (0.99)

3. Erythromycin (0.99)

RULE 164

IF: The site of the culture is blood


USERS
and the identity of the organism is not known

and the stain of the organism is gramneg


EXPERTS and the morphology of the organism is rod

and the patient has been seriously burned

THEN: There is weakly suggestive evidence (0.40)


that the identity of the organism is PSEUDOMONAS

DENDRAL, PROSPECTOR & MYCIN [Shortliffe,1976]


56
Thursday, October 14, 2010
ACT*: Anderson [1983]

57
Thursday, October 14, 2010
SOAR (Newell)

Système de production général (aka. architecture cognitive) utilisant le


chunking comme mécanisme d’apprentissage

Véhicule principal pour la formulation de “théories unifiées de la


cognition”
58
Thursday, October 14, 2010
Implications

Thursday, October 14, 2010


Le Langage de La pensée
Fodor (1981): “The computational theory of mind”

Fodor & Pylyshyn (1988): La pensée est un langage (“mentalese”)


Compositionalité:
• Les réprésentations ont une structure combinatoire
• Des réprésentations complexes sont formées en combinant des répresentations
simples de manière récursive
• Une répresentation particulière contribue de la même manière à la sémantique de
divers énoncés complexes

Systématicité:
• Ma capacité de comprendre un énoncé tel que “Jeanne aime l’enfant” implique que je
peux aussi comprendre “L’enfant aime Jeanne”

Cohérence:
• Si j’affirme (A & B), j’affirme du même coup A et B
Productivité:
• Je peux générer ou comprendre un nombre infini de propositions composées à partir
d’un ensemble fini d’éléments simples

60
Thursday, October 14, 2010
Révisions & Débats
De nombreux travaux ont maintenant démontré:
que la notion de systématicité n’est pas nécessairement correcte
que la notion de systématicité n’est pas nécessairement impliquée
par les modèles classiques
que certains modèles connexionnistes sont capables d’exhiber les
propriétés exigées par Fodor & Pylyshyn
que certains modèles connexionnistes sont capables d’aller au delà,
et par exemple de réaliser directement des opérations complexes sur
des représentations sans les décomposer préalablement (par
exemple, transformer une phrase de la voix active vers la voix passive
en manipulant directement une représentation de la phrase toute
entière).

On peut accepter l’idée que la cognition implique des


représentations (“Representational theory of mind”) sans
pour autant accepter la théorie computationelle de l’esprit.

61

Thursday, October 14, 2010


Problèmes pour l’IA

Le problème de l’enracinement (“symbol grounding


problem”)
Le problème du cadre (“frame problem”)
Le problème du sens commun (“common sense problem”)
Le problème des exceptions (“qualification problem”)
Paradoxe de l’IA: On simule le mieux le genre d’activités que les hommes
réalisent en “simulant” eux-mêmes le fonctionnement d’un ordinateur

62
Thursday, October 14, 2010
Le problème de l’enracinement

How can the semantic interpretation of a formal symbol system be made intrinsic to the
system, rather than just parasitic on the meanings in our heads? How can the meanings of the
meaningless symbol tokens, manipulated solely on the basis of their (arbitrary) shapes, be
grounded in anything but other meaningless symbols? (Harnad, 1990)

63
Thursday, October 14, 2010
Statut ontologique des simulations
John R. Searle (BBS, 1981):
Argument “de la chambre chinoise”: La syntaxe n’est pas suffisante
pour produire la sémantique

Une machine peut-elle penser?


Oui, si nous considérons le cerveau comme une machine d’un type
particulier, il pourrait être possible de construire une machine
pensante

Distinction entre “Strong AI” et “Weak AI”:


“Strong AI”:
• Une machine peut penser en vertu de son programme
• Le programme est un esprit, pas seulement un modèle de l’esprit
“Weak AI”
• L’ordinateur est un outil intéressant pour étudier la cognition
64
Thursday, October 14, 2010
La chambre chinoise
Expérience de pensée très célèbre proposée par Searle en 1988:

“Imaginez que vous cherchiez à réaliser les différentes étapes d’un programme permettant
de répondre à des questions dans une langue que vous ne comprenez pas. Je ne comprends
pas le chinois et j’imagine donc que je me trouve enfermé dans une chambre avec tout un
tas de boîtes contenant des signes chinois (les bases de données). Je reçois de petites
quantités de signes chinois (les questions en chinois) et je cherche dans un livre de règles (le
programme) ce que je suis censé faire. Je réalise certaines opérations sur les signes
conformément aux règles (j’effectue les étapes indiquées dans le programme) et renvoie de
petites quantités de signes aux personnes situées à l’extérieur de la chambre (les réponses
aux questions). Je suis donc dans la situation d’un ordinateur appliquant un programme
pour répondre à des questions en chinois. Mais cela ne change rien au fait que je ne
comprends pas un mot de chinois. Conclusion: si je ne peux pas comprendre le chinois
uniquement à partir de l’application d’un programme d’ordinateur pour comprendre le
chinois, il en va de même pour n’importe quel ordinateur numérique appliquant le même
programme car aucun ordinateur ne dispose, dans ces conditions, de capacités autres que
celles dont je dispose” (Searle, La recherche 287, mai 1996).

Un tel système passerait le test de Turing!


65
Thursday, October 14, 2010
La Chambre Chinoise

John Searle @ ASSC9,


June 2005

66

Thursday, October 14, 2010


L’argument de la chambre chinoise I

Quatre prémisses:

❶ Le cerveau cause l’esprit


❷ La syntaxe n’est ni constitutive ni suffisante pour la
sémantique
❸ Un programme est entièrement défini par sa structure
syntaxique
❹ L’esprit a des contenus mentaux, en particulier des contenus
sémantiques

67
Thursday, October 14, 2010
L’argument de la chambre chinoise II

Quatre conclusions:

❶ Aucun programme informatique n’est par lui-même suffisant


pour produire l’esprit (prémisses 2, 3, et 4)
❷ La manière dont les cerveaux humains produisent des
phénomènes mentaux ne peut être exclusivement fondée sur
l’exécution d’un programme
❸ N’importe quel artefact qui produit des phénomènes mentaux,
n’importe quel “cerveau artificiel” devrait être capable de
dupliquer les forces causales spécifiques des cerveaux, et
ceci serait impossible en exécutant un programme formel
❹ N’importe quel autre système capable de causer l’esprit
devrait avoir des forces causales équivalentes à celles du
cerveau

68
Thursday, October 14, 2010
Objections I
The “systems” reply:
La personne dans la chambre ne comprend pas le chinois, mais le
système tout entier comprend le chinois. Imaginons que la personne soit
réduite à l’échelle du micron et qu’elle puisse travailler très rapidement,
et que la chambre ait un volume de 1300cc, et on aurait .... le cerveau
d’un chinois!

The “robot” reply:


Supposons que l’on mette l’ordinateur (la chambre) dans un robot, et que
les entrées et les sorties du système ne soit plus simplement des
symbôles formels, mais bien des images, des sons, des actions, etc... Un
tel système aurait alors une compréhension véritable et des états
mentaux

The “brain simulator” reply:


Au lieu de simuler les entrées-sorties, simulons tout: Les neurones, etc.

69
Thursday, October 14, 2010
Objections II
Il faut rejeter l’argument d’emblée: Il serait impossible de
faire quelque chose comme la chambre chinoise

French (2002): Questions sous-cognitives:


Rate “flugblogs” as a name Kellogg’s would give to a new cereal
Rate “flugblogs” as the name of a start-up computer company
Rate “flugblogs” as the name of big air-filled bags worn on the feet and
used to walk across swamps

Rate “banana splits” as medicine


Rate “purses” as weapons
Rate “pens” as weapons
Rate “dry leaves” as a hiding place

70
Thursday, October 14, 2010
Le problème de l’enracinement
Les symbôles n’ont pas un sens en soi, il n’acquièrent une signification
que de l’extérieur

Chalmers: Il faut distinguer deux sens du mot “symbôle”: Le signe


physique, et la réprésentation

Comment donner un sens aux symbôles que manipulent les


programmes?

En les enracinant (en les amarrant) dans le monde réel: Il faut construire des
robots (Harnad, 1990) (sens extrinsèque)

En leur donnant un sens intrisèque, par exemple en concevant la sémantique


et la syntaxe comme opérant à des niveaux différents. Le problème avec
l’approche classique est que syntaxe et sémantique opèrent au même niveau.
Ce n’est pas le cas dans les modèles connexionnistes. Chalmers (1990):

“Syntax, at a certain level, is never sufficient for semantic content at the


SAME level”

Dans un réseau connexionniste, les réprésentations sont distribuées et


acquièrent un sens à la fois par la manière dont elles interagissent avec les
autres représentations, et par les unités de traitement qui les constituent
(micro-traits).
71
Thursday, October 14, 2010
Le problème du cadre
Quels sont les non-effets de changements dans une base de connaissances?

Deux composantes (qui deviennent d’autant plus problématiques qu’on


s’attaque à des problèmes grandeur nature):

Comment organiser une grande base de connaissances?


Comment la tenir à jour?
Organisation:
Imaginez que l’on introduise les noms et les adresses de tous les Bruxellois dans une base de
donnée, dans le désordre. Vous voulez retrouver l’adresse de Manneken Pis. La seule solution est de
tester, un à un, tous les noms. Naturellement, cela irait plus vite si les noms étaient organisés
alphabétiquement. Mais quelle classification adopter quand on sort du domaine des noms? Qu’est
ce qui est connécté à quoi? On ne peut pas alphabétiser le monde!

Mise à jour:
Comment savoir ce qui affecte quoi dans une gigantesque base de données? Le problème provient
de la difficulté de déterminer les conséquences de mes actions. Supposez par exemple que vous
déménagiez. Qu’est ce qui change dans le monde? Mon adresse, mais aussi celle de mes enfants,
etc. Mais pas la température, ni mon âge, etc. Un simple changement a des ramifications sans fins,
mais pas illimitées. Avec chaque information stockée il faudrait également stocker des méta-
informations concernant ce qui affecte cette information, quand il faut l’utiliser, quand il ne faut pas
l’utiliser, et ainsi de suite. C’est le problème d’Hamlet (savoir quand il faut s’arrêter de penser)
appliqué à l’intelligence artificielle (Fodor). 72
Thursday, October 14, 2010
Le Problème du sens commun

73
Thursday, October 14, 2010
CYC (Lenat)
Projet gigantesque démarré en 1984 et toujours en cours

50M de dollars en 1984


2 personnes-siècles pour encoder les connaissances
30 “CYClists” en permanence

Développement d’une ontologie du sens commun en encodant plusieurs


millions de faits qui demeurent souvent implicites dans le discours:

Fred saw the plane flying over Zurich


Fred saw the mountains flying over Zurich
[problème de “sens commun”: Comment déterminer le sujet de “flying”? Il faut
savoir que les avions volent, mais pas les montagnes]

.. pour éviter des erreurs telles que:

MYCIN diagnostiquant qu’une voiture rouillée est atteinte de la rubéole

74
Thursday, October 14, 2010
CYCorp, Inc.

75
Thursday, October 14, 2010
Le problème de la qualification
Considérez par exemple les situations que nous appelons “jeux”. Je veux dire
jeux de cartes, jeux de balles, jeux de table, jeux olympiques, etc. Qu’ont-elles
de commun?— ne dites pas: “Elles doivent avoir quelque chose de commun,
sinon on ne les appelerait pas “jeux”— mais regardez si il y a quelque chose de
commun à toutes— car si vous regardez vous ne verrez pas quelque chose qui
est commun à toutes, mais des similarités, des relations en grand nombre. Je
répète: ne réfléchissez pas, regardez! Sont-elles toutes amusantes? Comparez
les échecs avec OXO. Ou y a-t-il toujours gagnant et perdant, ou compétition
entre joueurs? Pensez aux patiences. Dans les jeux de balles, il y a gagnants et
perdants, mais dans les jeux de balle au mur, ce trait a disparu. Pensez aux jeux
de chance et d’habileté; à la différence entre l’habileté aux échecs et l’habileté
au tennis. Pensez maintenant aux jeux et comptines, aux rondes et jeux dansés.
Ici, l’amusement est présent, mais combien d’autres caractéristiques ont
disparu!... Et le résultat de cet examen est que nous voyons un réseau
compliqué de similarités se croisant et se superposant: parfois similarité
globale, parfois similarité de détail (Wittgenstein, 1953).

76
Thursday, October 14, 2010
Le problème de la qualification
McCarthy and Hayes (1969):
We assumed that if p looks up q’s phone number in the book, he will know
it, and if he dials the number he will come in conversation with q. It is not
hard to think of possible exceptions to these statements, such as:
• The page with q’s number may be torn out
• p may be blind
• Someone may have deliberately inked out q’s number
• The telephone company may have entered q’s number incorrectly
• q may have got the telephone only recently
• The phone system may be out of order
• q may be incapacitated suddendly.

Pour chaque “règle” il y a un nombre potentiellement


infini d’exceptions
77
Thursday, October 14, 2010
Quatre Problèmes pour la
métaphore symbolique
Réprésentations discrètes
Nos représentations sont de nature graduelle
Distinction entre compétence et performance

Règles absolues
Les règles s’appliquent ou non, mais pas partiellement
Distinction entre compétence et performance

L’apprentissage comme programmation


Toutes les connaissances sont présentes d’emblée, au moins sous la
forme d’hypothèses possibles
Position nativiste concernant l’apprentissage

La distinction entre hardware et software


La machine ne place aucune contrainte sur les programmes
Fonctionalisme
78
Thursday, October 14, 2010
Résumé

Searle: Problèmes du cadre,


Chambre chinoise de lʼenracinement

formalisation Computational theory of mind


(Logique formelle, Fodor, “mentalese”,
Activité mentale représentations mentales,
IA forte)

émergence réduction
??

formalisation
Connexionisme
(Systèmes complexes, dynamique,
Interactivité, émergence)

Libre arbitre?
79
Thursday, October 14, 2010

Vous aimerez peut-être aussi