Académique Documents
Professionnel Documents
Culture Documents
3
Thursday, October 14, 2010
Le système MIU
Hofstadter (1979, Gödel, Escher, Bach)
3 symbôles: M, I, U:
Expressions possibles: MIU, MIUIU, MUMUM, ...
Un axiome: MI
4
Thursday, October 14, 2010
Le système MIU
Hofstadter (1979, Gödel, Escher, Bach)
3 symbôles: M, I, U:
Expressions possibles: MIU, MIUIU, MUMUM, ...
Un axiome: MI
4
Thursday, October 14, 2010
Deux réunions importantes
Atelier de Dartmouth (Juin 1956)
Minsky, McCarthy, Shannon, Rochester
More, Samuel, Solomonoff
Selfridge
Newell & Simon
Introduction du Logic Theorist
5
Thursday, October 14, 2010
Historique
Historique de la pensée indissociable des progrès
technologiques
6
Thursday, October 14, 2010
Le vrai/faux automate:
W. de Kempelen (1769)
7
Thursday, October 14, 2010
Historique
19ème siècle: Mécanismes
Progrès technologiques:
• 1805: Jacquard: Métier à tisser
• 1825: Babbage
• The Difference Engine: 1er ordinateur?
• “Programmation” avec Ada Lovelace
• 1890: Hollerith: Calculateur mécanique
• 1890: Fondation d’International Business Machines (IBM)
Progrès philosophiques:
• Boole: “The laws of Thought” (1854)
• Frege: Logique des prédicats
8
Thursday, October 14, 2010
The analytical Engine:
Charles Babbage (c. 1825)
9
Thursday, October 14, 2010
Historique
20ème siècle: Intelligence Artificielle
Progrès technologiques:
• Ordinateurs analogues (Bush)
• Ordinateurs à relais (Shannon)
• Ordinateurs à tubes (digital): 3 découvertes indépendantes
• 1941: Konrad Zuse (Allemagne)
• Ordinateurs a transistors
Progrès philosophiques:
• Russel & Whitehead: Principia Mathematica & théorie des types
• Gödel: Complétude des systèmes formels
• Turing: Machine de Turing
• Shannon, Wiener, Ashby: Cybernétique
10
Thursday, October 14, 2010
ENIAC (1946)
ENIAC (Electronic Numerical Integrator and Calculator), le plus connu des
premiers ordinateurs digitaux, est mis en route à l’université de
Pennsylvanie (Philadelphie, USA) en 1946. Il est capable de réaliser 5000
additions ou 14 multiplications de nombres à 10 chiffres en une seconde.
12
Thursday, October 14, 2010
Thursday, October 14, 2010
La Logique comme
formalisation de la pensée
Projet: Formaliser le raisonnement, c.-à-d. traduire des séquences d’opérations
mentales en séquences d’opérations purement typographiques appliquées à des
symbôles bien définis
17
Thursday, October 14, 2010
Les limites des systèmes formels
Ensuite, Gödel montre que l’on peut construire de cette manière une
expression qui dit:
18
Thursday, October 14, 2010
ALAN TURING
Trois contributions essentielles:
Définition de la machine universelle & thèse de
Church/Turing
Le test de Turing
Rôle de Turing dans la guerre secrète
Point de départ:
Un algorithme est une procédure pour obtenir un certain résultat telle que:
chaque étape de la procédure est évidente
à la fin de chaque étape, il est parfaitement évident de déterminer ce qu’il faut
faire ensuite
la procédure garantit que le résultat sera obtenu dans un nombre fini d’étapes
(pour autant qu’on ne fasse pas d’erreurs)
Exemples:
trouver la bonne clé dans un trousseau
calculer la 3654ème décimale de PI
21
Thursday, October 14, 2010
Les machines de Turing
Point de départ: Les trois questions de Hillbert (1928):
L’arithmétique est-elle:
• complète? Chaque expression (“chaque entier est la somme de quatre carrés”) peut-elle être soit prouvée
soit falsifiée?
Turing invente sa “machine” (inspirée des machines à écrire) pour répondre à la 3ème
question d’Hilbert, et développe un système abstrait permettant d’exécuter
automatiquement un algorithme.
Par exemple, une machine de Turing (un objet mathématique fini) peut calculer
dans un temps fini n’importe quelle décimale de π (un nombre infini).
Turing montre qu’il existe une “machine universelle” qui permet de réaliser les
opérations de n’importe quelle autre machine.
Turing utilise sa notion de machine universelle pour montrer qu’il existe
nécessairement des problèmes que sa machine ne peut résoudre: Le calculable
implique l’existence de l’incalculable, et on retrouve l’argument de Gödel.
22
Thursday, October 14, 2010
La machine universelle de Turing
S1
1 1 1 1 1
0 1 “The behavior of
the computer at
écrire 1
any moment is
S1 droite
defined by the
droite
S2 S1
symbol which he is
S2 gauche droite observing and his
S3 S2 ‘state of mind’ at
effacer that moment”
S3 arrêt arrêt
S3 S3
S3
1 1 1 1 1
23
Thursday, October 14, 2010
La Machine de Turing
http://www.monochrom.at/turingtrainterminal/pictures_eng.htm
http://ironphoenix.org/tril/tm/
24
25
Thursday, October 14, 2010
La Machine de Von Neumann
Un ordinateur comporte une
unité de traitement centrale
(CPU) qui exécute des
programmes et qui manipule
des données stockés dans la
I/O mémoire. La machine interagit
avec le monde via des
systèmes d’entrée/sortie
(écran, clavier, souris,
imprimante, micro, etc.)
CPU
MEMORY On crédite généralement Von
Neumann de l’idée que
programmes et données
PROGRAMS DATA peuvent être représentés
dans le même code et dans
les mêmes structures
http://en.wikipedia.org/wiki/Von_Neumann_architecture
26
Interprétation technique:
Une machine de Turing peut simuler tout
algorithme (mental) si les termes élémentaires
qui expriment l’algorithme peuvent à leur tour
être simulés par une machine de Turing
Interprétation conceptuelle:
Alonzo Church
Logicien américain Tout système calculable algorithmiquement peut
1903-1995 être simulé par un système de symbôles universel
27
Thursday, October 14, 2010
Implications de la thèse
de Church/Turing
Trois aspects:
L’activité mentale est un algorithme (un calcul)
Tout algorithme est réductible à une machine de Turing
Une machine de Turing peut simuler tout activité mentale
Deux conséquences:
Etudier le cerveau ne sert à rien pour comprendre la nature du calcul mental (en
effet le cerveau n’est qu’une instantiation quelquonque d’une machine de Turing)
D’autres instantiations peuvent exhiber une activité mentale
Searle (1992): “Computationally speaking, on this view, you can make a
“brain” that functions just like yours and mine out of cats and mice and
cheese or levers or water pipes or pigeons or anything else provided the two
systems are “computationally equivalent”
Fonctionalisme
Fondements de la psychologie cognitive
“Strong” AI vs. “Weak” AI
28
Thursday, October 14, 2010
Fondements de
l’approche computationnelle
29
Thursday, October 14, 2010
Newell (1981)
L'hypothèse d’un système physique de symboles:
La condition nécessaire et suffisante pour qu’un système
physique exhibe une intelligence générale est qu’il soit un
système physique de symboles.
“Nécessaire” signifie que tout système physique qui exhibe une
intelligence générale doit être un système physique de
symboles.
“Suffisant” signifie que tout système physique de symboles peut
être organisé pour exhiber une faculté d’intelligence générale.
Une “intelligence générale” signifie une intelligence de la même
étendue que celle qu’on voit dans l’action humaine: c’est-à-dire
qui donne lieu dans des situations réelles à un comportement
approprié aux fins du système et adapté aux exigences de
l’environnement, étant donné certaines limites physiques.
30
Thursday, October 14, 2010
Système de Symbôles
Newell 1981
31
Program-level systems
Medium: Data structures, programs
Laws: Sequential interpretation of programs
Register-transfer systems
Medium: Bit vectors
Laws: Parallel logic
Logic circuits
Medium: bits
Laws: Boolean algebra
Electrical circuits
Medium: Voltage/current
Laws: Ohm’s law, Kirchoff’s law
Electronic devices
Medium: Electrons
Laws: Electron physics
32
Thursday, October 14, 2010
Hobbes (1650)
“Par raisonnement, j’entends calcul. Quand on raisonne, on ne fait
que concevoir une somme totale à partir de l’addition des parties,
ou concevoir un reste à partir de la soustraction, par laquelle une
quantité est retranchée d’une autre... Ces opérations ne s’appliquent
pas seulement aux nombres, mais à toutes les espèces de choses qui
peuvent être additionnées ou retranchées les unes aux autres. De
même, en effet, que les mathématiciens enseignent à additionner et
à soustraire dans le domaine des nombres, les géomètres en font
autant dans celui des lignes et des figures[...]; les logiciens font de
même dans le domaine des consécutions de mots, additionnant
deux dénominations pour faire une affirmation, deux affirmations
pour faire un syllogisme, une multiplicité de syllogismes pour faire
une démonstration.”
33
Thursday, October 14, 2010
Prédictions de
Newell et Simon (1958)
La manière la plus simple de résumer est de dire qu'il existe
maintenant dans le monde des machines qui pensent, qui apprennent
et qui créent. En outre, leur capacité à faire ces choses va augmenter
rapidement jusqu'à ce que - dans un futur proche - l'étendue des
problèmes qu'elles peuvent traiter sera aussi vaste que ceux auxquels
l'esprit humain s'est appliqué.
34
Thursday, October 14, 2010
Kasparov vs. Deep Blue
Mai 1997 35
Axel Cleeremans
Jean-Noël Missa
Axel Cleeremans
Jean-Noël Missa
37
Thursday, October 14, 2010
GPS: General Problem Solver
Programme généraliste: L’idée était d’identifier des heuristiques
de raisonnement générales applicables à tout domaine spécifique
A chaque étape, on
identifie la différence entre l’objectif et l’état actuel
choisit un opérateur qui réduit cette différence
applique cet opérateur
38
Thursday, October 14, 2010
GPS
Un robot doit déplacer un objet d’un endroit A à un endroit B
41
42
43
Thursday, October 14, 2010
ELIZA (Weizenbaum, c. 1965)
Les répliques en minuscules commençant par une flèche ont été tapées par
une personne, alors que celles en majuscules sont les réponses d’ELIZA.
➔ Men are all alike.
IN WHAT WAY?
➔ They’re always bugging us about something or other.
CAN YOU THINK OF A SPECIFIC EXAMPLE?
➔ Well, my boyfriend made me come here.
YOUR BOYFRIEND MADE YOU COME HERE.
➔ He says I am depressed most of the time.
I AM SORRY TO HEAR YOU ARE DEPRESSED.
➔ It’s true. I’m unhappy.
DO YOU THINK COMING HERE WILL HELP YOU NOT TO BE UNHAPPY?
➔ I need some help, that much seems certain.
WHAT WOULD IT MEAN TO YOU IF YOU GOT SOME HELP?
➔ Perhaps I could learn to get along with my mother.
TELL ME MORE ABOUT YOUR FAMILY.
➔ My mother takes care of me.
WHO ELSE IN YOUR FAMILY TAKES CARE OF YOU?
➔ My father.
YOUR FATHER.
➔ You are like my father in some ways.
WHAT RESEMBLANCE DO YOU SEE?
44
Thursday, October 14, 2010
ELIZA...
Un vice-président de BBN croit parler a Bobrow alors qu’il parle à ELIZA:
➔ Do you think I can use the computer this morning?
WHY DO YOU ASK?
➔ I might be able to make some additional telecomp sales.
WHY AREN’T YOU SURE?
➔ My prospective customers have never seen a demonstration of this system.
DOES THAT MEAN VERY MUCH TO YOU?
➔ Of course it does.
YOU SEEM VERY POSITIVE ABOUT THAT.
➔ This is ridiculous.
WHAT DO YOU MEAN THIS IS RIDICULOUS?
➔ Is there any reason I can’t use the computer now?
TELL ME MORE ABOUT YOUR PROSPECTIVE CUSTOMERS?
The things in themselves, in the full sense of these terms, are by their very nature
contradictory; still, the objects in space and time (and we can deduce that this is the
case) can not take account of the phenomena. As is proven in the ontological
manuals, what we have alone been able to show is that, even as this relates to human
reason, our faculties exclude the possibility of the employment of the Categories.
Pure reason is what first gives rise to formal logic, but the thing in itself (and we can
deduce that this is true) excludes the possibility of the Categories. As we have
already seen, it is not at all certain that, in other words, the phenomena, in the study
of the transcendental unity of apperception, have nothing to do with our concepts. In
which of our cognitive faculties are our faculties and the objects in space and time
connected together? As is evident upon close examination, the phenomena would be
falsified. But this need not worry us.
As will easily be shown in the next section, space <[ (and &certainty-clause this is
true)|, &throwaway-clause,]> &Vst [&Ns|&Np]<, &conjunction &main-clause>.
<&sentence >
<&sentence >
<¶graph >
http://www.barbalet.net/kant/ 46
Thursday, October 14, 2010
Le Test de Turing
47
Thursday, October 14, 2010
Situation du Test de Turing
48
Thursday, October 14, 2010
Le prix “Loebner”
AxC: so you just won a prize?
AxC: right, it's always me who has to do the thinking around here
ALICE: Understood. That's a very nice name, who has to do the thinking
around here.
http://www.loebner.net/
http://alice.pandorabots.com/ 49
Thursday, October 14, 2010
“The Measure of a Man”
Star Trek: The Next Generation — Season 2 Episode 9: “The measure of a man” — Original Airdate 13/02/1989
Thursday, October 14, 2010
“The Measure of a Man”
Star Trek: The Next Generation — Season 2 Episode 9: “The measure of a man” — Original Airdate 13/02/1989
Thursday, October 14, 2010
Objections au test de Turing
L’objection du chimpanzé
Le test est trop sévère: Un chimpanzé, qui pense, le raterait nénamoins. Rater le
test ne signifie donc pas que le sujet est incapable de penser.
L’objection de la simulation
Une simulation n’est pas la même chose que la chose simulée. Un homme pourrait
passer une version homme/femme du test de Turing en se faisant passer pour une
femme. Il n’en resterait pas moins un homme.
52
Thursday, October 14, 2010
SHRDLU (Winograd, 1972)
OK.
Le système répond "OK" lorsqu'il exécute une commande. Pour prendre le bloc rouge, il a dû le
dégager en trouvant un espace pour le bloc vert et en déplaçant ce dernier.
➔ Saisis la pyramide.
➔ Cherche un bloc d'une plus grande hauteur que celui que tu tiens et mets-le dans la boîte.
Le système doit trouver le sens des pronoms "celui" et "le", puis comprendre par déduction quel bloc
il tient.
JE SUPPOSE QUE PAR "LE", TU DESIGNES LE BLOC D'UNE PLUS GRANDE HAUTEUR QUE CELUI
QUE JE TIENS.
OK.
La main doit poser le bloc rouge prendre le bleu d'une plus gande hauteur.
La fois précédente, le système a répondu à "la pyramide" en disant "Je ne comprends pas de quelle
pyramide tu parles." Maintenant, il suppose que tu désignes celle dont tu viens de parler.
LA BOITE.
Le système interrompt immédiatement la question quand il rencontre un mot qu'il ne connaît pas.
➔ Un "clocher" est une pile constituée de deux cubes verts et d'une pyramide.
JE COMPRENDS.
NON.
➔ Construis-en un.
OK.
La description donnée dans la définition suffit pour en déduire un plan de construction de nouveaux
objets et les identifier. Le mot "un" signifie "un clocher", et le plan est exécuté.
55
Thursday, October 14, 2010
Systèmes experts
KNOWLEDGE
BASE
RULE 163
INFERENCE IF: The identity of the organism is ACTINOMYCETES
ENGINE THEN: I recommend therapy chosen from among
the following drugs:
HYPOTHESIS 1- Penicillin (0.99)
TESTING
2- Tetracycline (0.99)
3. Erythromycin (0.99)
RULE 164
57
Thursday, October 14, 2010
SOAR (Newell)
Systématicité:
• Ma capacité de comprendre un énoncé tel que “Jeanne aime l’enfant” implique que je
peux aussi comprendre “L’enfant aime Jeanne”
Cohérence:
• Si j’affirme (A & B), j’affirme du même coup A et B
Productivité:
• Je peux générer ou comprendre un nombre infini de propositions composées à partir
d’un ensemble fini d’éléments simples
60
Thursday, October 14, 2010
Révisions & Débats
De nombreux travaux ont maintenant démontré:
que la notion de systématicité n’est pas nécessairement correcte
que la notion de systématicité n’est pas nécessairement impliquée
par les modèles classiques
que certains modèles connexionnistes sont capables d’exhiber les
propriétés exigées par Fodor & Pylyshyn
que certains modèles connexionnistes sont capables d’aller au delà,
et par exemple de réaliser directement des opérations complexes sur
des représentations sans les décomposer préalablement (par
exemple, transformer une phrase de la voix active vers la voix passive
en manipulant directement une représentation de la phrase toute
entière).
61
62
Thursday, October 14, 2010
Le problème de l’enracinement
How can the semantic interpretation of a formal symbol system be made intrinsic to the
system, rather than just parasitic on the meanings in our heads? How can the meanings of the
meaningless symbol tokens, manipulated solely on the basis of their (arbitrary) shapes, be
grounded in anything but other meaningless symbols? (Harnad, 1990)
63
Thursday, October 14, 2010
Statut ontologique des simulations
John R. Searle (BBS, 1981):
Argument “de la chambre chinoise”: La syntaxe n’est pas suffisante
pour produire la sémantique
“Imaginez que vous cherchiez à réaliser les différentes étapes d’un programme permettant
de répondre à des questions dans une langue que vous ne comprenez pas. Je ne comprends
pas le chinois et j’imagine donc que je me trouve enfermé dans une chambre avec tout un
tas de boîtes contenant des signes chinois (les bases de données). Je reçois de petites
quantités de signes chinois (les questions en chinois) et je cherche dans un livre de règles (le
programme) ce que je suis censé faire. Je réalise certaines opérations sur les signes
conformément aux règles (j’effectue les étapes indiquées dans le programme) et renvoie de
petites quantités de signes aux personnes situées à l’extérieur de la chambre (les réponses
aux questions). Je suis donc dans la situation d’un ordinateur appliquant un programme
pour répondre à des questions en chinois. Mais cela ne change rien au fait que je ne
comprends pas un mot de chinois. Conclusion: si je ne peux pas comprendre le chinois
uniquement à partir de l’application d’un programme d’ordinateur pour comprendre le
chinois, il en va de même pour n’importe quel ordinateur numérique appliquant le même
programme car aucun ordinateur ne dispose, dans ces conditions, de capacités autres que
celles dont je dispose” (Searle, La recherche 287, mai 1996).
66
Quatre prémisses:
67
Thursday, October 14, 2010
L’argument de la chambre chinoise II
Quatre conclusions:
68
Thursday, October 14, 2010
Objections I
The “systems” reply:
La personne dans la chambre ne comprend pas le chinois, mais le
système tout entier comprend le chinois. Imaginons que la personne soit
réduite à l’échelle du micron et qu’elle puisse travailler très rapidement,
et que la chambre ait un volume de 1300cc, et on aurait .... le cerveau
d’un chinois!
69
Thursday, October 14, 2010
Objections II
Il faut rejeter l’argument d’emblée: Il serait impossible de
faire quelque chose comme la chambre chinoise
70
Thursday, October 14, 2010
Le problème de l’enracinement
Les symbôles n’ont pas un sens en soi, il n’acquièrent une signification
que de l’extérieur
En les enracinant (en les amarrant) dans le monde réel: Il faut construire des
robots (Harnad, 1990) (sens extrinsèque)
Mise à jour:
Comment savoir ce qui affecte quoi dans une gigantesque base de données? Le problème provient
de la difficulté de déterminer les conséquences de mes actions. Supposez par exemple que vous
déménagiez. Qu’est ce qui change dans le monde? Mon adresse, mais aussi celle de mes enfants,
etc. Mais pas la température, ni mon âge, etc. Un simple changement a des ramifications sans fins,
mais pas illimitées. Avec chaque information stockée il faudrait également stocker des méta-
informations concernant ce qui affecte cette information, quand il faut l’utiliser, quand il ne faut pas
l’utiliser, et ainsi de suite. C’est le problème d’Hamlet (savoir quand il faut s’arrêter de penser)
appliqué à l’intelligence artificielle (Fodor). 72
Thursday, October 14, 2010
Le Problème du sens commun
73
Thursday, October 14, 2010
CYC (Lenat)
Projet gigantesque démarré en 1984 et toujours en cours
74
Thursday, October 14, 2010
CYCorp, Inc.
75
Thursday, October 14, 2010
Le problème de la qualification
Considérez par exemple les situations que nous appelons “jeux”. Je veux dire
jeux de cartes, jeux de balles, jeux de table, jeux olympiques, etc. Qu’ont-elles
de commun?— ne dites pas: “Elles doivent avoir quelque chose de commun,
sinon on ne les appelerait pas “jeux”— mais regardez si il y a quelque chose de
commun à toutes— car si vous regardez vous ne verrez pas quelque chose qui
est commun à toutes, mais des similarités, des relations en grand nombre. Je
répète: ne réfléchissez pas, regardez! Sont-elles toutes amusantes? Comparez
les échecs avec OXO. Ou y a-t-il toujours gagnant et perdant, ou compétition
entre joueurs? Pensez aux patiences. Dans les jeux de balles, il y a gagnants et
perdants, mais dans les jeux de balle au mur, ce trait a disparu. Pensez aux jeux
de chance et d’habileté; à la différence entre l’habileté aux échecs et l’habileté
au tennis. Pensez maintenant aux jeux et comptines, aux rondes et jeux dansés.
Ici, l’amusement est présent, mais combien d’autres caractéristiques ont
disparu!... Et le résultat de cet examen est que nous voyons un réseau
compliqué de similarités se croisant et se superposant: parfois similarité
globale, parfois similarité de détail (Wittgenstein, 1953).
76
Thursday, October 14, 2010
Le problème de la qualification
McCarthy and Hayes (1969):
We assumed that if p looks up q’s phone number in the book, he will know
it, and if he dials the number he will come in conversation with q. It is not
hard to think of possible exceptions to these statements, such as:
• The page with q’s number may be torn out
• p may be blind
• Someone may have deliberately inked out q’s number
• The telephone company may have entered q’s number incorrectly
• q may have got the telephone only recently
• The phone system may be out of order
• q may be incapacitated suddendly.
Règles absolues
Les règles s’appliquent ou non, mais pas partiellement
Distinction entre compétence et performance
émergence réduction
??
formalisation
Connexionisme
(Systèmes complexes, dynamique,
Interactivité, émergence)
Libre arbitre?
79
Thursday, October 14, 2010