Vous êtes sur la page 1sur 3

UQAM

Programme de doctorat en informatique cognitive

Cours DIC 8101

Brainstorms: Philosophical Essays on Mind and Psychology (Harvester


studies in philosophy)

by Daniel C. Dennett

Résumé

par

Albert Lejeune

Remis aux professeurs Jean-Guy Meunier et Pierre Poirier

Montréal, le 18 décembre 2008


1. Systèmes intentionnels
Ce chapitre examine le concept d’un système dont le comportement peut être expliqué et prédit en
attribuant au système des croyances et des désirs. L’intentionnalité doit être comprise ici comme une
caractéristique des entités linguistiques. Un idiome est intentionnel si la substitution de termes
conjoints (codesignative) ne préserve pas la vérité.

I. Une chose est un système intentionnel seulement en relation avec les stratégies d’une personne
qui essaye de comprendre et de prédire le comportement de cette chose. En analysant l’exemple
de l’ordinateur qui joue aux échecs, on peut distinguer trois points de vue ou postures (stance) : la
posture du design (comprendre les instructions du programme), la posture physique (comprendre le
fonctionnement des circuits électroniques – posture généralement réservée aux cas de bris) et la
posture intentionnelle. Les ordinateurs qui jouent aux échecs ne sont accessibles à la prédiction
qu’à travers la posture intentionnelle. La rationalité de ce système est présupposée, ce qui veut
dire qu’il dispose d’un design optimal par rapport à ses buts. Dans ce cas, on peut prévoir son
comportement en attribuant au système la possession de certaines informations tout en le
supposant dirigé vers certains buts. En poussant plus loin, on peut appeler l’information détenue
par le système, des croyances, et ses buts, des désirs. Évidemment le point ici n’est pas de soutenir
que les ordinateurs ont des croyances et des désirs mais qu’en leur attribuant cela, il est possible de
prédire leur comportement. L’adoption de cette posture est une stratégie pragmatique, qu’on ne
cherche pas à qualifier de vraie ou de fausse. Quand peut-elle être vraiment payante? Chaque fois
que nous pouvons supposer la présence d’un design optimal tout en doutant de la possibilité
d’adopter une posture de design ou une posture physique (ex : la découverte de martiens…). Alors
l’attribution des croyances et des désirs est interdépendante (notion de circularité) et les seuls
points d’ancrage sont les besoins de survie, les régularités dans le comportement et dans le postulat
du design optimal. Est-ce pour autant de l’anthropomorphisme? Pas vraiment, tout ce que nous
transportons à partir de notre monde sont les catégories de rationalité, de perception et d’action.

II. Quand nous essayons de prédire le comportement d’un système étranger (ordinateur,
martien…) nous développons une théorie du comportement. Comment une telle théorie
intentionnelle du comportement peut-elle se relier à d’autres théories du comportement? Tout
d’abord le bon sens de nos explications et prédictions du comportement des hommes et des
animaux est intentionnelle. Nous partons du postulat de la rationalité. Ce postulat est si fort,
qu’en cas d’échec de nos prédictions nous pointons d’abord les conditions de traitement de
l’information (‘il n’a pas dû entendre…’). Nous agissons de la même façon avec les animaux. Le
postulat de l’intentionnalité d’un système est aussi le postulat de sa rationalité. Si le système est
parfaitement rationnel, toutes les vérités logiques vont apparaître; mais dans son imperfection
vraisemblable, toutes les lois logiques ne pourront pas être attribuées aux croyances de ce système.
Plus les imperfections s’avèrent nombreuses, plus le changement de posture (design ou physique)
va s’imposer. Mais si nous faisons cela, nous laissons inexpliquée une bonne part d’intelligence et
de rationalité. Illustrons ce point à l’aide d’une métaphore économique. Chaque fois qu’un
bâtisseur de théorie propose d’appeler quelque événement, état, structure etc.. signal, message ou
commande dans un système (ex : le cerveau), cette personne emprunte de l’intelligence. Cette
personne suppose l’existence d’un lecteur de signal, d’un analyseur de messages et d’un centre de
commande. Cet emprunt doit être remboursé en étudiant ces lecteurs, analyseurs etc. Sinon la
théorie reporte à plus tard la question fondamentale : en quoi ce système est-il intelligent? Ici
l’intentionnalité et la rationalité sont évidentes. Les abstractions intentionnelles telles que lecteur
de signal, égos et super égos, bibliothèque dans les corridors de la mémoire nous indiquent qu’une
théorie est dans le rouge (en dette) au niveau de l’explication de l’intelligence. L’insuffisance de
l’explication intentionnelle du point de vue de la psychologie a été largement ressentie et mal
conçue. Ce sentiment vient surtout du béhaviorisme de Skinner et Quine. Ils sont totalement
opposés à tout idiome intentionnel. C’est la loi du déficit zéro! Ni emprunt, ni remboursement!
Pour Skinner ces idiomes sont aussi vides empiriquement que l’expression ‘virtus dormitiva’ dans
la pièce de Molière, lorsque le médecin prépare un somnifère. On peut bien décider sur la base
d’évidence que quelque chose est une pièce de cuivre ou du lichen (et cela permet de faire des
prédictions) mais décider sur la base d’évidence empirique que quelque chose est un système
intentionnel permet de prédire à un niveau logique plutôt qu’empirique. Skinner a essayé de
cadrer ses prédictions dans un langage non-intentionnel : des réponses corporelles à des stimuli
physiques. Cela ne l’a pas mené au mode de prédiction et d’explication qu’il recherchait. Pour
développer ses prédictions, il a mis au point la boîte de Skinner dans laquelle le comportement à
récompenser est restreint et le mouvement du corps, stéréotypé (ex : presser un levier).
Évidemment Skinner prétend qu’il a trouvé une loi qui relie des événements non intentionnels.
Mais voyons! On peut ligoter un mathématicien dans une boîte de Skinner de façon à ce qu’il ne
bouge que la tête; mettre une carte à la hauteur de ses yeux où il est écrit ‘Combien font 7x5?’;
placer deux boutons à la hauteur de la tête, l’un où il est écrit 35 et l’autre 34; placer des électrodes
sur le sol et envoyer des petits chocs; le contrôle sonore du stimulus émettant : ‘Répondez
maintenant!’. On peut prédire qu’avant entraînement, essais et erreurs, le mathématicien va
enfoncer le bouton 35 avec sa tête. Tout cela constitue-t-il une prédiction scientifique parce qu’on
a omis le vocabulaire intentionnel? Non, parce que tout tient à un environnement trop restreint.
Skinner voulait éliminer l’intentionnalité, il n’a pu que la masquer! Alors où regarder pour trouver
une théorie du comportement qui soit satisfaisante? La tactique la plus prometteuse est de partir
avec nos emprunts à l’intelligence, de contribuer aux événements internes et externes avec du
contenu et ensuite rechercher des mécanismes qui vont fonctionner correctement avec ces
‘messages’ de façon à rembourser nos emprunts. C’est ce que font les chercheurs en intelligence
artificielle avec des applications à la théorie des jeux (où l’intentionnalité est incontournable) et les
sciences économiques.

III Le concept de système intentionnel est relativement peu encombré et non métaphysique. Et il
est plus aisé de décider qu’une machine est un système intentionnel plutôt que de se poser la
question : pense-t-elle vraiment? Est-elle consciente? Moralement responsable? Pour revenir à la
métaphore économique : un 25 cents d’intentionnalité ne permettrait-il pas d’acheter des trésors
mentaux? Bien sûr, tous les systèmes intentionnels ne peuvent pas voler, nager ou ... parler. Mais
sans systèmes intentionnels capables de parler, il n’y aurait pas d’attribution de croyances, pas de
théorie, pas de postulat de rationalité ni de prédiction. La capacité de langage est sans aucun
doute le couronnement de l’évolution. Cela nous fait penser qu’à travers l’évolution, l’une des
caractéristiques continue est l’interdépendance des organes et des capacités distinctes. Pas de
vision lointaine sans locomotion etc. On ne peut donc pas attribuer des croyances à un système
sans que ces croyances soient appropriées à l’environnement et que le système réponde de façon
appropriée à cet environnement. Autrement dit : la capacité de croire ne porte pas de valeur de
survie à moins que ce soit une capacité à croire des vérités. Un poisson soluble dans l’eau est une
impossibilité dans l’évolution, de la même façon, on ne peut donner une description cohérente
d’un système fonctionnant sur des croyances fausses. Aussi, la capacité de communiquer n’aurait
pas pris autant de place dans l’évolution si elle n’était d’abord la faculté de transmettre des
croyances vraies. Ce qui signifie : la capacité de modifier les autres membres de l’espèce dans la
direction d’un design plus optimal.