Vous êtes sur la page 1sur 58

Philosophie des sciences cognitives

cours 1 - 23/09/2021


Introduction - Mind as Machine


La grande question que se pose les sciences cognitives est «  comment ça marche ?  ».
Comment l’activité biologique du cerveau produit-elle nos états mentaux ? Nous allons voir, dans
cette perspective historique qu’il s’agit d’un problème fort ancien et qui a longtemps intéressé les
philosophes. C’est aussi un problème duquel se sont emparés les psychologues dès que la
discipline est apparue au 20e siècle. Plus tard, les chercheurs qui s’intéressent à l’Intelligence
Arti cielle se demanderont s’il est possible de construire une machine qui fait preuve de la même
intelligence générale que le cerveau. Cette question de savoir comment l’activité biologique du
cerveau produit nos états mentaux et comment nous sommes capables de prendre des décisions
et de faire preuve d’intelligence est une question qui, aujourd’hui, peut également être
approchées par les méthodes d’imagerie cérébrale, en particulier qui permettent pour la première
fois (début des années 90) de visualiser le fonctionnement du cerveau en action. On sort de
l’anatomie pour parvenir à aborder des questions fonctionnelles, à savoir « comment ça marche
en temps réel ? ».

Pour les sciences cognitives, n’y a pas vraiment de dé nition autour de laquelle tout le
monde s’accorde. Green, par exemple, nous dit en 1996, que

« Les sciences cognitives sont l’étude scienti que et interdisciplinaire de l’esprit ».

Lors d’un symposium intitulé Cerebral mechanisms of behavior qui a eu lieu à Caltech aux Etats-
Unis en 1948 (que beaucoup considèrent comme le point de départ de toute l’approche qu’on va
explorer au l du cours). Ici, ils y a trois idées présentes qui sont cerebral pour dire qu’on va
s’intéresser au cerveau, behavior pour le comportement et ainsi aborder les relations entre le
cerveau et le comportement dans une perspective qui fait appel à des mécanismes où on tente
de donner une explication mécanistique des activités cérébrales et des comportements. On va
chercher à dégager les mécanismes du traitement d’information. La grand-mère des sciences
cognitives s’appelle Margaret Boden. C’est une philosophe anglaise qui a écrit un tome à propos
des sciences cognitives qui s’appelle Mind as Machine et dans l’introduction elle dit :

« Cognitive science would be better de ned as the study of ‘mind as machine’. For the core assumption is
that the same type of scienti c theory applies to minds and mindlike artefacts. More precisely, cognitive
science is the interdisciplinary study of mind, informed by theoretical concepts drawn from computer
Page 1
fi
fi
fi
fi
fi
fi
science and control theory. The history of cognitive science is marked by a deep, and continuing,
interdisciplinarity ».

On retrouve cette idée que les sciences cognitives vont considérer l’esprit exactement comme
une machine. On va retrouve le même genre d’appareillage conceptuel pour comprendre le
fonctionnement de l’esprit humain et d’artefacts, en particulier les ordinateurs, et éventuellement
d’autres cerveaux comme ceux des animaux. Il y a un ensemble de principes généraux qui
caractérisent l’information. Que signi e prendre des décisions, raisonner ? On applique le même
genre de raisonnement indépendamment du substrat dans lequel ce traitement d’information
prend place (organe biologique, programme d’ordinateur). On adopte cette démarche
interdisciplinaire pour approcher cette question. Le mythe fondateur des sciences cognitives est
que l’esprit est une machine dont nous essayons de comprendre le fonctionnement. Il y a
plusieurs niveaux de description de l’activité mentale sont impliqués :

- le niveau du comportement observable



que puis-je déduire de ce qui m’est donné à voir

- le niveau cognitif

comment est structuré l’esprit, quelles sont les représentations qui s’y trouvent et leur nature ?
La pensée est-elle nécessairement basée sur le langage naturel ? Qu’est-ce que l’imagerie
mentale ?

- le niveau biologique

le substrat dans lequel cette activité mentale s’inscrit, à savoir l’organe biologique qu’est le
cerveau

- le niveau social

tout ce que nous pensons s’inscrit dans un domaine social. Nous sommes toujours en train,
même par imagination, d’être en interaction avec autrui. La société et les groupes dans
lesquels nous nous inscrivons in uencent les mécanismes qui sont en jeux.

Ces niveaux de description sont étroitement imbriqués.

« L’esprit, dans la perspective des sciences cognitives, c’est l’activité du cerveau à un certain niveau de
description » Green, 1996.

On va s’intéresser aux représentations mentales plutôt qu’à la manière dont le cerveau


implémente ces représentations mentales et notre système cognitif. Jean-Noël Missa a écrit un
ouvrage en 1993 qui est toujours d’actualité dans lequel il décrit la relation étroite entre ces
di érents niveaux de description par la notion d’esprit-cerveau, l’idée que l’activité mentale est
une manifestation subjective associée à des qualités phénoménologiques de l’activité du cerveau.
Une manière de l’envisager est de dire que ce sont deux manières d’appréhender un même
objet : un aspect subjectif dont nous faisons l’expérience dès que nous ouvrons les yeux et l’autre

Page 2
ff
fl
fi
aspect, plutôt à la troisième personne, c’est-à-dire tout ce qu’il se passe dans notre cerveau
lorsque nous traitons de l’information (donc tout le temps).

Le projet central, souvent implicite, des sciences cognitives et de construire des machines
intelligentes. C’est le même projet que celui de l’intelligence arti cielle à part que les chercheurs
en science cognitives dont davantage intéressés par la manière dont fonctionne, en termes de
mécanismes, le cerveau cognitif des êtres humains voire d’autres animaux, plutôt que de
construire des artefacts intelligents comme voudraient le faire des chercheurs en IA. Ils partagent
cependant un appareillage conceptuel qui met l’emphase sur cette idée de mécanisme. C’est un
domaine extrêmement vaste car il va concerner l'ensemble des questions que l’on va se poser
quand on fait de la psychologique cognitive. Par exemple,

- quels sont les mécanismes de la pensée ?

- quelle est l’architecture générale de l’esprit ?

- Une conscience arti cielle est-elle possible ?

- Pourquoi sommes-nous conscients ?

- Dispose-t-on du libre arbitre ?

- …

Les sciences cognitives sont l’ensemble


des disciplines qui s’intéressent au
fonctionnement de l’esprit.

Elles sont aussi à l’intersection de


plusieurs démarches scienti ques

Page 3
fi
fi
fi
On sait que le cerveau est constitué par à peu près 86 milliard de neurones et que chaque
neurone a environ 10 mille connexions avec d’autres neurones. C’est l’objet le plus complexe que
l’on connaisse, un gigantesque réseau biologique. On sait que toute notre activité mentale (ce que
nous ressentons, pensons) trouve sa source dans l’activité biologique de ce cerveau. La
conscience est une des grandes questions scienti ques que l’on peut se poser.

« Consciousness consists of those states of sensation, or feeling, or awareness, which begin in the morning
when we awake from a dreamless sleep and continue throughout the day until we fall into a coma, or die, or
fall asleep again, or otherwise become unconscious ». John Searle, philosophe de la conscience.

La conscience est une donnée immédiate de tous nos états d’éveil. Le problème est de
comprendre comment le cerveau produit ces états de conscience mais personne ne le sait. En
1974, un autre philosophe de l’esprit, Nagel, se demande quel e et cela fait-il d’être une chauve-
souris mais il dit que peut importe ce que l’on connaît du cerveau d’une chauve-souris, on ne
saura jamais ce que cela fait de chasser des insectes à la nuit tombée. On pense qu’une chauve-
souris a une expérience subjective, elle a conscience de chasser, d’avoir faim mais malgré cela,
on n’en saurait pas plus à propos de l’e et que cela fait à la chauve-souris d’être une chauve-
souris. C’est un phénomène privé et subjectif. Par exemple, une Intelligence Arti cielle n’a pas de
conscience subjective. AlphaGo n’a pas conscience de gagner au jeu de go. L’expérience
subjective est fondamentalement privée. Un autre philosophe, David Chalmers, a publié un
ouvrage en 1996 qui a fait marque dans le domaine The Conscious Mind où il appelle la
conscience « the hard problem » :

« Numerous books and articles dedicated to consciousness have appeared recently, and one might think
that there is progress. But in reality, these works have ignored the hard problem. Often, they concern what
one might cal the ‘easy problems’ of consciousness. How does the brain process informations ? How does
it integrate information ? How do we produce verbal reports on our mental states ? These questions are
interesting, but answering them does not solve the hard problem : Why is it the case that information
processing is accompanied by subjective experience ? ».

Il y a une expérience de pensée que Chalmers a e ectuée. Il s’agit de songer à des zombies,
identiques à nous d’un point de vue fonctionnel mais cela ne leur ferait rien. L’activité mentale ne
serait pas accompagnée d’une expérience subjective, comme pour AlphaGo mais pour toutes les
expériences. Si on peut imaginer des zombies de ce type, alors on a un problème : la survenue
d’états mentaux car on ne voit plus d’où émerge l’expérience subjective. Certains rejettent cette
hypothèse et disent que cela est impossible. La plupart des théories de la conscience
s’intéressent aux aspects cognitifs et aux aspects mécaniques de ce que cela fait d’avoir un
système comme nous (avoir des objectifs, les poursuivre, en parler, prendre des décisions sur
bases de ceux-ci,…). C’est orienté vers la compréhension des mécanismes qui permettent la
conscience. La conscience a longtemps été considérée comme un problème qu’il est impossible
d’étudier scienti quement. Dennet la dé nit comme un mystère, c’est-à-dire un problème à
Page 4
fi
ff
fi
fi
ff
ff
fi
propos duquel on ne sait pas encore comment il faut penser. Nagel comme un phénomène privé,
subjectif, à priori inaccessible et pour Chalmers, la conscience est le «  problème di cile  » en
neurosciences cognitives. La conscience est maintenant à l’avant-plan du domaine des
neurosciences cognitives, en grande partie grâce à l’apparition des méthodes d’imagerie
cérébrale qui ont permis d’observer le cerveau en action et d’espérer trouver des corrélants
neuraux de la conscience (chercher des marqueurs biologiques de la conscience).

Il y a une première distinction entre conscience et niveau de conscience. Une deuxième


est la distinction tripartite entre conscience perceptuelle (la conscience qu’on a du monde), la
conscience qu’on a de soi et celle qu’on a d’autrui. En n, il y a la conscience en tant
qu’expérience que nous faisons du monde, la conscience phénoménale et les fonctions
associées à la consciences, celles qui rendent la conscience des choses possibles. Quand on est
conscient de quelque chose, cela rend possible une série d’actions. La notion de niveau de
conscience est intransitive. Elle se réfère à notre état d’éveil. Le contenu de la conscience est une
notion transitive, cela renvoie à ce qu’il se passe dans notre cerveau lorsqu’on est conscient que
quelque chose. Par exemple, je suis consciente que je suis fatiguée. Ce qui rend la distinction
intéressante (niveau de conscience et contenu de la conscience), c’est que ces deux notions
peuvent être dissociées. Par exemple, on est au niveau de conscience zéro quand on dort mais
on peut avoir des contenus de la conscience. Dans la pathologie de l’état végétatif permanent, les
patients sont éveillés, ouvrent les yeux mais on ne peut interagir avec eux. Dans le locked-in
syndrome, le patient se trouve être entièrement paralysée et incapable de communiquer.
Typiquement, la personne conserve l’usage d’une paupière, ce qui va lui permettre de
communiquer via celle-ci. Dans la troisième distinction, il y a une di érence entre conscience
d’accès, c’est-à-dire l’idée que des représentations conscientes sont globalement accessibles
pour le contrôle de l’action (on ne parle pas de l’e et que cela fait) et la conscience phénoménale
qui signi e que les représentations conscientes font l’objet d’une expérience, elles me font
quelque chose. La question est de savoir quel est le rapport entre les aspects fonctionnels,
cognitifs d’une représentation consciente et les aspects phénoménaux vécus de ces
représentations conscientes. Certains auteurs disent que c’est la même chose et d’autres disent
que ce sont deux aspects dissociables.

En résumé, on sait énormément de chose de la manière dont le cerveau produit notre


comportement. C’est l’objet de tous les travaux en neurosciences cognitives. Par contre, quand il
s’agit de comprendre les mécanismes biologiques qui donnent lieu à l’expérience que l’on fait du
monde, il y a une sorte de fossé explicatif. Personne n’a de théorie autour de laquelle tout le
monde s’accorde.

cours 2 - 14/10/2021

Page 5
fi
ff
fi
ff
ffi
Notons que la conscience, la conscience de soi (self-consciousness) et la théorie de
l’esprit sont des choses di érentes. Il y a une relation complexe entre ces trois aspects.

Chaque évènement mental est nécessairement un élément neural. Pour identi er les corrélats
neuraux de la conscience, on utilise

- la méthode contrastive en recherchant des dissociations entre traitement avec et sans


conscience (ce qui exige de très bons paradigmes comportementaux);

- les méthodes d’imagerie cérébrale qui permettent de visualiser le cerveau en action

- et on combine des donnes objectives et subjectives en corrélant l’activité neurale avec
l’expérience subjective de manière à identi er les réseaux impliqués dans le traitement conscient
(les corrélats neuraux de la conscience).

Page 6
ff
fi
fi

Pour l’expérience avec le Monsieur Propre, on o re des biscuits à des personnes ayant rempli un
questionnaire et les personnes qui ont été assignées au local où il y avait une odeur de produit ménager (les
autres personnes étaient dans un bureau sans odeur particulière) font preuve de davantage de propreté
quand ils mangent les biscuits en question. Ce concept de haut niveau de propreté a activé des
comportements chez les sujets qui les ont amené à un comportement qui se conforme à ce stimulus de
propreté (le prof est sceptique par rapport à ce type d’expérience).

Mesurer la conscience est très di cile étant donné qu’on ne dispose pas d’appareil pour
cela. Des études parlent du fait qu’il est possible de reconstituer nos états mentaux à partir de
l’activité biologique du cerveau (mind reading). On peut prédire, le quel de sept objets di érents
vous pouvez imaginer. On peut utiliser des méthodes d’intelligence arti cielle. La plupart des
études ne peuvent pas faire l’économie de demander aux gens ce qu’ils se passent dans leur
tête. On part du principe que chaque élément mental est un élément neural (origine dans l’activité
biologique du cerveau). On peut essayer d’identi er les corrélats neuraux de la conscience :
quelles sont les réseaux dont l’activité corrèle avec des expériences particulières ? On peut
utiliser la méthode constrastive en recherchant des dissociations entre traitement avec et sans
conscience, ce qui exige de très bons paradigmes comportementaux. On utilise aussi les
méthode d’imagerie cérébrale qui permettent de visualiser le cerveau en action. On combine
données objectives et subjectives en corrélant l’activité neurale avec l’expérience subjective de
manière à identi er les réseaux impliqués dans le traitement conscient (les corrélats neuraux de la
conscience). Les méthodes contrastives peuvent être déclinées dans toute une série de
paradigmes expérimentaux qui concernent trois domaines : les connaissances que j’ai à propos

Page 7
fi
ffi
ff
fi
fi
ff
du présent, du passé (mémoire) et du futur (action). On peut mettre en place trois types de
paradigmes :

-> ex : subliminal

-> ex : faire quelque


chose sans s’en rendre
compte

Il y a un phénomène qui s’appelle la réalité binoculaire dans lequel on peut induire un con it entre
deux perceptions di érentes via un seul stimulus. On a un stimulus (vert) où on a un visage et une
maison. Le sujet porte des lunettes 3D avec un verre rouge et un autre vert. Quand on regarde au
travers des lunettes, on a l’impression de voir des visages et ensuite des maisons. On ne voit pas
des morceaux de l’un et de l’autre, un stimulus domine et ensuite l’autre. C’est la perception de la
personne qui change. C’est un corrélât neural de la conscience.

Page 8
ff
fl

Dans l’expérience des damiers, les carrés A et B ont exactement la même teinte de gris alors que
A apparaît plus foncé. Le cerveau fait cela à cause des connaissances de haut niveau : on sait
comment sont structurés les damiers et on s’attend à ce que B soit une case claire et d’autre
part, car B se trouve dans l’ombre du cylindre ce qui fait que notre cerveau éclaircit la teinte de B
pour corriger son apparence en fonction du fait qu’il se trouve dans l’ombre. C’est la conscience
des couleurs. C’est pour la même raison qu’une feuille de papier blanc en plein soleil ou dans
l’obscurité nous apparaîtra toujours comme blanche même si le stimulus est di érent. Le cerveau
construit la réalité tout autant qu’il ne la perçoit. Certaines choses se passent dans le monde
extérieur qu’on ne perçoit pas et il y a des choses qui se passent dans ma tête mais qui ne se
trouvent pas dans le monde extérieur. Notre perception du monde est biaisée par toute une série
de facteurs qui sont mis en évidence par ces illusions visuelles.

A présent, un exemple de perception subliminale qui consiste à présenter une modalité


visuelle, des stimuli tellement rapidement ou avec tellement peu de contraste qu’on ne le perçoit
pas. C’est une expérience dans laquelle on compare en appliquant la méthode contrastive des
mots masqués à droite avec des mots visibles. En manipulant le temps avec le masque sur les
mots, on peut les rendre visibles ou pas. On voit que dans les deux cas on active une région
cérébrale qui est spéci que à la forme visuelle des mots. Même si la personne n’a pas vu le mot,
il a quand même été traité car la région du cerveau visible sur les images ne s’active que pour
traiter la forme visuelle des mots mais cette région est activée relativement peu et beaucoup
moins que dans le cas où les mots ne sont pas cachés et dans ce cas, d’autres régions du
cerveau s’activent. Dans un article, le psychologue Wilson dit que les sujets dans l’abstract sont
parfois inconscients de l’existence d’un stimulus qui a in uencé une réponse de manière
substantielle mais les sujets peuvent aussi être inconscients d’une réponse et ne pas se rendre
compte qu’ils répondent d’une certaine manière plutôt que d’une autre et les sujets peuvent aussi
être inconscient du fait que le stimulus a in uencé la réponse. D’un point de vue empirique, ces
questions des rapports entre conscience et inconscience deviennent rapidement complexes car il
faut faire des di érences entre ces trois situations.

Page 9
ff
fi
fl
fl
ff

Hypothèse du feedback facial

Concernant une expérience où des personnes devaient dire si un cartoon était drôle ou pas, on leur
demandait en même temps de tenir un crayon. Les personnes qui tiennent le stylo entre le dessin trouvent
les mêmes dessins plus drôles que ceux qui tiennent le crayon au dessus de la bouche. L’hypothèse est
que les émotions que je vis sont in uencées par la con guration de mon système moteur. Il y avait une
boucle entre action et perception et cette boucle est inconsciente car elle in uence les jugements
perceptifs sans que le sujet n’en prenne conscience. L’expérience n’a pas réussi à être répliquée à la VUB.
Après l’expérience, il y a une controverse car lors de la réplication il y avait une caméra contrairement à
l’expérience originale.

Une autre expérience montre que les personnes ayant reçu une injection de Botox pour paralyser
le muscle du front ont plus de di culté à déterminer si un visage exprime de la colère ou une
expression neutre. Ça renforce l’idée de feedback facial car si on n’arrive pas soi-même à
exprimer la colère, on a du mal à l’identi er chez autrui. À présent, un exemple d’un phénomène
qu’on appelle vision aveugle et qui concerne les rapports entre conscient et inconscient. Dans le
syndrome de vision aveugle, les patients ont leur cortex occipital (les premières régions corticales
qui reçoivent les stimulations qui viennent de la rétine et d’autres parties) détruites et quand la
destruction est complète, le patient fait l’expérience d’être aveugle. Or, on sait depuis les années
70 que chez le singe et l’être humain, que malgré l’absence de cette zone qui traite les
informations visuelles et malgré le fait que les humains rapportent le fait d’être aveugle, il y a
quand même des informations qui sont traitées. Si on demande à un patient de choisir entre un
Page 10
fl
ffi
fi
fi
fl
tourne-vis et un marteau dans son champ aveugle, il va être capable de mieux le faire que ce
qu’on pourrait croire. Les chercheurs proposent à un patient qui n’a aucun cortex occipital une
course avec des obstacles dans le couloir du laboratoire et le patient parvient à éviter les
obstacles alors qu’il dit être aveugle. Cela suggère chez ce patient dont les lésions remontent à
une dizaine d’années, une réorganisation corticale corticale qui lui permet de continuer à traiter
les informations visuelles qui sont importantes pour le contrôle de l’action tout en étant
totalement déconnecté de l’expérience subjective qu’il fait du monde visuel. Du point de vue de
son expérience, il est aveugle mais en même temps, la conscience d’accès semble être préservée
car les informations visuelles parviennent à guider son comportement. On a un exemple d’une
dissociation forte entre l’e et que ça fait et les aspects fonctionnels de la conscience de l’autre (la
conscience d’accès). A présent, une illustration qui met en évidence ces méthodes de décodage
de l’activité cérébrale. Dans cette situation, on monte des grillages orientés soit vers la gauche,
soit vers la droite et on les montre soit de manière visible soit de manière subliminale. Le sujet doit
indiquer l’orientation du grillage qu’on lui a montré mais il doit choisir quel orientation a le grillage
qu’on lui a montré en appuyant sur une touche. Pour le subliminal, la personne ne voit
absolument rien, uniquement le masque. Il est au niveau du hasard car il dit n’avoir rien vu. Ils
réalisent cette expérience en imagerie fonctionnelle et ensuite appliquent des méthodes
statistiques qui permettent de décoder l’activité du cortex occipital de manière à essayer
d’identi er des con gurations d’activité qui permettent de reconstruire le stimulus que la
personne a vu et cela fonctionne. En examinant le cortex de la personne qui n’a rien vu, on
parvient à reconstruire le stimulus présenté avec un taux de réussite qui avoisine les 80%. Dans le
cortex, il y a des informations qui permettent de reconstruire le stimulus alors que la personne dit
n’avoir rien vu. Ça permet de reconstruire nos états mentaux à partir de l’analyse de notre activité
cérébrale. Cette fois, un exemple du troisième type de paradigme dans le domaine de l’action.
Dans cette perspective de méthode contrastive, ce sont des expériences dans lesquelles
l’expérience subjective demeure constante alors que mon comportement change. C’est une
expérience ancienne dans laquelle le sujet est au bord d’une table et il y a trois cibles avec trois
bâtonnets illuminés devant le sujet. Celui-ci doit exécuter un mouvement dès qu’une cible
s’allume. Lors de certains essais, la cible vers laquelle il doit diriger son action peut changer en
cours de route. Le sujet doit aussi rapporter le moment où il prend conscience du changement.
On enregistre tous ses mouvements et on voit, quand on reconstruit les évènements, que le
mouvement est enregistré 100 millisecondes après le changement. C’est extrêmement rapide et
le sujet saisit la nouvelle cible environ 400 millisecondes après le changement et que c’est à ce
moment là qu’il rapporte être conscient du changement. Tout se passe comme si l’action se
mettait en route avant la conscience perceptuelle que la personne a du changement. Cela remet
en cause l’idée qu’il faut d’abord prendre en compte qu’il y a un changement et ensuite corriger le
changement. Le système moteur réagit hyper vite sur base de choses inconscientes et la prise de
conscience perceptuelle vient plus tard. La vision pour l’action n’est pas la même chose que la
vision pour la perception et la première, inconsciente, est beaucoup plus rapide que la vision qui
me permet de verbaliser.

Page 11
fi
fi
ff
cours 3 - 21/10/2021

Fondements de l’approche computationelle

Comme nous l’avons dit précédemment, il y a un foisonnement de théories qui concernent


la conscience car on ne sait pas déterminer de quoi il s’agit. Elles partagent cependant l’idée que
nos états phénoménaux trouvent leur origine dans l’activité biologique du cerveau. C’est une idée
di érente de Descartes qui avait adopté, au 18e siècle, une position dualiste car il imaginait que la
matière et l’esprit étaient deux substances di érentes qui interagissaient au niveau de la glande
pinéale - l’esprit étant alors capable d’animer des esprits animaux. C’est une métaphore de notre
système avec une partie machine (la biologie du corps) et une substance qui formait l’expérience
que nous faisons du monde et capable de guider l’action.

Elles partent du point de vue que la conscience peut s’expliquer grâce à des mécanismes
(neuraux, cognitifs,…). Quand on fait le tour de ces théories, on se rend compte qu’on peut
adopter une taxonomie qui oppose deux dimensions : les théories qui partent de l’idée que la
conscience fait appel à des mécanismes, des processus spéci ques pour la production de la
conscience (ce sont les théories spécialisées) opposées aux théories qui ne font pas intervenir le
fait que la conscience est liée à des processus spéci ques dans le cerveau. Le deuxième axe fait
appel à une opposition moins forte entre les théories qui mettent l’accent sur les processus eux-
mêmes qui sont responsables de la production de la conscience et d’autre part, les propriétés
des véhicules des contenues (les représentations). Ces théories mettent l’accent sur les

Page 12
ff
ff
fi
fi
représentations qui sont conscientes versus celles qui sont inconscientes. Par exemple, nous
avons la théorie des philosophes O’Brien et Opie qui disent que les représentations qui sont
conscientes sont toutes celles qui sont stables : l’accent est mis sur une propriété des
représentations. À partir du moment où une con guration d’activité neurale dans le cerveau est
su samment stable dans le temps, le contenu de cette représentation est disponible à la
conscience. Il y a aussi une théorie qui n’est pas illustrée ici et qui adopte la même idée mais qui
met l’accent sur les processus : la théorie du neuropsychologue hollandais qui évoque l’idée que
les représentations qui sont disponibles à la conscience sont des représentations qui font l’objet
d’un traitement récurrent (connexion du neurone A au B et du B au A). Le cerveau est
massivement récurrent. Ces deux théories disent à peu près la même chose car la récurrence
rend la stabilité dans le temps possible. Le deuxième axe ne présuppose pas que ces
mécanismes ou propriétés prennent place dans des régions particulières du cerveau. N’importe
quelle région du cerveau est susceptible d’être impliquée dans les corrélats neuraux de la
conscience. Par contre, d’autres théories comme celles de Dehaene et Changeux qui font appel à
l’existence de systèmes particuliers : il s’agit d’un vaste réseau. Des réseaux font en sorte qu’il y
ait un espace dans le cerveau qui est tel que quand un contenu nit par s’y retrouver, le contenu
est disponible à la conscience.

Il y a donc deux grandes idées. La première vient du philosophe américain Dennet qui dit
que la conscience est comme la célébrité. On est à la télévision, on connaît le Roi et les
représentations dont on a conscience sont des représentations qui ont gagné une sorte de
compétition neurale et qui sont devenues célèbres dans le cerveau et qui peuvent à présent
in uencer le traitement de l’information de manière globale. La seconde idée vient d’un autre
philosophe américain, David Rosenthal, idée radicalement di érente selon laquelle une
représentation est consciente à partir du moment où nous avons une pensée d’ordre supérieure,
que nous sommes conscients de cette représentation. L’idée c’est que les représentations de
premier ordre (un objet sur le bureau), on sait qu’elle est causée par l’existence d’une
représentation dans mon cortex occipital autour de l’objet et pour Rosenthal, cette représentation
n’est pas consciente. On n’en sera conscient que si on a une représentation supérieure (méta-
représentation : représentation à propos d’une autre représentation). L’idée de Rosenthal n’est
pas qu’on est conscient qu’on est conscient de quelque chose car on n’est jamais conscient de
nos pensées d’ordre supérieures. Ce sont des représentations qui sont elles-mêmes
inconscientes mais dont l’existence nous rend conscient des contenus vers lesquelles ces méta-
représentations pointent. J’ai une représentation, une con guration d’activité neurale quelque part
dans le cerveau, en tant que telle, cette représentation ne sera jamais consciente mais elle
deviendra consciente à partir du moment où j’ai une autre représentation qui indique l’existence
de cette représentation de premier ordre.

Dehaene tire son idée de Baars qui, déjà dans les années quatre-vingt, avait cette idée
d’espace de travail avec comme idée que le cerveau est constitué d’une série de modules
capables de réaliser le traitement de manière inconsciente (activité par une série de choses
extérieures comme la vision, l’audition,…) et le travail de ces processeurs demeure inconscient
jusqu’au moment où le résultat qu’ils réalisent entrent en contact avec l’espace de travail neural
Page 13
fl
ffi
fi
fi
fi
ff
qui est constitué d’un ensemble de régions corticales (concernant essentiellement le cortex
frontal, temporal et pariétal) qui sont densément interconnectées entre elles, notamment via des
connections cortico-corticales à longue distance émanant de la couche cinq du cortex. Tout cela
forme une sorte de réseau et est en communication avec l’ensemble des régions cérébrales qui
n’en font pas parties et qui permettent aux informations qui s’y trouvent d’être rendues
disponibles de manière à pouvoir in uencer le traitement un peu partout dans le cerveau. Cette
idée de disponibilité globale pour le traitement de l’information est le coeur de l’idée. Une fois
qu’une représentation a mobilisé l’espace de travail neural, elle est globalement disponible pour le
contrôle de l’action (par exemple, je peux en parler). Le mécanisme est la présence de ces
représentations dans l’espace neural.

Le libre arbitre

Toutes les données neuro-scienti ques suggèrent qu’au contraire, c’est notre cerveau qui
est au commande plutôt que l’inverse. À partir du moment où on adopte une approche
matérialiste à propos des théories de l’esprit, il est évident que les choses ne peuvent pas être
autrement que la situation illustrée ici : l’activité biologique de mon cerveau détermine mes états
mentaux et non l’inverse. C’est donc le cerveau qui est aux commandes. La question du libre

Page 14
fl
fi
arbitre est problématique car cela nous enlève l’impression de décider et cela pose question par
rapport au déterminisme.

« Bref, le déterminisme physique exclut le libre arbitre, et le seul moyen de conserver ce dernier serait de
nier la vérité de la physique actuelle, ce qui est un prix plutôt élevé ».

Bernard Baertschi

Si on se dit que l’ensemble des choses qui se passe est déterminé par ce qu’il s’est passé
précédemment, si on accepte l’idée, alors on peut remonter jusqu’au Big Bang, voire même avant
et à ce moment là, que reste-t-il de notre libre arbitre ?

Libet a mené une expérience en 1983 quant à l’action volontaire (pas guidée par une instruction
ou l’apparition d’un stimulus). Le sujet devait lever le doigt ou le poignet et on mesure l’activité
musculaire à un moment de leur choix. Les sujets sont libres du moment où ils choisissent de
lever le doigt. Les participants devaient observer le cadran sur lequel un repère se déplace
rapidement et ils devaient noter où se trouvaient le repère lorsqu’ils avaient le sentiment d’être sur
le point d’agir. On enregistre l’activité cérébrale de leur cerveau. On recherche le potentiel de
préparation à l’action grâce à l’appareil qui mesure l’activité cérébrale. On voit que le cerveau se
prépare à exécuter le mouvement depuis environ une seconde. Tout se passe comme si le
cerveau préparait un mouvement de manière inconsciente et que nous sommes ensuite informés
que nous avons l’intention d’agir. Cela inverse la causalité intuitive que nous avons par rapport à
notre comportement. L’expérience suggère que le cerveau se prépare à l’action de manière
inconsciente et ensuite on en est informé. Cette expérience a été critiquée. Il y a eu notamment la
critique que le potentiel de préparation à l’action n’a pas cette forme là uniquement en raison d’un
artéfact méthodologique et que si on regarde un tracé plus correct, on voit un potentiel qui uctue
autour d’un seuil. L’idée est qu’on n’a pas cette longue phase de préparation durant laquelle le
cerveau se prépare à agir. Quoi qu’il en soit, le point de Libet était de montrer que c’est l’activité
cérébrale qui détermine nos actions et pas l’inverse.

Page 15
fl

Des expériences plus récentes ont cherché à reproduire les aspects fondamentaux de
l’expérience de Libet et font moins l’objet de critique. L’une d’entre elles adopte le même principe
que l’expérience de Libet (choisir entre gauche et droite à un moment volontaire). Ils regardent
l’écran pour savoir quelle lettre est à l’écran lorsqu’ils font le choix et ensuite ils poussent sur la
touche. La lettre permet de réaligner les données : on sait à quel moment le sujet rapport avoir eu
l’expérience d’avoir fait son choix. Avec un taux de succès qui avoisine les 80%, il est possible,
sept secondes avant que la personne rapporte avoir décidé d’avoir pousser à gauche ou à droite
de prédire son choix. Ça élimine encore plus l’idée qu’on est libre de nos choix. Cependant, ces
idées sont tellement loin de l’expérience que nous faisons qu’on peut contester cette perspective
tout en gardant l’idée que nos états mentaux gardent leur origine dans l’activité biologique du
cerveau.

C’est une liberté plus biologique que mentale. Les facteurs inconscients sont dépendants de
notre histoire personnelle. Le cerveau est un organe extraordinairement plastique. Par exemple,
les régions du cortex sensoriel qui se rapportent au bout des doigts sont plus développées chez
les guitaristes notamment. Autre exemple, les chau eurs de taxis et de bus roulent beaucoup
mais les itinéraires des taxis sont di érents. L’hypocampe est une région impliquée dans le
souvenir des trajets et de l’espace. On a comparé cela chez les conducteurs de taxis et de bus et
on constate que l’hypocampe des chau eurs de taxis est plus grande (encore plus s’il y a
Page 16
ff
ff
ff
beaucoup d’années d’expérience) que chez les chau eurs de bus car ils font toujours le même
trajet. Il y a une autre expérience avec des patients qui sont en attente d'un traitement chirurgical
en vue de corrige une épilepsie qui ne peut être traitée de façon médicamenteuse. On leur
implante des électrodes dans le cerveau. Pour savoir où implanter ces électrodes, on attend que
les patients fassent une crise d’épilepsie pour regarder quels neurones semblent en être
responsables. Ils montrent des photos à ces patients en espérant trouver quelque chose qui
répond. Ils ont trouvé un neurone chez un patient qui ne répondait que quand on lui montrait une
photo d’Halle Berry. Chez un autre patient, on ne trouve un neurone qui ne répond que pour Bill
Clinton par exemple. C’est un phénomène culturel, ça vient de notre expérience. C’est une
démonstration du rôle de la plasticité dans la biologie de notre cerveau et c’est une
accommodation du fait que si nous ne sommes pas libres, nous avons une liberté biologique
(c’est notre cerveau à nous, pas celui de quelqu’un d’autre. C’est un organe intimement formé par
l’ensemble des expériences que nous avons vécues). Comme dernier exemple, nous avons un
cas clinique d’un patient de quarante quart ans qui sou re d’une faiblesse à la jambe gauche et
qui l’empêche de se déplacer. L’anamnèse révèle que quand il était bébé, il avait été implanté
d'un drain car il avait été diagnostiqué avec une hydrocéphalie. Les ventricules cérébraux sont
remplis de liquide et ça comprime la matière cérébrale. La personne fonctionne parfaitement bien
pour le reste. On lui fait un scan et on voit qu’il ne reste quasiment rien du cerveau de a personne.
Les zones noires ne comportent que du liquide.

C’est anormal et le cerveau a perdu énormément de corps cellulaires de neurones. Cela prouve
que le cerveau est capable de s’adapter face à un traumatisme progressif comme l’hydrocéphalie.
Face à une transformation radicale, le cerveau continue de fonctionner quasiment normalement.
Ce genre de données expérimentales pose un problème par rapport à des théories qui font appel
à des régions anatomiques spéci ques et encore plus à des théories qui font appel à des
systèmes spécialisés. On a du mal à identi er ces systèmes par exemple. Cela milite pour des
théories plutôt non spécialisées. Le libre arbitre n’est compatible qu’avec un univers
déterministe :

Page 17
fi
fi
ff
ff
« La liberté est la capacité que nous avons à réaliser ce qui a de la valeur dans diverses circonstances. C’est
la capacité que nous avons de faire des chois intelligents, des choix informés par l’expérience.
Paradoxalement, le libre arbitre n’est compatible qu’avec un univers déterministe, c’est-à-dire un univers
dans lequel on peut prédire les conséquences de nos actions ».
Daniel Dennet

C’est en raison du fait que l’Univers est prédictible et que nous pouvons prévoir les
conséquences de nos actions que nos pouvons faire des choix. Quand on dit « il aurait
pu faire autrement », une autre personne aurait pu faire autre chose.

Métaphores de l’esprit I - L’Intelligence Arti cielle

Cette partie est consacrée à l’histoire des idées et à l’exposé des principes fondamentaux
de la première métaphore de l’idée, à savoir l’idée que le cerveau fonctionne comme un
ordinateur et ce qui a constitué la base de l’approche des sciences cognitives pendant un
moment.

Page 18
fi
Turing prévoyait, en 1950 suite à ses propres travaux, qu’en l’an 2000 les machines et les
ordinateurs seraient capables d’une certaine forme d’intelligence.

Naissance de l’Intelligence Arti cielle

En janvier 1955, Herb Simon arrive au cours et dit que pendant les vacances de Noël,
Newel et lui ont inventé une machine qui pensent. Ils ont inventé un algorithme qui s’appelait
Logic Theorist et qui était capable de démontrer un théorème dans le domaine de l’arithmétique.
Ils simulaient les opérations mentales d’un mathématicien. Ils ont créé un programme capable de
suivre les mêmes opérations. Il n’y avait pas d’ordinateur capable d’exécuter des programmes de
cette complexité à l’époque alors ils ont simulé les opérations de ce programme à la main alors
que le programme lui-même simulait les opérations d’un être humain. Ensuite, l’algorithme a pu
être implémenté sur un ordinateur appelé JOHNNIAC (mai 1956). Il y a un premier insight crucial
qui est qu’un ordinateur peut représenter et traiter autre chose que des nombres et le deuxième
insight crucial est qu’on peut utiliser l’ordinateur comme outil d’exploration des mécanismes du
traitement de l’information. Grâce à ce projet, ils vont lancer les travaux en Intelligence Arti cielle
et une tradition de modélisation des processus cognitifs ce qui est le projet central des sciences
cognitives, c’est-à-dire l’idée qu’on va approcher les mécanismes du traitement de l’information
chez l’Homme en essayant de développer des algorithmes qui simulent la manière dont les êtres
humains règles les problèmes, traitent le langage naturel, reconnaissent les visages (tous les
problèmes faciles de Chalmers…). Logic Theorist avait pour objet de démontrer des théorèmes
dans le système formel des Principia Mathematica de Russel et Whithehead. Un système formel
dé nit des symboles et des règles de transformation permettant de combiner ces symboles et de
transformer les expressions qui en résultent.

Dans cet ouvrage, l’auteur aborde les idées quant à l’Intelligence Arti cielle et des systèmes
formels. Il a inventé le système formel MIU. Le point de départ est l’axiome MI (posé pour vrai dès

Page 19
fi
fi
fi
fi
le départ). Peut-on démontrer, à partir de MI, que MU est vrai ? Il a été possible de construire un
algorithme capable de dire si des axiomes étaient vrais ou faux. Il y a eu deux réunions
importantes qui marquent le début des sciences cognitives : un workshop qui a eu lieu à
Dartmouth en 1956 avec Minsky, McCarthy, Shannon, Rochester,… et en septembre, un
symposium sur la théorie de l’information du MIT où on retrouve Newell et Simon, Chomsky et
Miller.

Revenons vers des idées qui sont là depuis bien plus longtemps. L’historique de la pensée
est indissociable des progrès technologiques car les idées ont changé au fur et à mesure que les
technologies avançaient et permettaient d’envisager des problèmes plus complexes. Déjà au 18e
siècle, on retrouve la notion de matérialisme et l’idée qu’on peut comprendre le corps et l’esprit
comme une sorte de machine. On va parler de mécanismes. Il y a les travaux De La Metterie
(L’Homme Machine, 1748), de Vaucanson et de Leibniz qui décrit l’esprit en tant q’horloge.
Descartes évoque une métaphore hydraulique, c’est l’idée que l’âme est autre chose mais
interagit via des esprits animaux mis en marche comme des liquides dans un tuyau et c’est l’âme
qui envoie les ordres au corps. Les gens étaient fascinés par ces mécanismes en matière de
fabrication de rouages notamment. Il y a eu un automate habillé comme l’étaient les Turcs au 18e
siècle et W. De Kempelen, en 1769, présentait cet automate comme capable de jouer aux échecs.
Cet automate a fait le tour des cours de l’époque. C’était en fait une supercherie et une personne
de petite taille se glissait dans le mécanisme et contrôlait le bras de l’automate.

Cela montre l’intérêt que les gens avaient pour l’idée d’un automate capable de faire les mêmes
choses que nous. Plus tard, au 19e siècle, on tombe sur le travail de Babbage qui a mis au point
une sorte d’ordinateur mécanique capable de résoudre des équations comme celles dont avaient
besoin les navigateurs britanniques pour calculer la course de leur bateau. Le projet était de
remplacer les tableaux des navigateurs par des calculateurs plus précis. Babbage demandait un
budget gigantesque. Au 19e siècle apparaît donc une série de progrès technologiques comme les
travaux de Babbage, ceux de Ada Lovelace qui était une bourgeoise qui gravitait dans les milieux
scienti ques et qui avait inventé le premier langage de programmation. Avant Babbage, il y avait
les idées de Jacquard, en France, de programmer les métiers à tisser. Quand on fabrique une
tapisserie, il faut aligner les ls et Jacquard a inventé un système de cartes perforées qui
Page 20
fi
fi
instruisaient la machine sur quel l de quelle couleur il fallait placer à tel endroit pour produire une
image donnée. Il ne s’agissait pas véritablement de calcul mais il y avait cette idée qu’on pouvait
avoir une machine et lui faire exécuter un programme qui pouvait donner, en fonction des
instructions que ce programme contient, des résultats complètement di érents. Ça n’était pas de
l’Intelligence Arti cielle, mais l’idée était là. En 1890, Hollerith invente un véritable calculateur
mécanique (modèle ra né des premiers essaies de Babbage) et c’est la même année qu’est
fondée l’International Business Machines (IBM) qui commence à commercialiser ces calculateurs
mécaniques, dont certains exemplaires seront utilisés pour réaliser le premier censés, c’est-à-dire
le premier répertoire de la population aux États-Unis. On utilise ces machines pour comptabiliser
les personnes qui sont des citoyens américains. En même temps et en parallèle, il y a des progrès
en matière des idées avec la publication, en 1854, d’un ouvrage écrit par Bool intitulé The laws of
Thought et qui lance la logique formelle. Il y aura également les travaux de Frege sur la logique
des prédicats.

On arrive au 20e siècle avec l’apparition d’ordinateurs analogiques, des ordinateurs à


relais qui s’apparentent davantage aux ordinateurs à transistors qu’on connaît aujourd’hui ou des
ordinateurs à tubes numériques qui font l’objet, vers le milieu du 20e siècle, de trois découvertes
indépendantes : le premier à inventer ces ordinateurs à tubes est Konrard Zuse (Allemagne) mais
son invention vient au milieu de la seconde Guerre Mondiale et il travaille avec les nazis donc ses
travaux tombent dans l’oubli. Toujours dans le contexte de la guerre, il y a aussi eu les travaux de
Turing dont les travaux ont aussi longtemps été mis sous cloche par les services secrets anglais
et ça n’est que récemment qu’on a reconnu sa contribution énorme au développement des idées
et des techniques en la matière. Ses travaux étaient secrets (COLOSSUS) et ils ont permis aux
alliés de gagner la guerre. Les alliés étaient au courant des mouvements des troupes allemandes
grâce à cela et le gouvernement anglais a demandé à ce que ses travaux soient détruits à la n
de la guerre. Plus tard, nous avons donc inventé les ordinateurs à transistors et nous avons fait
beaucoup de progrès en terme de miniaturisation. Sur nos téléphones, il y a des milliards de
transistors. Il y a aussi eu des progrès philosophiques qui suivent les progrès technologiques.
Russel et Whitehead ont écrit les Principia Mathematica et la théorie des types. Il y a les travaux
essentiels de Gödel à propos de la complétude des systèmes formels, les travaux de Turing avec
l’invention d’un mécanisme
abstrait qu’il appelle la
machine de Turing et puis,
dans un domaine proche et
obsolète maintenant qu’on
appelle la cybernétique, il y a
les travaux de Shannon,
Wiener et Ashby autour de la
théorie de l’information.

Page 21
fi
ffi
fi
ff
fi
cours 5 - 04/11/2021
cours 4 sur les théories de la conscience
(voir 2e partie du cours)

La logique comme formalisation de la pensée

Un bon point de départ est la pensée du mathématicien George Boole qui introduit pour la
première fois la logique formelle à travers son ouvrage, publié en 1854, The laws of Thought. Il y
décrit le projet de toute la logique formelle qui consiste à formaliser le raisonnement, c’est-à-dire
à traduire des séquences d’opérations mentales en séquences d’opérations purement
typographiques (on se contente de manipuler mécaniquement des symboles comme des lettres
ou des nombres et d’appliquer ses opérations typographiques à des symboles bien dé nis). C’est
un projet extrêmement ambitieux et tout à fait dans l’ordre des sciences cognitives. On va tenter
de mécaniser des opérations mentales et de découvrir les mécanismes suivant lesquels nous
raisonnons et nous traitons l’information. Il introduit la logique propositionnelle car elle ne contient
ni quanti cateur, ni variable et qu’on appellera plus tard l’algèbre de Boole. Ce système permet de
formaliser la manipulation de catégories en introduisant une série d’opérateurs logiques (et, ou,
non) permettant de combiner des propositions ou des ensembles d’objets.

Exemple :

(Boole est né en 1815) ET (Boole est mort en 1816) : FAUX



-> l’opérateur ‘et’ fait que cela n’est vrai que si les deux propositions sont vraies.

(Boole est né en 1815) OU (Boole est mort en 1816) : VRAI



-> cela est vrai car la table de vérité de l’opérateur logique ‘ou’ spéci e que la proposition que
l’on obtient en combinant deux propositions élémentaires avec cet opérateur est vraie à partir
du moment où une des deux propositions élémentaires est vraie.

On peut donc construire toute une série de propositions complexes à partir de propositions
simples que l’on combine avec les opérateurs logiques et dont on peut déterminer la valeur de
vérité à partir de l’application de règles simples qui sont dé nies dans les tables de vérité de
chacun des opérateurs. On voit comment, avec ce système formel, il y a moyen de formaliser une
série d’opérations mentales semblables à celles que l’on fait lorsqu’on raisonne à propos de
quelque chose. C’est une première étape très importante dans ce projet qui va s’étendre jusqu’à
aujourd’hui et qui continue de formaliser la pensée.

Il faut aussi citer le travail du mathématicien allemand Gottlob Frege qui introduit, en 1879,
un autre système de logique formelle qu’il appelle la logique des prédicats et qui se distingue de
la logique propositionnelle de Boole par l’introduction de quanti cateurs. La logique des prédicats
rend possible d’exprimer formellement des expressions telles que

Page 22
fi
fi
fi
fi
fi
« Toutes les maisons ont un propriétaire », qui ne sont pas exprimables dans le système de
Boole :

Pour tout x il existe un y tel que POSSEDE (x,y) est vrai

On peut donc parler d’ensembles d’objets plutôt que d’objets individuels. Ce système introduit
également la possibilité d’avoir des variables dans les expressions que l’on peut construire à
partir de ce système.

On continue avec le travail de Russel et Whitehead en 1910 qui sont des mathématiciens
anglais et qui publient Principia Mathematica dont le projet est d’enraciner l’arithmétique et toutes
les opérations que l’on peut organiser en arithmétique dans la logique formelle. Les
mathématiques étaient dissociées de la logique formelle à un moment donné et leur travail
consistait à enraciner les mathématiques dans la logique formelle. À cette occasion, ils décrivent
un autre système formel qu’ils appellent la théorie des types. En gros, elle permet de résoudre
certaines contradictions dans la logique des prédicats de Frege en introduisant une distinction
entre les objets et les ensembles d’objets. Pour évoquer cela, on peut faire référence à ce
paradoxe des catalogues :

Le problème est que comme B est un catalogue qui reprend tous les catalogues qui ne se citent
pas eux-mêmes car A est le catalogue qui reprend tous les catalogues qui se citent eux-mêmes.
On ne peut pas mettre B dans B non plus car alors B n’est plus un catalogue qui reprend tous les
catalogues qui ne se citent pas eux-mêmes puisqu’il se cite lui-même. Il y a cette idée de
récursion qui met en évidence la nécessité, dans les systèmes logiques, de distinguer entre les
objets et les ensembles d’objets, ce que ne fait pas la logique des prédicats. Il y a des avancées
formelles en matière de logique qui permettent d’aller encore plus loin dans la possibilité que
nous avons de formaliser les opérations mentales.

On arrive au travail du mathématicien allemand David Hilbert qui publie, en 1928, un article
dans lequel il s’interroge sur les limites des systèmes formels décrits par Russel et Whitehead. En
particulier, il pose trois questions concernant l’arithmétique. Est-elle :

- complète, 

est-il possible que chaque expression que je peux construire dans le domaine de l’arithmétique
peut être soit prouvé, soit falsi é ? Par exemple : «  chaque entier est la somme de quatre
carrés  ». Il y a un théorème qu’on peut essayer de démontrer ou de prouver être faux. La
question de la complétude des systèmes formels est celle de savoir si mon système formel me
permet de prouver ou d’in rmer chaque théorème que je peux construire en partant des

Page 23
fi
fi
axiomes et des opérations que je peux réaliser sur les symboles que comporte le système
formel.

- consistante, 

est-il impossible de démontrer 2+2+=5 en partant des axiomes dont je dispose ?

- et décidable ?

existe-t-il une méthode telle que l’on puisse garantir que l’on puisse décider de la valeur de
vérité d’une expression quelconque en appliquant cette méthode ? Peut-on imaginer des
procédures qui vont garantir qu’on puisse prouver ou falsi er un théorème que je construis
dans ce système formel ?

Ces questions vont susciter l’intérêt d’autres logiciens, en particulier Kurt Gödel, mathématicien
tchèque/autrichien et Turing. En 1931, Gödel écrit un article qui adresse directement la question
de la complétude d’Hilbert. Gödel démontre que tout système formel consistent est
nécessairement incomplet. Autrement dit, tout système formel contient nécessairement des
propositions vraies mais indémontrables. C’est un problème car on essayer de formaliser toutes
les opérations mentales que nous utilisons lorsque nous raisonnons. Il semble qu’un système
formel est forcément incomplet, il va rester des choses vraies mais indémontrables. Pour ce faire,
il montre d’abord que l’on peut décoder les opérations et les symboles de l’arithmétique en
nombres, de telle sorte que l’on peut développer une théorie de l’arithmétique exprimée dans le
langage de l’arithmétique elle-même. Le système parle donc à propos de lui-même. Il y a une
espèce de circularité que Gödel exploite et il parvient à montrer qu’il est possible de construire
une expression qui dit «  je ne peux pas être démontrée  ». C’est un immense problème pour ce
projet presque positiviste de formaliser la pensée car on voit que, si l’expression est fausse, c’est
donc qu’on peut la démontrer mais si on peut démontrer une expression qui est fausse, le
système entier s’e ondre car il est inconsistant. Si l’expression est vraie, le système est alors
incomplet dans la mesure où il contient des théorèmes vrais mais qui sont par dé nition
indémontrables. Cette expression n’est vraie que par rapport à un observateur extérieur, c’est-à-
dire qu’on a besoin de sortir de ce système formel pour décider de la vérité de cette expression.
On se retrouve dans la situation dans laquelle, l’arithmétique, en tant que système formel, est
nécessairement soit incomplète soit inconsistante. Le projet positiviste d’Hilbert s’écroule et cela
jette un froid sur la tentative d’étendre le champ de la logique formelle à l’ensemble de la pensée
humaine.

Nous arrivons à Alan Turing. C’est un mathématicien anglais né en 1912 et qui s’est
suicidé en 1954. On lui doit trois contributions essentielles : la dé nition de la machine universelle
de Turing, ainsi que la thèse de Church/Turing; le test de Turing et son rôle dans la guerre secrète.
Son point de départ est les travaux de Frege, Boole, Russel, Whitehead, Gödel et Hilbert sur la
logique mathématique, la complétude des systèmes formels, etc,… Il a introduit des concepts
cruciaux tels les notions d’algorithme, la représentation, l’Intelligence Arti cielle et le
fonctionnalisme. La machine enigma était celle qu’utilisaient les sous-mariniers allemands en
particulier pour communiquer entre eux et qui est une machine de cryptage. On tape sur les
touches et la machine produit un code, un message crypté qui, pour être reconstruit, doit
appliquer le même algorithme de décodage à partir d’une clé de cryptage que partage l’émetteur
Page 24
ff
fi
fi
fi
fi
et le récipiendaire des messages. Turing est parvenu à décrypter ces messages grâce à des
machines appelées des «  bombes  » à l’époque et qui calculaient di érentes possibilités de
correspondance entre l’alphabet crypté et celui de départ. Ils sont parvenus à capturer certaines
clés de cryptage par chance et ensuite ils ont réussi à tout décrypter.

Turing est un peu le père spirituel des algorithmes. Le nom bien d’un mathématicien perse
du 9e siècle. Il s’agit d’une procédure pour obtenir un certain résultat telle que :

- chaque étape de la procédure est évidente;

- à la n de chaque étape, il est parfaitement évident de déterminer ce qu’il faut faire ensuite;

- la procédure garantit que le résultat sera obtenu dans un nombre ni d’étapes (pour autant
qu’on ne fasse pas d’erreurs). Par exemple, l’algorithme pour trouver la bonne clé dans un
trousseau ou calculer la 3654ème décimale de PI.

Un système formel est «  calculable algorithmiquement  » s’il existe un algorithme permettant de


calculer toutes les propositions du système considéré. Turing montre qu’il y a des choses
incalculables dans tout système formel et cela correspond aux questions d’Hilbert. La question
de la décidabilité est une question qui implique l’idée d’un algorithme. Turing va proposer un
mécanisme qui va permettre d’exécuter automatiquement un algorithme et avec cette
démonstration, il va prouver qu’il existe nécessairement des problèmes que sa machine ne peut
pas résoudre. C’est un résultat qui rejoint l’argument de Gödel puisque ça l’amène,
paradoxalement car ça n’était pas son objectif de départ, à prouver que les systèmes formels ne
sont pas tous calculables algorithmiquement.

Turing propose ce concept de machine de Turing qui est un système permettant


d’exécuter un algorithme. La machine universelle de Turing est une généralisation de la machine
de Turing. Cela suppose qu’on ait un système de lecture et d’écriture capable d’opérer des
opérations d’écriture et de lecture sur une bande de papier dont on suppose que la longueur est
in nie. Il faut imaginer cette bande de papier et la tête de lecture capable de lire un symbole et
d’écrire un symbole chaque fois à un endroit particulier. Il faut imaginer qu’il y a un tableau dans la
machine qui explicite quelle opération il faut réaliser en fonction du symbole qui est perçu par la
tête de lecture sur la bande de papier.

Tous les ordinateurs contemporains sont susceptibles d’être modélisés sous la forme d’une
machine de Turing. Il y a une di érence entre une machine de Turing dont le seul objet est de
Page 25
fi
fi
ff
fi
ff
réaliser des opérations arithmétiques (comme ci-dessus) et ce qu’on appelle la machine
universelle de Turing car ce qu’il montre c’est qu’il y a une machine (l’universelle) qui a un
mécanisme qui permet d’exécuter les opérations de n’importe quelle machine de Turing
particulière. L’idée consiste, avant de commencer des opérations, de charger un algorithme
di érent dans la matrice et on voit comment le même mécanisme peut réaliser n’importe quel
type d’opération qui sont réductibles à des algorithmes. C’est un résultat très fort qui fonde toute
l’Intelligence Arti cielle moderne et les ordinateurs modernes. Les ordinateurs contemporains et
les programmes qu’ils sont capables d’exécuter sont en fait computationnellement équivalents à
une machine de Turing universelle. On peut faire exécuter à une machine de Turing universelle
l’ensemble des opérations que mon ordinateur est en train d’exécuter. Ça mettrait des siècles
d’e ectuer une seule opération mais ces deux manières d’exécuter un algorithme sont
computationnellement équivalentes.

En termes de technologie, il faut évoquer le travail de Von Neumann. Il a proposé l’architecture de


base de tous les ordinateurs modernes.

Church et Turing ont proposé une thèse dont l’interprétation technique est la suivante : une
machine de Turing pet simuler tout algorithme (mental) si les termes élémentaires qui expriment
l’algorithme peuvent à leur tour être simulés par une machine de Turing. Il y a un argument
récursif qui étend le champ d’application des machines de Turing. L’interprétation conceptuelle
Page 26
ff
ff
fi
est que tout système calculable algorithmiquement (c’est-à-dire qui peut faire l’objet d’une
formalisation sous la forme d’algorithme dont je peux décidé de la vérité ou de la fausseté de
chaque théorème) peut être simulé par un système de symboles universel (une machine de Turing
universel). Tout ce qu’on peut calculer algorithmiquement peut être simulé par une machine de
Turing universelle. C’est un résultat essentiel car cela signi e que cette machine est le système
permettant de calculer toutes les propositions que je peux calculer dans le cadre de la logique
formelle. Au départ on suppose donc que :

- l’activité mentale est un algorithme (un calcul);

- tout algorithme est réductible à une machine de Turing;

- une machine de Turing peut simuler toute activité mentale

Il y a deux conséquences :

- les neurosciences sont inutiles. Étudier le cerveau ne sert à rien pour comprendre la nature du
calcul mental car le cerveau n’est qu’une instanciation quelconque d’une machine de Turing;

- d’autres instanciations peuvent exhiber une activité mentale.


Searle, critique de l’Intelligence Arti cielle forte dit : « Computationally speaking, on this view, you
can make a ‘brain’ that functions juste like yours and mine out of cats and mice and cheese or
levers or water pipes or pigeons or anything else provided the two systems are ‘computationally
equivalent’  ». Pour autant qu’il y ait équivalence computationnelle, on peut imaginer construire
n’importe quel système et il faut pouvoir dire que ces systèmes sont strictement équivalents. Cela
élimine la biologie de la question des sciences cognitives en remettant l’accent sur l’idée que
l’instanciation sur laquelle prend place les calculs n’est pas importante puisque tous les systèmes
sont équivalents à une machine de Turing universelle. En philosophie de l’esprit, cela amène à une
position par rapport entre le corps et l’esprit qu’on appelle le fonctionnalisme où la seule chose
qui compte est le niveau algorithmique. Les fonctions que le système est capable de soutenir et
les implémentations des fonctions (manière dont elles sont réalisées dans un substrat particulier)
sont secondaires car les sciences cognitives cherchent à comprendre les mécanismes de notre
pensée. L’idée de fonctionnalisme est le fondement de la psychologique cognitive avant qu’elle
ne devienne neuroscience cognitive et qui dit qu’il y a un niveau de description qui a une
autonomie en raison de ces questions d’équivalence computationnelle et qui permet d’ignorer la
manière dont ces algorithmes mentaux sont implémentés. Cela a amené Searle à faire une
distinction entre :

- « strong AI » 

en étudiant la manière dont les ordinateurs fonctionnent et en développant des algorithmes
permettant de résoudre certains problèmes, je fais des sciences cognitives, je développe des
théories des fonctions dont les humains sont capables et je considère que ces systèmes sont
intelligents de la même manière que nous.

- et « weak AI ». 


Searle s’oppose à la première idée et dit que c’est tout au plus un moyen d’explorer des
Page 27
fi
fi
théories en psychologie mais qu’on n’arrivera jamais avec l’Intelligence Arti cielle à construire
des systèmes qui sont véritablement intelligents au sens de disposer d’une intelligence
générale, au même titre que les êtres humains.

Les fondements de l’approche computationnelle sont clairement matérialistes. L’activité


mentale est causée par l’activité du système nerveux même si ce niveau de description ne nous
intéresse pas. Surtout, l’esprit est un système de manipulation de symboles au sens de la
machine universelle de Turing. Ces manipulations sont mécaniques, elles ne sont déterminées
que par la forme des symboles et ceux-ci ont une interprétations : ils représentent. C’est de la
syntaxe. On ignore la sémantique. Le point est de dire qu’on peut réaliser tous les algorithmes
mentaux avec des opérations qui sont purement typographiques exactement au sens de la
machine de Turing : j’écris et je lis les symboles présents sur la bande de papier de longueur
in nie.

Ces idées ont eu des implications directes en psychologie cognitive et en Intelligence


Arti cielle. Newell est un des pères fondateurs de l’IA.

Il imagine une théorie en psychologie où on


reconnait le travail de Von Neumann.

Page 28
fi
fi
fi
On lui doit aussi l’idée de niveau de description qui est très importante en sciences cognitives. Il
distingue une série de niveaux depuis des systèmes qui s’occupent des connaissances avec le
principe de rationalité par exemple. Juste en dessous, il y a comment on implémente tout ça (les
programmes), ensuite il y a les lois, en dessous le système de registre,…

Ça correspond aux trois niveaux de description de David Marr qui a dit qu’on peut analyser
n’importe quel problème en sciences cognitives à trois niveaux di érents. On retrouve ces idées
dans le travail de Hobbes.

Les idées de liens entre calcul et raisonnement trouvent leurs traces bien avant les travaux de
Boole et Babbage.

Page 29
ff

Alpha zéro est un algorithme qui permet à des systèmes (qui s’intéressent au jeu de go ou aux
échecs) d’apprendre en jouant contre eux-mêmes. Ils apprennent quasiment sans aucune
stimulation venant des êtres humains, sans exemples de jeu. Cela a été développé aussi pour les
jeux vidéos.

Métaphores de l’esprit II - L’Intelligence Arti cielle

Voici des exemples qui ont marqué le développement des idées en la matière.

L’analyse n-moyens signi e qu’une fois qu’on a un objectif, on se demande quels sont les
moyens qui vont me permettre de l’atteindre. La deuxième idée essentielle est de réduire les
di érences entre l’état dans lequel je me trouve maintenant et l’état dans lequel je cherche à me
trouver. On va essayer, à chaque étape de l’exécution d’un algorithme de réduire les di érences
entre l’état dans lequel on se trouve et celui dans lequel on veut se trouver.

Page 30
ff
fi
fi
fi
ff

Newell et Simon, après avoir introduit cet algorithme de GPS, s’intéressent à d’autres aspects de
la cognition humaine et ils se tournent vers le côté psychologique où ils explorent de manière
détaillée le comportement des sujets humains engagés dans la résolution de problèmes comme :

- la cryptarithmétique qui consiste à additionner ou réaliser des opérations arithmétiques avec


des mots. Par exemple, DONALD + GERALD = ROBERT et one essaye de trouver les chi res
présents dans les lettres;

- les échecs;

- des problèmes logiques

- la tour de Hanoï

Ils mettent aussi au point une méthode d’analyse de protocoles. Ils demandent au sujet de penser
tout haut pour suivre les opérations mentales et ils veulent simuler celles-ci grâce à des
algorithmes. Ils formulent une théorie du traitement de l’in rmation selon laquelle l’homme est un
« système de traitement de l’information » (IPS, Information Processing system) qui possède un
certain nombre de caractéristiques :

- système sériel consistant en un processeur, des systèmes d’entrée/sortie, des mémoires


internes court et long terme et une mémoire externe;

- son programme est structuré comme un système de production;

- il possède des structures symboliques particulières appelées objectifs, dont le rôle est
d’organiser la résolution de problèmes.

On est au croisement entre Intelligence Arti cielle et psychologie cognitive avec ce type de travail.

Page 31
fi
fi
ff
Une critique adressée était le paradoxe de l’observateur car on modi e le raisonnement en vertu
du fait qu’on demande au participant de penser tout haut. Ici ça n’était pas le cas mais ça peut
arriver dans d’autres cas. On s’intéresse à des problèmes que l’on aborde, en tant qu’êtres
humains, comme des machines. Il y a d’autres problèmes qui ne pourraient pas faire l’objet d’une
analyse de protocole aussi facilement et qui ne pourraient pas faire l’objet de simulation aussi
facilement.

Page 32
fi
Un autre problème en Intelligence Arti cielle est celui du langage naturel. Aujourd’hui on
peut avoir des conversations limitées avec des algorithmes parlant comme Siri.

Weizenbaum est un critique de l’IA et il voulait montrer l’absurdité de l’idée selon laquelle une
machine pouvait comprendre ce que l’on disait. Il construit ELIZA qui est censée reproduire ce
que dirait un psychologue d’inspiration rogerienne. Ils ne disent pas grand chose et se contentent
de répéter ce que la personne dit. Ce domaine ne demande pas de connaissances spéci ques
particulières. Il propose cet algorithme qui fonde les chatbots d’aujourd’hui. Une patiente interagit
avec ELIZA. On dirait qu’ELIZA comprend. Or, elle a été construite avec un système extrêmement
simple. Il y a un certain nombre de phrases toutes faites où l’algorithme est capable de remplacer
les pronoms de manière appropriée et il remarque aussi les mots-clés sur lesquels il rebondit.
C’est un système de mots-clés qui déclenche des phrases plus ou moins toutes faites et ELIZA
est aussi capable de modi er les pronoms.

Weizenbaum voulait montrer que l’algorithme ne comprenait pas réellement ce que la personne
disait. ELIZA passe le test de Turing quand elle parle avec le vice-président.

Page 33
fi
fi
fi

Dans le test, une personne a une discussion avec une vraie personne et une machine et il doit
di érencier les deux. Si, en tant qu’observateur, on ne sait pas distinguer qui est qui, il faut en
déduire que la machine dispose d’une intelligence générale. Dans une autre version du test,
appelée le jeu de l’imitation, Turing avait imaginé une situation où on n’oppose plus humain et
machine mais où on oppose un homme et une femme. Suis-je capable de trouver la di érence ?

Page 34
ff
ff
cours 6 - 18/11/2021

Le test de Turing a suscité de nombreuses objections. C’était un moyen de décider si un


artéfact était intelligent ou pas. Turing avait imaginé ce test car la question de l’intelligence en tant
que telle est une question qui est très di cile à aborder, comme la conscience. On ne sait pas
quel test va donner le résultat le plus clair donc il a proposé son test pour s’en sortir de manière
pragmatique. Si l’artéfact est capable d’interagir avec moi d’une manière qui me fait penser que
j’interagis avec un humain, on doit considérer qu’il est intelligent, quelle que soit la dé nition de
l’intelligence. À propos de la dernière objection, Searle a dit : «  Comment quelqu’un a-t-il jamais
pu supposer qu’une simulation d’un processus mental soit la chose réelle ?  ». Imaginons
quelqu’un qui s’occupe de faire des prédictions météo et qui simule une tempête. Personne n’a
envie de dire que cette tempête simulée aurait des e ets sur la réalité. Il y a aussi des objections
à ce que dit Searle car malgré tout, cette tempête simulée pourrait avoir des e ets sur la réalité.
D’après certaines objections, il y a un mélange de genre où on mélange ce qui se trouve dans
l’ordinateur et ce qui se trouve en dehors de l’ordinateur.

Une autre illustration est le


travail de Winograd. Il propose, en
1972, SHRDLU, un système qui
combine les travaux de Newell et
d’autres et les travaux naissants sur
le traitement du langage naturel en
concevant un système capable de
résoudre des problèmes dans un
univers très dé nis (le monde des
blocs) et avec lequel, c’est la grande
innovation, on pouvait interagir via le
langage naturel en formulant des
Page 35
fi
ffi
ff
ff
fi
requêtes. Le micro-domaine est ici le monde des blocs.

Page 36
On arrive aux systèmes experts qui datent des années 80 et dont l’objectif était de
développer une forme d’intelligence arti cielle spécialisée dans un domaine particulier (par
exemple, dendral; prospector et mycin qui peut être utilisé pour tenter d’établir un diagnostic). On
retrouve l’architecture de Von Neumann avec un moteur d’inférence qui est l’algorithme qui réalise
le raisonnement et il interagit avec les experts pour manipuler les informations qui se trouvent
dans une base de donnée qui est structurée sous la forme de règles de production. Ces systèmes
ont suscité énormément d’intérêt car on imaginait que les médecins allaient être remplacés par
des machines. Il est di cile de formaliser les connaissances d’un expert dans un domaine
particulier. Il y a aussi des connaissances qui ne sont pas conscientes mais plutôt intuitives. Ce
sont des connaissances qui se sont automatisées au l de la pratique. Certains concepts en
psychologie s’inspirent des recherches dans le domaine de l’intelligence Arti cielle comme ACT*
de Anderson (1983), capable d’expliquer des résultats expérimentaux en psychologie. Un autre
système proposé par Newell, appelé SOAR, est presque pareil. Ces deux exemples ont eu
énormément d’in uence sur le développement des idées en sciences cognitives.

Parlons de la vie arti cielle qui est une idée qui s’éloigne d’une perspective strictement
Intelligence Arti cielle classique car l’idée est de faire se rejoindre des considérations qui viennent
de la biologie, en particulier de la biologie évolutionniste et des idées d’Intelligence Arti cielle et
de se dire que, plutôt que de concevoir un système intelligent à la main, comment peut-on faire
en sorte qu’un système intelligent arrive tout seul comme produit de l’évolution d’organisme
arti ciel qui n’existe que dans la mémoire d’un ordinateur ? Il ferait l’objet du même type de force
que la sélection naturelle au niveau de l’être humain (processus de compétition et de reproduction
qui permettent aux organismes qui ont plus de succès de se reproduire et donc de passer leurs
programmes à la génération suivante). Si on simule dix millions d’années d’évolution naturelle sur
un ordinateur que se passe-t-il ? Voit-on apparaître un résultat ? (visionnage d’une vidéo, Karl
Sims, 1994). Dans la vidéo, on cherche à maximiser la distance parcourue. Ils sont capables de se
diriger vers un point précis. Il y a aussi une compétition entre deux organismes arti ciels. Ces
travaux ont continué de nos jours avec le deep mind. Comment quelque chose qui ressemble un
peu à un humain peut apprendre à marcher à partir de rien ?

Page 37
fi
fi
fl
ffi
fi
fi
fi
fi
fi
fi
Ce système est basé sur le fait d’essayer de maximiser la distance parcourue. Dans un jeu qui
ressemble à Trivial Pursuit, le robot a gagné contre les humains et il y avait une sorte de méta-
cognition car on pouvait parier sur sa propre réponse et faire des stratégies selon notre con ance
en nos capacités. Tout cela ne donne pas au robot les capacités d’éprouver le plaisir de gagner la
compétition.

Théories de la conscience

Nous allons parler de l’Intelligence Arti cielle classique avec quelques implications de
toutes ces idées que nous avons examinées. La première est l’idée que l’esprit peut être
conceptualisé de la manière dont fonctionne les ordinateurs conventionnels. Cela a amené des
philosophes comme Fodor et Pylyshyn à parler de langage de la pensée (mentalese) et qui
comprend certaines caractéristiques qui s’apparentent à celles du langage naturel. On retrouve
cela dans l’ouvrage de Fodor (1981), The computational theory of mind qui prétend que l’esprit
serait structuré comme un ordinateur classique.

Il prétend aussi que raisonner consisterait en réaliser des opérations algorithmiques sur des
représentations mentales qui présentent une série de propriétés dont la compositionalité. Le
langage naturel est in niment productif car, en appliquant les règles de transformation, produire
un nombre in ni d’expressions compréhensibles. La pensée est structurée comme un langage et
l’esprit fonctionne comme un ordinateur. Il y a eu des débats qui ont remis en cause l’idée que la
pensée, le raisonnement, ne peut être produite que par des mécanismes qui s’apparentent à ces
mécanismes classiques et que ces propriétés du langage naturel que Fodor examine ne sont pas
nécessairement correctes (la notion de systématicité n’est pas nécessairement correcte). On a
montré plus tard que certains systèmes connectionnistes sont capables d’exhiber le même genre
de propriétés malgré le fait que leurs prémisses soient fondamentalement di érentes.

Page 38
fi
fi
fi
ff
fi

Certains s’attaquent à l’idée même de représentation mentale en disant qu’il faut adopter une
approche dynamique dans laquelle il n’y a pas de représentation mentale au sens où on l’entend,
c’est-à-dire de symbole qui représente quelque chose avec une relation de référence référée.
Beaucoup ne seraient pas d’accord. Les idées de Fodor et Pylyshyn qui s’enracinent directement
dans les travaux d’IA mais qui sont résolument encrés dans la philosophie de l’esprit et les
sciences cognitives ne sont pas sans avoir fait l’objet de très nombreux débats.

Parlons à présent des problèmes auxquels a dû faire face l’IA et qui ont mis en évidence
leur limite quant à la conceptualisation des idées et à l’application concrète. Ces problèmes
mettent en évidence le fait que l’intelligence arti cielle classique est parvenue à simuler une série
d’activités que l’humain est capable de faire mais ces activités ne représentent qu’une petite
partie de ce dont est capable la cognition humaine, en particulier ce sont des activités qui mettent
en évidence le fait que quand nous sommes engagés dans ces activités, nous appliquons le
même type de processus que ce qu’on cherche à simuler, c’est-à-dire qu’on applique des sortes
d’algorithme mentaux et il y a une sorte de boucle dans laquelle on parvient à simuler le mieux ce

Page 39
fi
que les hommes sont capables de faire en simulant eux-mêmes les opérations que réaliserait un
ordinateur. Il faut reconnaître que devenir champion d’échec, résoudre des problèmes complexes,
ne sont pas des aspects typiques de la cognition humaine. C’en est une toute petite partie. Ça
n’est pas ce qui préoccupe le plus le cerveau. Le cerveau est surtout préoccupé par des
questions de perception et de contrôle de l’action au-delà des processus homéostatiques qui lui
permettent de maintenir en vie notre organisme. Avec toute cette approche d’IA classique, on a
quelque part éliminé une énorme partie de la cognition humaine qui est justement la partie
immergée de l’iceberg à laquelle va s’intéresser le connextionnisme et toutes les approches
basées sur les connections de neurones arti ciels.

Quels sont les rapports entre la chose simulée et la réalité ? Imaginons un dictionnaire. Chaque
mot est dé ni par d’autres mots, eux-mêmes dé nis dans le dictionnaire. L’univers du dictionnaire
dans lequel nous percevons la sémantique est complètement fermé puisque chaque mot est
dé ni par d’autres mots. Or, la signi cation que nous avons dans notre esprit quand nous
percevons un mot nous connecte directement avec le référent de ce mot qui a une existence
dans la réalité et que nous sommes capables de percevoir ou manipuler. Si on dit le mot « tasse »,
on a pas la dé nition du dictionnaire en tête mais l’image d’une tasse et ses a ordances, c’est-à-
dire ce que l’on peut faire avec l’objet, ce à quoi elle ressemble et tout ça. Harnad se demande
comment on peut sortir de ce système où tout reste toujours dans la simulation pour se
connecter au monde extérieur. C’est le « symbol grounding problem ». Dans quoi sont enracinés
les symboles, les représentations mentales que manipulent ces systèmes d’IA ? C’est un énorme
problème pour l’IA.

La personne qui s’est attaquée le plus directement à ce problème est John Searle,
philosophe américain, qui présente en 1981 dans la revue BBS, une expérience de pensée
célèbre appelée « expérience de la chambre chinoise ». L’argument est que la syntaxe n’est pas
su sante pour produire la sémantique. Puisqu’un système formel se contente de réaliser des
Page 40
ffi
fi
fi
fi
fi
fi
fi
ff
opérations purement typographiques sur les symboles qu’il contient, il ne parviendra jamais à
faire émerger de ces manipulations syntaxiques une sémantique, pas plus qu’ELISA n’est capable
de comprendre quoi que ce soit dans une conversation. La question à laquelle il cherche à
répondre est « une machine peut-elle penser au sens où nous l’entendons ? ». Il répond oui si on
considère le cerveau comme une machine d’un type particulier, alors il pourrait être possible de
construire une machine pensante. Cet argument ne remet pas en cause le fait qu’il est possible
de construire une machine intelligente mais il remet en cause spéci quement l’idée que la forme
de cette machine et des algorithmes consiste strictement en la manipulation syntaxique de
chaînes de symboles. On ne parviendra jamais à produire de la sémantique à partir d’un système
comme celui-là. Il fera la distinction entre « Strong AI » et « Weak AI » et c’est contre le premier
qu’il s’élève car cette conception dit que la machine peut penser en vertu de son programme et
que ce programme est un esprit, pas seulement un modèle de l’esprit alors que la « Weak AI » dit
que l’ordinateur est un outil intéressant pour étudier la cognition mais ça n’en fait pas des agents
qui sont capables de penser.

Page 41
fi
Personne n’a envie de dire que l’ordinateur comprend le chinois donc la syntaxe n’est jamais
su sante pour produire la sémantique. Il y a quatre prémisses dans l’argument :

1. Le cerveau cause l’esprit;

2. La syntaxe n’est ni constitutive ni su sante pour la sémantique;

3. Un programme est entièrement dé ni par sa structure syntaxique;

4. L’esprit a des contenus mentaux, en particulier des contenus sémantiques.

La simulation ou l’algorithme doit être connecté à la réalité. Nos cerveaux sont connectés à la
réalité. Il y a des changements dans nos neurones qui in uent causalement d’autres neurones
donc on sort du domaine de la simulation. La biologie a la force causale que n’a pas l’exécution
d’un algorithme. Cependant, on voit que Searle ne rejette pas la possibilité de construire un
cerveau arti ciel mais il faudrait alors que celui-ci duplique les forces causales des cerveaux
biologiques et ne se contente pas de les simuler et surtout pas de les simuler de la manière
algorithmique dont le voudrait l’IA classique, c’est-à-dire de manière à exécuter de manière
sérielle une sorte d’algorithme mental, de langage de la pensée comme Fodor et Pylyshyn. Il y a
des objections :

Page 42
ffi
fi
fi
ffi
fl
Il y a une énorme littérature autour de cette expérience de pensée. Il y en a qui rejettent
dé nitivement ce type d’approche en IA et d’autres qui rejettent l’argument en disant que c’est
seulement une expérience de pensée mais aussi problématique.

On peut aussi évoquer l’idée que tout ce niveau de description symbolique n’est pas le bon pour
savoir si un sytème fait preuve d’une intelligence semblable à celle de l’être humain. Il évoque
comme alternative l’idée qu’on va interroger le système avec des questions sous-cognitives. Par
exemple, on demande aux gens de donner une indication de ce qu’ils pensent de ugblogs
comme nouveau nom à la place de Kellogg’s. Ce sont des questions sous-cognitives car on
interroge pas les connaissances symboliques et abstraites mais nos intuitions et un ensemble de
connaissances implicites que nous partageons et qui forme la culture elle-même. Quel système
d’IA serait capable de répondre à cela ? On doit par exemple avoir en tête l’image d’une vieille
dame qui se défend grâce à son sac à main et dans ce cas le sac peut devenir une arme. Ces
questions interrogent le système à un niveau sous-cognitif et pas juste au niveau des symboles.
Ce sont des choses laissées implicites dans le langage cognitif.

Page 43
fi
fl

Dans une IA tout doit être explicité.

Lenat a essayé de s’attaquer à ce problème en cherchant à développer une base de donnée


intelligente dont l’ambition était de capturer le sens commun mais en utilisant des outils d’IA
classiques dont on savait déjà qu’ils étaient inadéquats pour ce genre de problèmes. Les
chercheurs scannaient la presse pour encoder des connaissances dans le système. Ils voulaient
créer une sorte d’ontologie du sens
commun.

Page 44
Il faut savoir que les avions volent et pas les montagnes. Si on indique au système que les
montagnes sont incapables de voler, on doit aussi lui indiquer qu’elles sont incapables de
manger, de boire,…

Les concepts que nous utilisons sont profondément ous.

Page 45
fl

cours 7 - 25/11/2021

Théories de la conscience

cours 8 - 02/12/2021

Philosophie des neurosciences

L’augmentation de l’être humain

Introduction

Nous avons déjà entendu parler du mouvement transhumaniste, né sur la côte ouest des
États-Unis dans les années 1960, créé par des philosophes et des scienti ques. Il n’est devenu
très in uent que dans les années nonante, quand ce mouvement est devenu un mouvement
académique avec, notamment, l’émergence de deux penseurs Nick Bostrom (penseur d’origine
suédoise) et Julian Savulescu. Ils occupent des chaires prestigieuses de philosophie et d’éthique
Page 46
fl
fi
à l’université d’Oxford. Qu’est-ce que le transhumanisme ? Il a pour but de transformer,
d’améliorer l’être humain et on peut résumer la philosophie du mouvement en un slogan qui est
celui de l’association mondiale du transhumanisme : «  vivre plus longtemps, être en meilleure
santé, être plus intelligent et tout cela avec pour objectif d’être plus heureux ». Être en meilleure
santé grâce au progrès dans le domaine de la bio-médecine va probablement se réaliser, vivre
plus longtemps (leur rêve est l’immortalité) est sans doute dans le domaine du possible et être
plus intelligent, il faudrait d’abord dé nir ce concept. Modi er les fonctions cognitives par la
technologie, par les médicaments est certainement réalisable. Ce qui pose problème est de savoir
si cela va nous rendre plus heureux. C’est ce que pensaient les philosophes des Lumières et on
peut considérer les transhumanistes comme leurs disciples.

Le mouvement transhumaniste n’est pas la cause première de cette transformation qui est
en cours de l’être humain par la biotechnologie. Le moteur est un e acement des frontières entre
la médecine thérapeutique classique, qui a pour objectif de guérir des malades, et la médecine
d’amélioration qui est un nouveau paradigme bio-médical. Le but des médecins, depuis
Hippocrate était de découvrir des remèdes pour soigner des malades et au moins pour atténuer
leurs sou rances. Depuis plusieurs siècles, la recherche dans le domaine de la médecine, produit
de nouveaux médicaments et de nouvelles technologies qui, dans un premier temps vont êtres
utilisés pour tenter de soigner des malades (objectif thérapeutique) et qui, parfois dans un second
temps, vont pouvoir être utilisés dans le but d’augmenter les fonctions physiques et mentales de
personnes. Voici tout d’abord des exemples tirés de la pharmacologie. Commençons par un
exemple tiré du sport et de l’amélioration des performances sportives. L’EPO est une hormone
synthétisée qui a pu être donnée à des malades sou rant d’anémie (pas su samment de
globules rouges). Si on en donne à ces patients, on en fait remonter le taux car elle stimule la
genèse des globules rouges. Avec cette même EPO, un docteur l’introduit dans le sport et la
donne à des cyclistes italiens. À l’époque, elle était indétectable. Autre exemple, celui de la ritaline
ou rilatine. C’est un médicament qui permet de focaliser l’attention. Dans les années 60, on
l’utilise pour améliorer l’attention d’adolescents qui avaient des désordres attentionnels. La même
molécule, chez un sujet qui ne sou re pas de ces désordres, cela va aussi augmenter l’attention.
C’est encore un passage du thérapeutique au mélioratif. Le moda nil ou provigil permet d’être
plus éveillé. La molécule va, chez les patients narcoleptiques, permettre de ne plus s’endormir
anormalement. Si on donne cela à quelqu’un qui n’a pas de problème, cette personne peut rester
éveillée beaucoup plus longtemps. Quand on passe à des exemples de biotechnologie médicale,
on voit que les exemples sont plus importants et ce qui est en jeu est la transformation de la
structure organique de l’être humain. Cette transformation est en cours même si on n’est qu’à ses
débuts. Il y a les transhumanistes d’un côté et les bio-conservateurs qui sont des philosophes
naturalistes qui considèrent que la médecine est là pour soigner des malades et qu’on ne peut
utiliser des médicaments ou des technologies pour se transformer. Comme exemple de recours à
des technologies, pour montrer que ça n’est pas le transhumanisme qui est au coeur de ces
transformations mais la recherche biomédicale ou la recherche techno-scienti que, on prend
l’exemple d’un chercheur ordinaire dont le seul objectif était d’améliorer le sort des malades
atteints d’une maladie grave (la dystrophie) qui aboutit à la mort avant que le malade atteigne
Page 47
ff
ff
fi
ff
fi
ff
fi
fi
ffi
l’âge de 20 ans. Le chercheur voulait améliorer l’état de ses patients. Il a été amené à témoigner
devant un comité d’éthique aux États-Unis et, au début des années 2000, ce comité travaillait sur
un rapport qui s’intéressait du passage du thérapeutique au mélioratif. Les membres du comité
de bioéthique on rédigé le rapport en s’appuyant sur des témoignages et un des médecins invités
à prendre la parole était celui qui e ectuait des recherches pour la dystrophie. L’objectif du
chercheur était d’améliorer l’état des muscles des patients en transformant leurs cellules
musculaires en apportant de l’ADN. Il a parlé de ses recherches et a ajouté qu’il travaillait avec
des souris et il a créé des souris transgéniques. Chez la souris, il parvient à ralentir le
vieillissement musculaire naturel. Quels seraient les arguments éthiques pour dire que ça n’est
pas bien d’utiliser cette technologie ? On utilise la technologie médicale pour freiner le cours
naturel des choses. Grâce à sa découverte, on pourrait ralentir le vieillissement musculaire naturel
et doper des sportifs alors que ce chercheur n’est pas transhumaniste.

Eugénisme

Aujourd’hui, nous allons parler de l’eugénisme libéral qui est un eugénisme pris en charge
par les parents, pas par l’État qui est l’eugénisme classique de l’entre-deux guerres. L’eugénisme
libéral est une nouvelle forme (années 60-70). On utilise la technologie pré-implantatoire pour
éviter à un enfant d’être porteur d’un lourd handicap héréditaire. Aujourd’hui, on peut aller plus
loin grâce à une découverte récente qui est la technologie CRISPR. Déjà dans les années 1980, le
futurologue Joël de Rosnay avait émis l’hypothèse d’une machine à écrire génétique qui
parviendrait à écrire la synthèse chimique des gènes. Le CRISPR permet de couper et coller
l’ADN, ce qu’on pouvait faire depuis le début des années 70 mais de manière moins e cace. Il a
été découvert par deux chercheuses. Cela permet de modi er n’importe quel ADN de n’importe
quel cellule de n’importe quel organisme vivant. Cela peut aussi être une cellule embryonnaire et
modi er le génome d’embryon humain et cela pose des questions éthiques et philosophiques.
C’est toujours le passage du thérapeutique au mélioratif qui est le moteur de la transformation de
l’humain par la biotechnologie. On pourrait un jour modi er le génome pour améliorer certaines
fonctions physiques et mentales de la future personne. On pourrait assister au commencement
de la n des maladies génétiques. Après cette découverte, il y a eu un premier sommet
international sur l’édition du génome humain. Avant on parlait de manipulation génétique ou de
recombinaison de l’ADN. Ici, on corrige le génome comme un texte. Pendant le sommet
international sur l’édition du génome humain et les scienti ques ont présenté les avancées dans
ce domaine et le deuxième jour était consacré aux aspects philosophiques, éthiques et sociétaux
du CRISPR.

Michael Sandel est un philosophe bio-conservateur qui s’oppose au transhumanisme et à


l’utilisation de la médecine à des ns d’amélioration et de transformation de l’être humain. Son
argument est qu’il faut respecter le donné naturel. Le principal problème avec l’amélioration et
l’ingénierie génétique, c’est qu’elle représente un type d’hyper-agentivité. C’est un néologisme,
on devient des hyper-agents : une aspiration prométhéenne à refaire la nature, y compris la nature
Page 48
fi
fi
fi
ff
fi
fi
fi
ffi
humaine pour réaliser nos objectifs et satisfaire nos désirs. L’homme devient maître et possesseur
de la nature sauf que Sandel trouve que ça n’est pas une bonne idée et il ajoute que cette
recherche de la maîtrise rate et peut même détruire une appréciation du caractère donné des
pouvoirs des réalisations humaines. En résumé, Sandel s’oppose à l’utilisation de la
biotechnologie à des ns d’améliorations car il faut respecter le donné naturel. C’est l’un des
arguments principaux des penseurs bio-conservateurs ou philosophes naturalistes. Ils mettent
aussi en avant les risques pour la santé et cela risque d’accroître les inégalités car si on permet
l’utilisation de ces technologies d’amélioration, seuls les personnes les plus riches y auront accès
et cela accroîtra ces inégalités et créerait une sorte d’aristocratie qui serait bio-technologique.
Sandel n’est pas le seul philosophe à s’opposer à l’utilisation de la technologie à des ns
mélioratives. Un certain nombre de philosophe qui ne s’intéressaient pas au sujet se sont mis à
s’y intéresser au début des années 2000. C’est le cas notamment d’Habermas qui publie Le futur
de la nature humaine. Il s’oppose à l’utilisation de la biotechnologie à des ns d’amélioration et il
refuse qu’on touche au génome d’un embryon humain. Son argument est qu’on peut se rebeller
contre une modi cation environnementale (les parents nous obligent à jouer tout le temps au
piano pour être le meilleur) et une au niveau de son propre génome. L’argument d’Habermas a
l’air recevable. Quand il existe une technologie comme le CRISPR, si la technologie existe et
qu’on peut l’utiliser rationnellement, il faut que quelqu’un décide si on va utiliser cette
technologie. Dans certains cas, dans le cas de maladies héréditaires qui ne peuvent pas être
guéries autrement que par une correction du génome au stade embryonnaire. Ce sera rationnel
d’intervenir à un niveau thérapeutique ou préventif pour remplacer le gène. Certains pourraient
considérer qu’on pourrait modi er le génome pour améliorer certaines caractéristiques du futur
enfant. On pourrait imaginer une expérience de pensée où on choisit une commune où des
enfants naissent avec des caractéristiques modi ées (choisies par leurs parents). Un adolescent
est né avec un génome naturel et celui-ci pourrait reprocher à ses parents de ne pas avoir été
modi é Cela serait l’inverse de ce qu’Habermas supposait et cela signi e que la technologie
change la donne.

Ronald Dowrkin, philosophe américain, a écrit sur la métaphore «  playing god  »,


métaphore utilisée par les bio-conservateurs. Dworkin considère que cette métaphore se base sur
ce qui dépend de nous et ce qui ne dépend pas de nous. C’est la frontière entre destin et choix.
Si on prend l’exemple de la modi cation du génome de nos futurs enfants, on ne se pose pas la
question sauf en cas de maladie génétique mais il n’est pas sûr que dans un avenir plus ou moins
lointain on ne se pose pas la question. À partir du moment où on a possibilité de lire le génome,
on va découvrir des choses agréables et d’autres moins (par exemple, des probabilités de cancer
du sein, de maladie d’Alzheimer,…). Un autre penseur bio-conservateur, Francis Fukuyama qui a
écrit un ouvrage appelé Notre futur post humain où il considère qu’en tant que société, nous
avons le droit d’établir une ligne rouge entre les usages thérapeutiques et les non-thérapeutiques,
notamment pour le CRISPR. Pourtant, il est impossible de tracer cette ligne rouge car, à partir du
moment où la technologie existe, certains trouveront pertinent de l’utiliser. Une expérimentation
sauvage a été réalisée par un chercheur chinois et il a annoncé qu’il avait, pour la première fois

Page 49
fi
fi
fi
fi
fi
fi
fi
fi
fi
dans l’histoire, modi é le génome d’un embryon humain avec réimplantation dans l’uterus. Il a
modi é le génome pour introduire un système permettant de résister au virus du sida. Le
problème c’est que le chercheur n’a pas respecté la méthodologie des essais cliniques.
Aujourd’hui, la méthodologie des essais cliniques est régulée (par exemple : consentement des
personnes). Cela était prématuré. Cela montre cependant qu’il est possible de modi er des
embryons humains. Il a été sanctionné et il a fait une peine de prison.

Il y a un troisième courant que l’on pourrait quali er de philosophie libérale. Il s’agit de la


philosophie de John Stuart Mill. Ce qui régule la morale, c’est le principe de non nuisance. Si on
ne cause pas de tort à autrui, il n’y a pas de problème moral. Cette philosophie est défendue par
un certain nombre de philosophes dont Ruwen Ogien et Jonathan Glover. L’eugénisme libéral
s’oppose à celui d’État où c’est ce dernier qui gère le stock génétique de la population. Il a été
théorisé par Francis Galton et mis en application au début du 20e siècle. À l’époque, la peur était
la «  dégénérescence  » de la population et la politique eugénique d’État devait y remédier. On
stérilisait les handicapés mentaux en Europe et même après la Seconde Guerre Mondiale.
Hermann Müller publie Hors de la nuit où il entrevoit le futur de l’eugénisme qui passe par une
série de techniques qui vont être créées dans un avenir plus ou moins proches dans le domaine
de la procréation (insémination arti cielle, utérus arti ciel,…). Dans les années 60, on assiste au
développement de la fécondation in vitro et des premiers bébés éprouvettes. Il y a des
philosophes transhumanistes qui ne pensent pas qu’il faut interdire les technologies mélioratives. 



Dopage sportif

Le dopage sportif peut être considéré comme une sous-question du domaine de


l’augmentation de l’humain. On pourrait dire que le dopage sportif est mauvais pour la
santé ou encore que ça n’est pas équitable pour ceux qui ne le font pas. Le sport de
compétition a adopté, depuis plusieurs décennies, une philosophie bio-conservatrice ou
naturaliste et que, d’une certaine façon l’agence mondiale anti-dopage et les autorités
sportives défendent une politique prohibitionniste sous-tendue par cette philosophie bio-
conservatrice ou naturaliste. Si la question a évolué, c’est d’une part parce qu’aujourd’hui
certains considèrent cette question comme un sous-domaine de l’augmentation de
l’humain et d’autre part, l’autre facteur qui a fait évoluer le débat est la création de
l’agence mondiale anti-dopage en 1999, un an après un scandale sur le tour de France et
à la suite d’autres scandales dans le domaine du sport de compétition. Pourtant, on
pourrait imaginer dans le sport une philosophie libérale ou une philosophie
transhumaniste où tout serait permis, y compris l’usage de prothèses et de produits
dopants. De façon plus raisonnable, on pourrait imaginer une philosophie libérale pour
encadrer le sport de compétition, par exemple on pourrait considérer que tant qu’on ne
Page 50
fi
fi
fi
fi
fi
fi
nuit pas à autrui, il n’y a pas de problème moral. On pourrait alors accepter le dopage
dans le sport moyennant certaines régulations. Essayons de voir si la politique mise en
place (la philosophie naturaliste) permet de respecter les valeurs en jeu dans le domaine,
à savoir l’équité sportive, la santé des athlètes et le maintien de l’intérêt du sport de
compétition. Revenons sur la dé nition de Michael Sandel de la philosophie naturaliste
telle qu’appliquée aujourd’hui : le problème quant au sport est l’hyperagentivité (voir plus
haut). Pour lui, le sport doit avant tout mettre en avant le talent naturel. Thomas Morey (?),
un autre philosophe, a publié un ouvrage où il défend une philosophie naturaliste du
sport. Il considère que le sport est une célébration du talent humain avec le travail que les
individus apportent à perfectionner ces talents. Il doit valoriser les talents développés par
l’athlète. Ben Johnson est un sprinter canadien, spécialiste du 100m qui a participé à la
nale du 100 mètres aux JO de Séoul 1988. Il était opposé notamment à l’Américain Carl
Lewis. Ce dernier avait déjà remporté de nombreuses médailles. À la surprise générale,
Ben Johnson parvient à battre Carl Lewis. Un journaliste canadien vient le féliciter et il
demande au gagnant ce qui est le plus important : la médaille d’or ou le record du monde
du 100m ? Ben répond que ce qui est le plus important est la médaille car personne ne
pourra lui enlever. On avait contrôlé ses urines et on découvre un stéroïde dans ses urines
donc il va être déclassé et Carl Lewis va remporter la médaille.

Commençons par l’idée d’équité sportive. La politique actuelle permet-elle de


maximiser l’équité ? Non car les autorités sont incapables de faire respecter leurs règles
car les contrôles pratiqués quant au dopage sont relativement ine caces et, dans la
plupart des cas, ils parviennent à remporter des compétitions. Par exemple, pour l’EPO,
la plupart des cyclistes en prenaient car elle était indétectable. Lors de la création de
l’agence anti-dopage, on veut un sport pur et le directeur du tour de France veut un
renouveau. Comme pour célébrer cela, Lance Armstrong remporte la victoire. Il n’était
pas très connu. Il a remporté 7 fois d’a lée le tour de France. Dans les années 2000, un
laboratoire français va mettre au point un test e cace pour détecter l’EPO dans le corps
des athlètes. À chaque fois que l’agence mondiale anti-dopage ou les autorités sportives
peuvent disposer d’un nouveau test pour identi er un produit dopant, les athlètes qui se
dopent changent de stratégie mais n’arrêtent pas. Ce qui a été proposé à Armstrong était
la transfusion sanguine. Autre exemple, un sénateur américain va imposer une interdiction
ferme des stéroïdes, alors les athlètes vont changer de stratégie et prendre de l’hormone
de croissance qui est indétectable. L’idée des personnes qui se dopent est que pour
concourir sur un pied d’égalité, il faut prendre des produits dopants. C’est ce que pense
Victor Conté qui avait une rme en tant que couverture mais fournissait des produits
Page 51
fi
fi
fi
ffi
fi
ffi
ffi
dopants aux athlètes. En 2012-2013, Armstrong va accepter une interview et on s’attend
à ce qu’il s’excuse. Il admet avoir pris des produits dopants et Oprah Winfrey il demande
s’il pense que c’est de la triche. Il répond qu’à l’époque non, car la triche suppose un
avantage mais il le voyait comme concourir sur un pied d’égalité car il savait que ses
rivaux prenaient aussi des substances dopantes. Cela signi e que pour concourir sur un
pied d’égalité il faut avoir recours à des produits dopants car les mesures pour contrôler
les produits dopants sont insu santes.

La deuxième question était de savoir si l’AMA parvient à minimiser les risques pour
la santé ? Personne n’a jamais démontré, par exemple, que l’EPO était dangereux dans
un certain dosage (monter les globules rouges jusqu’à 50%). L’interdiction du dopage,
jumelé au fait que les contrôles sont ine caces, conduit à un dopage clandestin. On peut
supposer que des produits dopants pris dans la clandestinité est plus dangereux que
sous contrôle médical. Il y a eu des accidents. Par exemple, faire de la boxe est très
dangereux pour le cerveau lorsqu’on reçoit des coups. Ici aussi, la réponse serait non car
les mesures entraînent un dopage massif dans la clandestinité. Non seulement cette
politique ne permet pas de faire respecter ces deux valeurs fondamentales mais en plus,
elle conduit à un certain nombre d’e ets pervers.

Parlons du fait que le dopage est contraire à l’esprit du sport. Si on est naturaliste,
on peut considérer que c’est vrai. Cependant, si on ré échit bien à ce que veulent les
athlètes, ils veulent gagner une médaille et l’essence véritable serait maximiser la
performance. Si on ré échit à ce qu’il faut mettre en place pour maximiser la
performance, la première étape est de repérer les athlètes naturellement doués, ensuite
donner le meilleur entraînement. La troisième étape est de donner le meilleur équipement
sportif (par exemple, les meilleures chaussures, le meilleur vélo). En n, si on veut
maximiser la performance, c’est maximiser la performance de l’athlète grâce à la
biomédecine, en ayant recours à une équipe biomédicale. C’est dans la logique du sport
de compétition. Certains disent que les performances des sportifs reposent aussi sur les
connaissances scienti ques et avoir les meilleurs scienti ques dans son équipe est
quelque chose qui est plus compatible avec les valeurs du sport que de tout laisser au
hasard par rapport au dopage. Il y a aussi des e ets pervers de la prohibition. Les
athlètes doivent être localisables 24h/24 et 7j/7 et disponibles pour se faire tester à tout
moment. C’est une atteinte à la vie privée des athlètes. Il y a aussi la criminalisation du
sport et la diabolisation des athlètes. Les grands champions sont des stars et font la une
des magazines. Quand un athlète est condamné pour dopage, ils peuvent faire de la
prison si ils disent à un agent fédéral qu’ils ne se sont pas dopés alors que oui. Certains
Page 52
fi
fl
ffi
ff
ffi
ff
fl
fi
fi
fi
se suicident. Le fait que le dopage soit interdit mais pratiqué o cieusement, cela est
compliqué car les athlètes doivent prendre des produits dopants et dire qu’ils sont contre
le dopage. Le troisième e et pervers est la réécriture continuelle de l’histoire du sport. À
l’époque de Staline, on faisait disparaître le ministre qui venait d’être éliminé des photos
o cielles. C’est un peu la même chose dans le sport. Admettons qu’on parvienne à
arrêter tous les tricheurs. On va mettre en exergue l’athlète qui s’est le mieux entraîné et
donc on va mettre en avant les inégalités naturelles entre les athlètes. On voit que cette
philosophie naturaliste a tendance à évoluer en une véritable religion naturaliste chez
certains de l’AMA.

cours 9 - 09/12/2021
pas cours

cours 10 - 16/12/2021

Naissance de la psychiatrie biologique

(pour les témoignages-voir slides)

Intéressons nous à la psychiatrie et à l’évolution des traitements biologiques en


psychiatrie. Ce qui nous intéresse est le statut contemporain de la psychiatrie. Peut-on considérer
la psychiatrie comme une discipline médicale scienti que à part entière ou est-ce encore une
discipline empirique ? Au 19e siècle, Claude Bernard écrivait dans ses Principes de médecine
expérimentale :

Cela conviendrait à dé nir un psychiatre contemporain. Ce n’est pas péjoratif. Aujourd’hui, les
psychiatres comprennent encore très mal les bases physiologiques et biologiques des maladies
mentales. A n de mieux comprendre le statut de la psychiatrie en tant que discipline médicale,

Page 53
ffi
fi
fi
ff
fi
ffi
faisons une sorte d’évolution historique de la question. Pour comprendre le statut de la
psychiatrie contemporaine, retracer toute l’évolution de la discipline jusqu’au début du 20e siècle.
Au début du 20e siècle, les psychiatres (appelés aliénistes à cette époque) ne disposaient
pratiquement d’aucun traitement e cace pour soigner les malades mentaux. Ils croupissaient
dans les institutions psychiatriques. Les psychiatres étaient conscients du problème et ont voulu
transformer leur discipline en discipline médicale à part entière en lui appliquant le modèle
médical.

Il s’agit d’identi er la ou les causes de la maladie pour espérer comprendre la physiologie de la


maladie et en n, on espère découvrir un traitement e cace. Cela ne s’est pas passé comme cela.
On peut considérer que le modèle médical a fonctionné à l’envers. C’est à partir de traitements
découverts par hasard qu’on va essayer de mieux comprendre la physiologie de la maladie avec
l’espoir de pouvoir identi er la ou les causes des di érentes maladies mentales. C’est une longue
quête et les psychiatres du début du 20e siècle mènent une double quête : rechercher un
traitement e cace pour soigner les maladies mentales et sortir de ce nihilisme thérapeutique et
mettre au point des remèdes contre l’agitation psychomotrice car cela a été le grand problème
des psychiatres. Lorsqu’un malade est violent, il faut intervenir et jusque dans les années 50, il y
avait très peu de remèdes.

Page 54
ffi
fi
fi
fi
ffi
ff
ffi

Le premier paradigme est la malariathérapie.La paralysie générale est une syphilis tertiaire
qui touche le cerveau et provoque une altération du cerveau et des symptômes psychiatriques,
notamment une psychose de type paranoïde. À l’époque, dans un service environ 20% des
malades en étaient atteints. La cause de la maladie était identi ée et on comprend que la
paralysie générale est une conséquence de l’atteinte du système nerveux central par l’agent
responsable de la syphilis. On ne comprend pas la physiologie et il n’y a pas de traitement
e cace. Von Jauregg propose le traitement par la èvre car certains psychiatres avaient cru
pouvoir constater que des malades mentaux qui développaient spontanément une èvre avaient
une atténuation des symptômes ou une rémission de la maladie mentale. En se basant sur ces
données subjectives, des psychiatres de la n du 19e siècle ont essayé de soigner des malades
en provoquant des èvres arti cielles. Le seul traitement qui va avoir un certain succès est la
malariathérapie. Il s’agissait de soigner des malades mentaux en provoquant la malaria qu’on
allait inoculer aux patients. Cette thérapie a eu beaucoup de succès. On procédait par
« malarisation ». On utilisait le sang d’un patient malarisé qu’on injectait à un autre patient. L’autre
méthode était d’utiliser les moustiques. Est-ce que les psychiatres se souciaient de la morale ?
D’une certaine façon, oui mais de façon sommaire. Ils préconisaient l’éthique du risque et l’idée
centrale était que les paralytiques
généraux avaient tout à gagner et très
peu à perdre. C’était le principe
éthique de base.

Page 55
ffi
fi
fi
fi
fi
fi
fi
Au nal, très peu de patients recevaient un traitement. Les patients agités recevaient une
balnéothérapie. On allait jusqu’à proposer des abcès de xation : on provoquait une èvre censée
calmer le malade avec une injection d’huile de térébenthine dans la fesse du patient et cela
provoquait un abcès. Lorsque même cette méthode était insu sante, la dernière phase était la
malariathérapie pour tenter de le calmer et aussi l’électrochoc plus tard.

Le second paradigme thérapeutique apparaît dans les années 30 où on a pratiqué les


premiers électro-chocs ou encore l’insulinothérapie. Un psychiatre viennois, Manfred Sakel,
découvre un traitement pour soigner les malades psychotiques. Ce traitement a été découvert par
hasard. Il utilisait parfois de l’insuline et, à faible dose, elle calme les patients. Une dose trop
importante a été donnée et le patient a fait un comas hypoglycémique. Le patient était
psychotique et atteint de démence précoce. On lui a donné du sucre lorsqu’il s’est réveillé et on a
cru pouvoir constater une amélioration des symptômes. On ne disposait pas de beaucoup de
traitements e caces donc Sakel a utilisé ce traitement expérimental pour plonger les patients
dans un coma hypoglycémique. Ces traitements étaient considérés comme un progrès car avant
il n’y avait pas de traitements e caces. Avant l’émergence de l’électrochoc, il y avait le choc au
cardiazol qui provoque des convulsions arti cielles. Ce traitement a été mis au point par Von
Meduna, psychiatre de Budapest. Il a eu l’idée de provoquer des crises de convulsion chez des
malades mentaux à partir d’une constatation qu’il a pu pouvoir faire en lisant la littérature
médicale et à partir de son expérience. Il a l’idée qu’il existe un antagonisme entre l’épilepsie et la
démence précoce (la schizophrénie). Il a l’idée de traiter les patients schizophrènes en
provoquant des convulsions arti cielles. Le cardiazol en intraveineux provoque des convulsions.
C’était le premier traitement par convulsive-thérapie. Ce traitement avait un e et secondaire pour
le patient et le psychiatre, c’est que le cardiazol était extrêmement anxiogène. Ensuite, Cerletti et
Bini ont l’idée de remplacer le cardiazol par le choc électrique mais l’idée est la même : provoquer
une crise convulsive chez le patient pour atténuer les symptômes de la psychose ou la maladie
mentale. La première fois était en 1938 et, rapidement, ce traitement va être adopté par
quasiment l’ensemble des services de psychiatrie et va rester le traitement de choix des patients
dépressifs et mélancoliques jusqu’à la n des années 50 et la découverte des premiers anti-
dépresseurs. Le psychiatre a le sentiment que l’électrochoc possède une réelle e cacité.
L’électrochoc est perçu comme un traitement miraculeux car, jusque dans les années 40, les
patients mélancoliques et dépressifs n’étaient pas traités. Le traitement pouvait provoquer des
fractures car il était pratiqué à blanc et il y avait donc des convulsions qui pouvaient par exemple
déboiter des mâchoires. Après 1937, plus de 70% des malades schizophrènes vont recevoir un
traitement, à savoir le coma insulinique. Avec l’électrochoc c’est encore plus marquant. À partir
de 1943, on introduit un appareil pour pratiquer les électrochocs à Titeca et après 1943, plus de
90% des malades recevaient des électrochocs.

Pour résumer cette période, on peut dire que dans les années 30 et 40, les malades
dépressifs étaient traités par électrochocs, les patients diagnostiqués psychotiques et
schizophrènes étaient traités par insulinothérapie. Souvent, les patients reviennent quelques mois

Page 56
fi
ffi
ffi
fi
fi
fi
fi
ffi
ff
fi
ffi
plus tard. Il y a une escalade thérapeutique. Au bout d’un moment, intervient la possibilité de la
psychochirurgie inventée par Egas Moniz au milieu des années 30.

cours 11 - 23/12/2021

Intéressons nous à la psychochirurgie et à la psychopharmacologie. La psychochirurgie, à


la n des années 40, illustre bien l’impasse dans laquelle se trouvait la psychiatrie à cette époque.
Lorsqu’un malade ne guérissait pas, il revenait périodiquement à l’hôpital psychiatrique. À
l’époque, il y avait des asiles de provinces où on mettait les patients. Le dernier recours était la
leucotomie ou lobotomie, c’est-à-dire, la section de bres du système nerveux central
(généralement la section de bres au niveau du cortex pré-frontal). C’est un psychiatre portugais ,
Egas Moniz, qui en a eu l’idée. Les e ets des leucotomies sont catastrophiques.

On retrouve une éthique extrêmement


rudimentaire qui est celle de l’éthique
du risque, comme dans la

Page 57
fi
fi
ff
fi
malariathérapie.

Moniz a fait

beaucoup

d’émules.

Les années 50 vont être une décennie particulièrement importante pour la


psychopharmacologie car on va découvrir successivement la plupart des classes des
psychotropes comme les neuroleptiques, les benzodiazépines et à la n des années 50 et début
des années 60, on va découvrir des classes d’antidépresseurs. On redécouvre aussi le lithium.
Cela va engendrer de grands changements dans les institutions psychiatriques. On découvre
donc des médicaments avec une action symptomatique. Cela va changer l’atmosphère des salles
de psychiatrie. La première découverte majeure est donc les e ets prometteurs de Largactil pour
soigner les malades mentaux par Laborit. Au départ, il était un chirurgien cherchant un
médicament capable de potentialiser l’anesthésie et on lui envoie un médicament expérimental
appelé la chlorpromazine et il remarque que cela ne potentialise pas l’anesthésie mais cela a un
autre e et. Il perçoit l’intérêt éventuel de ce nouveau médicament en psychiatrie et le propose à
des collègues. Ce sont les jeunes psychiatres qui vont montrer l’e cacité des nouveaux
traitements car les psychiatres plus vieux n’y croient pas. Paul Janssen va avoir l’idée de
synthétiser l’halopéridol. D’abord, il va l’utiliser pour soigner le ls d’un de ses amis médecins qui
sou rait de bou ées délirantes. Ensuite, il donne des échantillons à l’équipe du docteur Bobon du
service de psychiatrie à Liège mais les
résultats vont être décevants. Janssen
ne demandait pas le consentement
des patients et il administrait ses
préparations à l’aide de gouttes pour
que ce soit fait à leur insu. Le
paternalisme régnait et ce n’est au
début des années 60 qu’on demande
le consentement éclairé des patients.

Page 58
ff
ff
ff
ff
fi
fi
ffi

Vous aimerez peut-être aussi