Vous êtes sur la page 1sur 20

Max Kistler

Quelques problmes pour la thorie informationnelle de la reprsentation mentale


in Cahiers de Philosophie de l'Universit de Caen, Philosophie analytique,
31-32 (1997-1998), pp. 367-386 (CD-ROM)

Dans le but de donner un fondement naturaliste la notion de reprsentation mentale,


Fred Dretske (1981) a avanc et dvelopp l'ide selon laquelle la relation intentionnelle d'une
reprsentation son contenu se fonde sur une relation informationnelle. Dans ce modle
explicatif, on se propose de considrer la reprsentation mentale comme un indicateur naturel
d'un certain type qui porte de l'information sur un tat du monde. Jerry Fodor a propos et
poursuivi une autre stratgie importante qui consiste considrer le lien entre une
reprsentation et son objet intentionnel sur le modle d'un lien nomologique : selon cette ide,
un tat reprsentationnel du cerveau d'un sujet cognitif possde un contenu objectif en vertu
de sa dpendance nomique par rapport un tat de choses dans le monde, dpendance qui
engendre une corrlation rgulire entre les occurrences d'tats reprsentationnels d'un certain
type et les tats de chose dont le type constitue leur contenu. Les deux approches se heurtent
des problmes d'indtermination : pour chacune d'elles, il y a des situations dans lesquelles le
modle explicatif choisi ne parvient pas privilgier, avec les seules contraintes dont dispose
le modle, l'un parmi plusieurs contenus auxquels une reprsentation donne est lie de
manire informationnelle ou nomique.
Dans ce qui suit, j'examine une solution qui a t propose par Pierre Jacob (1997)
deux types particuliers d'indtermination auxquels se trouve confronte la thorie
informationnelle de la reprsentation. Selon Jacob, l'un de ces problmes peut tre rsolu
grce au recours la distinction entre la source sur laquelle porte une certaine information et
la voie par laquelle cette information est transmise tandis que l'autre requiert un appel des
concepts tlologiques. La structure de l'expos sera la suivante : je commencerai par
examiner la distinction entre source et voie pour aboutir la conclusion que la source autant
que la voie et par consquent l'information transmise ne dpendent pas seulement de la
situation extrieure dans laquelle se trouvent la source, la voie et le rcepteur d'information,
mais aussi de l'tat de connaissances et des besoins en informations de l'observateur. Je

montrerai ensuite que cette relativit pose un problme pour la solution propose par Jacob
(1997) l'un des problmes de l'indtermination du contenu reprsentationnel. Dans une
deuxime partie, j'tudierai la possibilit envisage par Dretske et Jacob de rsoudre un autre
type de problme, propre l'approche informationnelle, que j'appellerai le "problme de la
classe de rfrence", en ayant recours l'approche nomologique. J'indiquerai deux raisons
pour lesquelles ces deux approches ne sont pas quivalentes et qui posent des difficults
importantes l'approche nomologique. Je conclurai par l'ide que le problme de la classe de
rfrence peut tre rsolu dans le cadre de l'approche informationnelle condition de
l'enrichir avec des concepts tlologiques.

1. La distinction entre source d'information et voie de transmission

Il n'existe pas d'ensemble unique d'alternatives pertinentes un vnement donn.


Pourtant, l'existence d'un ensemble unique de rfrence est crucial pour la dtermination de la
quantit d'information apporte par la survenue d'un vnement, dans la mesure o, d'une
part, celle-ci dpend de l'incertitude leve par cette survenue, et que d'autre part, l'incertitude
dpend son tour de l'ensemble des vnements possibles et de leur probabilit de survenue a
priori. Chaque choix de la classe de rfrence, c'est--dire de la classe des vnements qui
auraient pu se produire la place d'un vnement donn s et entre lesquels l'information est
cense rduire l'incertitude, peut en principe dterminer une probabilit a priori diffrente de
la survenue de l'vnement s; si s est considr comme un signal, celui-ci peut donc procurer
une information diffrente pour chaque choix de la classe de rfrence.
Dretske (1981, pp. 78sq.) illustre ce problme avec l'exemple suivant qui montre
comment l'information dj disponible comme arrire-plan fait varier la classe de rfrence.
Deux personnes essayent de savoir sous laquelle de quatre coquilles est cache une cacahute;
l'un d'eux (A) a dj retourn deux coquilles qu'il a trouves vides; le fait de retourner l'une
des deux restantes et de la trouver vide, lui procure alors l'information que la cacahute se
trouve sous la quatrime coquille, dans le sens que la Prob(4|-3) (c'est--dire la probabilit
que la cacahute se trouve sous la coquille 4, tant donn qu'elle ne se trouve pas sous la

coquille 3) est 1 pour A puisqu'il peut valuer le signal "-3" l'intrieur d'un cadre de
connaissances pralables qui est tel que le signal reu rduit l'incertitude 0 (Pour A, la classe
de rfrence ne contient plus que les vnements "3" et "4"). En revanche, pour B, qui n'a pas
retourn les deux premires coquilles, recevoir le signal "-3" (la cacahute n'est pas sous la
coquille 3) ne contient qu'une information bien moindre : que la cacahute est sous l'une des
coquilles 1, 2 ou 4 (Pour B, la classe de rfrence contient encore tous les 4 vnements
possibles : "1", "2", "3", "4"). Il dpend donc du champ d'ventualits qui existent pour un
sujet donn un certain moment, jusqu' combien un signal donn peut rduire l'incertitude
qui correspond l'existence de ce champ d'alternatives et qui se mesure leur nombre et leur
probabilits a priori respectives1.
Ce qui nous intresse dans le cadre du projet de l'analyse informationnelle du contenu
des reprsentations mentales, ce n'est pas l'information contenue dans la survenue d'un
vnement elle-mme, mais plutt l'information transmise au cours de la perception d'un
vnement survenu dans l'environnement sur un sujet cognitif, et par la suite sur la
reprsentation mentale ventuellement forme sur la base de cette perception. La transmission
de l'information entre sa source et le rcepteur passe par une voie.
Dretske a suggr d'interprter "la voie d'information" comme l'ensemble des conditions
qu'on peut considrer comme stables dans une situation de transmission donne. La
dtermination de ce qui compte comme la voie, par opposition ce qui compte comme l'tat
de choses sur lequel on cherche obtenir des informations (la source), dpend de facteurs
propres au sujet pistmique particulier, ses connaissances antrieures et au but de la
recherche d'information en cours. Les conditions qui constituent la voie sont celles qui restent
stables dans le cadre de la prise d'information en cours. Cela dit, l'tat de connaissances
antrieur de l'individu rcepteur dtermine, autant qu'il dtermine la source - le champ
d'alternatives (et leur probabilit a priori) que la recherche d'information est cens rduire aussi l'identit des conditions qui restent stables au cours de la prise d'information.

L'exemple nous permet de faire abstraction de cette dernire source de variation du contenu informatif,
puisqu'on stipule qu'avant toute observation des coquilles, la probabilit de la prsence de la cacahute est la
mme pour les quatre coquilles.

Par exemple, pour le sujet A partir du moment o il a retourn les coquilles 1 et 2, le


fait que la cacahute n'est pas sous les coquilles 1 et 2 fait partie de la voie d'information le
liant au lieu auquel se trouve la cacahute, dans la mesure o ces conditions ne changent pas
et ne gnrent plus pour lui aucune information - n'est information que ce qui rduit
l'incertitude, mais A n'a plus aucune incertitude l'gard du fait que les coquilles 1 et 2 sont
vides. Pour le sujet B en revanche, le contenu des coquilles 1 et 2 peut engendrer de
l'information pertinente pour l'enqute en cours, visant dcouvrir la cacahute. Ces faits,
savoir que les coquilles 1 et 2 sont vides, font donc pour B partie de la source. Dans la
terminologie de la thorie de l'information, on peut exprimer cela en disant que l'quivocation
du signal "-3" est gale 0 pour A, mais non pour B2.
Cependant, il est clair aussi que les voies d'information liant A et B l'endroit o se
cache la cacahute ne sont pas diffrentes tous les gards. Le fait que les coquilles sont des
objets solides et opaques qui persistent dans le temps sont des conditions qui font partie de la
voie d'information pour les deux observateurs dans le sens o aucune observation - aucune
rception de signal portant sur ces conditions - ne comptera pour eux comme de l'information
: il n'est pas question de changer les croyances l'gard de ces tats de choses car ni A ni B
n'a la moindre incertitude leur gard. Toutefois, mme ces conditions qui se trouvent la
plupart du temps en dehors du foyer de nos intrts dans notre recherche d'information
peuvent avoir un autre statut dans certaines circonstances pistmiques particulires : pour le
jeune enfant ou l'habitant du dsert qui rencontre des coquilles pour la premire fois et qui
ignore tout de ces objets, l'observation d'une coquille est porteuse de l'information que les
coquilles sont des objets solides et opaques. Pour un trs jeune enfant chez qui le module de
la causalit n'a pas atteint le stade de maturit, mme le fait que le coquilles persistent dans le
temps peut tre considr comme porteur d'information - mme si cet age il n'est justement
pas encore en mesure de recueillir cette information et d'apprendre sur sa base3.
2

Selon une caractrisation quivalente de la voie de transmission en termes


purement statistiques (due Shannon et Weaver 1949), cette voie est
dtermine par les probabilits conditionnelles des diffrents vnements
se produisant l'entre de la voie de transmission (la source) tant donn
certains vnements la sortie. L'exemple des coquilles permet de montrer
que ces probabilits conditionnelles dpendent de la situation pistmique
pralable de l'observateur.
3
Sur l'hypothse de l'existence d'un module de causalit, cf. les
contributions Sperber et al. (1995).

La question de savoir si un sujet rcepteur d'une information est capable de l'extraire du


signal reu est une question qu'il faut soigneusement distinguer de la question qui nous
occupe ici, et qui est de savoir quelle est l'information objectivement contenue dans le signal.
Et cet gard, la thse que je soutiens est : pour un signal physique donn, la situation
pistmique particulire du sujet rcepteur contribue dterminer en mme temps - ce sont
les deux cts de la mme mdaille - quelle information ce signal contient et quelle
information il ne contient pas, et ce dernier ensemble d'tats de choses qui ne sont pas de
l'information contenu pour ce sujet dans ce signal, c'est--dire l'ensemble d'tats de choses
propos desquels le signal ne rduit aucune incertitude, cet ensemble constitue, si nous suivons
en cela Dretske, la voie d'information.
Tout ceci n'est bien entendu vrai que dans la mesure o on accepte de jouer le jeu de la
thorie mathmatique de l'information qui est dveloppe de manire quantitative autour du
concept de la rduction d'incertitude. Il est clair que ce concept n'est pas le seul candidat
fonder la thorie de l'information - cependant son importance en philosophie de l'esprit vient
de ce que cette thorie parat bien place pour faire avancer le projet de la naturalisation, dans
la mesure o elle semble pouvoir tre formule en termes purement non-intentionnels. En ce
qui concerne la distinction entre les possibilits alternatives dont la rduction constitue la
cible de la recherche d'information et les conditions stables qui constituent la voie de
transmission, rien n'empche bien entendu de fonder cette distinction sur des critres
extrieures la thorie mathmatique de l'information, et il existe dans beaucoup de situations
un consensus intuitif sur ce qui compte comme faisant partie de la voie. Par exemple,
lorsqu'on analyse la prise d'information l'aide d'un instrument scientifique, il est clair que
pour tous ceux qui partagent le but de se servir de l'instrument pour rduire leur incertitude
l'gard des tats de choses accessibles par l'intermdiaire de cet instrument, les conditions qui
dterminent l'instrument lui-mme font partie de la voie.
Il n'en reste pas moins vrai que mme dans un tel cas, la distinction entre la voie et la
source - ce sur quoi porte l'information qui passe par cette voie - n'a aucun fondement en
dehors de la situation pistmique du groupe de sujets qu'on considre et en fait de chacun
d'eux. Cela devient vident ds qu'on considre un ingnieur qui utilise - dans le cadre d'un

autre projet pistmique mais qui est tout aussi lgitime - le mme signal physique fourni par
l'instrument, non pas comme porteur d'information seulement sur l'tat de choses vis par
l'instrument, mais aussi sur l'instrument lui-mme, et dans le cas le plus extrme, seulement
sur l'instrument. Cela est possible condition qu'il se soit assur auparavant par un moyen
indpendant de l'tat de choses qui constitue la cible de l'enqute (la source) pour les
utilisateurs ordinaires de l'instrument, p. ex. la tension mesure par un voltmtre : l'ingnieur
sait dj avant de consulter ce qu'indique le voltmtre que la tension est de 100V - p. ex. parce
qu'il a mesur la rsistance et le courant sur la mme partie du mme conducteur - et il est
engag dans une recherche de fiabilit portant sur diffrents voltmtres. Pour la personne
enqutant sur l'instrument, la distribution entre source et voie d'information est inverse : ce
qui constitue la source pour les utilisateurs normaux - la tension sur une partie du conducteur
de courant lectrique - fait pour l'ingnieur partie de la voie : ce qui reste stable comme
arrire-plan qui permet d'observer sur cette base stable et de rduire l'incertitude sur les tats
de choses inconnus. Et rciproquement, les conditions dterminant le fonctionnement normal
du voltmtre font partie de la voie pour les utilisateurs normaux mais constituent au contraire
la source sur les variations de laquelle se penche l'ingnieur engag dans l'tude comparative
des diffrents voltmtres.
La distinction entre l'ensemble de conditions qui constituent la voie et l'ensemble de
conditions qui constituent la cible de la recherche d'information dpend donc de la situation
pistmique du sujet particulier dans la situation particulire - mme l o elle parat
intuitivement tre le moins relative, savoir dans le cadre de la prise d'information l'aide
d'instruments scientifiques. Lorsqu'on s'intresse la prise d'information dans la perception
non aide par des instruments, il est plus clair encore que cette distinction est relative aux
connaissances et intrts du sujet dans la situation particulire.

2. Le problme de la corrlation imparfaite et le problme de la transitivit

Jacob (1997) fait appel la distinction entre la source d'information et la voie de


transmission pour rsoudre un problme de l'indtermination du contenu reprsentatif qu'il

appelle "le problme de la corrlation imparfaite" (et que Fodor 1987 appelle "le problme de
disjonction")4 et qu'il distingue du problme apparemment similaire d la transitivit du flux
d'information. Selon Jacob, les ressources conceptuelles de la thorie de l'information
suffisent rsoudre le premier de ces problmes, mais non le deuxime qui ncessite en outre
l'appel la tlologie biologique. Considrons d'abord la corrlation imparfaite entre un
indicateur et l'tat de choses qui constitue son contenu. Elle est source d'indtermination dans
la mesure o la corrlation informationnelle entre l'tat G(r) d'un indicateur interne
l'organisme et la condition disjonctive que s est A ou B est en gnral meilleure que la
corrlation de l'tat G(r) du mme indicateur avec la condition simple que s est A.

A(s) = s est un cheval

G(r)

B(s) = s est une vache


A(s) v B(s) = s est une vac
ou un cheval

(Fig. 3) Problme "de la disjonction" (Fodor) ou "de la corrlation imparfaite" (Jacob)

Le problme est alors d'expliquer sur une base purement informationnelle pourquoi cet
indicateur peut nanmoins avoir le contenu que s est A, plutt que le contenu que s est A ou
B. C'est seulement la condition de lui attribuer un contenu non-disjonctif qu'on peut justifier
l'valuation diffrente des croyances portant sur le contenu vhicul par l'indicateur : c'est
seulement condition que son contenu informationnel n'est pas ambigu entre "s est A" et "s
est A ou B" - ou d'ailleurs pour la mme raison aussi entre les prcdents et "s est B" - qu'on
est en droit de juger qu'il est correct de former, sur la base de l'tat G(r) de l'indicateur, la
croyance que s est A tandis qu'il relve de l'erreur ou de la mprise de former sur cette base la
croyance que s est B.

L'importance de ce problme rside dans le fait que l'explication de la


possibilit de la mreprsentation prsuppose sa solution pralable.

Selon Jacob (cf. Jacob 1997, pp. 95, 99f.), ce problme peut tre rsolu dans le cadre de
la thorie de l'information par la distinction entre les conditions appartenant la source et les
conditions appartenant la voie. Il ne dit pas explicitement comment cela peut tre accompli,
mais il semble ncessaire et suffisant d'attribuer le fait que s n'est pas B la voie
d'information. Si, pour un sujet pistmique donn, les possibilits alternatives de la source
sont A ou non A, aucun signal ne peut lui porter l'information que A ou B.
Jacob insiste sur la diffrence quant leur structure logique de cette espce
d'indtermination - qui n'en est selon lui pas une pour le thoricien de l'information - et une
autre qui provient de ce qu'il appelle "le problme de la transitivit" et qui rsiste, toujours
selon Jacob, l'analyse informationnelle. Il y a en fait deux sources diffrentes de la
transitivit de la transmission d'information qui ne sont pas distingues par Jacob. La
premire est d'origine logique, la deuxime de type nomologique. Pour donner un exemple du
premier type : si le signal que r est G porte l'information que s est A et B alors il porte
ncessairement aussi l'information que s est A puisque cette information est logiquement
implique dans l'information conjonctive. Cela a la consquence que le contenu du signal G(r)
est indtermin entre A(s) Erreur ! Signet non dfini. B(s) et A(s). La deuxime source de
transitivit n'existe que pour les thoriciens qui comme Dretske et Jacob identifient la relation
de porter de l'information sur avec la relation d'tre nomiquement dpendant de. Nous
examinerons le bien-fond de cette identification plus loin ( 3). Pour le moment, nous
constatons que la relation de dpendance nomique est transitive et que son identification avec
la relation informationnelle constitue une deuxime source de transitivit diffrente de celle
due aux implications logiques.

N(r)

porte de
l'information sur

T(s)

porte de
l'information sur

P(s)

porte de l'information sur


(fig. 4) Transitivit de la relation d'information

Jacob illustre le problme de l'indtermination du contenu due la transitivit de la


relation informationnelle avec un exemple o la transitivit a son origine dans la transitivit
de la dpendance nomique : le fait que le niveau de mercure dans un thermomtre r est N
cm (fait dsign par "N(r)" dans la fig. 4) est nomiquement li au fait que la temprature de
l'air est de T (fait dsign par "T(s)")5. Mais le fait que la temprature de l'air est T est son
tour nomiquement li au fait que la pression de l'air est P (fait dsign par "P(s)") - o ces
relations nomiques dbouchent dans des situations suffisamment normales sur des
corrlations de facto entre N et T et entre T et P6. En vertu de la transitivit de la dpendance
nomique, il s'ensuit qu'il y a dpendance nomique entre N et P laquelle dpendance se
manifeste, dans des situations normales, par une corrlation entre N et P. Par le biais de
l'identification dretskenne de la relation d'information avec la relation nomique, cela a pour
consquence que le fait que le niveau de mercure est N porte la fois l'information que la
temprature est T et que la pression est P puisque l'information qu'il porte directement - que la
temprature est T - comporte son tour l'information que la pression de l'air est P. Le contenu
informationnel de l'indicateur n'est pas unique.
La conclusion gnrale qu'on peut tirer de l'analyse de ce cas et que la transitivit de la
dpendance nomique pose un problme la dtermination du contenu reprsentationnel sur
une base informationnelle, du moment o l'on identifie la relation informationnelle avec la
relation de dpendance nomique. Par la multitude de dpendances nomiques dans laquelle la
premire source (dans notre exemple : la temprature de l'air) d'un signal donn se trouve
implique, ce signal se trouve charg d'autres contenus (dans notre exemple : la pression de
l'air) qui vont au-del du contenu correspondant la premire source. S'il est correct de
gnraliser le rsultat obtenu dans le cas examin, tout signal porte plus d'un contenu
informationnel : il ne peut porter un contenu sans par l mme porter aussi tous les contenus
qu'il implique en vertu de dpendances logiques ou nomologiques.
5

N et T sont lis par une quation faisant intervenir les paramtres de


l'instrument et dont l'exactitude varie avec la temprature elle-mme elle est approximativement exacte l'intrieur d'une certaine gamme de
tempratures.
6
Nous reviendrons au 3.2. plus loin sur la distinction entre une
dpendance nomique et la corrlation, en gnral moins que parfaite, que
cette dpendance engendre sur le plan des instanciations de loi dans des
situations particulires.

Quant aux deux problmes distingus par Jacob, j'essaierai de montrer que le cadre
informationnel peut rsoudre le problme de la transitivit dans la mme mesure o il peut
rsoudre le problme de la disjonction. Dans les deux cas, une telle solution ncessite une
dtermination indpendante de ce qui compte comme la source et de ce qui compte comme la
voie. Cette dtermination, ce n'est pas la thorie de l'information elle-mme qui peut la fournir
mais elle devra se faire en fonction de critres pistmiques et biologiques qui prennent en
compte la situation particulire du sujet rcepteur quant ses besoins en information tant
donn son tat pistmique antrieur.
En premier lieu, ces critres permettent de lever l'indtermination qui provient de la
transitivit. Si la corrlation fonde sur la dpendance nomique est parfaite entre le premier et
le dernier chanon des conditions nomiquement lies par transitivit, alors le signal (le
premier chanon, dans notre exemple : le fait que le niveau du mercure est N) pourrait
fournir aussi bien l'information contenue dans un chanon intermdiaire (dans l'exemple : le
fait que la temprature est T) que l'information contenue dans le dernier chanon (dans
l'exemple : le fait que la pression est P). Mais la constitution de la source (et indirectement, de
la voie) dtermine laquelle de ces informations le signal fournit rellement au sujet rcepteur.
La constitution de la source peut tre dtermine son tour sur la base d'une analyse
tlologique de la fonction des signaux de ce type pour l'organisme rcepteur.
Par exemple, pour chacune des bactries marines dretskennes (cf. Dretske 1986, p. 26),
la condition arobe ou anarobe de l'eau sont les deux conditions possibles de la source, la
situation sur l'hmisphre Nord ou Sud faisant partie de la voie. Comme nous l'avons fait
remarquer, appartenir la voie n'est pas une proprit absolue des conditions de se trouver sur
l'une ou l'autre hmisphre. Pour des bactries hypothtiques qui effectueraient des voyages
entre les deux hmisphres, leur position sur l'une des deux hmisphres devrait tre compte
parmi les conditions de la source sur lesquelles elles ont besoin d'obtenir de l'information. En
revanche, dans les circonstances actuelles, la dtermination biologique du but de la recherche
d'information de ces bactries exclut clairement la direction du ple (Nord ou Sud)
magntique de la Terre de leur source d'information. Par ailleurs, le fait que la position sur

10

l'une des deux hmisphres ne varie jamais dans leurs circonstances de vie actuelles permet
d'assigner cette position la voie.
En deuxime lieu, la mme dtermination biologique (ou, pour les humains, plus
gnralement pistmique) du but de la recherche d'information est ncessaire et suffisante
pour lever l'ambigut de type disjonctif. Pourquoi les rcepteurs sensoriels pertinents de la
bactrie, les magntosomes, l'informent-ils sur la condition que l'eau pauvre en oxygne est
dans la direction D plutt que de l'informer sur la proprit disjonctive : la direction D est
celle o il y a l'eau pauvre en oxygne si nous sommes sur l'hmisphre sud ou celle riche en
oxygne si nous sommes sur l'hmisphre nord ? La question se pose de manire urgente au
thoricien informationnel parce que la corrlation de l'tat des magntosomes avec la
condition disjonctive est meilleure que la corrlation avec la condition simple prcdente. La
rponse est encore une fois qu'il est possible de dterminer, d'un point de vue d'utilit
biologique dans le milieu naturel de l'organisme, ce qui constitue pour la bactrie la source et
ce qui constitue pour elle la voie d'information - les deux tant dtermins du mme coup.
Seule l'alternative entre les proprits simples d'tre la direction o se trouve l'eau riche en
oxygne et d'tre la direction o se trouve l'eau pauvre en oxygne est biologiquement
pertinente pour la bactrie, et c'est pour cette raison que cette alternative constitue pour elle la
source. La condition de se trouver sur l'une ou l'autre hmisphre appartient la voie. Encore
une fois, la thorie de l'information ne peut pas oprer cette sparation sans recours des
critres biologiques. Si les bactries marines voyageaient naturellement d'une hmisphre
l'autre, il faudrait redistribuer les conditions qui comptent comme faisant partie de la voie et
celles qui comptent comme faisant partie de la source.
Dans cette section, j'ai essay de remettre en cause la thse dfendue par Jacob selon
laquelle les problmes de la disjonction (ou de la corrlation imparfaite) et de la transitivit
diffrent radicalement quant aux solutions qu'ils appellent de la part du thoricien du contenu
des reprsentations soucieux de montrer que ce contenu est bien dtermin sur la base des
seules critres naturalistes. Mais si j'ai russi montrer que les solutions requises par les deux
problmes ne sont pas fondamentalement diffrentes, j'aurai du mme coup remis en cause

11

l'ide que ces deux problmes d'indtermination sont eux-mmes d'un type fondamentalement
diffrent.

3. Fondement de la notion d'information sur la dpendance nomique

Confront aux difficults lies au problme de l'indtermination de la classe de


rfrence, Dretske a envisag d'abandonner le fondement statistique du concept d'information,
tel qu'il est labor d'une manire quantitativement prcise dans la thorie de Shannon et
Weaver. Plus prcisment, Dretske (1983) a envisag la thse selon laquelle il y a flux
d'information entre deux vnements (singuliers) si et seulement s'il existe une relation
nomique entre certaines des proprits de ces vnements. Il dit qu'il considre que "la
manire la plus simple [de rpondre aux critiques qui ont t adresses son Prcis (1983)]
est d'accepter la suggestion de Loewer [1983] : abandonner compltement la notion de
probabilit, et insister sur le fait que ma thorie du contenu informationnel ne requiert qu'une
espce particulire de dpendance nomique entre le signal et la source (tant donn les
conditions de la voie de communication et k)." (1983, 83)7.
Cependant, Dretske et ceux qui le suivent dans cette nouvelle proposition comme Jacob
(1997), n'admettent pas le caractre radical du changement de perspective qui rsulte du choix
de fonder le concept d'information dsormais sur celui de loi de la nature, et non plus sur les
probabilits conditionnelles et la mesure d'incertitude de Shannon. Selon le nouveau sens
nomologique du concept d'information, il y a flux d'information si et seulement s'il y a
dpendance nomique entre la srie d'vnements considre comme la source et la srie
d'vnements considre comme le rcepteur. Ce changement de perspective s'accompagne de
la supposition tacite qu'il s'agit de deux fondements du mme concept d'information. Or il
s'agit l d'une thse substantielle quoique Dretske et Jacob la fassent apparatre comme
triviale par le fait qu'ils ne considrent pas ncessaire de la justifier. (Pourtant, Dretske passe
7

"k" reprsente les connaissances d'arrire-plan du rcepteur de


l'information. Une autre formulation est : "Il suffit de stipuler que le
contenu du signal - l'information qu'il porte - puisse tre exprim par une
phrase qui dcrit la condition ( la source) dont le signal dpend d'une
manire rgulire, nomique." (Dretske 1983, p. 57).

12

de l'interprtation statistique l'interprtation nomique pour chapper aux difficults propres


la premire.) J'essaierai de mettre cela en vidence en montrant que les concepts
d'information auxquels respectivement le fondement statistique et le fondement nomique
donnent lieu diffrent au moins deux gards importants. Premirement il y a de la
msinformation dans l'approche nomique, mais non dans l'approche statistique et
deuximement la transmission d'information n'est plus transitive dans l'approche nomique
tandis qu'elle l'tait dans l'approche statistique.

3.1. Msinformation

La conception nomologique du flux d'information entre deux sries d'vnements sape


l'une des proprits fondamentales de la relation d'information, exploite par Dretske (1981).
Cette proprit est qu'il n'y a pas de msinformation, autrement dit que l'information est
toujours vridique. Si le signal que r est G porte l'information que s est F et si r est G, alors, il
s'ensuit ncessairement en vertu d'une infrence valide, que s est F. Si le signal porte
l'information que s est F alors s est F. Mais cela n'est plus ainsi ds qu'on adopte la conception
nomologique de l'information car le fait que la proprit du signal r d'tre G soit nomiquement
dpendante de l'instantiation d'une proprit F, n'implique pas que ncessairement si r est G
alors il existe un s qui est F.
Selon la conception nomologique de l'information, un indicateur r porte l'information
qu'il y a un s qui est F parce que la proprit de r d'tre G dpend nomiquement de F. Mais
cette dpendance n'exclut pas la possibilit exceptionnelle o aucun F n'est l'origine du
signal malgr la dpendance nomique. La raison en est que les lois des sciences spciales ne
sont pas strictes, dans le sens que leur seule validit ne garantit pas qu'aucune exception ne
peut se produire (Cf. Fodor 1975)8.

Il est gnralement admis que les lois des sciences spciales admettent des
exceptions. Etant donn que les lois pertinentes pour la reprsentation
mentale sont ce niveau, nous n'avons pas besoin d'examiner la thse plus
forte selon laquelle cela vaut plus gnralement mme pour la plupart des
lois physiques.

13

Dans une telle situation exceptionnelle, l'indicateur msinforme. Illustrons cela par
l'exemple d'une boussole. L'aiguille d'une boussole indique - et donc porte de l'information
sur, la direction du Nord magntique de la Terre. Envisageons des circonstances
exceptionnelles o un champ magntique produit par un aimant proximit de la boussole
interfre avec le champ magntique terrestre. Si le champ interfrant et se superposant sur le
champ magntique de la Terre est suffisamment fort, la direction indique par l'aiguille n'est
pas la direction du Ple Nord magntique de la Terre. Elle ne cesse pourtant dans ces
circonstances exceptionnelles pas d'indiquer et de porter de l'information sur la direction du
Ple Nord, puisque selon la thorie nomologique de l'information, il suffit pour cela qu'il y ait
dpendance nomique. Or, cette dpendance n'a pas disparu avec la prsence du champ
interfrant. L'tat de l'instrument porte l'information que x puisque cet tat dpend
nomiquement du fait que x, mais x n'est pas le cas. L'information que x porte par l'tat de
l'instrument n'est pas vridique; il s'agit d'une msinformation. La relation nomique entre la
position de l'aiguille et la position du Ple Nord magntique ne suffit plus assurer que, dans
ces circonstances particulires, l'aiguille pointe dans la direction du Nord.
Le fait que la conception nomologique ouvre la voie la possibilit de la
msinformation contredit directement la thse soutenue par Jacob selon laquelle : "If a
signal's informational content arises out of the nomic dependency of property G of the signal
upon property F of the source, then the signal cannot misinform about its source. If the
dilatation of a metal bar r carries information about variations in temperature in virtue of the
nomic dependency of the former upon the latter, then the length of the metal bar cannot
misinform about temperature." (Jacob 1997, p.93). J'objecte : la dilatation de la barre
mtallique peut msinformer sur un changement de temprature malgr la dpendance
nomique de sa longueur par rapport la temprature. Il suffit pour cela que sa dilatation soit
due une autre dpendance nomique qui interfre avec celle par rapport la temprature. Par
exemple, une forte tension lectrique applique sur cette barre peut provoquer sa dilatation9,
en l'absence de changement de temprature. La thorie nomologique de l'information produit

Ce phnomne est appel lectrostriction - c'est l'inverse de l'effet


pizolectrique.

14

le rsultat que dans cette situation, la barre msinforme sur la temprature. Le fait que la barre
se dilate porte l'information que la temprature a augment, en vertu de la dpendance
nomique entre ces deux proprits. Mais en fait dans la situation particulire envisage, la
barre s'est dilate temprature constante cause d'une tension lectrique. Cela n'efface pas
la relation d'information puisque les dpendances nomiques n'en sont pas affectes. Mais
l'information que la temprature a augmente n'est dans cette situation pas vridique.
Pourtant, Jacob n'ignore pas l'origine du problme : dans le paragraphe suivant la
citation sur l'impossibilit de la msinformation, il fait remarquer qu' la diffrence du
concept statistique, le concept nomologique ne requiert pas, pour qu'il y ait flux d'information,
de corrlation parfaite entre une proprit de la source et une proprit du rcepteur. Dans ce
contexte, il est intressant de se rappeler que l'impossibilit de la msinformation constituait
l'une des raisons principales pour Dretske d'imposer la condition statistique absolue sur la
possibilit du flux d'information, savoir que G(r) ne peut porter l'information que F(s) que si
P(Gr|Fs)=1. On ne peut pas, comme le propose Jacob, relcher cette exigence dans le cadre de
la thorie nomologique et nanmoins viter la possibilit de la msinformation.
Par ailleurs, l'ide d'exiger que la corrlation engendre par la dpendance nomique soit
"fiable" (Jacob 1997, p. 95) pour qu'elle puisse tre considre comme porteuse d'information,
ne rsout pas le problme. La fiabilit d'une corrlation garantit que la frquence d'exceptions
est basse. Or, tant qu'elle est suprieure zro, on aura toujours une petite fraction de cas de
msinformation.

3.2. Transitivit

Comme nous avons dj eu l'occasion de le noter, Jacob prsente le problme de


transitivit en termes purement nomologiques, rduisant ainsi la transitivit de la transmission
d'information la transitivit de la dpendance nomique. Je ne remets pas en question le fait
que la dpendance nomique est transitive, et je considre que Dretske avait raison lorsqu'il a
impos la transitivit de la relation d'information comme une condition sine qua non qui peut

15

servir de test pour toute thorie acceptable de l'information10. Or, cette exigence mne tout
droit l'exigence statistique que la probabilit de l'tat indiqu, tant donn l'tat indicateur,
doit tre gale 1.
En revanche, la thorie nomologique de l'information ne permet pas de prserver la
transitivit de la relation informationnelle. La raison est que la dpendance nomique
n'engendre sur le plan des instantiations qu'une corrlation imparfaite quoique souvent fiable.
Elle serait parfaite entre des instanciations pures des proprits nomiquement lies, mais dans
un ensemble de situations concrtes o (pour reprendre un exemple introduit plus haut au 2)
on mesure T (la temprature de l'air) par N (la hauteur de la colonne de mercure dans un
thermomtre), il y a des cas dviants, dus des facteurs interfrants qui agissent par exemple
sur N sans agir sur T. Il est vrai que - c'est la transitivit de la dpendance nomique - si N est
nomiquement li (ou dpendant de) T et T est nomiquement li P, alors N est
nomiquement li P. Mais l'existence de situations exceptionnelles a pour consquence que la
corrlation engendre sur le plan des instanciations des deux proprits nomiquement lies est
en gnral infrieure 1, c'est--dire moins que parfaite. Dans une situation exceptionnelle
l'gard de la dpendance nomique entre N et T, N varie sans T ou au contraire T varie sans N,
ce qui est du l'interfrence d'autres dpendances nomiques auxquelles les proprits N et T
sont soumises l'une indpendamment de l'autre. Ds qu'il existe des situations dans lesquelles
N varie sans T ou au contraire T varie sans N, la corrlation c1 entre N et T est infrieure un.
Or si c1 est < 1, et si la corrlation entre T et P est de c2 o c2 est galement < 1, alors la
corrlation entre N et P est gale c1*c2, ce qui est infrieur min{c1, c2}. En d'autres termes,
les tats de choses indirectement nomiquement lis en vertu de la transitivit, sont en gnral
moins fortement corrls plus il y a de chanons intermdiaires. Or, il semble plausible
d'exiger un certain seuil de fiabilit c0 en de duquel il n'y a plus d'information. Pourvu qu'on
tablisse une chane de dpendance nomique suffisamment longue et pourvu que les
corrlations entre deux maillons adjacents de cette chane de dpendance nomique soient
toujours < 1 (tout en tant > c0), on aboutira un point o la corrlation entre le premier et le

10

Cf. le "principe de Xerox" (Dretske 1981, pp. 57/8).

16

dernier maillon sera en dessous de ce seuil critique c0 bien que toutes les corrlations entre
maillons adjacents soient > c0. Cela signifie que l'information n'est plus transitive.
Ce raisonnement confirme le bien-fond du choix de Dretske (1981) d'imposer une
condition absolue sur la transmission de l'information qui se traduit ainsi dans la situation de
notre exemple : afin qu'on puisse justifier l'ide que la hauteur de la colonne de mercure est N
contient l'information que la pression de l'air est P, il faut interprter l'information de manire
statistique, et il faut exiger que la probabilit conditionnelle que P, tant donn que N, est
gale 1. Le fait que l'interprtation nomologique ne permet pas de prserver la transitivit du
flux d'information plaide pour un retour au cadre statistique.

4. Conclusion

Celle parmi les variantes de la thorie informationnelle de la reprsentation qui rduit la


relation de transmission d'information la relation de dpendance nomique, rencontre deux
problmes importants que nous avons appels le problme de la msinformation et de la
transitivit. Ces problmes peuvent tre rsolus dans le cadre de la thorie statistique
condition que le champ de possibilits constituant la source et donc indirectement la voie
soient dtermins sur une base indpendante et objective.En revanche, cette solution n'est pas
ouverte aux dfenseurs de l'identification de la relation informationnelle la relation
nomologique, car dans ce cadre les notions de source et de voie de transmission ne possdent
pas de sens clairement dfini. Les dfinitions en termes de probabilit conditionnelle sont les
seules fonder clairement cette distinction.
La situation se prsente comme un dilemme o le thoricien du contenu est oblig de
choisir entre l'approche statistique et l'approche nomologique l'information. Pour Dretske et
Jacob ce dilemme n'existe pas dans la mesure o ils font l'hypothse que ces deux approches
sont quivalentes. J'ai essay de montrer au contraire qu'il y a d'importantes diffrences entre
les deux notions d'information qui empchent qu'on puisse rsoudre les problmes qui se
posent dans l'un des deux cadres avec des solutions qui n'ont de fondement que dans l'autre
cadre. Confront l'indtermination de l'information statistique dans une situation naturelle

17

comme p. ex. dans une situation de perception, le dfenseur de la thorie nomologique de


l'information a recours aux dpendances nomiques qui elles ne sont pas relatives une
situation pistmique subjective mais existent de manire absolue. Le rsultat est une thorie
la Fodor qu'il conviendrait d'appeler nomologique plutt qu'informationnelle. Mais une fois
confront aux problmes propres la thorie nomologique, comme celui de la
mreprsentation (ou de la corrlation imparfaite, dans les termes de Jacob), il se retourne
vers des solutions qui prsupposent au contraire le cadre de la thorie statistique de
l'information, comme la distinction entre voie et source (Cf. Jacob 1997, p. 99/100).
Notre analyse a vu merger une issue qui n'a pas encore t suffisamment explore. Elle
consiste se placer dans le cadre de la thorie statistique de l'information, vitant ainsi la
msinformation et prservant la transitivit de la transmission d'information. Ensuite, afin de
rsoudre le problme de l'indtermination de la classe de rfrence, on peut envisager de faire
appel des critres de type tlologique pour trouver une base naturaliste aux diffrentes
alternatives biologiquement pertinentes pour un organisme donn dans son environnement
naturel ainsi qu' leur probabilit a priori dans le sens de leur frquence. Dans cette
perspective, la smantique informationnelle serait encore plus impure qu'elle ne l'est dans la
forme dfendue par Jacob : non seulement le problme de transitivit, mais aussi le problme
de disjonction ne peut tre surmont que grce un appel la
tlologie.

Rfrences

Dretske F. (1969), Seeing and Knowing, London:


Routledge&Kegan Paul.
Dretske F. (1981), Knowledge and the Flow of Information,
Cambridge, MA:MIT Press.
Dretske F. (1983), Prcis of "Knowledge and the Flow of
Information", BBS 6, pp. 55-63 et 82-90.

18

Dretske F. (1986), Misrepresentation, in: Radu Bogdan


(ed.), Belief, Oxford: Clarendon Press.
Dretske F. (1988), Explaining Behavior: Reasons in a World
of Causes. Cambridge, MA:MIT Press.
Dretske F. (1990a), Prcis of "Explaining Behavior: Reasons in a World of Causes",
Phil. and Phenomenological Research 50, pp. 783-793.
Dretske F. (1990b), Reply to Reviewers, Phil. and Phenomenological Research 50, pp.
819-839.
Dretske F. (1991), Two Conceptions of Knowledge: Rational vs. Reliable Belief,
Grazer phil. Stud. 40, pp. 15-30.
Hempel C.G. (1968), Maximal Specificity and Lawlikeness in Probabilistic
Explanation, Phil of Science 35, pp. 116-133.
Jacob P. (1997), What minds can do. Cambridge University Press.
Lehrer K. (1991), Metamind, Autonomy, and Materialism, Grazer phil. Stud. 40, pp. 113.
Loewer B. (1982), Review of "Knowledge and the Flow of Information", Phil. of
Science 49, pp. 297-300.
Loewer B. (1983), Information and Belief, BBS 6, pp. 75-76.
Loewer B. (1987), From Information to Intentionality, Synthese 70, pp. 287-317.
Putnam H. (1986), Information and the Mental, in: Ernest LePore (ed.), Truth and
Interpretation, Oxford: Basil Blackwell.
Reichenbach H. (1949), The Theory of Probability, Berkeley and Los Angeles:
University of California Press.
Shannon C. E. and WeaverW. (1949) The mathematical theory
of communication, Urbana: University of Illinois Press; trad
fr.: Thorie mathmatique de la communication, Paris: Retz C.E.P.L., 1975.

19

Sperber D., Premack D. et Premack A.J. (eds.) (1995),


Causal Cognition: A Multidisciplinary Debate. Oxford: Clarendon
Press.

20

Vous aimerez peut-être aussi