Vous êtes sur la page 1sur 10

Une approche Basée sur la Similarité et la Logique Floue pour la Catégorisation

Cérébrale

A Similarity and Fuzzy Logic Based Approach to Cerebral Categorization

Julien Erny1,2 Josette Pastor1 Henri Prade2


1
U455, Inserm/Université Paul Sabatier, Toulouse
2
IRIT, CNRS/INPT/Université Paul Sabatier, Toulouse

Inserm U455, Pavillon Riser, CHU Purpan, 31059 Toulouse Cedex 03


Julien.Erny@free.fr

Résumé Keywords
Categorization, fuzzy set, neuron population, inference
La compréhension des liens entre cerveau et cognition né-
rule, similarity.
cessite des modèles représentant explicitement l’informa-
tion qui circule dans les réseaux d’aires cérébrales, ré-
seaux qui sont impliqués dans les fonctions cognitives. De 1 Introduction
précédents modèles, bien que prometteurs, laissent subsis- Dans le domaine médical, la prédiction des déficits fonc-
ter un certain nombre de problèmes, en particulier en ce tionnels engendrés par une lésion cérébrale et l’évalua-
qui concerne la catégorisation. tion des possibilités de rééducation nécessitent de connaître
Cette étude, en proposant un formalisme répondant à ces les relations existant entre l’architecture cérébrale et les
manques, a été focalisée sur une approche de la caté- fonctions cognitives et sensorimotrices. Chez l’humain,
gorisation par similarité, en utilisant des règles d’infé- de telles relations ne peuvent être observées qu’indirecte-
rences qui empruntent à la théorie des ensembles floues. ment : un sujet effectue une tâche spécifique pendant que
Ces règles évoluent dynamiquement en fonction de l’infor- des informations sur le fonctionnement de son cerveau sont
mation incidente, permettant un apprentissage «on-line» et recueillies par des techniques de neuroimagerie fonction-
non-supervisé. nelle. Ces études ont pu révéler que la mise en oeuvre des
fonctions cognitives était liée à l’activation de réseaux à
Mots Clef grande échelle, i.e. de réseaux de régions cérébrales anato-
miquement connectées [2, 10, 21, 34].
Catégorisation, ensemble flou, population neuronale, règle Cependant, la compréhension de ce lien implique de dépas-
d’inférence, similarité. ser l’analyse statistique du signal fourni par les techniques
de neuroimagerie pour aller vers son interprétation en tant
Abstract que résultats d’un traitement explicite de l’information cé-
rébrale par ces réseaux à grande échelle. Ceci nécessite la
Understanding the links between brain and cognition ne- conception d’un modèle spécifique mais qui se fonde sur la
cessitates models dealing explicitly with information flo- connaissance de processus neurobiologiques et neurophy-
wing through the cerebral region networks involved in siologique plus simples qui interviennent à l’échelle des
cognitive functions. Previously proposed models, although neurones composant ces régions.
promising, encounter some problems, especially in catego- Les modèles d’analyse statistique des données de neu-
rization. roimagerie renseignent sur la nature temporelle [20] et
This work suggests a formalism addressing these questions. spatiale [16, 17] des relations structure-fonction, en in-
It is focused on a similarity based approach to categori- cluant éventuellement la connaissance des connexions ana-
zation, using inference rules that borrows from fuzzy set tomiques dans l’analyse [6, 25]. En revanche, cela n’ex-
theory. These rules are dynamically evolving using inco- plique pas comment s’opère le lien entre fonction et acti-
ming information, thus allowing an on-line and unsupervi- vation.
sed learning. Les modèles provenant des neurosciences computation-
nelles s’attachent à résoudre cette question du comment, du réseau peut être interprété comme de la catégorisation.
en proposant des modèles souvent connexionnistes ayant L’information provenant des différents attributs du noeud
des objectifs divers. Au plus haut niveau de plausibilité est agrégée en une information composite, spécifique au
biologique, on trouve des modèles qui tentent d’expliquer noeud. Celle-ci est alors comparée à des archétypes qui
des mécanismes neurophysiologiques à l’échelle du neu- représentent l’information préférentiellement reconnue. A
rone [41, 42]. Ces modèles expliquent l’activation des neu- chaque archétype est associée de manière unique une va-
rones à partir de processus biologiques. Ils n’offrent pas leur de sortie. Ces archétypes modélisent des patterns de
d’interprétation en terme de traitement de l’information et neurones qui s’activent lorsque l’information a une certaine
agissent comme des « boîtes noires ». A un niveau plus in- configuration. Dans la mesure où ces patterns évoluent
tégré, on trouve des modèles qui par des considérations ar- dans le temps en fonction de l’information incidente, les
chitecturale sur l’organisation des neurones, et en utilisant archétypes doivent suivre cette évolution. En modifiant ces
des modèles de neurones plus simples, permettent d’établir archétypes en fonction de l’information incidente, RAGE
le lien entre le substrat cérébral et des fonctions cognitives implémente un apprentissage on-line, non supervisé et dy-
simples [9, 23, 31, 32]. Au plus haut niveau d’abstraction, namique.
on retrouve des modèles cognitivistes issus de l’IA sym- Ce modèle de noeud fonctionnel, qui prend en compte un
bolique qui visent à reproduire fonctionnellement des pro- des mécanismes cérébraux fondamentaux, la catégorisa-
cessus cognitifs sans se préoccuper de la plausibilité bio- tion, présente cependant un défaut majeur : il ne respecte
logique [3, 18, 19, 36, 37]. Aucune de ces approches ne pas un principe fort du fonctionnement cérébral qui stipule
répond à la question de savoir comment l’activation des ré- que des neurones proches s’activent pour des informations
seaux à grande échelle peut découler des mécanismes de de natures proches. La proximité éventuelle des neurones
traitement de l’information cérébrale. La réponse à cette modélisés par ces archétypes n’est à aucun moment prise
question nécessite l’ajout d’un niveau d’interprétation in- en compte. Ceci a pour conséquence que si, à deux arché-
termédiaire, niveau dont l’existence est formellement va- types proches, on associe deux valeurs de sortie distinctes,
lidée par le lien de continuité entre approches connexion- ces valeurs ne seront pas considérées comme proches alors
niste et cognitiviste de la modélisation cérébrale [5]. qu’elles le sont en terme de traitement cérébral.
C’est à ce niveau que se situe notre approche, héritière des Or, les études en catégorisation cérébrale ont pu montrer
Réseaux Artificiels à Grande Échelle (RAGE) [26, 27, 28] que les catégories naissaient des similitudes existant entre
dont nous feront le bilan en section 2. Dans la section 3, les stimuli extérieurs [22, 24, 39]. Par exemple, des simili-
nous décrirons notre modèle dont le formalisme sera ex- tudes visuelles entre plusieurs images de chats naît la caté-
posé à la section 4. Les exemples de la section 5 montre- gorie « chat ». Or, les similitudes entre stimuli se propagent
ront comment un unique modèle de traitement phonémique dans le cerveau en termes de proximités des neurones s’ac-
permet de retrouver des résultats déjà décrits par les RAGE, tivant pour ces stimuli. On peut en conclure que les ca-
mais également des résultats que les RAGE ne peuvent pas tégories dans une population cérébrale ( i.e. les patterns
décrire. En conclusion, nous ferons le bilan et les perspec- neuronaux s’activant pour des informations spécifiques )
tives de ce travail préliminaire sur un modèle de catégori- émergent de la proximité des neurones en amont, qui ont
sation cérébralement plausible. déchargé pour activer la population considérée.
Une autre propriété non prise en charge par les RAGE est
2 Les limites des modèles existants que le contexte et l’attention modulent la catégorisation
[39, 40]. Ainsi, des informations périphériques peuvent ve-
Il a été montré dans des études précédentes que la connec- nir modifier la manière dont s’effectue la catégorisation.
tivité causale, qui représente le cerveau comme un réseau Or, on sait qu’il existe dans le cerveau des connexions
causal de populations neuronales (les traiteurs d’informa- qui ne transportent pas l’information à proprement parler,
tion) reliées par des liens anatomiques orientés (les trans- mais qui viennent modifier les propriétés physiques des
metteurs d’information), était une approche située au ni- neurones sur lesquels elles se branchent, agissant ainsi sur
veau intermédiaire [26, 27, 28, 29, 38]. RAGE est le der- leur comportement. Tout modèle doit rendre compte de ces
nier en date des formalismes relevant de cette approche connexions particulières et adapter son comportement en
[26]. Il représente explicitement l’information cérébrale fonction des modulations.
sous forme duale. Une valeur numérique appelée magni- Tout modèle fondé sur la catégorisation cérébrale devra,
tude modélise d’une manière synthétique l’amplitude du entre autres, prendre en compte les proximités entre pat-
signal propagé. Elle permet de quantifier la force de l’ac- terns neuronaux. Le formalisme associé devra respecter les
tivation. Le type quant à lui, permet de qualifier cette in- contraintes imposées par les propriétés du substrat céré-
formation en lui attribuant une valeur dans un domaine bral. Ces contraintes naissent, en premier lieu, de la na-
symbolique. Ceci permet une interprétation de la nature de ture de l’information, qui n’est que l’interprétation symbo-
l’information propagée tout en gardant le lien avec les acti- lique de la configuration des neurones qui la transportent.
vations observées en neuroimagerie. Cette information est En ce sens, elle est mal connue et incertaine. C’est pour-
propagée en étendant le formalisme des réseaux bayésiens quoi le modèle doit être capable de gérer cette incertitude
dynamiques. Le traitement intervenant au sein d’un noeud
[13]. En second lieu, les contraintes concernent l’appren-
tissage. Celui-ci doit s’effectuer sur un mode on-line [35]
car l’apprentissage s’effectue en parallèle de la catégorisa-
tion. Il doit être non-supervisé [35] puisque les neurones
s’auto-organisent pour s’adapter à l’information et qu’il
n’existe pas toujours de retour extérieur exhibant la bonne
réponse. Enfin, et cela concerne l’ensemble du système, ce
modèle doit être dynamique. L’information en entrée est
construite dans le temps, en prenant en compte les délais
de propagation neuronaux, et la sortie doit donc elle aussi
être construite dans le temps.
Parmi les systèmes classiques de catégorisation [35], aucun
ne répond complètement à ces contraintes. Cependant, cer-
tains systèmes, tels le raisonnement et la décision à base
de cas [1, 8, 15, 11] ou le raisonnement approché à par- F IG . 1 – Schéma de principe d’un noeud fonctionnel
tir de règles floues [12, 14], en y répondant partiellement,
peuvent servir de point de départ à la construction d’un for-
fig 1). Notons qu’il y a une règle d’inférence par catégorie
malisme adapté.
en sortie. La question est alors de savoir comment modéli-
Notre objectif précis est la construction d’un modèle qui
ser les patterns neuronaux.
représente explicitement le traitement de l’information cé-
rébrale, permette l’apport de connaissances provenant de 3.2 Patterns neuronaux
différents domaines d’expertise en neuroscience, et qui soit
suffisamment flexible pour s’adapter aux futurs évolutions A chaque pattern émetteur est associé une valeur de sortie
des connaissances du domaine. Nous adopterons donc l’ap- qui permet d’attribuer un type à l’information émise par le
proche de la connectivité causale, tout en proposant un noeud. A cette valeur on associe les valeurs de sortie cor-
modèle de noeud fonctionnel cérébral plus respectueux de respondant aux patterns émetteurs proches. Formellement,
la réalité neurophysiologique que celui proposé dans les chaque pattern émetteur est modélisé par un ensemble flou
RAGE. dont le noyau, réduit à un singleton, contient la valeur as-
sociée à cet ensemble. Cette valeur est appelée référent.
3 Principe général du modèle Les autres valeurs du support appartiennent à l’ensemble
avec des degrés d’appartenance correspondant aux degrés
Un noeud fonctionnel implémente le traitement et la pro- de proximité de ces valeurs par rapport au référent.
pagation de l’information par une population de neu- Les patterns récepteurs sont eux aussi modélisés par des
rones cognitivement cohérente. Les différents mécanismes ensembles flous. Le noyau d’un tel ensemble correspond
du modèle se fondent eux sur une décomposition bio- aux valeurs parfaitement reconnues par ce pattern. Les
logique de la population considérée en différentes sous- autres valeurs du support représentent les valeurs proches
populations. reconnues à moindre niveau par ce pattern.
Les neurones qui composent les sous-populations récep-
3.1 Relations entre groupes de neurones
trices sont fortement interconnectés. A ce titre on peut sup-
Considérons un noeud d’un réseau et la population neu- poser que les neurones d’un groupe, qui est « spécialisé »
ronale qu’il représente. Sur ce noeud se branchent des dans certaines informations incidentes, peuvent reconnaître
connexions entrantes du réseau qui représentent des fais- de façon moins efficace, d’autres informations et donc ap-
ceaux d’axones. On appelle sous-population réceptrice le partenir à d’autres groupes. Cette interconnexion a pour
groupe de neurones recevant directement l’influx d’un fais- effet que lorsqu’un pattern s’active pour une information,
ceau, et on appelle sous-population émettrice l’ensemble d’autres patterns s’activent aussi faiblement. Les connais-
de neurones qui déchargent vers l’extérieur du noeud. Au sances en neurophysiologie ne permettant pas de détermi-
sein des population réceptrices, des groupes de neurones ner exactement la nature de ces connexions, l’hypothèse de
s’activent lorsque l’influx est dans une certaine configura- modélisation suivante est faite : l’interconnexion est com-
tion. Ils sont représentés par des patterns récepteurs qui plète et uniforme, ce qui a pour conséquence que tous les
qualifient l’information en entrée et, en déchargeant, pro- patterns récepteurs s’activent un peu pour chaque informa-
pagent cette identification. On fait le choix, même si ceci tion en entrée. En termes de modélisation cela se traduit par
peut être discutable du point de vue de la neurophysiologie, une valeur d’indétermination sur les ensembles flous modé-
de connecter directement les patterns récepteurs à des pat- lisant les patterns récepteurs. En ce qui concerne les neu-
terns émetteurs qui représentent certaines configurations de rones de la sous-population émettrice, l’interconnexion est
neurones de la population émettrice. Les relations entre contrebalancée par les inhibitions latérales. Il s’agit d’un
patterns récepteurs et émetteurs sont modélisées par des mécanisme qui permet aux neurones déchargeant d’inhiber
règles d’inférences qui lient prémisses et conclusions (voir les neurones proches et qui seraient donc susceptibles de
al uls des de
j note P Rij l’ensemble flou modélisant le pattern récepteur
équation (3)
correspondant à l’attribut i pour la règle Rj , et P E j l’en-
a tivation en
émission semble flou modélisant le pattern émetteur correspondant à
la conclusion de la règle Rj . On note aussi naji (resp. saji )
le niveau d’activation (resp. le seuil d’activation) du pattern
j

Entrée
a tivation en Base de ombinaison
sommation des de
modulés par les récepteur P Rij . On appelle decji le niveau de déclenche-
ré eption des degrés de proximité
Règles
émissions
équation (4)
ment, c’est-à-dire la marge de dépassement du seuil, pour
le pattern P Rij , et qui est égal à max(0, naji − saji ). En-
équation (1)
Sortie
fin, on notee decj le niveau d’activation (et donc de dé-
j
al uls des na
i clenchement) du pattern émetteur P E j et on suppose que
decj (t) = fj (decj1 (t − 1), · · · , decjn (t − 1)).

F IG . 2 – Cycle de fonctionnement d’un noeud fonctionnel


4.1 Activation en réception
A chaque pas de temps, pour chaque règle Rj et pour
chaque attribut i, on calcule le degré de compatibilité αji de
décharger pour la même information, évitant ainsi des dé-
Tiin avec P Rij (αji = maxC∈Di min(Tiin (C), P Rij (C))).
charges concurrentes qui viendraient brouiller l’informa-
Cela permet de mettre à jour le niveau d’activation à l’ins-
tion. C’est pourquoi il n’y a pas cette valeur d’indétermi-
tant t :
nation pour les patterns émetteurs.
(1)
3.3 Principe d’inférence naji (t) = relaxX .naji (t − 1) + (1)
De même qu’un neurone s’active jusqu’à dépasser un seuil k.fact (αji , M̃i (t)).fref ract (decji (t − 1))
d’activation à partir duquel il décharge, à chaque pattern
où,
récepteur est associé un seuil d’activation. Lorsque les neu-
_ fact est croissante, définie de [0, 1] × [0, 1] dans [0, 1],
rones qui composent une sous-population sont suffisam-
et elle permet de moduler l’activation en fonction de la
ment activés, ils déchargent et l’on considère que le pattern
magnitude. En effet, lorsque la magnitude est trop faible,
correspondant aussi. Le calcul du niveau d’activation d’un
même si l’information est bien reconnue par la règle, elle a
pattern récepteur dépend, d’une part de l’information en-
moins d’impact. Pour manipuler de manière transparente
trante (on calcule la compatibilité en termes d’ensembles
la magnitude dans le modèle, quelque soit la nature de
flous entre le type de l’information incidente, qui est un
l’information (la magnitude peut en effet prendre des va-
ensemble flou, et le pattern récepteur), et d’autre part du
leurs très diverses), on utilise une magnitude normalisée
niveau d’activation à l’instant précédent. Si le niveau d’ac-
M̃ = fnorm (M ), où fnorm est une fonction définie sur les
tivation d’un pattern dépasse son seuil d’activation, il dé-
réels dans [0, 1] et qui dépend de la nature de l’informa-
charge proportionnellement à la marge de dépassement du
tion qualifiée par la magnitude M . En clair, il peut y avoir
seuil. Une règle est activée lorsque tous les patterns récep-
une fonction normalisatrice différente par attribut. Pour ne
teurs qui composent ses prémisses ont déchargé à l’instant
pas systématiquement réduire l’activation, même lorsque
précédent (le délai d’un pas de temps correspond au temps
la magnitude (normalisée) est proche de 1, la réduction de-
de propagation entre patterns récepteurs et émetteurs). Pour
vrait être sensible à partir d’un certain seuil. Nous propo-
chaque règle activée, on détermine le niveau d’activation
sons la fonction suivante qui utilise une sigmoïde comme
des patterns émetteurs en fonction du niveau de décharge
fonction seuil, mais d’autres sont possibles :
des patterns récepteurs. Les patterns émetteurs ne dispo-
sant pas de seuil d’activation, cette valeur d’activation cor- αji
respond à la valeur de décharge et sera donc utilisée pour fact =
1 + e−a(M̃i −b)
calculer la sortie finale. Ce cycle de fonctionnement est ré-
sumé dans la figure 2 (les équations citées sont détaillées _ fref ract est une fonction définie sur [0, 1] à valeurs dans
dans la section 4) [0, 1] et décroissante, qui modélise la période de réfraction
du pattern. Il s’agit d’un mécanisme neuronal qui empêche
4 Formalisation proposée un neurone qui a déchargé de s’activer pendant un certain
Soit un noeud fonctionnel X à n attributs. Une informa- laps de temps. On transpose ce comportement à l’échelle
tion propagée est un couple (M, T ) où M est la magnitude du pattern neuronal. On peut par exemple utiliser une ré-
de l’information et T , son type. La magnitude M est un fraction linéaire (fref rac(dec) = 1 − dec) ou une sigmoïde
réel positif et le type T est un ensemble flou défini sur un décroissante. Elle doit répondre néanmoins aux contraintes
domaine DT discret. On note (Miin , Tiin ) l’information ar- suivantes : fref rac (0) = 1 et fref rac (1) = 0
(1)
rivant sur l’attribut i et (M out , T out ) l’information émise _ relaxX est appelé paramètre de relaxation et modélise à
par le noeud. Pour alléger les notations, on appelle Di le quel point le pattern intègre temporellement. C’est un réel
domaine de définition de Tiin et Dout le domaine de T out . appartenant à [0, 1]. Si sa valeur est 0, il n’y aucune inté-
Soit la base de règles d’inférence BR = {Ri }i∈[1,p] . On gration temporelle alors que s’il est égal à 1, le niveau d’ac-
tivation ne pourra que progresser sans redescendre jusqu’à dont C est le référent, on a,
atteindre son maximum. X
decregle(C) = P E i (C).deci (4)
4.2 Activation en émission i∈{k1 ,···,kq }

Une fois les niveaux d’activation calculés, deux situations


Il s’agit ensuite de calculer decj pour chaque règle Rj . On
sont possibles : soit un seul pattern est plus activé que tous
a introduit decj (t) = fj (decj1 (t − 1), · · · , decjn (t − 1)),
les autres, et dans ce cas, on a trouvé notre réponse (si
et on veut caractériser fj . En premier lieu, les populations
Cmax est le pattern le plus activé, T out = P E regle(Cmax ) ),
émettrices intègrent temporellement l’information. Cela se
soit il y a plusieurs patterns également activés qui do-
traduit par une mise à jour incrémentale similaire à l’acti-
minent les autres. Cette dernière situation bien que très peu
vation en réception :
probable est théoriquement possible. Dans ce cas, on ne
(2) cherche pas à conclure et aucun pattern émetteur ne dé-
decj (t) = relaxX .decj (t − 1) + (2) charge. Au pas de temps suivant, le noeud se sera modifié
val(decj1 (t − 1), · · · , decjn (t − 1)) et le conflit sera sûrement résolu.
4.4 Calcul de la magnitude de sortie
val traduit la nature des connexions neuronales qui existent
entre les patterns récepteurs et le pattern émetteur, liés par La magnitude de sortie dépend de deux facteurs. D’une
la règle Rj . En l’absence d’information sur ces connexions, part, elle dépend de la nature du noeud lui-même qui ef-
les hypothèses de modélisation suivantes sont faites : en fectue un traitement particulier en fonction de la primitive
premier lieu, val est supposée linéaire en fonction de cha- qu’il implémente, et d’autre part elle dépend du niveau de
cune de ses variables (il s’agit d’un extrapolation à partir du reconnaissance de l’information en entrée, c’est-à-dire du
comportement des neurones qui font une intégration pon- niveau de déclenchement du pattern émetteur déchargeant.
dérée de leurs entrées), et donc que Formellement,
(1) (2)
M out (t) = fX (decmax (t)).fX (M in (t − 1), u) (5)
(2)
X
n
j
dec (t) = relaxX .decj (t − 1) + µji .decji (t − 1) (3) où M in (t − 1) est la moyenne sur l’ensemble des attributs
i=1 des magnitudes en entrée à l’instant t−1, u est une variable
aléatoire modélisant le bruit et les données non-modélisées,
il reste néanmoins avec n.p paramètres à évaluer (les µji ) et et decmax le taux d’activation du pattern émetteur déchar-
surtout aucun moyen de les apprendre. D’où la deuxième geant en sortie à l’instant t. La fonction f (1) est définie de
hypothèse : une fonction de combinaison dépend du noeud [0, 1] dans [0, 1], et est croissante. Elle permet d’exprimer
et non d’une règle. Nous considérons en effet qu’en termes l’idée que moins un type est reconnu, moins la magnitude
de résultat, les connexions « patterns récepteurs - patterns de l’information émise est grande. Là encore, la notion de
émetteurs » sont similaires à travers tout le noeud. Cette seuil critique peut intervenir, faisant de la sigmoïde un bon
hypothèse est bien plus forte que la première mais il s’agit candidat pour f (1) . f (2) est définie sur les réels et peut-être
d’une simplification nécessaire pour rendre la modélisation linéaire ou non-linéaire.
sous cette forme possible. Formellement, cela se traduit par
∀j ∈ [1, p], µji = µi . Il reste donc n nouveaux paramètres 4.5 Apprentissage
à déterminer qui correspondent aux poids des attributs dans L’apprentissage est décomposé en six mécanismes distincts
la combinaison. Ces paramètres dépendent du noeud et de qui permettent de faire évoluer la base de règles en fonction
la nature de celui-ci. Ils seront déterminés par des essais de l’information en entrée. Il s’agit de modifier les règles
successifs en vue d’obtenir la simulation la plus proche existantes, d’en introduire de nouvelles, et de supprimer
possible de la réalité. celles devenues caduques.

4.3 Combinaison des émissions Co-activation. Que peut-on conclure du co-


déclenchement de deux règles ? Puisqu’elles réagissent à
Si une seule règle est déclenchée, il n’y a rien à faire : la même information en entrée, leurs patterns récepteurs
T out = P E k , où k est l’indice de la règle active. En doivent être topologiquement proches, et donc leurs
revanche, lorsque plusieurs règles Rk1 , · · · , Rkq sont dé- patterns émetteurs doivent l’être aussi. Il s’agit donc
clenchées simultanément, il y a concurrence entre les ré- d’augmenter la proximité des référents de ces deux
ponses possibles. Il faut donc déterminer quel pattern émet- règles. Concrètement, si Rk1 et Rk2 sont deux règles
teur remporte le conflit. L’idée est que les activations se co-déclenchées, on modifie leur conclusion de la manière
cumulent. On va donc calculer, pour toutes les catégories suivante : si ref (E) désigne le référent d’un ensemble E,
C ∈ Dk1 ∪ · · · ∪ Dkq , le niveau d’activation de C en som- on a,
mant les activations provenant des règles activées, activa-
P E k1 (ref (P E k2 )) = P E k1 (ref (P E k2 )) + coactX
tions elle-même calculées grâce à la proximité de C avec
les référents des règles activées. Formellement, cela se tra- P E k2 (ref (P E k1 )) = P E k2 (ref (P E k1 )) + coactX
duit de la manière suivante : si regle(C) désigne la règle (6)
Un idée pourrait être de moduler la modification par une fseuil est une fonction croissante à seuil définie sur [0, 1]
valeur qui dépend de la différence des déclenchements, ce à valeurs dans [0, 1] (une sigmoïde par exemple). Remar-
qui exprimerait que des règles sont d’autant plus proches quons que le seuil de fseuil détermine le seuil de discri-
qu’elles se déclenchent avec des valeurs proches. mination des patterns récepteurs. S’il est égal à 0, 8 par
Renforcement. On sait que lorsqu’un pattern neuronal exemple, un pattern récepteur dont le noyau contient une
s’active, il se spécialise un peu plus dans la direction de seule valeur glissera jusqu’à ce que toutes les valeurs en
l’information qui l’a fait s’activer. Nous traduisons cela entrée ayant un degré de proximité supérieur à 0, 8 soient
par un mécanisme de renforcement qui spécialise un peu aussi dans le noyau.
la conclusion d’une règle qui se déclenche seule. Concrè- Fusion. Plus deux règles se seront co-activées, plus leurs
tement, si la règle Rk se déclenche seule, on modifiera référents seront proches jusqu’au point où les deux réfé-
la conclusion de la manière suivante : ∀C ∈ Dout \ rents peuvent être considérés comme identiques. On en
{ref (P E k )}, garde un et toutes les références à l’autre sont transfor-
mées en références à celui qui est gardé. Soient Rk1 et
P E k (C) = P E k (C) − renfX (7) Rk2 deux règles co-activées, soient Ck1 et Ck2 leurs réfé-
rents respectifs, alors si prox(Ck1 , Ck2 ) ≥ f usionX , les
Les règle de co-activation et de renforcement s’équilibrent deux règles sont redondantes. f usionX est un paramètre
mutuellement et les paramètres coactX et renfX doivent de X qui est compris entre 0 et 1, mais qui devrait être très
refléter cela. proche de 1. On crée alors une nouvelle règle Rf us définie,
Introduction. Ce mécanisme permet d’introduire dans la pour sa conclusion par P E f us = f usion(P E k1 , P E k2 ),
base de règles une nouvelle règle qui se déclenchera pour où f usion est définie par : si E1 et E2 sont deux ensembles
une information non reconnue jusque-là. Il intervient lors- flous définis sur un même domaine D, de référents respec-
qu’aucune règle ne s’active suffisamment pour reconnaître tifs r1 et r2 , on a : ∀c ∈ D \ {r1 , r2 },
une information en entrée. L’introduction doit donc être
motivée par les niveaux de compatibilité de l’entrée avec f usion(E1 , E2 )(c) = max(E1 (c), E2 (c)) (9)
les ensembles récepteurs des règles. S’ils sont trop faibles,
alors il faut introduire une nouvelle règle. Pratiquement, f usion(E1 , E2 )(r1 ) = 1 et f usion(E1 , E2 )(r2 ) = 0
il y aura introduction si maxj∈[1..p] (mini∈[1..n] (αji )) ≤ De plus, il faut mettre à jour toutes les conclusions des
introX . Le calcul du minimum des compatibilités pour autres règles pour prendre en compte l’identification de
une règle se comprend bien dans la mesure où c’est cette Ck1 et Ck2 . ∀i ∈ [1, p] \ {k1 , k2 },
valeur qui est la plus handicapante pour le déclenchement
de la règle. introX est un paramètre du noeud X com- P E i (Ck1 ) = max(P E i (Ck1 ), P E i (Ck2 )) (10)
pris théoriquement entre 0 et 1 mais il est évident qu’il
doit être plus grand que le seuil de reconnaissance par dé- et P E i (Ck2 ) = 0
faut des patterns récepteurs (i.e. la valeur d’indétermina-
Pour les prémisses de Rf us , ∀i ∈ [1..n],
tion affectée aux patterns récepteurs). Dans le cas contraire,
le mécanisme d’introduction n’est jamais déclenché (∀i, j,
P Rif us = max(P Rik1 , P Rik2 ) (11)
αji ≥ recodefX ). Une règle introduite est de la forme sui-
vante : la partie prémisse est la même que l’information qui Oubli. Pour modéliser la « fraîcheur » d’une règle, on
provoque l’introduction et la conclusion est un ensemble lui associe un réel compris entre 0 et 1 appelé validité.
dont le domaine est un singleton {Cnew }. Cnew est une Toute modification d’une règle traduit une réorganisation
nouvelle catégorie qui ne doit apparaître dans aucune règle. neuronale. En raison de l’interconnectivité, cela a des ef-
Glissement. Les patterns émetteurs évoluent, mais c’est fets sur les règles non modifiées, qui sont dégradées. For-
aussi le cas des patterns récepteurs. Lorsqu’un pattern est mellement, lorsqu’une règle est modifiée par co-activation
suffisamment activé par une entrée, ce pattern va « glisser » ou renforcement, sa validité augmente d’un valeur f reshX
pour ressembler un peu plus à l’information qui l’active et (il y réorganisation neuronale positive pour cette règle). Si
surtout pour prendre en compte les informations de proxi- une règle n’a été le sujet d’aucune modification durant ce
mité qu’elle véhicule. Ainsi lorsque la compatibilité d’un cycle, sa validité diminue de f reshX . Si la validité d’une
pattern avec une entrée est suffisante, on modifie les proxi- règle tombe en dessous du seuil d’oubli oubliX , elle est
mités exprimées par ce pattern dans le direction des proxi- supprimée de la base et toute référence à son référent dans
mités exprimées par l’entrée. Concrètement, pour toute les proximités est supprimée (si Rk , de référent Ck , est sup-
règle Rj , on modifie tous les ensembles récepteurs P Rij primée, ∀j ∈ [1, p] \ {k}, P E i (Ck ) = 0).
de la manière suivante : ∀i, j, ∀C ∈ Di \ {ref (P Rij )},
4.6 Modulation
P Rij (C) = P Rij (C) + (8) Les actions modulatrices possibles dans le cerveau sont très
diverses (modulation du temps de latence d’un neurone, de
fseuil (αji ).glissX .(Tiin (C) − P Rij (C)) son niveau d’activation, de son amplitude d’activation, etc).
Dans ce modèle, la modulation n’est pas encore incorporée
TAB . 1 – Consonnes dans le système phonologique fran-
comme mécanisme à part entière. Ce sont des fonctions
çais
ad-hoc qui permettent de modifier dynamiquement certains
Lieu ⇒ bilabiales labio- dentales/ alvéolaires palatales vélaires
paramètres du modèle comme par exemple les seuils d’ac- mode ⇓ dent. alvéol.
tivation. Par exemple, en considérant une entrée modula-
occlusives p t k
trice (Mmod , Tmod), le seuil peut obéir à l’équation : sourdes
occlusives b d g
saji (t) = 1 − (as (1 − saji (t − 1)) + am Mmod σ(αmod i,j )) sonores
(12) fricatives f s S
j sourdes
où αmod
i,j est le niveau de compatibilité de P R i avec T mod
fricatives v z Z
et σ est une sigmoïde. En l’absence de modulation, le seuil sonores
tend alors vers la valeur arbitraire 1, et sinon, il est diminué nasales m n ñ
d’autant plus que le type de la modulation est compatible latérale l
avec P Rij . Il s’agit ici d’une modélisation facilitant la dé-
vibrante ö
charge de certains patterns récepteurs.

5 Application à la discrimination TAB . 2 – Paramètres du modèle


phonémique recodef 0.2
Une des expériences ayant servi à valider les RAGE vi- µL 0.5
sait à modéliser une partie du processus de discrimination µM 0.5
phonémique [27], afin de mieux comprendre sa dégrada- relax(1) 0.98
tion dans la dyslexie. Nous nous inspirerons de cette étude relax(2) 0.15
pour construire un modèle qui représentera sous forme k 0.6
d’un noeud unique un discriminateur phonémique simple.
Notre modèle, volontairement très simplifié, ne devra en
aucun cas être considéré comme une réponse définitive à la
compréhension du traitement phonémique cérébral. Aussi ter un ensemble flou, nous donnons les couples (élement
fruste soit-il, il jette cependant un éclairage intéressant sur du domaine, proximité) en omettant les éléments dont la
une illusion perceptive, l’effet McGurck. proximité est inférieure ou égale à la proximité par défaut,
i.e. recodefX ; par exemple le premier pattern ci-dessous
5.1 Modèle reconnaît les bilabiales parfaitement et un peu moins les
labio-dentales) :
Nous appliquons le formalisme présenté dans la section 4
pour modéliser un discriminateur phonémique. Nous nous P Rbil = {(bil, 1.0), (lab, 0.6)}
fondons sur la théorie articulatoire du langage qui carac-
P Rdea = {(lab, 0.6), (dea, 1.0), (alv, 0.6)}
térise un phonème par la façon dont nous le produisons.
Les attributs, au nombre de deux, caractérisent d’une part P Rvel = {(pal, 0.6), (vel, 1.0)}
la position de la langue dans la bouche lors de la produc- P Roso = {(oso, 1.0), (osd, 0.6)}
tion, ce qu’on appelle le lieu de production et d’autre part
la position des lèvres, appelée le mode de production.. La Rb :< P Rbil , P Roso > → {(b, 1.0), (d, 0.6)}
table 1 donne les équivalences entre valeurs des attributs
Rd :< P Rdea , P Roso > → {(b, 0.6), (d, 1.0), (g, 0.6)}
et phonèmes. Le cadre de l’application est considérable-
ment simplifié car les seuls phonèmes considérés sont les Rg :< P Rvel , P Roso > → {(d, 0.6), (g, 1.0)}
consonnes /b/, /d/, et /g/, ce qui correspond à trois règles
Dans un premier temps, un stimulus correspondant à /ba/1
dans la base. Ce modèle ne met pas en oeuvre l’apprentis-
est présenté toutes les secondes pendant 50 ms. Le pas de
sage et il faut donc déterminer les proximités utilisées. Pour
temps est fixé à 10 ms. Les paramètres utilisés sont re-
le lieu d’articulation, le choix a été fait d’une proximité li-
groupés dans le tableau 2. Ils sont dérivés des paramètres
néaire suivant l’ordre des valeurs du tableau. Il s’agit d’un
utilisés dans [27]. Les résultats de la simulation (figure 3)
choix simple qui se justifie en partie par ce que représente
montrent bien que la réponse du noeud est /b/ après chaque
cet attribut (la position de la langue dans la bouche, entre
stimulus (les réponses n’ont été gardées que lorsque le ni-
les dents et les amygdales). Le même choix a été fait pour le
veau d’activation en émission dépassait une valeur signifi-
mode d’articulation mais pour cette application particulière
cative, fixée arbitrairement à 0.1).
cela n’a aucun effet puisque les consonnes considérées ne
1 Pour que le stimulus soit audible, on ne peut pas présenter un /b/
se distinguent que par leur lieu d’articulation. Les proxi-
seul, il doit être accompagné d’une voyelle. Toutes les consonnes utilisées
mités entre les consonnes reflètent les proximités entre va-
dans cette application sont suivies de /a/ et pour simplifier nous considé-
leurs des attributs. On peut donc définir les trois règles à rons qu’un pré-traitement permet d’extraire les attributs correspondant à
partir de patterns récepteurs et émetteurs (pour représen- la consonne discriminante
1

Stimulation auditive
0.8

0.6

0.4

0.2

0
2 4 6 8 10 12 14 16 18 20
Pas de temps = 10 ms
Réponse du noeud fonctionnel

réponse /b/
0.3 réponse /d/
réponse /g/
0.25

0.2

0.15

0.1

0.05

0
2 4 6 8 10 12 14 16 18 20
Pas de temps = 10 ms
F IG . 5 – Comparaison de l’activation de Rg avec et sans
modulation
F IG . 3 – Réponses du noeud fonctionnel à une stimulation 1

auditive de type /b/.

Stimulation auditive
0.8

0.6

0.4

0.2

0
2 4 6 8 10 12 14 16 18 20
Pas de temps = 10 ms

Réponse du noeud fonctionnel


réponse /b/
/GA/ - /GA/ - /GA/ — /BA/ - /BA/ - /BA/ — réponse /d/
2
réponse /g/

VISUEL AUDITION 1.5

0.5

0
2 4 6 8 10 12 14 16 18 20
Pas de temps = 10 ms

/DA/ - /DA/ - /DA/ —

F IG . 6 – Réponse du noeud fonctionnel à une stimulation


auditive de type /b/, modulée par une stimulation visuelle
F IG . 4 – La présentation simultanée d’un [ga] « visuel » et
de type /g/.
d’un [ba] auditif mène à une perception auditive de [da]

am = 0.4).
5.2 Effet McGurck Les stimuli auditifs et visuels sont présentés avec la
même fréquence que précédemment. La figure 5 montre
On cherche maintenant à illustrer les effets de la modula-
le comportement de la règle Rg avec modulation. On voit
tion, en utilisant le même modèle.
bien qu’elle s’active grâce à la modulation alors qu’elle ne
Dans la perception du langage, le cerveau effectue si-
s’active pas du tout sans celle-ci. Il apparaît nettement sur
multanément un traitement auditif des sons produits par
la figure 6 que la modulation modifie la réponse globale
le locuteur et un traitement visuel des mouvements de
du noeud qui conclut désormais majoritairement à /d/.
ces lèvres. Ce parallélisme permet en général au cerveau
Les réponses aux bords (en début et en fin de stimulation)
d’améliorer la discrimination phonémique. Cependant,
peuvent néanmoins différer mais cela tient surtout à la
lorsque les informations auditives et visuelles sont incon-
difficulté de régler précisément autant de paramètres.
gruentes, cela peut conduire à l’erreur. Une illustration
Le processus permettant de conclure /d/ est simple :
spectaculaire en est l’effet Mc Gurck, découvert en 1976
la modulation diminue fortement le seuil d’activation
[33]. Cette illusion auditive consiste à faire écouter à
de P Rvel et P Roso ce qui permet à la règle Rg de se
un sujet des [ba] répétés régulièrement alors que de
déclencher. Comme le pattern émetteur de référent /d/ se
manière synchronisée, on lui montre l’image d’un homme
situe, en termes de proximité, entre les patterns émetteurs
prononçant des [ga]. Plus de 98% des sujets entendront
de référents /b/ et /g/, il intègre les activations et devient
le son [da] (voir fig.4). Si on ignore encore quels sont les
alors plus activé que ces deux derniers, ce qui explique ces
mécanismes neurologiques exacts qui sont mis en jeu, on
résultats.
sait qu’il s’agit vraisemblablement d’une modulation de
la discrimination purement auditive par des mécanismes
induits par le traitement du stimulus visuel. En terme de
modélisation, l’idée est de faciliter le déclenchement de la
6 Conclusion et Perspectives
règle correspondant au stimulus visuel (à savoir /g/ pour La modélisation du traitement de l’information cérébrale
l’effet McGurck). L’hypothèse est faite que la modulation dans les réseaux à grande échelle est indispensable à la
agit sur les seuils d’activation des patterns récepteurs, dont fois pour une meilleure prédiction des séquelles des lé-
la valeur obéit désormais à l’équation (12) (as = 0.7 et sions cérébrales, mais également pour une meilleure com-
préhension des données de neuroimagerie fonctionnelle. Références
L’approche par connectivité causale [26, 27, 28, 29, 38] [1] A. Aamodt et E. Plaza, Case-based reasoning : Foun-
semble prometteuse, mais les formalismes dérivés, en par- dational issues, methodological variations and system
ticulier les RAGE [27], souffrent encore d’un manque de approaches, AI communications, vol. 7, no. 1, pp. 39–
plausibilité biologique. L’objectif de ce travail est d’amé- 59, 1994.
liorer cette approche, en offrant un modèle plus souple
et plus proche des exigences neurophysiologiques. Dans [2] G. Alexander, M. Delong, et M. Crutcher, Do cor-
cette optique, nous avons proposé un premier modèle ins- tical and basal ganglionic motor area use "motor
piré du raisonnement approché, faisant intervenir des en- programs" to control movement ?, Behav. Brain Sci,
sembles flous, mais adapté aux besoins particuliers de la vol. 15, pp. 656–65, 1992.
modélisation de l’information cérébrale. Nous avons mon- [3] J. Anderson, A spreading activation theory of me-
tré sur quelques exemples comment ce modèle pouvait mory, dans A perspective from psychology and artifi-
répondre aux contraintes de départ. En particulier, nous cial intelligence (E. S. A. Collins, ed.), pp. 137–155,
avons montré qu’il était désormais possible de modéli- Morgan Kaufmann, 1988.
ser assez simplement des phénomènes comme l’effet Mc- [4] C. Balkenius, Neural mechanisms for self-
Gurck, qui n’étaient pas pris en compte dans les modèles organization of emergent schemata, dynamical
précédents. schema processing and semantic constraints satis-
Notre approche a consisté, en se fondant sur une connais- faction, Rap. Tech. 14, Lund University Cognitive
sance empirique, extraite des études en neuropsychologie Studies, 1992.
et neurophysiologie, en une modélisation directe, par des
[5] C. Balkenius et P. Gardenförs, Nonmonotonic infe-
règles d’inférence floues, du niveau cérébral " intermé-
rences in neural networks, dans Proc. of the 2nd Int.
diaire ", celui des populations de neurones. Elle trouve un
Conf. on Principles of Knowledge Representation and
écho et un début de justification théorique dans les tra-
Reasoning (KR’91), pp. 32–39, 1991.
vaux plus formels de Balkenius et Gardenförs [4, 5], qui
ont montré qu’il était possible, à partir des patterns d’acti- [6] C. Büchel et K. Briston, Modulation of connecti-
vation de réseaux de neurones biologiquement fondés, de vity in visual pathways by attention : cortical inter-
faire des inférences logiques de type non-monotone, co- actions evaluated with structural equation modelling
dables en logique possibiliste [7]. and fMRI, Cereb. Cortex, vol. 7, pp. 768–778, 1997.
Néanmoins, il reste un grand nombre d’aspects qui de- [7] S. Benferhat, D. Dubois, et H. Prade, Representing
mandent un traitement plus poussé. On peut les organi- default rules in possibilistic logic, dans Proc. of the
ser suivant trois axes principaux : l’enrichissement du for- 3rd Int. Conf. on Principles of Knowledge Repre-
malisme, le transfert des neurosciences computationnelles sentation and Reasoning (KR’92), (Cambridge, MA),
vers l’IA et l’utilisation du formalisme pour une meilleure pp. 673–684, 1992.
compréhension de certains mécanismes cérébraux. [8] R. Bergmann et W. Wilke, On the role of abstrac-
L’enrichissement du formalisme concerne premièrement tion in case-based reasoning, dans Proc. of the 3rd
l’amélioration du modèle proposé, notamment en ce qui Europ. Workshop on Advances in Case-Based Reaso-
concerne la combinaison des règles et la validation, et ning, 1996.
deuxièmement son intégration dans un réseau dynamique.
[9] G. Berns et T. Sejnowski, A computational model of
Le système offre des perspectives qui vont au-delà des neu-
how basal ganglia produce sequences, J. Cogn. Neu-
rosciences. C’est pourquoi, en tant que modèle de catégo-
rosci., vol. 10, pp. 108–121, 1998.
risation dynamique, nous envisageons de l’extraire de son
contexte biologique pour tenter de le valider d’une manière [10] S. Bressler, Large-scale cortical networks and cogni-
plus complète et plus formelle, en particulier en proposant tion, Brain. Res. Rev., vol. 20, pp. 288–304, 1995.
un algorithme adapté d’identification des paramètres. [11] D. Dubois, F. Esteva, P. Garcia, L. Godo, R. L. D.
Du point de vue de la biologie et de l’application aux Màntaras, et H. Prade, Fuzzy set-based models in
neurosciences, une des perspectives possibles est de dé- case-based reasoning, dans 2nd Int. Conf. on Case-
velopper des modèles de noeuds fonctionnels représen- Based Reasoning (ICCBR’97), 1997.
tant les actions des différents neurotransmetteurs dont on [12] D. Dubois et H. Prade, Gradual inference rules in ap-
sait qu’ils ont une énorme importance sur la modulation proximate reasoning, Inform. Sci., vol. 61, pp. 103–
des traitements de l’information cérébrale. Cela permet- 122, 1992.
trait, non seulement de rajouter de la plausibilité biologique
[13] D. Dubois et H. Prade, Ensemble flou et théorie des
aux modèles et de permettre une meilleure compréhension
possibilités : notions de base, dans Logique Floue
des rôles respectifs de ces neuromodulateurs, mais encore
(OFTA, ed.), Masson, 1994.
d’avoir un outil prédictif de l’influence des médicaments
adressant le système nerveux central [30] sur le fonction- [14] D. Dubois et H. Prade, What are fuzzy rules and
nement de différentes parties du cortex cérébral. how to use them ?, Fuzzy Sets and Systems, vol. 84,
pp. 169–185, 1996.
[15] D. Dubois et H. Prade, A fuzzy set approach to case- [29] M. Lafon, Modélisation de la propagation de l’in-
based decision, dans Computational Intelligence in formation cérébrale par graphes causaux qualitatifs.
Theory and Practice (B. Reusch et K. Temme, eds.), Thèse de doctorat, Univ. Toulouse III, 2000.
Advances in Soft Computing (Kacprzyk J.Ed.), pp. 1– [30] I. Loubinoux, J. Pariente, K. Boulanouar, C. Ca-
13, A Springer-Verlag Company Heidelberg - New rel, C. Manelfe, O. Rascol, P. Celsis, et F. Chol-
York : Physica-Verlag, 2001. let, A single dose of the serotonin agonist paroxe-
[16] P. Fox et M. Raichle, Stimulus rate dependence of re- tine enhances motor output : double-blind, placebo-
gional brain blood flow in human striate cortex, de- controlled, fMRI study in healthy subject, Neuroi-
monstrated by positron emission tomography, J. Neu- mage, vol. 15, no. 1, pp. 26–36, 2002.
rophysiol., vol. 51, pp. 1109–1120, 1984. [31] E. Lumer, G. Edelman, et G. Tononi, Neural dyna-
[17] P. Fox et M. Raichle, Stimulus rate determines regio- mics in a model of the thalamocortical system. part 1.
nal brain blood flow in striate cortex, Ann. Neurol., layers, loops, and the emergence of fast synchronous
vol. 17, pp. 303–305, 1985. rhythms, Cereb. Cortex, vol. 7, pp. 207–227, 1997.
[18] Z. Ghahramani et D. Wolpert, Modular decom- [32] E. Lumer, G. Edelman, et G. Tononi, Neural dyna-
position in visuomotor learning, Nature, vol. 386, mics in a model of the thalamocortical system. part 2.
pp. 392–395, 1997. the role of neural synchrony tested through perturba-
[19] Z. Gharhamani, Computational models of sensorimo- tions of spike timing, Cereb. Cortex, vol. 7, pp. 228–
tor integration, dans Self-organisation, Computatio- 236, 1997.
nal Maps and Motor Control (P. Morasso et V. San- [33] H. McGurck et J. MacDonald, Hearing lips and
guineti, eds.), Amsterdam : North-Holland, 1997. seeing voices, Nature, vol. 264, no. 246-248, 1976.
[20] M. Giard, J. Lavikainen, K. Reinikainen, F. Perrin, [34] M. Mesulam, Large-scale neurocognitive networks
O. Bertrand, et J. P. et al., Separate representation and distributed processing for attention, language,
of stimulus frequency, intensity and duration in au- and memory, Ann. Neurol., vol. 28, pp. 597–613,
ditory sensory memory : an event related potential 1990.
and dipol-model analysis, J. Cogn. Neurosci., vol. 7, [35] D. Michie, D. Spiegelhalter, et C. Taylor, Machine
pp. 133–43, 1995. Learning, Neural and Statistical Classification. Pren-
[21] P. Goldman-Rakik, Topography of cognition : paral- tice Hall, 1994.
lel distributed networks in primate association cortex, [36] M. Minsky, A framework for representing know-
Annu. Rev. Neurosci., vol. 11, pp. 133–143, 1988. ledge, dans The psychology of computer vision
[22] R. L. Goldstone, The role of similarity in categori- (P. Winston, ed.), pp. 211–277, New-York : McGraw-
zation : providing a groundwork, Cognition, vol. 52, Hill, 1975.
pp. 125–157, 1994. [37] M. Minsky, The Society of the Mind. New-York :
[23] S. Grossberg, S. Hwang, et E. Mingolla, Thalomocor- Touchstone Book, 1988.
tical dynamics of the McCollough effect : boundary- [38] J. Pastor, M. Lafon, L. Travè-Massuyès, J.-F. Démo-
surface alignment through perpeptual learning, Vision net, B. Doyon, et P. Celsis, Information processing in
Res., vol. 42, pp. 1259–1286, 2002. large-scale cerebral networks : The causal connecti-
[24] U. Hahn et M. Ramscar, Similarity and Categoriza- vity approach, Biol. Cybern., vol. 82, no. 1, pp. 46–
tion. Oxford University Press, 2001. 59, 2000.
[25] B. Horwitz, M. Tagamets, et A. McIntosh, Neural [39] V. M. Sloutsky, The role of similarity in the deve-
modeling, functional brain imaging, and cognition, lopment of categorization, Trends Cogn. Sci., vol. 7,
Trends Cogn. Sci., vol. 3, pp. 91–98, 1999. pp. 246–250, 2003.
[26] V. Labatut, Réseaux causaux probabilistes à grande [40] L. Smith, S. Jones, et B. Landau, Naming in young
échelle : un nouveau formalisme pour la modélisation children : a dumb attentional mechanism, Cognition,
du traitement de l’information cérébrale. Thèse de vol. 60, pp. 143–171, 1996.
doctorat, Univ. Toulouse III, 2003. [41] P. Tiesinga, J. Fellous, J. Jose, et T. Sejnowski, Com-
[27] V. Labatut, J. Pastor, et S. Ruff, Dynamic bayesian putational model of carbachol-induced delta, theta,
modeling of the cerebral activity, dans Proc. of the and gamma oscillations in the hippocampus, Hippo-
18th Int. Joint Conf. on Artificial Intelligence (IJ- campus, vol. 11, pp. 251–274, 2001.
CAI’03), (Acapulco), pp. 169–174, 2003. [42] X. Wang et G. Buzsaki, Gamma oscillation by synap-
[28] V. Labatut, J. Pastor, S. Ruff, J.-F. Démonet, et P. Cel- tic inhibition in a hippocampal interneuronal network
sis, Cerebral modeling and dynamic bayesian net- model, J. Neurosci., vol. 16, pp. 6402–6413, 1996.
works, Artificial Intelligence in Medicine, vol. 39,
pp. 119–139, 2004.

Vous aimerez peut-être aussi