Vous êtes sur la page 1sur 49

Année 2017-2018

1. Musique et sciences cognitives


Psychologie cognitive = science qui étudie la représentation et le traitement de l’information par les
organismes complexes et donc « la connaissance » au sens large. Elle cherche à spécifier l’architecture
du « système cognitif » et les régularités présentes dans son fonctionnement.

Architecture :
- Représentations : états du système
- Processus : opérations qui les transforment

Cognition = l’ensemble des activités liées à la connaissance objective et subjective. Cela reprend des
capacités très diverses, telles que :
- Perception
- Attention
- Stockage dans différents systèmes de mémoire
- Langage
- Processus de raisonnement, de résolution de problèmes et de prise de décision
- Interaction avec les émotions et les affects

Sciences cognitives = l’ensemble des disciplines qui s’intéressent au fonctionnement de l’esprit.


Neuropsychologie cognitive = approche consistant à étudier des patients présentant des lésions
cérébrales dans le but de comprendre les processus cognitifs normaux en relation avec la structure
cérébrale.

Les neurosciences cognitives se sont construites sur base de progrès méthodologiques qui permettent
l’étude du cerveau de manière sûre (déontologiquement acceptable) en laboratoire :

- Méthode d’imagerie cérébrale fonctionnelle : éléctrophysiologie et mangétoencéphalographie,


hémodynamique.

Les sciences cognitives sont les sciences qui font des inférences sur des états mentaux invisibles.
Objection : il ne peut pas y avoir de science de l’esprit car la science s’appuie sur de l’évidence physique
et on ne peut pas observer les états mentaux. Ce qui est faux ! On peut avoir une science de l’esprit :

- La science étudie souvent des forces invisibles (e.g, la physique)


- Les recherches produisent des résultats reproductibles

Mais nous avons besoin d’évidence physique, objective, observable pour pouvoir faire des inférences
sur les états mentaux invisible. La psychologie cognitive est alors une science du comportement
observable et mesurable.

I. Observation et mesures : illustration de méthodes

Comportementales :
- Différentes méthodes permettent de mesurer la précision et la vitesse de réponse (TRs)
- Chez les individus sains + les effets des lésions cérébrales

Par imagerie fonctionnelle :

- Méthode électrophysiologique (« potentiels évoqués »)


- IRMf et tomographie par émission de positon
- MEG, TMS
1.1 Mesures comportementales

Ce sont des méthodes « classiques » en psychologie et neuropsychologie cognitives. C’est-à-dire l’étude


objective du comportement au travers de la mesure de la performance : %RCs et TRs dans des
conditions expérimentales strictement contrôlées.

1.2 Imagerie cérébrale

= Ensemble de techniques qui permettent :

- De voir l’anatomie du cerveau (ses structures), et donc de mieux diagnostiquer certaines


maladies (tumeurs ou autres) = l’imagerie structurelle
- De mieux comprendre comment fonctionne le cerveau, en le « regardant fonctionner » =
imagerie fonctionnelle qui a introduit une véritable révolution dans l’étude du cerveau.

1.3 Différentes techniques d’imagerie fonctionnelle : deux grandes catégories

Méthode Méthodes « hémodyamiques »


« électromagnétiques » et « métaboliques »
Exemples - EEG - TEP
- MEG - IRMf
Action Reflètent directement l’activité Ne reflètent pas directement
électrique au niveau des l’activité des synapses, mais
synapses des neurones mesurent les conséquences de
cette activité au niveau de la
circulation du sang et du
métabolisme = de ce qui est
consommé par les neurones
quand ils travaillent (e.g, sucre
et oxygène)
Avantages - Très bonne RT - Bonne RS (la meilleure
= IRM)
Désavantages - Mauvaise RS Faible RT
Certaines techniques sont
invasives : TEP, IRMf

Les potentiels évoqués : mesurent directement, au moyen d’électrodes placées sur le scalp, les
variations de l’activité électrique cérébrale en réponse à la présentation d’un événement particulier :
un mot, un accord de musique, etc.

II. Activité électrique du cerveau : les neurones et synapses

Chaque neurone est une entité individuelle. Le cerveau humain comprend +/- 10 à 100 milliards de
neurones. Mis bout à bout, cela correspond plus ou moins à la distance de la terre à la lune. Les
neurones transmettent de l’information à d’autres neurones, certains le font à une vitesse de +/- 350
km/h. Les connexions entre les neurones s’appellent des synapses.
Synapses = relais qui assure la transmission de l’influx nerveux. Le potentiel d’action ou influx nerveux
se propage de proche en proche.

L’existence de l’électricité cérébrale a été démontrée en 1875 par Caton. Le 1 er enregistrement de cette
activité fut réalisé sur un cerveau de chien, en 1913, et sur l’homme ne 1924 qui appela ses
enregistrements « électroencéphalogrammes ».

III. Données électrophysiologiques : étude des potentiels évoqués

= mesure des variations de l’activité électrique cérébrale. Comprend différentes composantes définies
par leur :

- Polarité
- Latence d’occurrence par rapport au début de la stimulation
- Distribution topographique sur le scalp

Les études sur les potentiels évoqués ont notamment tiré parti du fait que, en fonction du contexte, les
auditeurs s’attendent à un évènement linguistique ou musical spécifique.

IV. La MEG

= Magnétoencéphalographie, mesure les champs magnétiques engendrés par les processus neuro-
électriques. Elle a une meilleure résolution spatiale que les potentiels évoqués mais est beaucoup plus
cher.

La MEG et les ERPs mesurent toutes deux l’activité neuronale directement, ont toutes deux une
résolution temporelle excellente, une résolution spatiale beaucoup plus pauvre que les techniques
hémodynamiques et métaboliques. Ceci est dû essentiellement à la conductivité du cerveau : les
potentiels qui sont originaires d’une localisation précise se diffusent beaucoup plus largement sur le
scalp. Il est très difficile de reconstruire la source.

Les méthodes hémodynamiques et métaboliques sont possibles car les neurones qui travaillent ont
besoin d eplus d’énergie et cela provoque des variations très locales du métabolisme du sucre ainsi
qu’une augmentation très locale du débit sanguin et de la présence d’oxygène dans le sang.
V. La tomographie d’émission par positron (TEP)

Permet de mesurer ce changement en mesurant la présence dans le sang d’un isotope (élément
radioactif instable) de l’oxygène via l’injection de produit radioactif.
La technique d’IRMf repose aussi sur la concentration d’oxygène dans le sang et tire parti du fait que
les propriétés magnétiques des globules rouges changent avec la quantité d’oxygène qu’ils
transportent. La localisation des zones cérébrales activées est ainsi basée sur « l’effet BOLD » lié à
l’aimantation de l’hémoglobine contenue dans les globules rouges du sang.

Dans les deux cas, on utilise une méthode de soustraction ou de conjonction. On compare la quantité
de sang et d’oxygène qui arrive dans le cerveau et la quantité d’oxygène gardée par les cellules
nerveuses au repos ou dans une activité différente afin d’identifier et de différencier les régions qui
interviennent pendant une tâche d’intérêt.

Dans les deux cas on utilise un logiciel de type SPM ou Brain voyager. Grâce à un logiciel spécial, on
obtient ensuite des images en couleurs et en trois dimensions, dont la coloration est en relation directe
avec l’intensité de la réponse. Les différentes colorations reflètent ainsi l’intensité du fonctionnement
de la zone observée. Les images obtenues vont donc permettre d’avoir une idée de l’activité des zones
étudiées.

VI. Discussion sur la notion de spécificité et modularité de la musique et du


langage

Jusqu’aux années 80 inclues les études cognitives de la musique étaient rares. Il y avait quelques
pionniers. De nos jours il existe des milliers d’articles scientifiques. Pourquoi cet intérêt ?

La relation entre la musique et les autres systèmes complexes surtout le langage. Examiner les
parallèles et interaction éventuelles entre langage et musique permet de mieux cerner la spécificité de
chacun de ces domaines de traitement.

La spécificité de traitement est moins claire. Rappel : cela concerne des systèmes cloisonnés, spécifiques
d’un domaine, qui ne répondent qu’à des stimuli d’un type particulier.

La spécificité de traitement est intéressante à examiner car la musique et le langage constitue deux
systèmes :

- Qui partagent la même modalité d’entrée (auditive) et parfois, de sortie (chant). Cela montre
l’importance des aspects fréquentiels et temporels.
- Qui partagent des principes d’organisation hiérarchique de constituants, y inclus règles d’ordre
et de récursivité.
- Qui recrutent un vaste réseau de régions cérébrales localisées dans les HG et HD

La spécificité de traitement est une condition essentielle pour qu’un système de traitement puisse être
considéré comme « modulaire ».

VII. Systèmes de traitement modulaire

Systèmes spécialisés, cognitivement impénétrables (non influençables par les connaissances générales,
les croyances ou les attentes). Avec une architecture neurale fixe, rapides et irrépressibles.

VIII. Musique et autres domaines de traitement : deux positions


« caricaturales »

a. La musique n’est qu’un « produit dérivé » de nos habiletés cognitives générales

Idée défendue par Pinker (1997). Elle est issue de l’assemblage d’autres compétences qui n’étaient, à
l’origine, pas destinées à servir la fonction musicale. L’idée que la musique est quelque chose d’inutile
pour les humains est souvent associée à ce point de vue.

Cela rentre dans une perspective d’adaptation comme quoi la psychologie serait enracinée dans la
biologie. L’esprit a évolué sous la pression de la sélection naturelle et a ainsi développé un certain
nombre de « modules mentaux » ou « softwares » cognitifs destinés à résoudre des problèmes
d’adaptation spécifiques.

En plus des organes des sens on retrouve des adaptations pour la compréhension du langage, de
l’arithmétique, et autres esprits humains = ToM

Bien qu’on débatte encore et toujours de l’origine du langage humain, il y a un large consensus sur le
fait que ce système se soit mis en place via la sélection naturelle, probablement parce qu’une
communication plus efficace, plus précise, a aidé les premiers humains à survivre et à se reproduire.
Cependant, en ce qui concerne la musique, même son importance en termes d’évolution est sujet à
débat.

Pinker postule que la connaissance peut être adaptative, mais le plaisir apporté par l’art est simplement
une exploitation non-adaptative de sources adaptatives de plaisir. (la phrase qui te retourne le cerveau)

Selon lui, on pourrait fonctionner sans musique, sans que cela ne mène à une perte significative dans
notre capacité à fonctionner. Pour lui la musique ne serait pas plus qu’un cocktail de drogues
recréationnelles. En effet, la musique active les mêmes zones (centres de récompense ou de plaisir) qui
sont associés à la nourriture ou au sexe.

La perception des sons musicaux s’effectue dans une région du cerveau d’évolution récente : le cortex
auditif. Le traitement mélodique (mélodies vs. notes aléatoires) est réalisé dans la partie antérieure du
gyrus temporal supérieur.
Toutefois, l’information musicale est aussi traitée dans d’autres parties du cerveau avant de se rendre
au cortex auditif. Des régions du cerveau relativement « primitives » contribuent ainsi à notre réaction
affective à la musique.

Le frisson musical : activation des réseaux cérébraux de la récompense/motivation. La musique active


dans le cerveau les centres de récompense ou de plaisir qui sont associés à la nourriture ou au sexe. Ces
réseaux sont connus pour être associés à d’autres stimulations plaisantes, notamment la consommation
de chocolat.

Mais du coup, on postule que la musique pourrait se comporter comme un « parasite » des autres
systèmes. Et que l’impact de la musique sur les humains reposerait simplement sur leur prédisposition
naturelle pour la parole. En effet, elle pourrait reproduire, en les exagérant, certaines caractéristiques
de la parole comme l’intonation et la tonalité affective, caractéristiques très efficaces pour créer des
liens. Nous pourrions donc analyser le contour mélodique de la musique en activant les mécanismes
traitant l’intonation dans la parole.

Selon cette idée, la musique aurait envahi les « modules » du langage et se serait perpétuée dans toutes
nos cultures en raison de sa capacité à faire collaborer un ou plusieurs « modules » évolués. Ces
attaches dans plusieurs « modules » auraient pu jouer un rôle crucial dans le développement du pouvoir
de la musique. C’est une idée qui est générale par rapport aux créations artistiques, d’objets culturels,
pas seulement la musique.

Sperber et Hirshfeld : Cela propose le


même genre d’argument en ce qui
concerne les arts visuels. Par exemple,
les masques, les peintures de visage, les
caricatures, les portraits, gravures,
sculptures, maquillages etc. Selon ce
point de vue, tout cela profiterait d’un
module de départ qui est
extraordinairement important pour le
nouveau-né, qui est celui de la
reconnaissance de visage qui est
essentiel pour reconnaitre ses proches,
ses alliées. Et va bien entendu se greffer
là-dessus tous ces aspects culturels qui
vont profiter du fait qu’il y ait ce module
pour les visages, pour s’élaborer en
tirant parti de ce modèle initial. Les
chercheurs proposent de distinguer le
domaine propre d’un module : la reconnaissance des visages, et le domaine des faits qui englobe tous
les arts de la représentation qui utilisent la représentation des visages.

Toutefois, il existe peu d’arguments en faveur de cette perspective « parasitaire » :

- Il est difficile de préciser la direction des causes et des effets entre musique et langage, la
musique aurait très bien pu apparaitre la première, on ne le sait pas.
- Musique et plaisir : les différentes études peuvent tout aussi bien impliquer que la musique est
aussi importante pour nous que les stimuli reliés à la survie biologique : « bien que nous
puissions en théorie, vivre et nous reproduire sans la capacité d’apprécier la musique, celle-ci
semble importante pour ce qui est de notre bonheur et de notre bien-être ».
b. La musique est « spéciale » tout comme le langage

La capacité musicale est perçue comme une adaptation évolutive, façonnée par la sélection naturelle
et guidée par les gènes. Cela s’oppose à l’idée que les habiletés musicales sont considérées comme le
résultat de capacités d’apprentissage générales pouvant renvoyer au scenario de tabula rasa.

La musique serait ancienne et universelle dans toutes les cultures à toutes les époques  ce serait une
adaptation biologique. Ce point de vue disant que la musique est nécessaire à notre survie et qu’elle
active des réseaux tout aussi importants que la nourriture et le sexe est lié au fait que la musique serait
quelque chose d’aussi spécial que langage.

Cette idée est appuyée par la découverte des flûtes Néanderthalienne en Europe, ce qui montre qu’un
instinct musical s’est développé chez les humains il y a déjà des millénaires.

Aujourd’hui, on envisage l’apparition du langage en deux étapes :


- Langage primitif ou protolangage parlé par Homo Erectus
- Langage complexe avec Homo Sapiens qui est une forme proche de la communication actuelle.

Cependant, l’argument comme quoi la musique est omniprésente dans toutes les époques et cultures
et que cela montre qu’il s’agit d’une adaptation biologique est totalement faux.

Contre-argument : La maîtrise du feu. Cela remonte à très loin, un million d’année, avec une
fréquence accrue avec le temps, et là on retrouve des traces. Cela se retrouve dans toutes les
cultures humaines et peu de gens contestent que ce soit une innovation technologique de
maîtriser le feu. L’universalité d’un trait ne prouve pas que ce trait vienne d’une évolution
biologique. L’universalité du trait est expliquée par le fait qu’il fournit des choses qui sont
universellement appréciées par les humains comme cuire les aliments (meilleure alimentation,
plus d’énergie au cerveau), avoir chaud, voir des endroits sombres (activité nocturne).

Donc l’exemple du feu montre que le fait qu’un trait humain soit universel et ancien ne suffit pas
pour supposer qu’il ait été une cible directe de la sélection naturelle.

IX. Autre perspective : la musique aurait une fonction

La musique aurait trois fonctions possibles :


1) Attirer des partenaires sexuels
2) Cohésion du groupe
3) Mise en place de relations affectives entre parents et enfants
A. Attirer des partenaires sexuels

Darwin postulait que tous les animaux tentaient de séduire un partenaire par la mise en place de
stratégies. La musique serait une stratégie pour séduire un partenaire. Les sons des animaux ont en
général évolué pour servir des fonctions de reproduction. Exemple : grenouilles, souris, oiseaux,
alligators, certains singes produisent des sons seulement en période de reproduction.

L’envie de jouer de la musique serait donc une manière d’impressionner les partenaires sexuels
potentiels par la qualité de son cerveau et, indirectement, celle de ses gènes. Les mâles comme les
femelles pourraient utiliser cette tactique pour impressionner leurs conquêtes et/ou attirer les
partenaires.
Pour les Hommes l’envie de jouer de la musique serait comme l’envie de pousser ces cris chez les
animaux. Cela ferait passer le message que l’on a un cerveau qui fonctionne et que l’on a de bons gènes.
Miller a publié un article sur les rockstars entre autres, notamment sur Jimi Hendrix en expliquant qu’il
a eu beaucoup de groupies, de conquêtes sexuelles, et enfants, grâce à sa musique. Plus récemment, il
y a eu plusieurs articles plus sérieux qui semblent appuyer en partie l’idée du rôle de la musique dans la
sélection sexuelle.

Dans un article on montre que seules les femmes qui étaient dans la phase fertile du cycle de
reproduction préféraient des compositeurs de mélodies complexes par rapport à des mélodies simples,
comme partenaires sexuels à COURT terme et non à long terme. Elles n’avaient pas de préférence pour
des patrons visuels complexes par rapport à des plus simples, il ne s’agissait donc pas simplement d’une
attraction générale vers une personne plus créative.
Un autre article a suggéré que le côté excitant d’une musique (« l’arousal » musique vive et soutenue)
renforce l’attraction sexuelle que les femmes déclarent éprouver envers des hommes lorsqu’on leur
montre des photos de leur visage.

Mais il y a d’autres études sérieuses également, dont une étude sur des jumeaux, qui essaie de vérifier
l’hypothèse du rôle de la musique dans la sélection sexuelle en testant une série de prédictions, telles
que :
- Les individus musicalement habiles et actifs devraient avoir un plus grand succès
d’accouplement que les individus moins doués.
- Si l’habileté musicale fonctionne comme indicateur de la qualité génétique, elle devrait être
associée à d’autres traits supposés être eux aussi liés à la qualité génétique (e.g. intelligence
générale, QI)
- Ces associations découleraient alors d’influences génétiques

Pour vérifier cela on fait passer aux jumeaux un Test d’aptitude musical. Ils distinguent bien évidemment
l’aptitude musicale de l’apprentissage formel de la musique, d’être musicien. Ils regardent si l’aptitude
musicale est liée au taux de réussite de l’accouplement, au nombre de partenaires sexuels, à l’âge du
premier rapport sexuel, à la socio-sexualité, au nombre d’enfants. Comme Ils étudient les jumeaux ils
savent départager l’aspect génétique et culturel.
Conformément aux prédictions, les hommes présentant des scores plus élevés sur l’échelle de
réalisation musicale avaient plus d’enfants.

Cependant, toutes les autres associations avec les mesures d’accouplement étaient soit non
significatives, soit significatives mais dans le sens opposé aux prédictions : les femmes présentant des
scores plus élevés sur l’échelle de réalisation musicales avaient moins de partenaires, et les femmes et
hommes avec des scores plus élevés à l’épreuve d’aptitude, ainsi que les femmes présentant des scores
plus élevés sur l’échelle de réalisation musicale, avaient un âge plus élevé au 1 er rapport sexuel. Enfin,
les hommes et les femmes qui avaient obtenu un meilleur score au test d’aptitude ou à l’échelle de
réalisation musicale avaient des scores plus faibles de socio-sexualité. Les corrélations génétiques entre
aptitudes musicales et les mesures d’accouplement étaient toutes non significatives. Seule la corrélation
entre l’aptitude musicale et l’intelligence générale chez les hommes était expliquée génétiquement.

Bien qu’il y avait des corrélations phénotypiques positives entre réalisation musciale et QI significatives
chez les hommes, les corrélations génétiques n’étaient pas significatives (pour les deux sexes).

 Ces résultats semblent donc apporter peu de soutien pour un rôle de la sélection sexuelle dans
l’évolution de l’habileté musicale.

Mais une explication alternative serait cohérente avec l’hypothèse de la sélection sexuelle :

Les femmes font un compromis le long de deux dimensions : indicateur de bons gènes/fitness vs. bon
investissement. Ce dernier comprenant le potentiel d’acquisition des ressources, mais aussi de chaleur,
stabilité émotionnelle et gentillesse. Des indicateurs potentiels d’être un « bon père » ou un « bon
partenaire ». Donc emphase sur les relations de couple à long terme et la qualité de cette relation plutôt
que sur la quantité.

Donc l’habileté musicale serait plutôt un indicateur de « bon père » ou de « bon partenaire » signalant
l’auto-discipline et ouverture (traits connus pour prédire la pratique musicale) et la stabilité
émotionnelle ou gentillesse (jouer d’un instrument a été associé à la compétence émotionnelle).

Ceci est cohérent avec le fait que les hommes à forte réalisation musicale ont plus d’enfants (mais pas
plus de partenaires) et un focus plus fort sur des partenaires à long terme chez les individus
musicalement talentueux ou musicalement fortement réalisés (socio-sexualité plus basse).

Cependant, il n’y a pas de corrélation génétique entre forte réalisation musicale et nombre d’enfants,
ni d’association entre aptitude musicale et nombre d’enfants. Les données sont donc également
compatibles avec l’idée que la musicalité n’est pas la cible directe de la sélection, mais peut être cooptée
de mécanismes qui ont évolué pour d’autres fonctions qui, elles, ont été plus directement sélectionnées
comme suggéré par Pinker.

B. Cohésion de groupe

La musique est présente dans toutes sortes de rassemblements : cérémonie, rituels religieux, etc. ce
qui renforce les liens interpersonnels et l’identification avec le groupe d’appartenance. Phénomène de
contagion (mouvement, vocalisation, émotions  Selon certains, le pouvoir de la musique est cette
capacité à faire interagir les individus). On commence à danser tous ensemble, chante tous ensemble,
etc.
La musique génère une communion émotionnelle par un processus de « contagion émotionnelle » =
tendance à imiter automatiquement et à synchroniser ses vocalisations et ses mouvements avec ceux
d’une autre personne, vibrer ensemble, aux mêmes émotions.
Le pouvoir de la musique (ainsi que de la danse) tiendrait de cette capacité à faire interagir les individus.
La capacité d’interagir, de coopérer nous distingue justement des autres grands primates. La musique
engendrerait une plus grande conscience sensorielle et une plus grande coopération sociale.

C. Mise en place de relations affectives entre enfants et parents

La musique est très importante pour les bébés. Dès la naissance de leur enfant, les parents du monde
entier utilisent intuitivement le chant pour réguler son état, le réconforter, attirer son attention,
partager des émotions. Les chants des parents d’adaptent totalement aux besoins des enfants. Le baby
talk est également important pour la mise en place de relations affectives.
Les adultes s’adaptent aux compétences et préférences des bébés (tout comme le langage) :

- En chantant plus lentement


- Avec une voix plus aigue
- Avec des pauses allongées
- D’une façon plus aimante ou plus engagée émotionnellement que lorsqu’ils chantent seuls
- Avec une plus grande variabilité de hauteur et un rythme exagéré (chansons ludiques
seulement)

Trainor (1996) a réalisé une étude sur les préférences musicales pour ces chansons :

15 mères devaient enregistrer la même chanson en présence ou en l’absence de leur bébé (âgé de 4 à
7 mois)
Dans l’étude 1 : 50 adultes ont jugé les chansons interprétées par les mères ( très facile de distinguer
chansons avec et sans bébé)
Dans l’étude 2 : ils ont utilisé 60 bébés (5-6mois) et ont réalisé un test de préférence. Ils ont mis en place
une procédure de préférence visuelle. Résultat : les bébés préfèrent les chansons qui avaient été
enregistrées en présence du bébé et préfèrent les versions jugées comme plus tendres par les adultes.

Masataka (1999) : réceptivité à ce chant destiné aux enfants semble innée :

15 enfants entendant âgés de 2 jours et nés de parents sourds. Ecoute de chansons ludiques dirigées
vers le bébé ou vers les adultes. ll n’y avait donc ni langage, ni chant à la maison, ils n’avaient aucune
expérience avec le chant. Ils font ensuite une procédure de préférence visuelle. Résultats : préférence
vers chansons dirigées vers bébé.
Dès l’âge de 2 jours, les bébés entendant de parents sourds congénitaux (qui s’expriment en langue des
signes et ne parlent pas) préfèrent le chant destiné aux bébés plutôt que celui destiné aux adultes (pas
de chant ni de caractéristiques verbales à la maison).
La force de la communication émotionnelle par le chant sur les bébés (et même sur des nouveaux nés
entendant mais de parents sourds) suggère existence d’une prédisposition biologique.
Mais la propension à écouter musique pourrait être la seule à être innée, les habiletés musicales et la
« musicalité » ne le sont pas nécessairement !

Selon Trehub et Hannon : il pourrait y avoir deux systèmes :


- L’un serait inné, avec pour fonction d’attirer l’attention des enfants vers la musique = système
de détection de la musique.
- L’autre pourrait être un système général qui acquiert les règles musicales par apprentissage (y
compris implicite) et expérience

1. L’amusie

I. Comment étudier les interactions entre musique et langage ?

En neuropsychologie il existe des dissociations fonctionnelles entre musique et langage.


Ex : Amusie et aphasie.

L’amusie est un trouble de la perception et/ou de la production musicale.


L’aphasie est un trouble de la compréhension et/ou de la production du langage.

a. Symptômes

Perception : difficulté à percevoir la mélodie et parfois le rythme.


Production : Incapacité à chanter juste
Mémoire : incapacité à reconnaitre un morceau de musique familier.

Il existe plusieurs types d’amusie :

- Amusie acquise : trouble acquis de la perception et/ou de la production musicale, perte des
aptitudes musicale suite à une lésion cérébrale.
- Amusie congénitale : déficit de la perception et/ou de la production musicale tout au long de la
vie, sans lésion cérébrale.

L’amusie congénitale (+ /- 2% de la population) est un trouble d’apprentissage de la musique, présent


dès la naissance et qui n’est pas attribué à une perte auditive, une lésion cérébrale, une déficience
intellectuelle ou un manque d’exposition à la musique. L’amusie congénitale peut prendre plusieurs
formes. Sa forme la plus courante (ou la plus étudiée) se caractérise par une incapacité à :

- Reconnaitre une mélodie familière sans l’aide des paroles


- Détecter des fausses notes
- Juger si quelqu’un chante faux (y compris soi-même)

Les gens sont généralement indifférents à la musique, ils n’ont pas le plaisir.

L’amusie acquise est une perte des facultés à traiter les informations musicales suite à une lésion
cérébrale sans aucun problème auditif ni autre déficience cognitive. Elle résulte de lésions temporales
bilatérales + frontales. Elle est souvent ignorée chez les non-musiciens (pas de plaintes, autres
problèmes).
Parmi les amusies acquises il existe plusieurs types d’amusie :

- Amélodie sans arythmie


- Arythmie sans amélodie

Effectivement, il existe un traitement indépendant des relations mélodiques et temporelles dans la


musique.
Des lésions cérébrales peuvent affecter de manière sélective la discrimination des relations de hauteur
(=traitement mélodique), tout en laissant celle des relations temporelles préservée.

Cas CN : patient avec lésions bilatérales du cortex auditif temporal


supérieur, manifestait des dissociations fonctionnelles dans le
domaine auditif.
B. Comment diagnostiquer l’amusie ?

A l’aide de la Montreal battery of evaluation of amusia (MBEA). Il s’agit d’une batterie composée de 6
tests. Il existe plusieurs conditions de jugement d’égalité ou de différence :
- Test de la discrimination tonale
- Test de la discrimination du contour mélodique
- Test de la discrimination des intervalles mélodiques
- Test de la discrimination du rythme
- Test de la perception de la métrique
- Test de la mémoire (reconnaissance de mélodies non-familières)

On pense que l’amusie résulterait d’un problème de connectivité entre le lobe temporal et le lobe
frontal inférieur droit.

Performance de CN lorsqu’il doit dire si les morceaux


sont pareils ou différents

Si le rythme et la mélodie sont dissociés que les amusiques alors un changement mélodique
provoquerait un effet de type Stroop dans une tâche sur le rythme chez des sujets sains. Le même
changement ne provoquerait pas d’effet de type Stroop chez CN.
L’effet Stroop montre qu’on ne peut pas s’empêcher de lire des mots : la lecture est devenue
automatique car on a beaucoup de pratique. On a beaucoup moins de pratique de nommer la couleur
physique d’un objet, et pourtant c’est ce qu’on nous demande de faire dans cette tâche. Comme on a
tendance à lire les mots automatiquement, on est face à un « conflit » : c’est-à-dire qu’il faut choisir
l’action adéquate à la situation parmi plusieurs actions possibles. Donc pour bien faire l’expérience il
faut surveiller ce qu’on fait, c’est-à-dire « inhiber » des informations non pertinentes (le sens des mots)
pour bien faire l’action demandée (identifier la couleur physique) .

Quel lien entre Stroop et la musique ?

Même mélodie Mélodies différentes


Même rythme Congruent Incongruent
Rythmes différents Incongruent Congruent

CN n’est plus affectée par l’incongruence ou la congruence de la mélodie dans une tâches de
différenciation ou semblables portant sur le rythme.

Effet « Stroop » chez les sujets sains Effets « Garner » chez CN

CN était aussi incapable de reconnaitre les mélodies (6% RC nomination), même celles de sa propre
collection de disques (8% RC), et ne parvenait pas à juger correctement de leur familiarité (35% RC),
alors qu’elle distinguait facilement une valse (3 temps) d’une marche (2 temps) : 81% RC (contrôle : 82%
RC moyenne)

Le déficit de CN était une amélodie sans arythmie (déficit de reconnaissance des mélodies vs. du
rythme). Cela ne peut pas être attribué à une perte générale de la mémoire auditive ou du traitement
séquentiel. Le traitement de la mélodie n’est pas réalisé grâce à une architecture à caractère général
mais par des sous-systèmes corticaux spécialisés qui résident dans les aires lésionnées.

Sept ans après son opération du cerveau, on effectue un suivi de CN :

- Récupération spectaculaire du traitement mélodique


- Pas d’amélioration de son agnosie musicale

Elle montre une perte de la reconnaissance des mélodies persistante, même si le traitement perceptif
du signal musical redevient normal. L’amusie aperceptive s’est transformée en amusie associative.
II. Amusie et déficit du traitement de la structure tonale

CN réalise une tâche « d’achèvement » ou « tonal


closure ». Il doit décider si les mélodies se
terminent par la tonique ou une autre note dans
la clef

Des études ont également été réalisée sur la patiente IR (amusique avec le même patron que CN). Elle
présente :

- Un déficit de reconnaissance de mélodies, paroles OK


- Ne perçoit pas la dissonance

Inversement, la discrimination rythmique peut être affecté alors que le traitement mélodique est
préservé.

e.g : musicien professionnel présentant une lésion


gauche temporo-pariétale.
La double dissociation entre le traitement mélodique et temporel est aussi observée :

- Dans le chant
- Dans la lecture musicale : hauteur sur partition + clé vs.note et métrique

Cette double dissociation entre traitement temporel et mélodique suggère que ces deux dimensions
impliquent des sous-systèmes neuraux séparés.

Cette idée a été confirmée par les effets d’excisions cérébrales focales :

Cotrex temporal gauche

Cortex temporal droit

 Perte du rythme, en perception et  Perte de la mélodie, en perception et


production production qui ne peut pas s’expliquer par une
simple perte de la discrimination de la hauteur
des notes.

III. Dissociation musique – langage

Le déficit de reconnaissance de CN est spécifique à la musique. On a appliqué le test de Boston


(détection d’aphasie) qui était bon. Il n’y a pas de déficit de reconnaissance de sons non musicaux (e.g. :
les cris d’animaux, bruits humains ou de l’environnement : 98% RCs) sauf bien sûr pour les instruments
de musique, qu’elle reconnait très mal (2/6) et ne reconnait même pas l’instrument joué par son père.
Elle n’a cependant aucun mal à discriminer les instruments entre eux, et les voix célèbres.
IV. Chant et amusie

Le chant est du domaine du langage et de la musique combinés. S’il y a des interactions entre musique
et langage cela devrait être plus marqué dans le chant. S’il une indépendance est montrée dans le chant
c’est un argument beaucoup plus fort.

La patiente CN reconnaissait les paroles mais pas les mélodies. Elle est pourtant capable de retrouver
les paroles sur base du titre, et de décider si les paroles correspondent au titre elle savait parler mais
pas chanter.

L’amusie montre elle que la musique est un module de traitement spécialisé ?

La plupart des gens sont experts en langage et assez naifs en musique… Même si la musique est un sous-
système du langage, elle souffrirait plus que le langage en cas d’atteinte à un système général de
reconnaissance auditive.

 On ne devrait pas observer d’atteinte sélective de la mélodie chez les experts musiciens : les
musiciens experts ne devraient pas devenir amusique

 On ne devrait pas observer d’atteinte sélective de la reconnaissance des mots, sans perte de la
reconnaissance musicale : l’aphasie devrait toujours être associée à l’amusie.

Or nous allons voir que les musiciens experts peuvent devenir amusiques et que l’aphasie sans amusie
est fréquente. Les musiciens experts peuvent devenir amusiques, leur expertise musicale ne les
« protège » pas de l’amusie.

Schon et al (2004) ont étudié l’atteinte sélective du chant sans déficit verbal chez un musicien. Ils ont
pris un musicien amateur de haut niveau avec une lésion de l’hémisphère droit (gyrus frontal inférieur,
partie importante du lobe temporal postérieur et partie inférieure du lobe pariétal).

La reconnaissance et la discrimination musicale étaient parfaite, dans le chant, il était sélectivement


affecté pour les intervalles, par pour les contours ni pour le rythme. La parole était intacte en perception
et en production.

Teao et al (2006) ont étudié l’amusie vocale chez un chanteur professionnel de tango. Il présentait une
lésion de l’hémisphère gauche (cortex temporal supérieur, s’entend jusqu’au cortex pariétal inférieur,
gyrus supramarginal et partie postérieure du gyrus post-central inclus, ainsi que l’insula postérieur). Il
était affecté pour la perception de la hauteur ( de 1 à 2 ½ tons), du timbre et de l’intensité et affecté
pour la production vocale ( au-delà de 1 à 2 ½ tons). Il ne présentait pourtant pas d’aphasie.

L’aphasie sans amusie est donc fréquente, il peut y avoir une atteinte sélective de la parole chez les
nons-musiciens et des experts musicaux aphasiques.

A Racette a étudié l’aphasie sans amusie à l’aide d’une tâche :

- Rappel de notes et mots de chansons familières


- Répétitions des paroles de chansons nouvelles

Les aphasiques non fluents peuvent produire des chansons reconnaissables ou du moins des mélodies
reconnaissables : ils produisent autant d’erreurs de parole dans le chant qu’en parlant. Chanter ne les
aide pas à parler. La production verbale chantée ou parlée, utilise le même système (ici perturbé)
d’expression du langage et ce canal est distinct du système (ici intact) de production de la mélodie.

Les notes sont mieux produites que les mots par les aphasiques. Ils ne produisent cependant pas plus
de mots en chantant qu’en parlant sauf si on chante avec eux. Y a t’il rôle de la synchronisation et/ou
des neurones miroir ?

V. Les experts musicaux aphasiques.

Maurices Ravel, suite à une maladie neurologique dégénérative (maladie de Pick) souffrait d’une
atteinte de l’hémisphère gauche et d’aphasie. Bien qu’il ne pouvait plus retranscrire les mélodies, il les
percevait encore très bien.

NB : L’habileté à lire et écrire peut aussi être affectée sélectivement pour la musique

VI. Alexie musicale

Des lésions cérébrales peuvent affecter l’habileté à lire des lettres et des mots tout en préservant la
lecture musicale

Signoret et al ont étudié le cas de monsieur JL. C’est une organiste aveugle depuis l’âge de 2 ans : suite
à un infarctus de l’artère cérébrale moyenne gauche, le patient est devenu incapable de lire des lettres
et des mots en Braille, mais est toujours capable de lire la musique en braille, dans lequel la même
constellation de points correspond soit à une note soit à un mot.
Elles sont écrites en suivant l’alphabet, avec, pour
équivalence, d = do

VII. En résumé

Suite a une atteinte cérébrale, le traitement de la mélodie peut être dissociée de celui de la parole (et
vice-versa), tant à l’écrit qu’à l’oral, tant en reconnaissance qu’en production, y inclus dans le traitement
des chansons.

Il existe une double dissociation amusie (amélodie) et aphasie. C’est un argument pour la spécificité de
traitement de certaines dimensions musicales.

L’oreille absolue
I. Expertise musicale et oreille absolue (absoute pitch, AP)

1.1 Définition

Oreille relative : déduction de la hauteur d’une note de musique par le calcul de l’intervalle qu’elle
forme avec une note de référence. Cette capacité est commune.

Intervalle = distance entre deux degrés d’une gamme musicale.

Oreille absolue (OA- ou « oreille parfaite » ; « absolute pitch » AP) : capacité à identifier (et à produire)
la hauteur tonale d’une note musicale en l’absence de référence externe.

L’oreille absolue a été relevée chez de nombreux compositeurs et musiciens talentueux, comme
Mozart, Beethoven, Bach, Handel, Chopin, Toscanini, Menuhin, Rubinstein,…
Généralement elle est considérée comme la marque d’un don mystérieux et extraordinaire.

1.2 Test de l’oreille absolue

Cette expérience a été réalisée par Bermudez & Zatorre (2009) ils ont utilisé 108 tons (sinusoidaux)
d’une seconde chacun, 24 hauteurs tonales distribuées sur 3 octaves (C3-B5) d’intensité variable, en
ordre aléatoire. L’expérience a été réalisée sur 51 musiciens dont 27 se déclaraient OA. Les autres
musiciens avaient le même âge que les non-OA (M=23 ans), le même nombre d’années de pratique,
(M=16/17 ans), mais les OA ont commencé un peu plus tôt (M=5.46 ans VS. 6.95 ans)

La MAD = autre mesure de la précision


de la réponse : déviation absolue
moyenne (mean absolute deviation).

Les notes qui correspondent aux touches noires (non-diatoniques) sont moins bien identifiées (et plus
lentement) que les notes correspondant aux touches blanches (diatoniques).
Les touches blanches du clavier du piano sont construites sur les intervalles de l’échelle diatonique.
L’échelle diatonique est une échelle dont la gamme contient 7 degrés, composée de 5 tons et 2 demi-
tons. Cette échelle est à la base de la musique occidentale. Chaque degré porte un nom qui se répète
de façon cyclique, soit du grave vers l’aigu : do, ré, mi, fa, sol, la, si, do, et à nouveau do,…

En divisant tous les tons en demi-tons, on obtient une échelle chromatique (chaque degré peut être
« altéré », abaissé ou élevé d’un demi-ton).

Il existe deux explications à ce phénomène :

• Fréquence : les notes et noms de notes correspondant aux touches noires sont moins
fréquentes.
• Précocité d’apprentissage : lors des leçons de musique, surtout de piano, on apprend
généralement les notes correspondant aux touches blanches avant les notes correspondant aux
touches noires. Le clavier de piano est agencé de manière à former la gamme de do majeur ( c
). C’est donc un point de départ pratique.

Les touches noires sont identifiées en fonction de leur relation de voisinage avec les touches blanches.
Donc avant de pouvoir identifier les touches noires, on dit apprendre à ientifier les blanches.

Conséquences :

Les notes correspondant aux touches blanches étant apprises avant les notes correspondant aux
touches noires  OA peut se développer pour les notes correspondant aux touches blanches avant de
se développer pour les notes correspondant aux touches noires.

Selon l’idée que OA s’acquiert précocement, les enfants perdent peu à peu la capacité à développer
l’OA. Cette perte pourrait arriver avant l’apprentissage de tous les types de notes  OA partielle, cas
seulement pour les notes correspondant aux touches blanches.

1.3 Un phénomène de mode

L’oreille absolue est cependant un phénomène très « à la mode ». Il existe de nombreux tests en ligne
sur internet. Pourquoi ?

a. C’est un phénomène rare, il touche environ 1 personne sur 10 000 en occident et en très grande
majorité des musiciens.
b. C’est une capacité mystérieuse car elle dépasse de loin celle de monsieur/madame-tout-le-
monde.

c. Il y a des différences visibles dans le cerveau.

En effet, cette capacité dépasse de loin celle de Monsieur Madame tout le monde. Le traitement de
l’information en mémoire chez l’être humain est régit pas la règle du 7 +/- 2 : pour la plupart des
continuums psychophysiques unidimensionnels (e.g. les fréquences audibles), notre capacité à
identifier de manière absolue ou à catégoriser les stimuli est limitée. Nous sommes capables d’identifier
de manière absolue et constante 5 à 9 stimuli sur toute l’étendue de la « gamme » des stimuli proposés.
Inversement nous pouvons classer de manière constante les stimuli composant cette étendue en 5 à 9
catégories.

Mais les détenteurs de l’oreille absolue eux sont capables d’identifier ou de classer correctement plus
de 60 stimuli ou du moins les 12 notes composant chacune des 5 octaves. OA possèdent en réalité « le
chroma absolu ». En effet, la hauteur a deux dimensions : la hauteur tonale et le chroma, avec le chroma
(=ensemble des sons qui ont le même nom de note) qui se répète à chaque octave. Les OA représentent
le chroma absolu, faisant occasionnellement des erreurs d’octave.

Bermudez & Zatorre (2009)

Comprendre en quoi les oreilles absolues sont différents des non-oreilles absolues pourrait nous aider
à comprendre la mémoire sensorielle auditive et les codages mentaux sous-jacents.

1.4 Caractéristiques de l’OA


Les possesseurs de l’OA ont-ils de meilleures capacités auditives de base ? Ou s’agit-il d’un étiquetage
verbal ?

Fujisaki & Kashino (2002) ont étudié les capacités auditives de base. Leur échantillon était composé de
musiciens divisés en quatre groupes sur base d’un test d’OA :

• AP : musiciens avec > 97% RC


• PAP (partial AP) : musiciens avec entre 65 et 85% RC
• NAP (M) : musiciens avec <25% RC
• NAP (NM) : non musiciens avec <25% RC

Ils leur ont fait passer quatre tests :

I. Le seuil de discrimination de fréquence

Ss entendent deux intervalles successifs (centrés sur soit 1000 soit 987,76 hz) et soit la 1 ère soit la 2ème
note était plus aiguë. La tâche était d’indiquer laquelle était la plus aiguë.

Pour la fréquence test de 987,76 Hz effet S du


groupe ;

- AP différent de NAP (NM)


- PAP différent de NAP (NM)
- NAP (M) différent de NAP (NM)

Il n’y a donc pas d’effet de l’oreille absolue


mais seulement de l’expérience musicale.

II. Le seuil de détection d’un silence = résolution temporelle

SS entendant deux intervalles successifs de bruit et soit le 1er soit le 2ème intervalle était interrompu
par un silence (gap). La tâche était d’indiquer quel intervalle contient le gap.
Aucune différence S entre groupes

Résultats répliqués par Peretz et al (non publié) :

Critère sur base du test de Bermudez : 75% RC.

L’oreille absolue ne semble donc pas s’expliquer par une acuité plus fine. Par contre, l’expertise musicale
confère un avantage général en perception auditive.
Ce ne sont pas les capacités auditives des bases qui font la différence en OA et non OA, mais bien
l’étiquetage verbal. Cet étiquetage est automatique.

1.5 Evidence basée sur « l’effet Stroop »

Etudié par Miyazaki (2004). En fonction de leur score à un test d’identification de notes isolées, les
participants ont été classés en trois groupes :

- « accurate AP » ou « AP1 » > 90% RC


- « inaccurate AP » ou « AP2 » de 50 à 85% RC
- « non-AP » ou « NAP » < 45% RC

Les participants entendaient des syllabes comme « la », « ré » etc, chantées. On leur demandait
ensuite :

- soit de nommer la hauteur tonale, en tenant compte de la note de piano précédente jouant un
rôle de référent (do), tout en ignorant l’identité de la syllabe.
- Soit de répéter la syllabe (« shadowing ») tout en ignorant la hauteur tonale.

Tant les non-AP que les AP souffraient d’une Mais seuls les AP souffraient d’une grosse
interférence pour la nomination de hauteur interférence lorsqu’ils devaient répéter
de notes chantées sur des syllabes congruentes. des syllabes chantées sur une hauteur de
note incongruente.

Les AP présentent un encodage verbal automatique lors de la reconnaissance de la hauteur tonale des
notes musicales. L’oreille absolue n’est pas « l’oreille parfaite » ! Les OA auraient même des
désavantages : difficultés pour la transposition.

La transposition d’un morceau de musique, c’est sa reproduction dans un ton plus grave ou plus aigu
que celui dans lequel il est écrit à l’origine. La transposition ne doit pas changer la perception auditive,
exception faite de la hauteur des sons. On doit donc conserver les mêmes valeurs relatives au niveau
des intervalles entre les notes. E.G. nous avons la mélodie « au clair de la lune » et nous voulons la jouer
en commençant par un FA et non plus par un Do.

Miyazaji & Rakowski (2002) ont étudié cela. Ils ont pris des musiciens, 9 OA et 18 non OA, ils avaient
commencé l’apprentissage de la musique très tot. Ils devaient comparer une partition à la mélodie qu’ils
écoutaient et décider si c’était exactement la même ou non, en respectant la hauteur relative.

Les OA présentent la meilleure performance


pour les mélodies non transposées mais la
moins bonne performance pour les mélodies
transposées. La performance de OR elle,
n’est pas influencée par la hauteur des notes
entendues.

Le cerveau des musiciens

I. Les effets de l’apprentissage de la musique sur le cerveau

Développement plus important des aires motrices et auditives. Il s’agirait d’une interaction entre les
deux systèmes. On mesure des changements au niveau de l’épaisseur corticale et dans la matière
blanche qui font la connexion entre ces aires-là.
L’effet Mozart

Simplement écouter de la musique nous rendrait-il plus intelligent ?

L’effet Mozart sur le QI a été étudie par Rauscher, Shaw & Ky (1993). Ils ont pris 36 étudiants en
psychologie et les ont divisés en trois groupes :

- Silence complet
- Immersion musique de relaxation
- Sonate pour deux pianos en ré majeur de Mozart

Ils ont ensuite évalué le QI spatial (test de raisonnement spatial de Stanford-BinetBinet)

Convertis en QI, les résultats du groupe « Mozart » (119) étaient supérieurs de 8 et 9 points au test
d’intelligence spatiale comparativement aux deux autres groupes (relaxation 111, silence 110).

Critiques :

Cet effet est de courte durée, fugace (10 à 15 minutes), et limité à certaines tâches.

Trois tâches du Stanford-Binet avaient été utilisées :

I. Pattern Analysis
II. Matrices

III. Paper Floding & Cuting

Il s’agit d’une mesure des habiletés spatiotemporelles. Elle consiste à effectuer des opérations de
symétrie, rotation & réflexion en miroir. On illustre un bout de papier avant qu’il ne soit plié, tourné, ou
coupé (1ère ligne). L’image du bout de papier comporte des lignes pointillées indiquant l’endroit du
fléchissement et des flèches indiquant la direction de la flexion, ainsi que des lignes pleines indiquant
les coupures (+rotation/miroir). Les participants doivent choisir parmi un choix de réponse comprenant
cinq possibilités de résultat final lorsque le papier sera déplié. Ici la réponse correcte est la C.
Critiques :

- Seul le test de PF&C mène à un effet !Aucune différence significative entre les groupes pour les
deux autres tâches extraites du Stanford-Binet.
- Aucun prétest n’était effectué.
- Effet peu reproductible

En résume : l’effet Mozart a une incidence lorsque l’écoute de Mozart est comparée à la relaxation,
comparée au silence, l’écoute de Mozart n’augmente pas significativement les habiletés cognitives. Les
résultats sont à peine plus élevés lorsque le PF&C est exclusivement utilisé comme mesure d’évaluation.
Par ailleurs, l’effet est petit : l’augmentation des capacités cognitives produite par l’écoute de Mozart
comparée à la relaxation est loin d’équivaloir à 8 ou 9 points de QI tel que postulé par l’étude initiale de
Rauscher et al.

Cela correspondrait-il a un artéfact de préférence ?

Car l’effet est observé aussi avec d’autres musiques : « effet Schubert », « effet musique pop » plutôt
qu’un effet Mozart chez les enfants. Un effet similaire est même observé avec des contextes non
musicaux : le facteur critique n’est donc pas la musique, mais l’intérêt ou au contraire l’ennui créé par
la situation d’écoute. L’effet Mozart est donc un artéfact de préférence.

Et un artéfact d’humeur ou d’éveil ?

Etude réalisée par Thompson, Schellenberg


& Husain (2001).
Ils ont mesuré le Profile of
Mood States (POMS) pour
mesurer le niveau d’arousal et
d’humeur.

Lors de l’analyse de la covariance ils ont remarqué que lorsque les différences individuelles
d’amusement, arousal et humeur étaient contrôlées, l’effet Mozart disparaissait.

Explications : l’écoute de la musique de Mozart susciterait une activation psychophysiologique optimale


lors de l’exécution d’une tâche. Cette interprétation est compatible avec les travaux classiques sur le
niveau d’activation optimal de la performance : une activation trop élevée ou trop faible inhibe la
performance, alors qu’un niveau modéré d’activation facilite la performance cognitive. Comme la
relaxation diminue sensiblement l’activation, elle entrave peut-être la performance.

Il existe deux facteurs critiques de l’amélioration de performance dans « l’effet Mozart » :

a. Le fait que la stimulation stimule ou non l’attention et provoque un sentiment de


plaisir/intérêt
b. Conséquence du niveau d’éveil et de curiosité ainsi que de l’humeur du sujet au moment de
l’écoute.

Il n’en reste pas moins les stimuli plaisants, comme la musique, qui induisent des affects positifs et
augmentent l’éveil, peuvent mener à des meilleures performances dans les tâches cognitives =
hypothèse « éveil et humeur » et Thompson et al.
Ecouter de la musique plaisante (comme d’autres stimuli plaisants) active le « circuit de la
récompense » : un réseau de régions corticales et sous-corticales inter-connectées, qui inclut le
striatum ventral, le noyau accumbens (NAc), l’amygdale, l’insula, l’hippocampe, l’hypothalamus, l’aire
tegmentale ventrale, (ATV), le cortex cingulaire antérieur, le cortex orbito-frontal et le cortex
préfrontal ventral médial. (système dopaminergique mésocorticolimbique).

La musique est un objet culturel mais qui provoque des réponses émotionnelles aussi intenses que
certaines stimulations biologiquement pertinentes. E.g. réponses corticales et sous-corticales liées aux
expériences hédoniques des « frissons musicaux » dans le « système de récompense ».

L’ATV est particulièrement importante dans ce circuit. Elle reçoit de l’information de plusieurs autres
régions qui l’informent du niveau de satisfaction des besoins fondamentaux ou plus spécifiquement
humains, et transmet ensuite cette information au Nac grâce à un messager chimique particulier, la
dopamine. ATV a aussi des projections directes sur l’amygdale, l’hippocampe, le cingulaire antérieur et
le cortex préfrontal. Les réponses du ATV-NAc semblent être liées à la suppression de stimuli aversifs et
de la douleur, ce qui rendrait compte de l’effet de la musique sur le stress, alors que LC et
l’hypothalamus interviennent dans l’éveil (arousal). Ce système est donc crucial dans l’arousal,
l’émotion, la récompense, la motivation, la mémoire, l’attention et les fonctions exécutives.

Rôle thérapeutique de l’écoute de la musique dans la réhabilitation post-AVC ?


Etudié par Forsblom (2009) ils ont mené deux études en parallèle. Ils ont interviewé 20 patients AVC et
5 infirmières dont l’interview suggère que l’écoute de la musique aide à relaxer, améliorer l’humeur, et
fournir une activation physique et mentale durant les premiers moments de récupération post-AVC.

Sarkamo et al (2008) ont étudié les effets à long terme (6mois) de l’écoute quotidienne (min 1h/jour)
pendant 2mois de musiques ou histoires sur le fonctionnement cognitif, l’humeur et la mémoire
sensorielle auditive, après AVC (artère cérébrale moyenne-ACM) gauche ou droite. Ils ont étudié 54
patients en phase aiguë de récupération, répartis en 3 groupes : écoute de musique ou de livres audio
choisis par eux-mêmes (et qu’ils écoutent seuls, chez eux ou à l’hôpital), et groupe contrôle. Il n’y a
pas de différence de réponse émotionnelle ou de préférence pour ces matériels au départ.

Les trois groupes bénéficient par ailleurs de la même


revalidation neuropsy durant les 6 mois.

Ils ont réalisé un testing neuropsy une semaine après, 3 mois, 6 mois après l’AVC :

• Mémoire verbale : rappel immédiat et différé d’histoire et apprentissage d’une liste de mots
présentés auditivement.
• Mémoire à court terme et de travail : empan de chiffres et tâche d’interférence en mémoire
(deux mots oraux, puis faire une courte tâche verbale ou de calcul mental, puis rappeler les
mots).
• Langage : tests de répétition de mots et de phrases, et de lecture, fluence verbale et
nomination, version abrégée du Token Test.
• Cognition visuo-spatiale : clock task, copie de figures géométriques, version abrégée du
Benton Visual Retention Test et un sous-test du Ballons Tests.
• Cognition musicale : version abrégée de la MBEA
• Fonctions exécutives
• Attention : attention focalisée (soustraction mentale et test Stroop) et attention soutenue :
sous –tests de vigilance et de temps de réaction simple.
• Humeur : version abrégée du POMS

 Pas de différence cognitive ou d’humeur au baseline entre les trois groupes.

Après intervention, une meilleure récupération en mémoire verbale et une meilleure attention focale
(scores par ailleurs significativement corrélés) sont observées dans le groupe musique par rapport aux
deux autres groupes.
Le groupe musique semble aussi moins déprimé et d’humeur moins confuse que le groupe de contrôle.
Pas de différence par contre au niveau du quotient verbal.

Quel est le mécanisme ?

L’état général affectif positif, et/ou augmentation de l’éveil (arousal) et attention = effet général, non
spécifique de la musique sur la cognition.

Cf. hypothèse « éveil et humeur »

Il y a des effets sur la plasticité cérébrale après l’AVC. Cf. patients avec AVC unilatéral ACM, et les régions
impliquées dans le traitement de la musique sont servies principalement par ACM bilatéralement. Donc
écouter de la musique pourrait avoir stimulé à la fois la région péri-infarct dans l’hémisphère atteint et
les régions contra-lésionnelles de l’hémisphère intact, qui normalement montrent une augmentation
de plasticité à ce stade de la récupération.

Le fait que l’écoute e la musique, particulièrement du chant (avec paroles), soit associée à une activité
plus largement distribuée et plus bilatérale que l’écoute de la parole pourrait rendre compte de la
supériorité de la stimulation par la musique par rapport à une stimulation purement verbale, en
particulier chez les patients avec lésion gauche.

Sarkamo et al (2010) ont également étudié la mémoire sensorielle auditive évaluée via MEG par la MMN
magnétique en réponse à des changements de fréquence ou durée des sons. La séquence de stimulus
était la suivante : tons standards et déviants, ceux-ci ayant soit une fréquence plus élevée soit une durée
plus courte que le standard. L’amplitude de la MMNm de fréquence observée dans l’hémisphère droit
augmentait plus dans les groupes musique et livres audio que dans le groupe contrôle durant les 6 mois
post AVC.
De plus, les changements
d’aplitude de fMMNm dans
l’hémisphère droit étaient corrélés
S avec l’amélioration
comportementale en mémoire
verbale et attention focale.

Par contre, l’amplitude de la MMNm de


durée augmentait plus dans le groupe
livre audio que dans les autres groupes.
C’est découvertes montrent que
écouter de la musique et de la parole
après un accident neuronal peut
induire des changements dans la
plasiticité à long terme dans le
processus sensoriel précoce, ce qui en
retour facilite la récupération plus
grande des fonctions cognitives.

L’apprentissage implicite

I. Définition

L’apprentissage implicite = acquisition non intentionnelle de nouvelles informations, de sorte que la


connaissance qui en résulte est difficilement exprimable. Il s’agit de la capacité que nous avons
d’apprendre certaines choses sans le vouloir/savoir.

L’apprentissage implicite est actuellement défini entre autres, par opposition à l’apprentissage explicite,
intentionnel, conscient et contrôlé, c’est-à-dire comme une forme d’apprentissage qualifié de « non
intentionnel », « inconscient » ou « automatique ».

L’apprentissage implicite ou inconscient concerne les régularités qui structurent le matériel, les
relations structurales entre stimuli et non pas l’identité des stimuli, qui eux sont supraliminaux, c’est-à-
dire perçus consciemment.
II. Distinction entre connaissance explicite et implicite

Connaissance déclarative vs. Procédurale : distinction entre « connaitre quoi » et « connaitre


comment »
Savoir qu’un vélo est un véhicule à deux roues avec un guidon fait partie de la connaissance
déclarative, mais savoir comment rouler à vélo fait partie de la connaissance procédurale.

Cela recouvre largement la distinction entre connaissance explicite et implicite : je sais ce qu’est un vélo
mais très peu sur les procédures que j’utilise pour rester en équilibre.

Beaucoup de nos connaissances sont implicites. Implicite et inconscient recouvre des notions
différentes. Les stimuli qui ont des effets sur notre comportement mais qui ne sont pas perçus
consciemment.

III. Applications

Messages sub-liminaux ou quasi-sub-liminaux (images « furtives ») dans la publicité et dans les séries
tv, même dans la politique. Dans ce cas-là implicite se réfère à la nature « subliminale » d’un stimulus
qui n’est pas perçu consciemment.

IV. Apprentissage implicite dans le domaine musical

Jusque récemment ce domaine a été peu étudié. Cependant les régularités statistiques et
l’apprentissage du système tonal ont été étudié :

La spécialisation fonctionnelle des circuits neuronaux permettant le traitement de la musique


émergerait suite à l’exposition répétée à la musique. Mais ceci n’est pas nécessairement un
apprentissage explicite.

L’apprentissage implicite peut aussi être responsable de notre acculturation tonale :

Les recherches en cognition musicale ont montré que les sujets musicalement naïfs (« non-musiciens »)
ont en réalité acquis une connaissance sophistiquée du système tonal dans lequel ils ont grandi, et ce
par simple exposition passive à des morceaux de musique qui obéissent aux régularités de ce système.

Il a été postulé que les non-musiciens seraient des musiciens qui s’ignorent. L’apprentissage implicite
permet d’expliquer pourquoi nous sommes sensibles à la « syntaxe » musicale, même si nous ne
sommes pas musiciens et que nous ignorons tout des règles formelles de la musique tonale.

Syntaxe = ensemble de règles régissant la combinaison d’éléments structurels distincts dans des
séquences, comme les mots dans le langage et les notes dans la musique. La syntaxe musicale concerne
deux dimensions :

- Mélodique (succession des notes)


- Harmonique (accords)
Le système tonal est caractérisé par de fortes régularités statistiques. E.g. régularités concernant la
fréquence de co-occurrence d’évènements musicaux comme les notes et les accords : Do, Mi, Sol
fréquemment associées les unes aux autres. Elles appartiennent toutes à la même clé (do majeur)
et définissent ensemble un accord en do majeur. Les auditeurs deviennent sensibles à cette
régularité : quand ils entendent la note Do, ils s’attendent plus fortement à entendre ensuite les
notes MI et/ou Sol que d’autres notes comme Do# ou Si.

V. Tâche d’achèvement ou de complétion (tonal clos ure)

Tonique = « centre de gravité » d’une tonalité : le degré fondamental ou la note principale, et ce, quel
que soit le mode, majeur ou mineur, de la gamme prise ne considération. Tous les autres degrés d’une
tonalité se définissent par rapport à elle.

Peretz et Kolinsky (1994) ont étudié cela avec des mélodies se terminant par la tonique vs. Non-tonique
mais dans la clé. Les non-musiciens présentaient 92% de RC.

VI. Phénomène « d’amorçage harmonique »

On utilise un paradigme d’amorçage : on demande à des francophones de répondre le plus vite possible
(sans faire d’erreur) si le 2ème item d’une paire d’items visuels (ou auditifs) correspond (oui ou non) à un
mot de leur langue = « décision lexicale ».

Meyer & Schvaneveld (1971) ont utilisé un amorçage sémantique :

Amorce Cible
Paires liées Nurse Doctor
Paires non liéess Bread Doctor
Il y a bien un effet de l’amorçage sémantique ce qui reflète la connectivité des représentations à
l’intérieur d’un système de traitement. Notion de « spreading activation », propagation de l’activation.

Les effets d’amorçage dans le domaine du langage ne sont pas limités à la sémantique. E.G. l’effet
d’amorçage structurel (phonologique) dans la parole : « cadeau » est une amorce de « radeau ». Ces
effets peuvent êtres observés en ERPs = potentiels évoqués.

Les ERPs présentent moins d’incongruité si deux évènements sont liés  modulation de la composante
N400.

Attention négativité au-dessus.


Le phénomène d’amorçage harmonique : indépendamment de l’expertise musicale, le traitement d’un
accord-cible est influencé par sa relation avec le contexte antérieur.

Il s’agit d’un effet implicite car il peut être dissocié de l’utilisation explicite, consciente, volontaire de
ces connaissances, du moins chez les patients cérébro-lésés.

Il y a une coexistence de traitements explicites déficitaires et de capacités implicites préservées =


phénomène classique en neuropsychologie.

Cf.E.Claparède qui testa l’hypothèse que le traumatisme d’un évènement douloureux est conservé
même en cas de perte de la mémoire à court terme. Il examinait une patiente amnésique dont la
mémoire ancienne et les capacités de raisonnement étaient intactes mais incapable de se souvenir de
son passé récent. Bien que venant la saluer tous les jours, Claparède n’était jamais reconnu par la
patiente. Un jour, il cacha une épingle dans sa main avec laquelle il piqua la patiente en lui serrant la
main. Le lendemain, la patiente ne le reconnut toujours pas, mais lorsque Claparède fit mine de lui
serrer la main, il la vit hésiter comme si elle percevait une menace alors que sa mémoire était
sévèrement altérée.

VII. Etudes expérimentales sur les patients amnésiques

E.G. Graf, squire & Mandler, 1984 ont réalisé une expérience durant laquelle les participants devaient
étudier une liste de mots puis les rappeler : les amnésiques n’y arrivaient pas. Mais si la tâche était
plutôt un complètement de mots (sur base des trois premières lettres) les amnésiques y arrivaient (alors
que la probabilité de rapporter un mot de la liste par rapport à d’autres mots de la langue était contrôlée
via la fréquence).

Les expériences d’amorçage ont apporté beaucoup d’évidences en faveur de l’idée que des processus
implicites peuvent être préservés malgré l’atteinte des fonctions explicites. La coexistence de
traitements explicites déficitaires et de capacités implicites préservées est aussi observée dans les cas
d’amusie acquise.

La coexistence de traitements explicites déficitaires et de capacités implicites préservées est aussi


observée dans les cas d’amusie acquise.
Amusie acquise = perte des facultés à traiter les informations musicales suite à une lésion cérébrale
sans aucun problème auditif ni autre déficience cognitive.

Tillmann et al. on étudié le cas d’une patiente IR qui traite implicitement les structures musicales.
Démonstration : amorçage harmonique. Elle présentait des lésions bilatérales du cortex auditif en
conséquence d’interventions chirurgicales successives pour clipper des anévrismes en miroir localisés
sur chaque artère cérébrale moyenne. Elle n’est pas musicienne mais aimait la musique et y a été
exposée depuis toute petite. Son audiométrie est normale, donc acuité auditive normale.

Elle est amusique :


- ne montre pas de difficulté à discriminer les notes isolées
- ne perçoit pas la dissonance
- déficit de reconnaissance de mélodies
- paroles ok

Déficit du traitement de la structure tonale chez IR. On réalise une tâche de détection de dissonance
pour voir.

Il y a un traitement implicite dans l’amusie acquise : démonstration par l’amorçage harmonique :

Expérience 3 : Les jugements explicites de IR ne diffèrent pas pour ces mêmes séquences en fonction
de leur caractère plus ou moins lié. Cf : tâche ou il fallait juger le degré de complétion sur une échelle
de 1 à 8.

Selon Tillmann et al. cette mauvaise performance de jugement explicite n’était pas due à des difficultés
générales liées à la demande de la tâche.

Expérience 4 : puisque la performance de IR est égale à celle des sujets contrôle pour des jugements de
complétion de phrases parlées

La connaissance implicite des structures musicales peut rester intacte même lorsque les jugements
explicites et la reconnaissance « ouverte » (explicite) ont été perdus.

De tels résultats posent la question de savoir quelles tâches utiliser :


Pour comparer musiciens et non musiciens. Sommes-nous tous des musiciens qui s’ignorent ?
Pour évaluer les performances des patients présentant des troubles neuropsychologiques

Musique et émotions
Les jeunes âgés entre 15 et 20 écoutent plus ou moins 27 heures de musique par semaine. Pourquoi
est-ce qu’on écoute tant de musique ?

- Plaisir de cette activité (top 10 des activités les plus agréables)

Cela a également été étudié par neuroimagerie. On a demandé à des participants de venir en laboratoire
avec une musique qui leur donne des frissons. Une fois dans le scanner on leur a présenté cette
musique. Ils ont pris des mesures neurophysiologiques afin de vérifier que cette musique leur donnait
bien des frissons (rythme cardiaque, respiration, électromyographie). On voit qu’il y a des différences
significatives entre les musiques qui évoquent des frissons comparativement à des musiques non
choisies par les participants et qui n’évoquent pas de frissons.

Les résultats de l’imagerie cérébrale nous montrent que les mêmes zones activées lors du plaisir sont
également activées par l’écoute de musique qui suscitent des frissons.

Dans une autre étude, la procédure était légèrement différente plutôt que demander aux participants
de devenir avec leur musique ils ont construit des musiques selon différents styles en offrant aux
participants d’acheter la musique ou pas, et ils pouvaient décider jusqu’à quel prix il était prêt à payer
pour avoir cette musique (0, 1, 2$) Pendant le temps qu’on présentait les musiques ils ont enregistré
l’activité du cerveau et encore une fois les zones du cerveau qui prédisent le montant à payer étaient
encore une fois les ondes du plaisir. Ces mêmes ondes (striatum) sont également associées à d’autres
stimulations (ex : chocolat).

I. Les émotions musicales sous l’angle de la neuropsychologue

Ils ont étudié des patients épileptiques réfractaires (lésion variable de la partie médiane du lobe
temporal au niveau du gyrus parahippocampique). Ils ont constitué deux groupes de patients :

- Un groupe avec les patients excisé au niveau du gyrus parahippocampique


- Un groupe préservé

Ils ont été comparé à des sujets « contrôles ». Ils ont présentés deux types de musique et on demandé
de juger dans quelle mesure ces musiques étaient agréables ou désagréables sur une échelle de un à
dix.
Musique consonante :
agréable

Musique dissonante :
Désagréable

Les patients avec excision


ont du mal à juger qu’une
musique dissonante est
désagréable comparé aux
contrôles et aux non-
excisés.

Dans l’étude qui a été fait sur le chocolat (il fallait manger du chocolat dans l’IRM), ils ont poussé les
gens à manger du chocolat encore, encore et encore, jusqu’à ce qu’ils arrivent à satiété. A chaque
morceau de chocolat on leur demandait de juger dans quelle mesure c’était agréable/désagréable de
manger du chocolat.

On voit qu’au fur et à mesure de l’expérience les jugements ont changé, plus on donne de chocolat plus
ça devient désagréable. Sans surprise l’activation est en lien avec gyrus parahippocampique pour la
sensation désagréable.

La musique désagréable on peut s’en sauver, on peut l’arrêter. Mais un endroit où on peut difficilement
s’en sauver c’est lorsqu’on va voir un film et qu’on écoute ses musiques.

En laboratoire on ne pas utiliser des musiques de films qui sont connues parce qu’il pourrait y avoir un
mélange entre ce qui est familiers et les souvenirs associés et l’émotion évoquée par la musique en tant
que telle. Ils ont donc composé leurs musiques de films.

Ils ont eu l’occasion d’étudier la patiente SM ayant une atrophie bilatérale de l’amygdale (maladie
Urbach-Wiethe dans la jeune enfance). Permet de vérifier le rôle de l’amygdale par rapport à la musique.
Par exemple, pour les expressions faciales, cette patiente avait du mal à reconnaitre les émotions
exprimant la peur.

L’amygdale est-elle impliquée dans la reconnaissance de la peur mais cette fois dans la musique ?

Du moment qu’on a une


lésion de l’amygdale
(bilatérale ou unilatérale) il y
a une chute des
performances. Cela va nuire
à la reconnaissance de la
peur.

II. L’anhédonie musicale

Anhédonie = quand il n’y a pas de plaisir.

Les gens qui ont une anhédonie musicale ont du plaisir pour d’autres activités.
Questionnaire

L’amusie

1. L’amusie se caractérise par l’incapacité à (plusieurs choix possibles) :

a. Jouer de la musique
b. Reconnaitre une mélodie familière sans les paroles
c. Apprendre les paroles d’une chanson
d. Détecter les fausses notes
e. Juger si une personne chante faux

2. On dit que l'amusie est congénitale car c'est un trouble présent depuis la naissance

a. Vrai
b. Faux

3. Le cerveau des personnes amusiques présenterait une perturbation 1 entre le lobe 2 et le


lobe 3 du côté 4.

a. Pariétal – temporal – droit – gauche – connectivité – frontal inférieur – du nerf auditif


b. Pariétal – temporal – droit – gauche – connectivité – frontal inférieur – du nerf auditif
c. Pariétal – temporal – droit – gauche – connectivité – frontal inférieur – du nerf auditif
d. Pariétal – temporal – droit – gauche – connectivité – frontal inférieur – du nerf auditif

4. Pour reconnaître une musique, il faut pouvoir donner son titre.

a. Vrai
b. Faux

5. Dans les trois premiers tests (scale, contour, interval) de la MBEA, c’est _________ des notes
qui est manipulé(e) tandis que dans le quatrième test de la MBEA, c’est __________ des
notes qui est manipulé(e).

a. Sonorité – hauteur – volume sonore – durée


b. Sonorité – hauteur – volume sonore – durée

6. Il n’existe pas de personnes amusiques capables de chanter juste

a. Vrai
b. Faux

7. On observe des différences cérébrales entre les groupes de personnes qui sont amusiques
congénitales et celles qui ne le sont pas. Chez les amusiques, on retrouve ______ de matière
blanche au niveau du gyrus frontal droit et ______ de matière grise (cortex) dans ce même
gyrus.
a. Plus – moins
b. Plus – moins

8. L’amusie comporte une part héréditaire.

a. Vrai
b. Faux

9. Mr A. est venu au laboratoire et a été testé avec la MBEA. Il a obtenu un score de 50% à tous
les tests de la MBEA. Nous devrions conclure que Mr A.:

a. Est amusique
b. Devrait être testé avec d’autres tests cognitifs et perceptifs pour mieux comprendre sa
condition
c. Est dyslexie

10. Le cerveau des adolescents étant plus malléable que celui des adultes, il suffirait de faire
écouter de la musique chaque jour pendant un mois à des adolescents amusiques
congénitaux pour observer une amélioration significative de leurs performances en
perception musicale.

a. Vrai
b. Faux

11. En anglais ou en français, l’intonation est utilisée pour indiquer si une phrase est une
question ou une affirmation. Dans la vie de tous les jours, les personnes amusiques
congénitales qui parlent français ou anglais ont des difficultés importantes à percevoir ce
type d’intonation.

a. Vrai
b. Faux

12. Les amusiques congénitaux ont un profil similaire aux dyslexiques car:

a. Ils sont nés avec cette difficulté


b. Ils ont un problème pour lire la musique
c. Ils ont une déficience intellectuelle
d. Ils manquent de motivation

13. Pourquoi utiliser la MBEA plutôt que d’autres batteries de tests comme la «Gordon’s Musical
Aptitude Profile» ou la «Seashore’s test of musical abilities»?

a. Car la MBEA est le meilleur outils pour identifier des enfants qui ont un talent
exceptionnel pour la musique
b. Car la MBEA permet de mieux cibler quelle(s) composante(s) du traitement musical sont
potentiellement déficientes chez des non-musiciens
c. Car la MBEA a été construite sur base de motivations théoriques plus solides
d. Car la MBEA est le seul outil qui permette d’évaluer dans quel état émotif se trouve la
personne qui écoute de la musique
Musique et émotions

1. Cochez toutes la ou les bonnes réponses, quelles mesures psychophysiologiques ont été
utilisées pour mesurer les frissons chez les participants de l'étude menée par Blood et
Zatorre (2001)?

a. Le rythme cardiaque (HR)


b. Le taux de cortisol sanguin
c. L’électromyographie (EMG)
d. La respiration

2. Pourquoi n'utilise-t-on pas de musiques connues dans les études sur les émotions évoquées
par la musique?

a. Car elles évoquent moins d’émotions que certaines musiques composées spécialement
pour la recherche
b. Pour éviter les biais individuels, pouvant provenir d’évènements vécus par les
participants lors de l’écoute de ces musiques dans le passé
c. Car la plupart des musiques connues ont été composées en mode mineur, ce qui ne
permet pas de mesurer l’émotion « joie » chez les participants
d. Car elles ont une durée beaucoup trop longue pour les design expérimentaux typiques
de ce genre de recherche

3. Dans l'étude de Blood et Zatorre (2001), l'une des raisons ayant motivé l'enregistrement de
mesures psychophysiologiques (électromyographie, respiration, rythme cardiaque) était de :

a. Mesurer le niveau de bonheur des participants


b. Vérifier que les participants avaient ressenti des frissons durant l’écoute des musiques
qu’ils avaient choisies
c. Evaluer quels styles musicaux induisent les changements physiologiques les plus
importants
d. Effectuer des corrélations entre ces mesures et le taux d’adrénaline chez les participants

4. Quel est le nom de la « zone du plaisir », dans le cerveau, décrite par Prof. Nathalie
Gosselin?

a. Le gyrus temporal inférieur droit


b. Le cortex frontal
c. Le striatum
d. Le cervelet
e. Le thalamus gauche

5. Deux zones cérébrales bien distinctes sont activées lorsque l'on ressent du plaisir à écouter
de la musique ou à manger du chocolat.
a. Vrai
b. Faux

6. Quelle est la particularité de la patient SM?

a. Elle a subi une résection bilatérale du lobe temporal médian, incluant les deux amygdales
b. Elle présente une prosopagnosie (impossibilité à reconnaitre les visages)
c. Elle a subi une résection bilatérale du lobe temporal médian, menant à une amusie
d. Elle ressent des frissons de façon beaucoup plus intense que les participants contrôles
lorsqu’on lui présente des musiques évoquant la peur.

7. D'après les études présentées par Prof. Nathalie Gosselin, le gyrus para hypocampique (qui
fait partie du système limbique) semble jouer un rôle dans le « déplaisir » (unpleasantness)
lié à l'écoute de mélodies dissonantes ainsi que la baisse du plaisir faisant suite à une trop
grande consommation de chocolat.

a. Vrai
b. Faux

Réponses

Amusie

1. B,d,e
2. Vrai
3. Connectivité – temporal – frontal inférieur – droit
4. Faux
5. Hauteur – durée
6. Faux
7. Moins – plus
8. Vrai
9. B
10. Faux
11. faux
12. a
13. b,c

Musique et émotions

1. A,c,d
2. B
3. B
4. C
5. Faux
6. A
7. Vrai

Vous aimerez peut-être aussi