Vous êtes sur la page 1sur 16

diane schuh

Accueil » Non classé

Modifier

22 novembre 2021  dans Non classé par diane

Serveur © IRCAM – CENTRE POMPIDOU 1996-2005.


Tous droits réservés pour tous pays. All rights reserved.

Perception, environnement, musiques


Jean-Claude RissetInHarmoniques nº 3, mars 1988 : Musique et Perception

Copyright © Ircam – Centre Georges-Pompidou 1988

« La perception commence au changement de sensation; d’ou la nécessité du voyage. »

André Gide, Paludes

« Dans son éveil d’alerte, il écoutait quoi ? Un animal, une feuille, une langue (ami, ennemi ? -> identité,
intentions), un corps, son rapport à la bête et à l’homme, leurs rapports au bois, au métal… Car la musique
n’est pas seulement  » fabrique » ou  » percetion  » elle est contact (intelligence) de corps à corps. »

Claude Minière

L
a perception est « incontournable »Le mot anglais « obvious », étymologiquement « en travers de la voie », se traduit par
« évident ». L’obstacle qu’on trouve sur son chemin est voyant, opaque, il s’impose à la conscience – alors qu’on l’oublie
volontiers s’il n’empêche pas de poursuivre sa route. Le regard ignore ses propres points aveugles. Le lecteur se souvient- il de
cette expérience de « leçon de choses »? Qu’il ferme l’oeil gauche (il lui faut renverser la figure s’il préfère fermer l’oeil droit) et
qu’il dirige son regard vers la croix, figure 1, d’assez loin pour commencer (50 centimètres environ). Dans son champ de vision
périphérique, il apercevra sans doute l’astérisque: mais si, en continuant de fixer la croix, il déplace lentement la revue en la rapprochant
de l’oeil, l’astérisque disparaîtra puis réapparaîtra.

Fig. 1 

Pourquoi rappeler cette curiosité? Elle s’explique assez aisément: le nerf optique s’épanouit au fond de l’oeil dans une zone où la rétine est
dépourvue de cellules réceptrices, à l’écart du centre, de la tache jaune qui correspond à la direction du regard et qui comporte au
contraire la plus grande densité de cellules sensibles. Les rayons lumineux tombant dans cette zone n’impressionnent pas la rétine, l’oeil y
est aveugle. Mais ce qui est remarquable, c’est que l’oeil – ou plutôt la conscience – ignore allègrement cette particularité. Même si l’on
ferme un oeil, on n’a nullement le sentiment d’un trou dans son champ de vision. La perception ne se contente absolument pas de
transmettre à la conscience une image fidèle du monde extérieur, elle manipule à l’insu du sujet l’information issue des données des
sens [1].

Le lecteur pourra penser que les idiosyncrasies de la perception, bizarreries, insuffisances ou illusions, ne présentent guère d’intérêt ou de
signification pour la musique. La perception gauchit, distord, trompe parfois : il nous faut viser le monde au-delà de la vue amoindrie,
altérée, que nous transmettent les fenêtres sensorielles. Descartes se méfiait des sens, qui ne nous donnent que des certitudes trompeuses :
son programme, dans sa Dioptrique, était de nous aider à corriger les imperfections de la vision grâce aux pouvoirs de l’intellect.

Et pourtant, avant Descartes, le chancelier Francis Bacon, frappé au début du XVIIe siècle par les promesses du progrès scientifique de
son temps, prévoyait dans la société idéale de son continent utopique.La Nouvelle Atlantide «  une maison spécialement consacrée aux
expériences qui peuvent tromper les sens ». Tromperies des sens, les illusions sont des vérités de la perception, dira en substance le
physiologiste tchèque Purkinje deux siècles plus tard: et la perception, en dépit des points de vue intellectualistes, est notre voie de
passage obligée, notre accès au monde.

Je n’ai pu quant à moi l’oublier, cet intermédiaire de la perception, car il s’est trouvé sur mes chemins musicaux, incontournable, comme
on dit aujourd’hui. Bien sûr, avec l’apprentissage d’un instrument, puis de l’écriture, j’ai développé cette « oreille intérieure » qui permet
au musicien de prévoir l’effet auditif de tel accord, de telle combinaison de timbres. Il s’agit déjà d’un repérage de modalités auditives –
mais si courant dans l’arsenal du compositeur instrumental qu’on y pense à peine. Les instruments nous sont familiers – cette familiarité
n’est pas innée sans doute, elle vient de l’usage, mais les catégories instrumentales sont internalisées, solidement ancrées, presque comme
les phonèmes de la langue maternelle. Chaque instrument est un objet visible, à la structure mécanique stable: les variantes possibles du
timbre sont liées à cette structure et à la façon dont on l’excite, et il suffit de désigner l’instrument et son mode de jeu pour cerner l’effet
auditif qu’on peut en attendre. La partition, en fait simple code d’actions, nous apparait volontiers comme une représentation adéquate
de la musique.

Avec le « son électrique », la notion d’instrument est plus floue. Les sources sonores perdent leur identité: elles ne sont plus visibles, elles
deviennent difficiles à repérer, il ne suffit plus de les désigner pour spécifier leur timbre. Quel est le timbre d’un haut-parleur, source
aujourd’hui omniprésente de son musical? Aussi Pierre Schaeffer prêchait-il pour un solfège des objets sonores – solfège des effets plutôt
que des causes. Avec l’ordinateur, on peut bâtir un son de structure physique arbitraire : mais ce qui importe, c’est son effet sensible. L’un
des premiers à explorer les ressources de la synthèse des sons par ordinateur, j’en ai fait l’expérience souvent décevante: les opérations
qu’on stipule en termes physiques ne modifient pas toujours le son de la façon prévue. L’effet sonore obtenu est souvent inattendu, ne
paraissant pas toujours correspondre à l’agencement objectif. L’oreille intérieure est ici de peu d’utilité, à moins de se limiter à des sons
proches de sons instrumentaux. L’audition a des modalités très spécifiques: la relation « psychoacoustique » entre structure physique et
structure perçue est bien plus complexe qu’on ne le croit, elle est parfois même contraire à l’intuition. Si l’on veut tirer parti des ressources
diane schuh de l’ordinateur, il faut tenir compte des particularités de la perception.

Certains diront : cela ne concerne que la palette sonore, pas la musique elle-même : la musique ne se réduit pas aux sons, elle instaure des
relations entre les sons [2]. Mais ces relations sont jugées par l’oreille – la musique est faite pour être entendue. Travaillant avec
l’ordinateur on peut instaurer des relations structurelles entre paramètres physiques mais les relations qui importent sont celles que
l’audition pourra dégager à l’écoute des sons produits. Ainsi la prescription de transformations de fréquence donnera lieu à des
changements de hauteur sonore : on pense généralement que les relations établies entre fréquences se traduiront par des relations
homologues entre les hauteurs. Cette homologie est tellement forte, semble-t-il, qu’on néglige souvent de distinguer fréquence et
hauteur, tant la hauteur – paramètre perceptif, subjectif, dégagé par la perception du sujet – paraît clairement repérée par la fréquence du
son correspondant – grandeur physique mesurable.

Or cette assimilation, épistémologiquement abusive, est de plus erronée, aberrante, pour certains types de structures sonores. J’ai
synthétisé en 1968 un son dont la hauteur paraît baisser- pour tous les auditeurs – lorsqu’on double toutes les fréquences qui le
composent, par exemple en doublant la vitesse du magnétophone sur lequel on le joue! Curiosité, trucage, si l’on veut, mais surtout
démonstration, provocante peut-être, mais édifiante, de ce que les relations musicales visées dans le domaine sensible peuvent être
complètement dénaturées par leur transposition pure et simple dans le domaine des paramètres physiques qui leur sont
traditionnellement associés (Risset, 1971, 1978).

J’ai réalisé récemment un exemple encore plus hérétique : un son scandé par des battements rythmés, qui
paraissent ralentir lorsqu’on double la vitesse du magnétophone, doublant ainsi fréquences et cadences (Risset, 1986). Une accélération
dans le monde physique peut être perçue comme un ralentissement! Comment soutenir après cela que l’intermédiaire de la perception
est toujours transparent, intuitif, et qu’il est futile de s’y attarder?

La perception comme point de départ


Démocrite, déjà, l’avait formulé : toute connaissance du monde repose sur la perception. Critiquant la numérologie musicale
pythagoricienne, Aristoxène – « le musicien » – recommandait de se fier à l’oreille plutôt qu’à la raison mathématique. Plus près de nous,
le projet de la phénoménologie de Husserl est de partir de ce qui apparaît directement à la conscience, faisant table rase des médiations
insidieuses qu’imposent l’éducation, la société, la religion, la science. Maurice Merleau-Ponty propose une « Phénoménologie de la
perception » (1945) et Mikel Dufrenne une « Phénoménologie de l’expérience esthétique » (1953). Partir des données de la perception,
sans se laisser imposer a priori de grille externe, d’appareil critique préfabriqué, tel est le projet du musicologue Thomas Clifton (1983);
selon le psychologue Roger Shepard (1981), c’est la seule attitude épistémologiquement défendable : notre expérience et notre
comportement sont médiatisés par des processus de représentation internes. Pour Michel Henry, « la vie est vecue du dedans, avant tout
concept et toute relation à un objet quelconque ». Henri Michaux ne se soucie-t-il pas d’explorer « l’espace du dedans », « le château de
son être », de découvrir « le lointain intérieur » ?

Mais s’en tenir à l’intériorité pure comporte des risques. Celui d’abord d’un relativisme non maîtrisable. La formule de Protagoras
« l’homme est la mesure de toutes choses », ne conduit-elle pas à renoncer à la quête d’une vérité. Peut-on prendre en compte toutes les
subjectivités, les idiosyncrasies, les caprices, les états d’âme, les points de vue d’individus trop différents et multiples? Danger d’une
position plus radicale encore, celle d’un solipsisme béat. Il n’est de réalité hors celle du sujet pensant, a pu soutenir l’archevêque irlandais
Thomas Berkeley : « Esse est percipi » (exister, c’est être perçu) [3]. Il nous est difficile de partager ce point de vue : qui pense
sérieusement qu’un arbre tombant dans le désert ne fait pas de bruit?

La musique est véhiculée par l’entremise d’ondes acoustiques qui peuvent depuis un siècle être enregistrées (même en l’absence
d’auditeur), conservées, examinées ou façonnées comme des objets. Beaucoup d’oeuvres d’art doivent leur survie a une inscription
matérielle, qu’on peut étudier objectivement et mettre en rapport avec la façon dont elle est perçue. Il faut se garder d’assimiler l’oeuvre à
ce simple support matériel – les nouveaux outils intellectuels nous aident à comprendre l’importance des codes, des logiciels, de
l’immatériel [4]; mais en tout cas c’est enrichir l’examen de la perception que d’étudier ses ancrages dans le réel, ses relations avec le
monde. C’est aussi, c’est surtout, pour le musicien, faire de l’étude de la perception une aide à l’action, à la création, assurant que les
relations musicales pensées puissent s’inscrire dans le sensible (Tenney, 1985).

Les modalités de l’audition: pourquoi ?


La thèse concernant la perception que je voudrais détendre ici suppose formellement que le monde extérieur existe en soi, même si pour
nous il ne prend corps qu’à travers notre perception et, bien sûr, nos actions, notre pensée, notre histoire, notre arsenal d’idées apprises
ou ambiantes. Cette thèse tient les mécanismes de la perception pour hautement spécifiques, mais nullement arbitraires: leur évolution
aurait tenu compte des propriétés du monde pour s’adapter, et plus précisément pour fournir à l’organisme, à partir des données des sens,
des informations utiles à la survie.

Là encore, je ne suis pas arrivé à ce point de vue à la suite de spéculations purement théoriques ou académiques. Explorant les ressources
de la synthèse des sons par ordinateur, je me suis vite rendu compte de ce que la relation psychoacoustique entre paramètres physiques et
effets perçus était complexe, spécifique et apparemment capricieuse. Essayant d’énumérer ses particularités, j’arrivais à un catalogue de
recettes faisant penser à un inventaire selon Prévert ou un bestiaire chinois à la Borgès. Pourrait-il exister un fil d’Ariane permettant de
comprendre la raison d’être de modalités auditives si singulières?

Dans mes essais d’imiter par ordinateur les sons instrumentaux (Risset & Mathews, 1969; Risset & Wessel, 1982), ce n’est pas 1e
fonctionnement physique des instruments que je cherchais à simuler. Mon critère était perceptif : je voulais que l’imitation fût semblable
à l’original pour l’oreille. Mais une observation m’avait frappé: les sons sonnaient souvent de façon plus réaliste, leur identité était plus
robuste, lorsque leur écoute suggérait la manière dont le son aurait pu être produit physiquement. C’est le cas des sons « percussifs » qui
figurent dans mon catalogue de 1969, notamment des « cloches » avec leurs battements ou des « tambours » avec leurs «  timbres » (je
le répète, ces sons étaient produits par synthèse additive, sans chercher à reproduire le mécanisme physique comme j’aurais pu le faire par
calcul d’une réponse impulsionnelle). Et la propriété qu’a la suite de mes « analyses par synthèse » j’avais trouvé caractéristique des sons
cuivrés – le fait que le spectre s’enrichit dynamiquement en fréquences aigues quand l’intensité augmente – a sa contrepartie dans le
fonctionnement physique des cuivres. Les mécanismes de l’oreille seraientils moins « réguliers » que « séculiers»?

Tentant en 1972 de compiler un article général sur l’acoustique musicale (Risset, 1978), je rencontrai un article du psychologue J.J.
Gibson qui critiquait le recours abusif à des paramètres perceptifs tels que hauteur et intensité. Ces paramètres sont-ils vraiment des
attributs de la perception? ou simplement la contrepartie sensible des paramètres physiques – fréquence, amplitude – qui sautent aux
yeux dans la représentation des ondes acoustiques? Selon Gibson, l’étude de ces paramètres n’est guère significative: il serait plus
intéressant d’étudier comment l’audition distingue les événements du monde réel. Gibson soutenait un point de vue peu orthodoxe à
l’époque: Les sens ne fonctionnent pas d’abord en extracteurs de paramètres, comme le laissait à penser la psychoacoustique de Fechner
(cf. ci-dessous); ce ne sont pas seulement des relais, des transducteurs envoyant au cerveau une copie, une image, même transformée, du
stimulus externe. Il faut remplacer cette notion de transducteurs par celle de systèmes perceptifs, qui traitent les stimulations leur
parvenant du monde physique pour y puiser des informations utiles sur l’environnement. Chaque sens aurait ainsi ses modalités
particulières, adaptées à tirer parti des caractéristiques propres aux signaux physiques correspondants et à en extraire des indices sur le
monde extérieur pouvant être utiles à la survie de l’organisme.

diane schuh Les sens auraient ainsi, à travers l’évolution, acquis une sorte de connaissance des propriétés de l’émission et de la propagation des signaux
physiques, connaissance inscrite dans leurs modalités. Dans le monde animal, de très nombreuses observations viennent à l’appui de
l’hypothèse d’une adaptation des mécanismes moteurs et perceptifs à la nature physique des ondes acoustiques (Busnel, 1963; Leroy,
1979). Citons simplement l’étonnant exemple de la courtilière, exemple qui concerne, plutôt que la réception, l’émission acoustique.
Avant d’émettre son chant d’appel sexuel, cet insecte orthoptère, appelé aussi taupegrillon, creuse dans le sol une cavité au-dessus de
laquelle il s’installe : cette cavité a pour effet de concentrer l’énergie du signal qu’il émet au voisinage du sol, seul lieu où peuvent se
trouver des partenaires potentiels. Etonnant savoir-faire acoustique issu de l’évolution.

Les modalités de l’audition: comment ?


L’ouvrage majeur de Gibson, The senses considered as perceptual systems (1966), donne nombre d’indications précieuses sur
l’adaptation des sens au monde extérieur. Toutefois il s’étend moins sur l’ouie que sur d’autres sens : la vision, le toucher, voire l’odorat et
le goût. J’ai réexaminé les modalités singulières de l’audition en relation avec le comportement physique des ondes acoustiques (Risset,
1973) : l’adéquation des mécanismes auditifs est remarquable, et le point de vue de Gibson aide à en comprendre les particularités, à saisir
leur raison d’être en rapport avec les fonctions originaires de l’ouie.

Ainsi les fréquences audibles sont comprises entre 20 et 20 000 Hertz environ. Le recours à des fréquences bien plus élevées serait inutile,
car les ultrasons sont très vite absorbés dans l’atmosphère. Ces fréquences correspondent à des longueurs d’onde allant de 1,7 centimètre
à 17 mètres. A la différence d’une onde lumineuse, de longueur d’onde bien plus petite, une onde sonore ne peut transmettre
d’information sur la structure fine des objets. En revanche, un objet ne porte ombre effcacement sur une onde que si ses dimensions sont
bien plus grandes que la longueur d’onde : ainsi les sons pas trop aigus peuvent contourner des obstacles et, par exemple, se propager à
une certaine distance dans une forêt vierge où l’on ne voit pas loin. Aussi l’audition estelle précieuse comme sens d’alerte : on reçoit les
sons venant de toutes les directions. L’extraordinaire sensibilité de l’oreille lui permet d’apprécier des sons très faibles, issus d’une source
très éloignée. On peut entendre une onde sonore correspondant à des déplacements pério diques du tympan extrêmement minimes
(d’amplitude inférieure aux dimensions d’un atome), mais l’oreille peut aussi supporter des sons dont l’énergie est mille milliards de fois
celle de ces sons liminaires [5].

La propagation du son dans l’air est linéaire, c’est-a-dire que les sons peuvent s’ajouter (ou se retrancher) sans interagir [6]. L’audition
peut donc prendre en compte des sons simultanés issus de sources différentes : elle a développé un mécanisme d’analyse en fréquence qui
l’aide à éviter qu’un son ne soit masqué par un autre – un son très grave masquera difficilement un son suraigu, ou vice versa (Lewis,
1987). On appelle «  bande critique de l’audition » la largeur de bande de cette analyse, qui est d’environ un tiers d’octave dans le
médium. C’est, on le voit, une analyse assez grossière : cela évite la perte de résolution temporelle, mais l’audition dispose d’autres
processus neuraux pour effectuer des comptages temporels permettant des discriminations de fréquence beaucoup plus fines [7].

On ne s’étonnera donc pas que l’audition soit spécialement sensible aux changements de l’environnement sonore et qu’elle tende à
éliminer de la conscience les sons stationnaires, Ies bruits de fond. Il est normal aussi que l’audition comporte un schéma perfectionné
détectant la direction de la source sonore : il importe de savoir d’où vient le danger. (Gibson insiste sur l’importance de l’orientation
auditive.) Le traitement des échos est spécialement élaboré : les échos arrivant à l’oreille moins de 50 millisecondes après le son direct
fusionnent avec ce son direct et le renforcent, cependant l’oreille leur assigne comme direction celui du son direct, même si certains échos
sont plus intenses que le son direct. Cette caractéristique aide l’oreille à repérer la direction de la source, celle du premier rayon sonore
qui l’atteint, puisque le trajet en ligne droite est moins long que celui parcouru par les sons en écho. Si les échos sont semblables mais non
identiques au sens direct, l’oreille continue de les fusionner, mais elle a le sentiment que la source sonore est plus étendue [8].

Sous peine de submerger la conscience, l’oreille doit savoir faire un tri dans tous les sons qui lui parviennent, et aussi les interpréter. Ici
interviennent des mécanismes élaborés dont on a rarement conscience – j’y reviendrai à propos de l’organisation perceptive. Par exemple,
l’audition n’a généralement pas de mal à distinguer un son émis doucement par une source proche d’un son intense venant d’une source
éloignée, même si ces deux sons arrivent à l’oreille avec des intensités comparables : l’oreille évalue inconsciemment la distance de la source
sonore à partir des indices dont elle dispose. L’intensité est un indice insuffisant : si l’on baisse le volume de la radio, le son devient plus
doux, mais il ne s’éloigne pas. L’oreille apprécie la distance en tenant compte du spectre (l’air absorbe surtout les fréquences aiguës : le
tonnerre lointain est affaibli, mais aussi assourdi), mais plus encore du niveau du son réverbéré par rapport au son direct : lorsque la
source s’éloigne, le son direct s’affaiblit alors que le champ réverbéré reste relativement constant, et c’est là un indice important pour
estimer la distance de la source, comme les expériences de synthèse sonore de John Chowning ( 1971 ) le démontrent de façon frappante.
L’oreille tient compte aussi de symptômes acoustiques liés à l’énergie d’émission à la source : ainsi, pour nombre de sons, particulièrement
les sons cuivrés, le spectre est plus riche en fréquences aiguës si le son est joué plus fort (Risset & Mathews, 1969); dans la parole criée,
l’énergie des voyelles augmente plus que celle des consonnes, et le spectre même des voyelles est modifié. Synthétisant des sons de type
vocal, John Chowning a réussi, en contrôlant ces indices, à donner à l’auditeur l’impression qu’un abaissement du niveau sonore tenait
soit au fait que la « soprano » chantait moins fort, soit qu,elle s’éloignait du « micro » (ces guillemets parce que ce ne sont là que
simulacres).

On ne s’étonnera pas non plus que l’oreille soit extrêmement sensible à la fréquence des sons : contrairement aux intensités, les
fréquences sont très stables, elles ne sont que rarement modifiées entre source sonore et auditeur. L’effet Döppler fait exception (c’est un
effet physique et non perceptif : il s’agit de l’augmentation ou la diminution apparente de la fréquence d’une source vibratoire lorsque
cette source s’approche ou s’éloigne de vous) Mais l’oreille tire justement parti de l’effet Döppler pour inférer le mouvement des sources
d’une façon qui peut être assez détaillée, comme le démontre Turenas, composition « cinétique » synthétisée sur ordinateur parJohn
Chowning, où le mouvement rapide des sources illusoires apparaît à l’oreille de façon quasi visuelle.
Il est logique aussi que l’oreille soit insensible aux déphasages entre harmoniques d’un son périodique (cf. fig. 2) : en l’absence de
réverbération, ces déphasages varient linéairement avec la distance, et dans une salle même peu réverbérante, les relations de phase sont
complètement noyées; une sensibilité aiguë à la phase compliquerait fort l’interprétation d’un signal auditif.

 
 

diane schuh
Fig. 2. On voit ici quatre ondes obtenues par synthèse de Fourier de dix harmoniques. On passe de l’onde
1 à 2, 3 et 4 en gardant le même « spectre » (les mêmes amplitudes respectives des composantes
harmoniques) et en ne modifiant que leurs composantes respectives. A l’audition. on ne percoit
pratiquement aucune différence entre 1, 2, 3 et 4, alors que les quatre spectres sont visuellement très
différents: l’oreille n’est pas sensible aux relations de phase entre les composantes d’un son, et l’onde sonore
ne constitue pas une représentation pertinente.

Depuis Helmholtz (1877), les manuels d’acoustique musicale attribuent les différences de timbre entre instruments de musique aux
différences de spectre entre les sons émis par ces instruments. La synthèse imitative a montré que ce point de vue était très insuffisant
(Risset & Mathews, 1969; Chowning, 1973; Risset & Wessel, 1982). En effet la structure spectrale d’un son est une trace labile,
facilement modifiée par la propagation. La plupart des sources sonores ne rayonnent pas avec la même intensité dans toutes les
directions : lorsqu’on tourne autour, le spectre reçu par l’oreille change considérablement, mais la reconnaissance sonore en est fort
heureusement peu affectée. Il en est de même lorsqu’on se déplace dans une salle réverbérante, dont la réponse spectrale est très
tourmentée et très variable d’un point à un autre.

L’attribut de timbre, qui aide à identifier les sources sonores, ne peut donc résulter du seul spectre : l’oreille le dégage de caractères
spectraux ou temporels plus élaborés et résistant aux distorsions [9]. Ainsi la dépendance du spectre cuivré vis-à-vis de l’intensité est plus
robuste que la structure exacte du spectre lui-même; cette dépendance aide aussi l’auditeur à se représenter l’intensité avec laquelle le son
a été émis, et cela indépendamment du niveau d’écoute : en évaluant la richesse spectrale, on sait que le trompettiste joue fortissimo ou
que l’orateur crie. C’est là un mécanisme qui aide à préserver dans le perçu auditif la « constance des choses réelles ». A méditer, alors que
l’amplification électroacoustique permet d’émettre des sons à des niveaux sonores dangereux pour l’oreille : il ne suffit pas d’assommer les
auditeurs sous les décibels pour communiquer le sentiment d’un son produit avec intensité.

Fig. 3. Sonagrammes de quelques sons. La représentation


sonagraphique donne du son une « photographie » assez
révélatrice, du son et de ses évolutions. En abscisse, le temps – environ deux secondes pour chaque son; en
ordonnée, la fréquence en échelle linéaire jusqu’à 5000 Hertz environ. Chaque composante est représentée
avec un noircissement d’autant plus important qu’elle est plus intense à cet instant. 1 correspond à des
mots parlés; 2 à une gamme chromatique ascendante puis descendante de piano – ce sonagramme est
réalisé avec une largeur de bande d’analyse de 300 Hertz’ au lieu de 50 Hertz pour 1 et 3; 3 à une texture
synthétisée par ordinateur dans ma pièce Little Boy (1968).

L’ouie paraît avoir développé des processus pour remonter des sons à leur genèse, pour identifier le ou les mécanismes ayant donné lieu
aux sons reçus. Selon Huggins ( 1952), l’audition est agencée pour séparer dans les signaux reçus excitation et réponse, lorsque le son est
produit par un mécanisme excitateur « en temps » attaquant un système stable, « hors temps » : les caractéristiques agogiques des
signaux dépendent surtout de l’excitation, les caractéristiques spectrales résultent de la combinaison de l’excitation et de la réponse. Cette
séparation – on parle de « déconvolution » – n’est pas toujours possible de façon unique, mais l’audition est armée pour la tenter, et
pour extraire ainsi des renseignements structurels autant qu’événementiels, pour dissocier la permanence et le devenir. On voit
apparaître mutatis rnutandis la distinction schaefferienne forme-matière. Gibson fait remarquer que les grandes familles d’instruments
de musique correspondent à des actions mécaniques distinctes – frapper, frotter, souffler – que l’oreille repère fort bien [10]. Le bruit de
solides frappés, frottés ou cassés donne souvent des indices sur les propriétés du matériau : dureté, raideur…, même si ces différenciations
correspondent à des combinaisons complexes de paramètres physiques (Freed & Martens, 1986). L’audition est aussi à l’affût des
« accidents » caractéristiques pouvant l’aider à identifier une source sonore. Des sons synthétiques physiquement différents entre eux,
mais dépourvus de structurations suffisantes ou d’accidents spécifiques, peuvent laisser l’oreille « sur sa faim » : si les mé canismes de
détection du timbre ne peuvent s’accrocher à des traits élaborés renvoyant à des accidents typiques (crissement de l’archet, frappe de la
touche de piano), l’identité de ces sons risque d’être vague et falote.

L’oreille peut aussi apprécier la simultanéité de sources multiples : si les cordes de l’orchestre sont nombreuses, ce n’est pas seulement
pour augmenter le niveau sonore, c’est surtout pour apporter une qualité « symphonique » (on parle aussi d’effet choral ou d’effet de
choeur, la réunion de choristes chantant à l’unisson donnant lieu à une couleur très particulière). Selon David Bristow, la signification
expressive d’une multiplicité de sources sonores pourrait tirer ses racines d’associations primitives – peur ancestrale d’un essaim
d’insectes, d’un vaste troupeau ou d’une meute humaine? A l’inverse la connotation peut être rassurante, liée au sentiment, pour un
groupe humain, d’être à l’unisson, comme au sein du choeur répondant au sorcier dans les rites africains – sentiment religieux, de
religare, comme aimait à le dire André Jolivet. Quoi qu’il en soit, l’appréciation de la multiplicité de sources sonores pouvait avoir une
fonction dans l’audition originaire, aussi l’évolution de l’ouie a donné lieu à des mécanismes permettant de l’apprécier, et la mise en jeu de
ces mécanismes garde peut-être une connotation atavique remontant à ces situations archaiques. Réagissant à cette hypothèse formulée
dans mon article « Musique, calcul secret? » (1977), Claude Minière écrit : « Le choc pourrait être entre la  » fonction primitive
d’alerte » – son montage ancien de modes perceptifs, d’oreille tendue – et la plongée, vers la perte, comme si l’auditeur devenait
l’émetteur de la musique avec laquelle il  » voyage « . »

Antécédents et conséquents
Marquée par les vues de Gibson, cette interprétation des particularités de l’audition – téléologique, fonctionnaliste, écologique, dit-on
parfois – est bien sûr spéculative, mais hautement vraisemblable : elle nous donne une clé pour comprendre ou prévoir nombre de
diane schuh propriétés de l’audition, issues d’une longue évolution, et qui demeurent le substrat de notre manière d’entendre. Si nos organismes
n’évoluent plus, nos outils sonores ont changé, l’écoute musicale passant aujourd’hui le plus souvent par le haut-parleur et l’écoute
« acousmatique », comme disent Pierre Schaeffer et François Bayle. En fait, on a pu le remarquer à mesure de l’inventaire précédent,
l’interprétation des nombreuses données psychoacoustiques recueillies lors de l’exploration de la synthèse des sons par ordinateur appelle
souvent cette perspective « écologique ». Gibson l’avait proposée de façon cohérente, convaincante, voire militante – trop peut-être pour
qu’elle fût accueillie avec sérénité. Cette proposition, on s’en doute, n’est pas apparue dans le vide – peut- il y avoir génération spontanée
des idées?

Concernant la perception, deux points de vue se sont opposés de longue date. Pour les empiristes anglais, comme Hume, Locke ou
Berkeley, nos perceptions reflètent d’abord les propriétés du monde : seule l’expérience façonne nos modes de percevoir, qui se
développent à travers des inférences, des associations. Certains programmes adaptatifs de reconnaissance artificielle des «  formes »,
depuis le « perceptron » de Rosenblatt, ne fonctionnent pas autrement. Les behavioristes se situent dans cette ligne, mais ils
disqualifient comme non scientifique, trop « subjective », l’étude de la perception, pour se cantonner à l’analyse des comportements.
Pour les intellectualistes, au contraire, la perception conforme les données sensorielles aux structures mentales : l’esprit comporte des
catégories a priori – des schèmes de traitement des informations sensorielles aussi bien que des notions innées sur l’espace, le temps, les
propriétés des objets. Dans la descendance de Descartes et Kant, les psychologues de la Gestalt ont fait porter leur effort sur les modalités
d’organisation perceptive : ils ont dégagé des lois qu’ils considéraient comme innées et typiques du fonctionnement cérébral [11]. Jean
Piaget et Maurice Merleau-Ponty ont nuancé ce point de vue, substituant à des gestalts intrinsèques des formes prenant leur identité au
sein d’une totalité sujet-objet, « d’un corps explorateur voué aux choses et au monde ». La psychologie cognitive la plus avancée tente
une synthèse bien fondée de ces points de vue, qui apparaissent en symbiose constante. Roger Shepard (1981) observe que l’évolution a
conduit le sujet à se former une représentation interne du monde, des contraintes et des transformations des objets. Ce n’est pas là un
retour à la conception des sens comme transducteurs transparents : cette représentation interne est un aboutissement, pas un point de
départ; elle a ses modalités propres, et elle aide l’organisme à survivre, à maintenir son homéostasie, sa différence. Shepard parle de
complémentarité à propos des modes de relation extrêmement adaptés entre la stimulation externe et sa représentation interne. Il est
certain que la perception fait usage de processus mentaux élaborés,intelligents : selon Piaget, « il existe des analogies telles qu’on aurait
peine à dire où s’arrête l’activité perceptrice et où commence l’intelligence ». Irwin Rock (1984) a pu écrire que la perception est à l’image
de la pensée – peut-être est-ce la pensée qui est à l’image de la perception [12].

Gibson réagissait contre une tendance de la psychophysique à s’attacher à des « paramètres » trop élémentaires et non pertinents. La
psychophysique est née, peut-on dire, avec les efforts de Fechner pour repérer les sensations et leur relation avec les stimulations
physiques leur donnant naissance. Fechner, Helmholtz, Fletcher, Békésy, Stevens, Zwicker et bien d’autres ont précisé les données de base
de l’audition : seuils, effets de masque, mise en relation d’échelles subjectives avec les grandeurs correspondantes. Bergson (1927) a
critiqué avec pertinence les démarches de la psychophysique, visant « une interprétation symbolique de la qualité en quantité » à travers
« une évaluation plus ou moins grossière du nombre de sensations qui pourraient s’intercaler entre deux sensations données » : il y voit
un avatar d’une tendance familière à objectiver les états subjectifs en s’appuyant sur la représentation de leur cause extérieure; toutefois il
admet la quête d’une mesure pour des sensations dont on peut comparer les intensités. La mise en échelle de jugements perceptifs peut
donner des résultats reproductibles et rendre de grands services, à condition d’en exploiter les données avec discernement. On notera au
passage que Bergson propose parfois des points de vue qui annoncent celui de Gibson – il dit ainsi, dans Matière et mémoire,
« Reconnaître un objet usuel consiste surtout à savoir s’en servir ».

La critique de Gibson portait plutôt sur le caractère artificiel des paramètres subjectifs étudiés, choisis plus à raison de leur lisibilité
physique que de leur pertinence au sein du système perceptif. Il est certain que la psychoacoustique traditionnelle, si elle précise le cadre
au sein duquel peuvent s’opérer les différenciations musicales, apporte bien peu d’enseignements au musicien, qui se soucie peu de sons
très simples présentés isolément en laboratoire. En fait, il faut aller plus loin que Gibson et scruter les mécanismes qui permettent à
l’audition de faire un tri dans les multiples messages qui lui parviennent. La capacité auditive à repérer la direction s’accompagne d’une
faculté d’écoute sélective dans un contexte trop riche (on peut suivre à volonté l’une ou l’autre de deux conversations simultanées, ou
encore, dans une musique polyphonique, l’une ou l’autre de plusieurs lignes mélodiques). L’audition est armée pour assigner différents
sons à diverses sources sonores, pour interpréter, organiser ses perceptions à partir de données sensorielles ambigues ou trop riches.

Organisation perceptive des sons successifs et simultanés


Les musiciens baroques ont souvent recours à un artifice pour donner l’illusion de polyphonie dans des oeuvres écrites pour un
instrument monodique : ils entrelacent deux lignes mélodiques en faisant alterner les notes successives de chaque ligne. Si le tempo est
assez rapide et si les lignes sont suffisamment séparées, le motif musical se scinde, à l’écoute, en deux lignes séparées. Cette ségrégation, ou
fission mélodique, a été étudiée soigneusement par Albert Bregman, dont les expériences (bien qu’effectuées sur des sons simples,
contrairement aux conseils de Gibson) ont apporté des enseignements importants sur l’organisation perceptive des sons successifs.
Bregman a fait sien le point de vue écologique, et il a trouvé des modèles artificiels d’organisation perceptive dans les études d’intelligence
artificielle sur « l’analyse des scènes », par exemple les programmes habilitant un ordinateur à interpréter les images fournies par une
caméra de télévision. Souvent l’oreille reçoit des signaux sonores émanant de sources distinctes : il lui faut « trier » les données
sensorielles pour s’y reconnaître. La ségrégation mélodique joue ici un rôle important : elle tend à regrouper, en fonction de leur
proximité fréquentielle [13] des sons qui se succèdent rapidement; les sons ainsi réunis dans un même « flot » auditif apparaissent
comme images sonores d’une même source. Il peut être impossible à la conscience d’empêcher ce groupement: certaines préorganisations
perceptives sont indépendantes de la volonté du sujet. Au sein d’un même flot auditif, l’ouie peut opérer des évaluations rythmiques très
précises, alors qu’elle est incapable d’apprécier raisonnablement l’ordre, la régularité, la « cohérence temporelle » (Van Norden, 1975) de
sons assignés à des flots diflérents [14].

De la même façon, l’oreille peut fusionner ou dissocier des sons simultanés. Divers sons seront facilement séparables s’ils occupent des
régions différentes de l’espace des fréquences; s’ils évoluent de façons différentes; s’ils sont incohérents au sens vibratoire. Les synthèses
quasi vocales effectuées par John Chowning à l’IRCAM en 1979 ont montré le rôle que peuvent jouer les micromodulations –
notamment un vibrato irrégulier de fréquence – pour aider l’oreille à distinguer dans le son plusieurs « voix »: s’il n’y a pas de vibrato,
plusieurs sons à intervalle d’unisson, d’octave ou de quinte tendent à fusionner (ils correspondent à des harmoniques d’une même
vibration et l’oreille a du mal à les séparer), mais dès qu’on impose à ces sons des vibratos à des cadences différentes, ou plus généralement
des modulations incohérentes entre elles, l’oreille les distingue comme des voix séparées [15]. Stephen McAdams a étudié cette capacité
de l’oreille à démêler un écheveau de sons simultanés. Il a ainsi analysé un son de hautbois en composantes harmoniques, puis l’a
resynthétisé en imposant des modulations différentes aux harmoniques pairs et impairs. A l’écoute, le son se scinde en deux: l’un, formé
des harmoniques impairs, rappelle la clarinette; L’autre, formé des harmoniques pairs, se situe une octave plus haut.

Il s’agit ici « d’analyse par synthèse » de certains mécanismes d’organisation perceptive. Ces mécanismes une fois élucidés, le musicien qui
utilise les moyens numériques peut les faire jouer pour influencer les modes perceptifs de l’auditeur. Dans ma
pièce Inharmonique (1977) (Lorrain, 1980), j’avais formé un corpus de sons inharmoniques, chacun n’étant caractérisé que par la
donnée des fréquences, des intensités et des durées pour un certain nombre de composantes (entre 6 et 16). Si je synthétisais un son en
imposant à toutes les composantes une même enveloppe de type percussif (attaque rapide suivie d’une décroissance graduelle), le résultat
évoquait une cloche – mais composée comme un accord – en tout cas, un objet sonore unique. Remplaçant cette enveloppe par une
autre plus douce, croissant puis décroissant pour atteindre son maximum par exemple à mi-durée, j’obtenais, au lieu d’un objet sonore
diane schuh fusionné, une texture fluide évolutive : à l’image d’un faisceau lumineux décomposé en arc-en- ciel par un prisme, les composantes, de
durées différentes, émergent en succession, atteignant leur maximum à des instants différents. La pièce joue sur cette dialectique fusion-
dispersion. Phone, de John Chowning, fait surgir puis disparaître des voix imaginaires en jouant sur les micromodulations de
fréquence. Archipelago, de Roger Reynolds, tire parti de l’exemple de McAdams décrit plus haut. Ainsi le musicien, modifiant le son, fait
en sorte qu’il soit perçu globalement, comme masse, texture, timbre, ou analytiquement, comme polyphonie, lignes, accords : il peut
influencer l’écoute, la guider vers telle ou telle modalité architectonique, faire surgir à la conscience tel ou tel être sonore, en ébranlant
l’exquise sensibilité de la perception par des variations infimes, moyennant une conduite des paramètres fine et détaillée – que seule
permet la précision du numérique. Gerald Bennett nous rappelle une parole mémorable : « Dieu est dans les détails. » Ce mot n’est pas
d’un miniaturiste, mais d’un architecte, Mies Van der Rohe.

Les mécanismes d’organisation perceptive suivent souvent des règles de


« prégnance », de « bonne forme », dégagées déjà par les psychologues gestaltistes. Dans certains cas, ils peuvent être indépendants de la
volonté de l’auditeur; en revanche, dans la plupart des situations, le passé, les références de l’auditeur, son attention, sa capacité à former
telle ou telle conjecture jouent un rôle significatif. Bien souvent le rôle de la perception consiste à confirmer ou infirmer une hypothèse
plutôt qu’à prendre complètement en compte les données sensorielles. La figure 4 en donne un exemple visuel : pour qui n’a jamais vu ce
montage de mots, la répétition des articles définis n’est pratiquement jamais aperçue au premier coup d’oeil (Risset, 1967). Une
hypothèse jaillit, suivant laquelle le message visuel comporte deux expressions connues, et les indices non congrus sont éliminés de façon
inconsciente; la répétition est d’ailleurs bien moins facile à discerner qu’au sein d,une même ligne, d,un même «  flot » visuel. Licklider va
jusqu’à écrire que l’oreille entend non les données sensorielles, mais l’hypothèse gagnante. La « restauration phonémique » – qui fait
percevoir à l’auditeur, dans la parole, des phonèmes physiquement absents – donne lieu à des erreurs, mais elle aide à restaurer un signal
de parole imprécis : l’audition humaine est bien plus performante pour reconnaître la parole que les systèmes artificiels.

On ne peut réduire l’audition à quelques mécanismes élémentaires caractérisés par des courbes de réponse. La perception tient compte
des probabilités de rencontrer telle ou telle stimulation : les stimulations plus fréquentes seront traitées plus rapidement. L’audition peut
tenir compte d’un contexte très riche, passer inconsciemment d’un niveau à un autre, effectuer une analyse ou, au contraire, une synthèse
des données sensibles. Ici l’attention du sujet, mais aussi l’information dont il dispose a priori, sa capacité à former des hypothèses, jouent
un rôle décisif. Répétons-le, la perception fait preuve d’intelligence, on ne peut en donner de modèles simples, il faut l’envisager comme
un ensemble de mécanismes complexes en interaction, comme cette «  société d’agents » spécialisés que Marvin Minsky propose pour
modéliser le fonctionnement cérébral. Le postulat de Gibson a été étendu à l’organisation perceptive par des psychologues comme
Bregman ou Shepard : les règles qui gouvernent l’identification et les transformations des objets du monde matériel auraient été
incorporées dans les mécanismes cérébraux au cours de l’évolution, ce qui expliquerait les concordances entre le monde physique et
l’imagerie mentale. On le voit, l’étude de la perception pose nombre de questions à la psychologie cognitive.

En tout cas, les points de vue énoncés sur la perception, sa phylogenèse et son ontogenèse, nous font retrouver un lien entre notre être
intérieur et le cosmos. Shepard (1981) reprend une question posée par Koffka : « Est-ce que le monde nous apparaît comme tel parce
qu’il est ce qu’il est, ou parce que nous sommes ce que nous sommes? » A la lumière des considérations évoquées, on peut répondre :
« Le monde nous apparaît comme tel parce que nous sommes ce que nous sommes », mais de plus « nous sommes ce que nous sommes
parce que nous avons évolué dans un monde qui est ce qu’il est. »

Le cas de la musique
Nous aurions donc hérité de l’évolution ces mécanismes perceptifs élaborés, visant à assurer la survie dans un monde où les seules
évidences étaient peut-être celles du désir, de la faim et de la peur. Ils sont inscrits dans notre patrimoine génétique, ils forment le substrat
de nos possibilités cognitives. Ils se trouvent aujourd’hui mis à contribution, jouant à vide, gratuitement, dans la perception de la
musique – occupation désintéressée, luxe d’un monde sûr, dominé par l’homme, qui s’absorbe dans le jeu superflu de ses schèmes
perceptifs – « plaisir délicieux d’une occupation inutile » [16], Dans l’écoute musicale, les fonctions originaires de l’audition – alerte,
reconnaissance des sources – fonctionnent sans nécessité vitale, mais il se peut qu’un manque fondamental soit ressenti si les mécanismes
complexes de l’audition ne sont pas suffisamment sollicités.

Selon Leonard Meyer, la jouissance de l’écoute naît de la recréation mentale de formes au sein d’un univers sensible. Il n’y a pas de sens
premier à ce jeu perceptif, à cet accomplissement de la perception, absorbée dans son propre fonctionnement : c’est la disposition de
l’auditeur qui peut mettre l’accent sur tel ou tel aspect potentiel cérébral, sensoriel, émotif ou connotatif [17].

Bien sûr, les jugements musicaux ne dépendent pas uniquement des configurations sonores objectives, mais aussi de l’auditeur, de son
passé, de son attitude, de la fonction qu’il assigne à la musique au moment de l’écoute. Les systèmes musicaux sont certes ancrés dans la
« nature » : les propriétés des sons et de leur propagation, les caractéristiques de l’audition, dont les modalités spécifiques sont adaptées
comme nous l’avons vu à la physique du son; mais ils le sont tout autant dans la « culture » : la tradition musicale, l’ontogenèse et
l’éducation de l’individu. L’acculturation constitue chez l’auditeur des structures de référence qui affinent et socialisent- et en même
temps calcifient – ses modes de perception musicale. Il faut évoquer ici certains aspects quasi linguistiques de la perception musicale.

Perception catégorielle
La perception catégorielle rassemble l’analogique et le numérique, puisqu’elle assigne à un ensemble continu de variantes analogues une
seule et même catégorie (faisant souvent parti d’un ensemble fini de catégories prototypes répertoriées). Lorsque le stimulus varie suivant
un continuum, il existe un domaine au sein duquel il est identifié à cette catégorie : il n’y a pas de discrimination entre stimuli à
l’intérieur de ce domaine, alors que la différenciation se fait entre stimuli attachés à des catégories différentes. Il s’agit d’un cas limite,
fréquemment rencontré dans la parole – la prise en considération des catégories que constituent les phonèmes d’une langue fait passer de
la phonétique, étude physique de la parole, à la phonologie, étude de sa pratique linguistique, se bornant aux différences pertinentes vis-
à-vis du langage. Une infinité continue de réalisations physiquement différentes possible pour un même phonème. Lors de
l’apprentissage de la langue, les cas de différenciation entre phonèmes sont appris – il serait plus juste de dire que les différenciations plus
fines sont désapprises. Un Français a du mal à différencier sick et thick; dans une certaine ethnie africaine, les adultes ne peuvent, à la
différence des nouveau-nés, différencier pa et ba : dans ces deux cas, les consonnes initiales ne correspondent pas, dans la langue apprise, à
des phonèmes différents.

De façon similaire, un auditeur occidental tend à interpréter une gamme ou un mode non occidental en termes d’une grille de lecture
chromatique : il « naturalise » les intervalles, les assimilant à ceux d’une échelle qui lui est familière; il lui est difficile d’accommoder sa
propre grille pour prendre en compte d’autres échelles de hauteur tonale [18]. Il en va de même pour les timbres, ou pour les musiques
elles-mêmes. On est parfois ahuri de constater la surdité de certains auditeurs – même musiciens professionnels – aux différences entre
diane schuh sons ou musiques de certains types, catalogués sous la même étiquette. Les musiques nocturnes de Bartok, Metastasis de Xenakis ou une
foule de musiques électroacoustiques iront dans le même tiroir de « l’étrange » : musique de science-fiction. Nomenclatures, taxinomies
et typologies sont réductrices. L’apprentissage d’un langage, d’une syntaxe et d’un vocabulaire favorise la perception catégorielle, qui
protège contre les dérives, les glissements, qui rend la perception plus reproductible mais aussi moins ouverte, qui l’appauvrit, la
spécialise. L’auditeur forme des hypothèses à raison de ses « catégories » disponibles, il assimile l’inconnu au connu : pour percevoir la
nouveauté, il lui faut accommoder ses catégories à l’expérience [19]. L’empreinte se fait d’autant mieux qu’on est plus jeune : mais
l’attitude, le degré d’ouverture de l’auditeur peuvent être déterminants. Le musicien peut tenter de concentrer l’attention de l’auditeur sur
l’innovation, enraciner les nouveaux modes de jeu en terrain connu, en évitant de disperser l’écoute par trop de structurations
simultanées : les élaborations rythmiques de Sacre du Printemps de Stravinsky s’inscrivent sur des accords stables; les objets sonores
complexes du piano préparé de Cage sont soumis à un agencement lâche, aéré.

La perception catégorielle apparaît souvent sous une forme moins rigoureuse – il peut y avoir discrimination au sein d’une même
catégorie, les continuums peuvent être perçus comme tels, mais la discriminabilité augmente au voisinage des frontières d’une catégorie.
Hary et Massaro ont montré que c’était le cas pour le temps d’attaque d’un son ( 1982). Le psychologue George Miller parle du nombre
magique 7 (plus ou moins 2) comme le nombre maximum d’éléments que nous pouvons mémoriser immédiatement, qu’il s’agisse de
chiffres de lettres, de notes de musique, en somme, de catégories distinctes. Le nombre de degrés par octave dans la plupart des échelles
musicales est compatible avec cette donnée : pour structurer efficacement une dimension perceptive, il est utile de recourir à un petit
nombre de catégories (McAdams & Saariaho, 1985). Le fait qu’une gamme également tempérée comporte treize au lieu de douze degrés
par octave peut échapper quelque temps à l’attention, même pour des musiciens avertis. Une série de douze sons est difficile à mémoriser.
Webern introduit souvent des symétries internes : ses structures sérielles sont ainsi plus perceptibles.

On a trop souvent l’idée que les opérations perceptives dégagent des éléments – des notes, avec leurs paramètres : hauteur, durée,
intensité, timbre – et que le cerveau procède à partir de ces éléments à des opérations cognitives, au niveau desquelles pourrait apparaître
la musique. Cette perspective atomiste est battue en brèche par d’innombrables observations : il n’est pas justifié de distinguer
hiérarchiquement les sensations élémentaires et leur combinaison en formes. Merleau-Ponty (1945) critique la notion de sensation, « la
plus confuse qui soit », qui « fausse toute l’analyse de la perception ». Bregman a montré que le timbre perçu pouvait être non préalable,
mais conséquence de l’organisation perceptive – deux sons simultanés peuvent ou non être fusionnés à l’écoute : le ou les timbres
correspondant ne sont pas les mêmes. Le phénomène de perception catégorielle influence les relations perçues : mais le fait que tel ou tel
paramètre soit ou non perçu à travers une grille discontinue peut dépendre du contexte, du mode de présentation, de la conduite de
l’attention. Le fait que certains êtres sonores s’imposent comme catégories peut dépendre de circonstances sociales [20].

La perception catégorielle joue certainement dans nos possibilités cognitives un rôle décisif, mais qui demande à être dosé
soigneusement. C’est sur elle que se fondent les déviations expressives qui interviennent dans l’interprétation d’une musique : en
s’écartant faiblement des rapports mathématiques de durée correspondant à une figure rythmique déterminée, on peut donner
l’impression que le rythme a changé de caractère, sans que la figure rythmique ait changé – la perception « accroche » cette figure
rythmique comme une catégorie susceptible de réalisations physiques différentes. Si l’on mesure dans des enregistrements « de
référence » les durées des trois temps de valses viennoises, on trouve entre ces durées notées comme égales des différences variables mais
systématiques, et pouvant dépasser 50 % : on entend toujours une valse à trois temps, mais plus ou moins dynamique, enveloppée,
rebondissante ou «  chaloupée » (Sundberg, 1983).

Une musique dont la cohérence apparaît mal à l’auditeur apparaît souvent comme un bruit, sans que la nature physique du signal soit en
cause: il n’y a pas de distinction tranchée entre sons musicaux et non musicaux, c’est plutôt une saturation de l’information qui
intervient. Suivant le vocabulaire de la théorie mathématique de l’information, l’agrément d’un message sensoriel suppose que le débit
d’information soit équilibré entre une pauvreté excessive – la rengaine, trop prévisible – et une excessive richesse – l’imprévisible, dont la
limite est le bruit blanc. La présence de catégories peut jouer un rôle essentiel pour réduire l’information à un niveau que nous pouvons
appréhender: elle rend la perception moins vague, plus affinée, plus précise, plus apparentée aussi à celle d’autres auditeurs qui partagent
le même code, mais aussi moins ouverte, plus figée, plus conventionnelle [21], La connaissance de l’oeuvre, de son vocabulaire et de sa
grammaire, de ses tournures de style, de ses conventions, permet d’approfondir l’écoute et d’enrichir l’information assimilable. Une
musique digne de ce nom peut être réécoutée maintes fois : la perception ne se réduit pas à des reconnaissances simples et complètes, le
plaisir de l’écoute réside aussi dans la découverte d’articulations, de mouvements, de formes latentes dans le discours musical.

Le cas paradoxal de la musique numérique


A moins de croire à des mutations bien hypothétiques, notre sens de l’ouie se trouve désormais dans une situation étrange : nos
mécanismes auditifs, développés pour interpréter des sons engendrés mécaniquement, à partir de structures acoustiques stables et
visibles, doivent réagir à des sons d’origine électrique, correspondant à des structures invisibles et ductiles. C’est par l’électroacoustique
que transite aujourd’hui une proportion considérable de la musique entendue – par la radio, la télévision, la cassette, le disque. Même
l’enregistrement d’une musique instrumentale nous donne le plus souvent à entendre des perspectives sonores agencées en studio et qui
ne pourraient exister sans l’électroacoustique. Le musicien « numérique » doit ruser et travailler à jouer le jeu de ces mécanismes dans un
domaine – celui du son électrique – où ils n’ont plus cours [22].

Pour le musicien « numérique », se fier uniquement à l’oreille intérieure, c’est borner son horizon à un champ déjà exploré, repéré,
quadrillé – ou alors c’est accepter d’avance, inconditionnellement, les métamorphoses inconnues qui feront de la stipulation écrite,
« transmuée » par la très singulière correspondance psychoacoustique, une construction sonore qui n’est pas vraiment prévue, maîtrisée,
« entendue ». Un certain compositeur, prétendant ne pas s’intéresser au timbre, à l’incarnation sonore de ses compositions, avait écrit
pour ordinateur des clusters de fréquences pures séparées par des intervalles microtonaux : à l’écoute, on entendait comme d’énormes
flonflons, nullement prévus par l’écriture et dus aux battements que l’oreille engendre nécessairement dans ce genre de situation. Une
logique purement combinatoire, méconnaissant les singularités, les lignes de force du champ perceptif, serait quelque peu
schizophrénique, sans ancrage dans le réel sensible. Heureusement le domaine de prévision, l’oreille intérieure peuvent s’enrichir à la fois
d’un savoir-faire « communautaire » sur la perception auditive (disponible sous plusieurs formes : traités, catalogues de sons balisant
certaines régions, peut-être bientôt systèmes experts) et d’une expérimentation personnelle, encouragée par des programmes comme
ESQUISSES de David Wessel et Bennett Smith [23].

Simulation de mécanismes vibratoires


Une façon de jouer le jeu de mécanismes auditifs adaptés aux sons d’origine mécanique est de simuler électroniquement des mécanismes
vibratoires pour produire électroacoustiquement les sons correspondants. Ainsi peut-on espérer « accrocher » l’attention de l’oreille en
lui proposant des sons structurés suivant des modes auxquels elle serait particulièrement attentive. Cela suppose une technologie
électronique – en fait, informatique – suffisamment développée, et une connaissance – une science – de ces processus physiques
suffisamment développée pour donner lieu à des modèles fructueux. La simulation permettra justement d’éprouver la pertinence de ces
modèles, qui doivent être suffisamment élaborés pour que l’imitation soit convaincante. Mais alors, on peut expérimenter les variations
des paramètres au-delà de ce qui est possible dans le monde réel: une erreur même dans la définition de ces paramètres risque de donner
lieu à des sons nouveaux mais propres à faire jouer les mécanismes auditifs tentant de remonter à la genèse du son.

diane schuh Ainsi, en 1963, Max Mathews, John Kelly et Carol Lochbaum ont fait chanter l’ordinateur: la voix était produite par simulation du
conduit vocal, et la simulation commandait les déformations du conduit correspondant à l’articulation. Si cette voix gardait un accent
électrique, c’était moins à cause du principe de synthèse que du manque de détails et de souplesse dans la conduite des mouvements
simulés [24]. En 1969, Pierre Ruiz a étudié le mouvement de la corde frottée du violon en chargeant l’ordinateur de résoudre les
équations différentielles régissant ce mouvement [25]. Il a pu élargir le domaine des sons de type cordes frottées en procurant au modèle
des paramètres non réalistes, par exemple en supposant que la corde avait une raideur négative. Depuis 1973, Claude Cadoz et ses
collaborateurs de l’ACROE, à Grenoble, ont fait de la simulation de mécanismes physiques l’un des axes de leur recherche : leur
démarche vise à terme la conception d’outils de création nouveaux, tirant parti des ressources de l’informatique mais prenant en compte
l’ontogenèse perceptive, qui serait en fait sensori-motrice, liée à l’expérience instrumentale [26]. Ce point de vue prolonge et étend celui
de Gibson, qui déjà envisageait le rôle des mécanismes « proprioceptifs », ceux par lesquels on perçoit sa position ou l’effet de ses propres
actions; il étend à la musique la théorie « motrice » de la perception de la parole, suivant laquelle les sons parlés sont identités moyennant
la mise en jeu implicite et muette, chez l’auditeur, des mécanismes de phonation pour mimer la production de la phrase entendue
(Flanagan, 1972). L’ACROE a déjà simulé nombre de processus : cordes frottées, frappées ou pincées, chocs et rebonds, produisant non
seulement le son résultant, mais aussi l’image animée des objets simulés et même, à l’aide de « transducteurs gestuels rétroactifs », les
réactions m&eacu te;caniques que peut apprécier le toucher. Il y a là une tentative trcs intéressante de simulation de l’environnement
sensible, symétrique de celles qu’effectue l’intelligence artificielle lorsqu’elle simule le sujet qui perçoit, et prenant en compte plusieurs
sens : voie royale pour aborder l’étude difficile mais prometteuse des relations entre modalités sensorielles [27].

Même pour le son seul, la simulation physique constitue une voie très prometteuse, qui se développe ici et là, avec les travaux de Gabriel
Weinreich, Jean-Marie Adrien, Xavier Rodet et Jean-François Baisnée, Antoine Chaigne, Julius Smith; elle suppose cependant une
expertise exigeante, et elle demande une quantité de calculs impressionnante (ce problème s’estompe avec le développement de la
microélectronique : les « puces » numériques sont de moins en moins chères et de plus en plus puissantes). Mais le procédé devrait
donner lieu à des résultats efficaces, en permettant de faire varier des caractéristiques du monde physique à même d’aiguiser la vigilance de
l’ouie. Et la perspective de pouvoir confronter nos mécanismes perceptifs avec un monde simulé qui aurait des lois physiques différentes
n’est-elle pas fascinante?

Lorsqu’on ne s’adresse qu’à l’oreille, l’illusion pourra fonctionner si on ne préserve que les aspects du son auditivement pertinents, sans
vraiment simuler le mécanisme de façon fidèle. Ainsi peut-on entendre dans Silicon Valley Breakdown de David Jaffe des arpèges dont on
jurerait qu’ils ont été produits par un plectre grattant des cordes : en fait, ils ont été synthétisés à l’aide d’un singulier processus de
réinjection développé par Strong, Karplus et Smith, qui ne simule pas véritablement le fonctionnement de la corde pincée, mais qui
reproduit les caractéristiques acoustiques dominantes de sa décroissance (Jaffe & Smith, 1983). Au lieu de chercher à démarquer la
genèse du son à imiter, on peut s’attacher à n’en simuler que les traits perceptifs significatifs. (Il faut signaler à ce propos les recherches
entreprises par Freed et Martens, dans le droit fil de la perspective gibsonienne). Un exemple : le détournement du violon électronique de
Max Mathews. Ce violon comporte un archet et une corde mécanique, mais la vibration de la corde est transformée en vibrations
électriques, et l’effet des résonances de la caisse est remplacé par celui d’un ensemble de filtres électroniques simulant ces résonances. J’ai
suggéré à Max de remplacer ces filtres par un circuit simulant la propriété caractéristique des sons cuivrés évoquée ci-dessus : on peut
alors obtenir, en frottant l’archet, des sons évoquant irrésistiblement la trompette! Les indices perceptifs prennent ici le pas sur la facture
mécanique du son.

Suggestion d’un monde illusoire


Dans l’expérience qui vient d’être décrite, les causalités acoustiques traditionnelles sont altérées. La synthèse permet aussi de faire surgir
un monde sonore purement illusoire : « phénochant sans génochant », aurait dit Roland Barthes. Faux- semblant, duperie? Le legato du
piano est un trompe-l’oreille, disait déja Schumann. Conférer à un son l’identité apparente du piano ou de la trompette, alors qu’il est
synthétisé par un processus sans rapport avec le fonctionnement physique de ces instruments, c’est si l’on veut un maquillage acoustique.
Mais le maquillage n’est-il pas un ingrédient essentiel de la représentation? Par nature, l’art n’est-il pas un mirage, un artifice? A ceux qui
reprochaient au drame chorégraphique (La dame aux camélias) d’être trop convenu, Serge Lifar répliquait qu’il fallait aller à l’hôpital, pas
a l’opera, pour voir vraiment mourir Marguerite. Les acteurs mâles du Kabuki ont si belle apparence que des spectateurs peuvent en
tomber amoureux, comme les auditeurs des «  sopranos » dont John Chowning a créé les voix – ce ne sont pourtant les voix de
personne, elles sont à la lettre désincarnées, de même que les voix suspendues qui répondent au baryton présent sur scène dans Aber die
Namen de Gerald Bennett. Jeu présence-absence, contacts sensibles entre l’écho sonore d’un monde réel et la suggestion acoustique d’un
univers immatériel : cet univers peut se confondre avec le monde physique, mais il prend naissance dans nos perceptions. Purement
illusoire, ancré non dans le corps sonore mais dans le corps de l’auditeur, dans la chair de l’organisation perceptive, il peut être plus
prégnant que le monde réel, dans la mesure où il fait jouer à plein nos opérations perceptives, sensibles et cérébrales à la fois, susceptibles
d’impliquer nos préoccupations les plus actuelles aussi bien que des mécanismes archaiques, originaires. Les simulacres peuvent avoir de
vrais pouvoirs.

Bien entendu, la maîtrise de nouveaux moyens de synthèse ne vise pas seulement à copier ce qui existe, à faire du faux bois en plastique.
La plasticité du nouveau matériau ouvre d’autres voies, comme le plastique l’a fait pour la sculpture, des expansions de César aux flexibles
de Lillian Schwartz ou Keith Sonnier. Le jeu sur les opérations perceptives ne se borne pas à donner le change, à faire croire réel un
monde-contrefaçon. La nouvelle ductilité du matériau appelle d’autres agencements : ces agencements, dans la mesure où ils portent sur
de nouvelles données, échappent souvent à la conscience claire. Dans ma pièce Chute (19G8), la forme est agencée en fonction de
parcours d’occupation de l’espace spectral (Cogan, 1984, pp. 108-112); c’est le cas aussi dans Inharmonique (1977) et Songes (1979), où
elle est liée en même temps à la dialectique fusion-dispersion (Lorrain, 1980). Dans Stria (1977), John Chowning recourt à des textures
inharmoniques composées de façon à se mélanger sans frottement, à s’interpénétrer sans obstruction, dans la mesure où elles sont
agencées suivant les degrés d’un mode de hauteurs approprié : la structure interne au son commande ici l’échelle, comme l’avait suggéré
John Pierce (1966), et la forme de la pièce dérive elle aussi des proportions internes du son. Les commentaires judicieux que donnent de
Stria Pierre Boulez (dans les cassettes IRCAM – Radio France sur le temps musical) ou Philippe Schoeller (1986) ne mentionnent
cependant pas cette structuration, qui agit de manière interne, organique (on ne voit pas les organes). Sans doute peut-on ménager des
modes d’articulation plus explicites, plus évidents. On trouve au niveau de la forme comme au niveau du son la distinction entre des
organisations qui s’imposent immédiatement à la conscience, lors d’une saisie « préconsciente » ou «  pré-attentive » (Julesz, 1985), et
d’autres qu’il faut scruter, analyser, vérifier par un effort conscient.

L’univers illusoire se dissipe comme crève une bulle de savon dès qu’on cherche à scruter les coulisses de la représentation. Mais la féerie
du spectacle ne réside pas derrière la scène. Et rien n’empêche en principe l’auditeur passif de ces mirages acoustiques de les faire renaître
lui-même, voire de leur donner la forme qu’il lui plaira de leur imposer. Il lui faut pour cela entrer dans le jeu du musicien, prendre sa
place, ce qui suppose bien sûr – pour l’instant – un investissement considérable, intellectuel autant que matériel [28].

Les enjeux
La finesse du numérique ouvre de nouveaux territoires. L’informatique permet au compositeur d’englober dans une même démarche le
travail sur les sons isolés et en contexte, de faire jouer non seulement le son – la note – dans le temps, mais aussi le temps dans le son, de
diane schuh composer le son lui-même. Au sein des possibilités sans limites de la synthèse, les cartes d’espaces de timbre établies par John Grey et
David Wessel peuvent servir d’aide à la navigation [29] – en fait, le musicien explorant un domaine de l’océan sonore peut établir
luimême ses propres cartes, qui dégagent les dimensions saillantes des différenciations subjectives qu’il opère entre divers timbres de ce
domaine. Dans le même ordre d’idées, l’ordinateur peut permettre l’élaboration de divers outils d’aide à la composition, et la mise à
l’épreuve du pouvoir structurant de diverses techniques rédactionnelles; les techniques d’analyse multidimensionnelle peuvent donner
des représentations spatiales imageant les relations qu’apprécie la perception. On peut ainsi envisager des « outils de création », qui
aideraient à rapprocher les rôles du créateur, de l’interprète et de l’auditeur (cf. ci-dessus [28]).

Il faut bien sûr se garder de tout optimisme béat, de tout scientisme crédule. Le progrès n’est pas une catégorie esthétique, et la fuite en
avant n’est pas une démarche assurée. Joseph Weizenbaum insiste sur le caractère réducteur de l’intelligence artificielle et de ses
simulations. A eux seuls, ni l’ordinateur ni la science de la perception ne peuvent résoudre les problèmes musicaux : d’ailleurs cette
science est à développer, et les musiciens doivent y contribuer comme ils l’ont fait récemment de façon si vigoureuse [30]. Mais la
musique ne peut refuser les acquis scientifiques et techniques de son temps, elle doit être présente, sans se conformer aux pentes sociales :
son rôle peut être exemplaire et critique. Un nouveau défi lui est jeté avec l’avènement de l’ordinateur.

Michel Serres observe qu’un organe – ou une fonction – invente chaque fois qu’il est libéré d’une obligation. La mémoire sonore a été
libérée par la notation; puis par l’enregistrement; enfin par le recours à l’ordinateur, qui permet d’accéder séparément aux paramètres, aux
gestes, aux profils, aux structures, et de les agencer en un nouveau contrepoint. Peut-être, grâce à ses calculs parallèles, son traitement de
la complexité, l’ordinateur – non pas objet technologique, mais cristallisation de savoirs et de savoir-faire – nous aidera-t-il à dépasser les
modèles linéaires, qui méconnaissent les limites, à mettre en marche une « société d’agents » à notre mesure : nous pourrions en faire un
partenaire sans précédent, raffiné, convivial, et pas seulement un auxiliaire inadéquat, un esclave bon à mouliner des algorithmes aveugles.
Le savoir perceptif ne doit pas rester lettre morte : sans parler des systèmes experts qui le rendront peut-être plus accessible, il doit être
« reifie » dans les capteurs, les «  accès » aux appareils, inscrit dans les programmes, les commandes, les modes de communication avec
les machines. L’enjeu dépasse la musique [32]. Nous n’en sommes qu’au début de nos tractations avec l’informatique, il nous faut tenter
d’instaurer avec les ordinateurs des relations harmonieuses, une synergie heureuse : la musique doit montrer l’exemple et le chemin,
sensible toujours à nos perceptions et critique de toute théorie préconçue ou définitive. Selon Michel Serres, « l’ordinateur peut se dire
outil universel : instrument construit et concret sous la main, mais d’application ouverte et indéfinie comme un théorème » : outil de
l’homo faber, et pas seulement d’un homo sapiens accroché à une idéologie, à des visions a priori. Les théories s’étiolent, se fanent,
souvent il n’en reste que des amers de la pensée en marche. Goethe nous le rappelle, seul « l’arbre de la vie est éternellement vert ».

L’oeuvre faite – l’oeuvre perçue


L’oeuvre existe – même si sa trace est immatérielle – comme une forme, un système de relations, un agencement objectif. Mais on ne lui
reconnaîtra le statut d’oeuvre d’art que si elle est susceptible de toucher les profondeurs de l’expérience sensible. Dualité qui pose
problème. Boris de Schloezer (1947) avait tenté de cerner l’identité de l’oeuvre musicale au travers de multiples réalisations possibles. La
méme question se pose pour les multiples perceptions possibles de l’oeuvre : faut-il chercher le critère de sa force dans sa structure
intrinsèque, la puissance de ses relations internes, défiant le temps et son flot d’entropie? Est-elle d’abord un « anti-destin » [33]? Ou
bien estelle par essence éblouissante et fugitive comme la flamme, n’existe t-elle que perçue, présence incandescente, « événement de la
forme [34] », « feu des signes » [35]? Dans ce dernier cas, elle dépendrait de la lumière, de l’éclairage (au sens large), et avant tout du
sujet : c’est lors de sa perception que le système de signes peut s’embraser, susciter des résonances, mettre sous tension des « réseaux
aperçus ». L’oeuvre faite ne serait alors que promesse, virtualité, potentiel, un potentiel qui peut ne jamais se «  potentialiser », comme
on dit en médecine, qui peut aussi sommeiller pour être revivifié lorsque les circonstances favorables apparaissent, comme les graines
dans le désert survivent à des années de sécheresse pour donner lieu dès l’averse à une éblouissante floraison.

Mikel Dufrenne analyse avec bonheur « la dialectique de l’en-soi et du pour-nous », opposant Boris de Schloezer, partisan d’une thèse
intellectualiste suivant laquelle l’unité de l’objet musical n’est pas suspendue à la perception, et Robert Francès, qui pense avec
MerleauPonty que « la forme de l’objet est subordonnée à la constitution d’une totalité sujet-objet ayant ses lois propres ». Il cite Gisèle
Brelet qui confronte de même les points de vue empiristes et formalistes, montrant que les deux termes sont inséparables : l’empirisme est
encore une esthétique, le formalisme apporte des révélations sur le sensible sonore.

Écrire implique présupposer un effet, même s’il faut l’expérimenter, le soumettre ensuite à l’épreuve de l’écoute, fût-elle intérieure. De
l’oeuvre à naître surgit parfois une idée ramassée, concentrée, on croit en avoir une perception instantanée, synoptique. Mais de cette idée
l’oeuvre ne sort pas tout armée : il faut inscrire cette forme dans un temps imaginé qui sera celui de l’écoute. Alors se déroule, pour
déployer l’idée et l’incarner, une longue et patiente élaboration, un véritable combat avec les contraintes du matériau, qu’il faut à la fois
respecter et dépasser – expériences, travail de l’écriture, retour de la construction pensée devenue objet sensible, choc de cet objet avec les
schèmes et les pulsions de l’espace intérieur. Ces tractations laissent des stigmates dans la trace écrite, composée, et suscitent des
résonances dans la perception, qui tente d’accomplir l’oeuvre en revivant les mouvements suggérés. Les figures, les formes de l’art ne sont
pas des « patterns » quelconques, définis comme on le dit souvent par les relations entre leurs parties. Les proportions, les relations
internes sont certes essentielles, mais leur transposition dans le sensible n’est pas arUitraire, il y a aussi des ancrages absolus, liés sans doute
au corps et aux modalités lui permettant d’être contemplatif, mais aussi attentif, aux aguets, capable d’une perception équilibrée,
performante, exigeante. La valeur esthétique d’une musique résiste mal à une dilatation ou une contraction trop importante : peut-on
supporter longtemps d’écouter une musique deux fois trop vite?

l’oeuvre pourra jouer d’opérations pour invoquer des figurations, des significations ou des connotations symboliques : leur surgissement
chez le spectateur ou l’auditeur reste contingent. La mise en scène artistique peut bien les avoir prévues, mais son fonctionnement, son
efficacité à cet égard suppose nombre d’ingrédients – présentation adéquate, communalité sufhsante du code, fraîcheur et disposition du
sujet à revivre les mouvements de l’oeuvre : la présence perçue, vivante, de l’oeuvre n’est jamais assurée. La musique passe par la
perception auditive, elle s’adresse à la subjectivité : « La beauté est dans l’oeil de celui qui regarde. » Il n’y a pas deux individus
semblables : on peut craindre que la communication musicale ne soit une chimère [36], Effectivement, les différences entre auditeurs
sont vertigineuses. On sait que les audiogrammes, qui manifestent la sensibilité de l’auditeur aux sons de diverses fréquences, varient
considérablement d’un auditeur à l’autre, voire d’un jour à l’autre chez une même personne. Etudiant la perception de paradoxes de
hauteur sur une population d’environ deux cents personnes d’origine très diverse (musiciens professionnels, artistes, chercheurs
scientifiques et littéraires, étudiants, d’origine occidentale ou non), j’ai été stupéfait par leurs différences de capacités et de stratégies
auditives : pour certains couples de sons, il est vrai inhabituels (Risset, 1971), certaines personnes pouvaient s’opposer opiniâtrement sur
le sens de la différence de hauteur.

Et pourtant, peu ou prou, la communication musicale fonctionne. Certes, ce qui comptera pour l’auditeur n’est pas forcément le propos,
la problématique qui ont motivé le créateur pour bâtir son oeuvre : il peut y avoir peu de rapport entre la production – le niveau
« poiétique », comme dit Jean Molino, et la perception – le niveau « esthésique » (Nattiez, 1975). Cependant l’appréciation musicale
personnelle n’est pas aussi capricieuse, ondoyante et diverse qu’on pourrait s’y attendre. Il y a bien sûr au sein d’une civilisation, d’un
micromilieu, des codes, des langages (le langage tonal) ou, comme dit Gilbert Amy, des normes collectives de l’expression. Il faut tabler
aussi sur le mimétisme, l’aspiration au consensus, la révérence pour les valeurs établies. Mais surtout, il existe un fonds commun
d’intersubjectivité, qui est heureusement substantiel, ce qui s’explique dans la perspective écologique. La perception s’est éprouvée au
contact du réel. C’est le monde physique qui est l’ancrage et la référence de notre fonctionnement sensoriel, lequel fait appel chez chacun
d’entre nous au même matériau neurologique, aux mêmes opérations primitives. Nos systèmes sensoriels sont agencés pour donner du
diane schuh monde une image fiable, rendant compte de sa permanence, de ses invariants : ils masquent leurs points aveugles, gomment leurs traits
trop personnels. Ainsi existe-t-il une certaine communalité dans nos processus perceptifs et cognitifs (on l’a vu, la perception est aussi
cognition, il n’est pas fondé ici de distinguer hiérarchiquement deux modalités), qui n’est due qu’en partie à une acculturation commune.
C’est sans doute de ce fonds commun d’intersubjectivité, issu pour une large part de l’évolution, des débats millénaires des organismes
avec le monde, que surgissent les archétypes mythiques, dont l’invocation est nécessaire, suivant François-Bernard Mâche, pour qu’une
oeuvre nous touche profondément; c’est sa présence qui assure que l’oeuvre «  en soi »,structure nouvelle de rapports, objective mais
spécifique, puisse revivre « en moi » [37].

Invention, découverte
A négliger la perception, on s’expose, on l’a vu, à des déboires allant jusqu’à l’absurde : l’idée purement abstraite, une fois plongée dans le
sensible, peut ne subsister qu’altérée, gauchie, ou lointaine, difficile à apercevoir. L’oeuvre n’est pas seulement un ensemble de relations
préconçues, elle vit aussi, comme le disait Paul Klee, dans le rapport entre deux systèmes de rapports : il faut éprouver, expérimenter.
Pour autant, l’oeuvre ne se réduit pas à une expérimentation – Varèse le rappelait, les expériences doivent être effectuées avant la livraison
du produit fini. Mais l’artisanat sensible de l’artiste, son savoir-faire, ancré dans la perception, élargit l’habitus perceptif, invente, instaure
un nouveau « savoir-sentir » [38], L’art contemporain s’affirme sans honte comme un autre mode de connaissance, une pensée
autonome, qui cherche à penser, dit Marc Le Bot, « le plus réel du réel » : ses formes participent à la fois, indissolublement, de
l’intelligible et du sensible. L’élaboration artistique originale nous faic apercevoir de nouveaux territoires, des pans du monde, de nous-
même, qui en un sens étaient déjà là, dans les schèmes de notre pensée et de notre perception [39] : même incomprises, rejetées, élitaires,
les oeuvres novatrices sont récupérées plus ou moins tardivement pour marquer de leur empreinte les pratiques les plus profanes. Coup
de chapeau des Pink Floyd dans Ummagumma: « Do you dig it, Edgard Varèse? » Mondrian n’a jamais été populaire, mais le décor
d’une émission de variétés télévisées des années 70 plagiait ses abstractions géométriques. Et l’artiste de pop-art Tom Wasselman aurait pu
signer les affiches publicitaires récentes d’une radio périphérique.

Immanente et transcendante, l’activité créatrice invoque et vivifie les réseaux perceptifs de façon si intense, si étendue qu’elle parvient à
transgresser, à réaménager la perception. C’est l’oeuvre d’art qui laisse l’image la plus durable d’une époque et de son imaginaire sensible.
Les oeuvres novatrices sont le laboratoire du futur, elles préfigurent, réinstaurent la fraîcheur usée de la perception, découvrent des
modes d’entendre, de voir, de penser et de sentir.

Comment le dire mieux que Marcel Proust dans Le Temps Retrouvé: – Par l’art seulement nous pouvons sortir de nous, savoir ce que
voit un autre de cet univers qui n’est pas le même que le nôtre, et dont les paysages nous seraient restés aussi inconnus que ceux qu’il peut
y avoir dans la lune. Grâce à l’art, au lieu de voir un seul monde, le nôtre, nous le voyons se multiplier, et, autant qu’il y a d’artistes
originaux, autant nous avons de mondes à notre disposition, plus différents les uns des autres que ceux qui roulent dans l’infini… Ce
travail de l’artiste, de chercher à apercevoir sous de la matière, sous de l’expérience, sous des mots quelque chose de différent, c’est
exactement le travail inverse de celui que, à chaque minute, quand nous vivons détournés de nous-même, l’amour-propre, la passion,
l’intelligence, et l’habitude aussi accomplissent en nous, quand ils amassent au-dessus de nos impressions vraies, pour nous les cacher
entièrement, les nomenclatures, les buts pratiques que nous appelons faussement la vie. En somme, cet art si compliqué est justement le
seul art vivant. Seul il exprime pour les autres et nous fait voir à nous-même notre propre vie, cette vie qui ne peut pas s’ « observer « ,
dont les apparences qu’on observe ont besoin d’être traduites et souvent lues à rebours et péniblement déchiffrées. »

Notes
1 Ainsi, l’on oublie souvent que les couleurs, qui nous semblent reproduire sur l’écran de télévision celles du monde environnant, sont

subjectives: les longueurs d’onde physiques émanant du poste n’ont pas de relation simple avec celles de la lumière captée par la caméra.
Objectivement, l’écran n’émet que trois longueurs d’onde lumineuses dans des proportions variables. Edwin Land l’a montré, il suffit
même de deux longueurs d’onde physiques pour faire voir à l’oeil toutes les couleurs. La perception des couleurs dépend de curieux
mécanismes rétiniens, liés au contraste simultané, aux ombres colorées étudiées par Goethe. Ces mécanismes subjectifs masquent leurs
particularités: le daltonisme d’un observateur ne lui saute pas aux yeux.

2 Edgard Varèse aurait dénoncé cette distinction hiérarchisante: « Dans mes oeuvres musicales, les sons sont une part intrinsèque de la

structure » Et: « La musique du futur» Sûrement basée sur le son et au-delà des notes. « Les innovations techniques peuvent déplacer le
champ de l’élaboration artistique. L’archéologue Arthur Steinberg l’a montré pour la peinture, qui subit une révolution esthétique à
Venise au début du XVIe siècle: le passage de la technique « a tempera » à la peinture à l’huile a permis de nouveaux jeux d’espace et de
couleur. Le titre « La tempesta » de Hughes Dufourt renvoie à un tableau de Giorgione, qui selon Dufourt affirme la prépondérance et
l’autonomie de la couleur: l’oeuvre musicale. qui allie instruments acoustiques et sons « électriques », cherche à créer une forme issue de
la dynamique interne du matériau, et à utiliser le timbre comme élément organique. Le son numérique permet un travail de composition
au niveau de la structure fine du son: le timbre peut assumer un role fonctionnel et pas seulement cosmétique (Barrière, 1986). A ceux
qui objectent qu’on ne peut espérer articuler un discours musical à partir du timbre, Max Mathews répond qu’il existe des modes de
communication hautement différenciés fondés sur les modulations spectrales: les langues parlées!

3 Plus près de nous, Borgès proclame: «  On n’existe que si on est photographié ». Souci de laisser une trace objective ? ou réflexion

cynique sur notre civilisation médiatique ?

4 J’écris cet article sur une machine à traitement de texte: tant qu’il n’est pas achevé, je n’en ai pas de trace visible, sinon celle de la page que

je fais apparaître sur l’écran; dès que j’éteins la machine, je ne garde de ce que j’ai écrit que les caractères codés que j’ai pris soin de copier
sur une disquette.

5 Les pionniers de la psychophysique. Weber et Fechner, l’avaient remarqué au siècle dernier: pour accommoder une vaste gamme de

variation des grandeurs physiques. la perception fait correspondre des « intervalles » subjectifs sensiblement égaux à des stimulations
physiques en progression géométrique. Ainsi un doublement de l’amplitude physique entraine une augmentation d’intensité de 6
décibels. Un saut à l’octave supérieure correspond à un doublement de fréquence, que ce soit de 32 Hertz à 64 Hertz ou de 880 Hertz à
l760 Hertz (cf. aussi 7 ci-dessous). Une telle échelle, associant à des variables en progression géométrique des valeurs en progression
arithmétique, est dite échelle logarithmique. Bien avant l’invention des logarithmes par Néper, les claviers d’orgue anciens, ou peut-être
ceux des métallophones chinois également tempérés (Zhu Zaiyu. 1584), avec leurs octaves séparées par des distances égales, donnaient
déjà des représentations d’échelles logarithmiques.

6 Un comportement non linéaire – une distorsion – provoque sur le mélange de deux sons une « intermoclulation » tres gênante, faisant

apparaitre des composantes supplémentaires à des fréquences qui sont les sommes et différences des fréquences présentes dans chacun
des deux sons et de leurs multiples: un haut-parleur abimé peut sonner comme un effroyable mirliton. L’étendue des dégâts dépend des
sons et de la musique: une musique chromatique sera plus affectée qu’une musique diatonique; une musique monodique ou simple et
stable harmoniquement souffrira moins qu’une musique à l’harmonie complexe et changeante. Méme si la nonlinéarité est légère, les
voix ne sont plus parfaitement indépendantes et l’écoute perd sa clarté. Aussi a t-on souvent avantage à diffuser différentes voix (ou voies)
sur différents haut-parleurs, pour lesquels subsiste toujours quelque distorsion.

7 Ces comptages deviennent inopérants lorsque la fréquence dépasse 4000 Hertz environ, en raison de la relative lenteur de

fonctionnement des fibres nerveuse. Au-dessus de ces fréquences, la perception des intervalles de hauteur devient extrémement vague: on
diane schuh n’est plus capable de dire, par exemple, si un rapport de fréquence 3/2 correspond à une quinte ou à un autre intervalle. Ce n’est pas un
hasard si la tessiture des instruments de musique les plus aigus – piano, piccolo – ne dépasse pas cette limite. Cela ne siRnifie pas que les
fréquences supérieures à 4 000 Hertz n,ont pas d’usage en musique: elles donnent aux sons éclat, finesse, tranchant et précision. Mais des
sons de fréquence fondamentale supérieure à 4 000 Hertz ne se prêtent pas à des relations de hauteur élaborées. On dit que le paramètre
de hauteur cesse d’être morphophorique, c’est-à-dire susceptible d’étre support d’une forme.

8 Ces caractéristiques ont des conséquences importantes pour l’acoustique des salles de concert. Les expériences de Schroeder et Gottlob

(1974), récemment confirmées et précisées par Blauert et Lindemann (1986) et Jullien (1982), ont établi que les auditeurs préféraient
écouter la musique symphonique avec des caractéristiques spatiales donnant l’impression d’être immergé dans le son, sans perdre la clarté
permettant d’isoler les différents instruments: ces caractéristiques tiennent surtout à la présence de premiers échos de gauche et de droite
suffisamment différents. Il ne suffit pas d’assurer ces échos par de petits panneaux ne réfléchissant que les fréquences aigues, car si les aigus
assurent l’étalement latéral du son, les graves donnent le sentiment de profondeur (BIauert &Lindemann, 1986). Les caractéristiques de
diverses salles de concert peuvent d’ailleurs être simulées dans une petite salle suffisamment assourdie: ces simulations sont de plus en plus
convaincantes et de moins en moins coûteuses à réaliser, et il est probable qu’elles seront mises dans peu de temps à la disposition de
l’auditeur

9 Les paramètres auxquels l’oreille est sensible apparaissent très mal sur la visualisation de l’onde elle-méme, telle qu’elle est imprimée sur

le sillon d’un disque noir. Des ondes très semblables à l’oeil peuvent sonner très différemment, alors que des ondes d’aspects
complètement différents peuvent donner lieu au même son (cf fig. 2). Pour un son stationnaire, le spectre d’amplitude de Fourier,
donnant les amplitudes respectives des différentes composantes harmoniques, rend mieux compte des différenciations auditives: mais il
ne se prête pas à la description des sons non stationnaires, en fait les seuls intéressants pour l’oreille – et pour la musique. Gibson
recommande la représentation en sonagrammes, bien plus pertinente que l’analyse de Fourier classique. En effet, sur cette représentation,
faisant appel à une analyse de Fourier évolutive avec une fenétre temporelle glissante, les « formes » acoustiques apparaissent de façon
bien plus parlante (fig. 3) (Leipp, 1971: Cogan, 1984). La récente transformée en ondelettes peut donner lieu à des représentations
similaires, avec l’avantage d’inclure avec son spectre de phase un supplément d’information: elle a permis à Richard Kronland de réaliser à
Marseille une reconstitution parfaite de l’onde sonore, et aussi une resynthèse avec des altérations intimes du son (Grossman, Kronland
& Moriet, 1987).

10 Ces remarques jettent un nouvel éclairage sur l’ancienne controverse entre Pierre Schaeffer et Pierre Boulez concernant le mode de

classification d’objets sonores percussifs: suivant l’effet auditif, selon Pierre Schaeffer, ou suivant la cause, selon Pierre Boulez ? Elles
posent la question de la causalité sonore: faut-il ou non la masquer pour laisser l’oreille apprécier les formes sonores pour elles-mêmes ?
Cf le paragraphe concernant 1a perception catégorielle.

11 Dans cette mouvance, Leonard Bernstein, s’appuyant sur Chomsky, lequel faisait référence à Descartes. a tenté de disqualifier les

grammaires musicales autres que tonales sur l’argument que seule la grammaire tonale était « innée ».

12 La perception est intelligente, « en ce sens qu’elle se fonde sur des processus typiques de la pensée – description, inférence, résolution

de problèmes, même si ces processus sont presque instantanés, inconscients et non verbaux ». On sait bien mieux actuellement
automatiser des inférences logiques ou des calculs complexes que des reconnaissances de formes faciles à accomplir pour l’homme ou
l’animal.

13 David Wessel (1978) a montré que la ségrégation séparait les sons de « brillance » ou de « hauteur spectrale » différente, différant par

la position de leur centre de gravité spectral. Cette observation s’explique du point de vue écologique: les sons issus d’une même source
résonante stable devraient avoir des caractéristiques spectrales similaires.

14 Il faudrait décrire ici nombre d’autres études concernant la perception des sons en contexte. de John Grey et John Strawn à Diana

Deutsch, Jay Dowling et Deane Harwood: ces études ont des implications, sur la perception mélodique, méme s il peut etre délicat d’en
tirer directement des enseignements pour l’organisation des hauteurs musicales. Dans Contours et Profils, j ai tenté de tirer parti des
études de Dowling indiquant que l’on perçoit mieux la relation entre deux mélodies apparentées si elles ont le même contour, c’est-à-dire
la même succession de montée et descentes.

15 Expérience homologue, celle vécue par Sartre face à un marronnier: masse feuillue ou multitude ? « Je suis renvoyé sans cesse de l’une à

l’autre… Je vois une cohésion fourmillante, un éparpillement reployé. » Un souvenir inoubliable: dans Frankenstein, les acteurs du
Living Theatre grimpent les uns sur les autres avec furie, s’accrochent dans des positions acrobatiques, bougent ensemble, formant une
masse grouillante, singulièrement articulée. La lumière baisse, les silhouettes humaines s’effacent, et soudain surgit une présence
saisissante: c’est le monstre qui balance lentement ses bras immenses.

16 L’expression est d’Henri de Régnier; Maurice Ravel l’a placée en exergue de ses Valses nobles et sentimentales.

17 Marvin Minsky (1981) , prenant pour modèles des opérations mises en oeuvre dans le domaine de l’intelligence artificielle, a tenté de

donner une idée des activités perceptives déclenchées par l’écoute de la Cinquième Symphonie de Beethoven. Comme l’ont montré
notamment Pierre Barbaud, Iannis Xenakis, Yves Hellegouarch, Bernard Parzysz, Robert Pascal, Gerald Balzano. la musique met en jeu
nombre de structures mathématiques (comme la structure de groupe)_souvent à la façon de Monsieur Jourdain faisant de la prose: sans
le savoir. Bergson le fait remarquer: l’oeuvre d’art n’exprime pas de sentiments, elle peut en imprimer. La musique peut induire des
émotions, la musique à programme peut y faire référence: mais le musicien travaille avec des sons, des évolutions, des proportions, des
relations, des formes. Notre univers affectif peut étre extrêmement subtil de par la richesse des associations possibles, mais le catalogue
des émotions repérables paraît bien pauvre: colère, peur tristesse, joie, surprise, dégoût, suivant Ekman (1983)- tropismes sommaires liés
à des pulsions quasi reptiliennes. Les curieuses recherches de Manfred Clynes (sur lesquelles il est permis de s’interroger) semblent
indiquer que les connotations émotionnelles en mulique, mais aussi dans d’autres modalités sensorielles, sont liées à des caractéristiques
agogiques stables et spécifiques (1982). Selon Sundberg, les chanteurs peuvent communiquer clairement plusieurs états émotionnels.
Gilbert Rouget montre que la trame n’est pas induite par la seule musique, par les seuls pouvoirs du son: c’est son intégration dans une
situation donnée qui lui confère son pouvoir (la musique peut d’ailleur servir à apaiser la transe aussi bien qu’à la déclencher).

18 Les études de Robert Francès et d’Arlette Zenatti montrent qu’il existe dans la formation de l’oreille musicale, entre les âges de quatre

et dix ans, des phénomènes d’imprégnation tonale, de développement génétiques, rappelant ceux qui ont été mis en évidence par Konrad
Lorenz et Jean Piaget.

19 Cf Piaget, 1961 , Mandelbrojt & Mounoud, 1971.

20 Le saxophone, à ses débuts, a été décrit comme un timbre hybride, sans identité propre, une mauvaise clarinette métillée de basson;

plus tard, il s’est imposé comme un timbre ayant son identité propre – peut-etre parce que son usage s’est répandu très rapidement,
l’armée l’ayant adopté dans ses harmonies pour remplacer le serpent et l’ophicléide, comme le rappelle Jean Kergomard.

21 Les catégories, les discontinuités, les prototypes sont-ils, nécellaires à une perception qui ne soit pas seulement vague, qui permette à

l’auditeur d’appréhender une organisation élaborée ? Les continuums sont-ils trop lisses, dérapants, indifférenciés, pour y accrocher des
structures ? François Bayle oppose les musiciens qui croient aux nombres à ceux qui, comme lui, croient aux formes. On peut croire aussi
aux phonèmes, aux gammes et à leurs degrés: la perception catégorielle, à sa façon, concilie formes et nombres. Certaines techniques
d’écriture – celles qu’il est le pIus facile de mettre en oeuvre sur ordinateur -font indubitablement penser à des martingales: pourtant on
parle dans ce cas de formalisme. Et la cIassification des « catastrophes » (des points singuliers des surfaces) dans la morphogenèse de
René Thom n’est-elle pas issue de la géométrie différentielle, donc de l’analyse numérique ? « Dieu nous a donné les nombres entiers,
nous avons créé les autres », disait le mathématicien Dedekind. La topologie définit les ensembles fermés, contenant leurs limites, mais
aussi les ensembles ouverts. A l’image du fonctionnement nerveux, son support physiologique, le moule de notre pensée n’intègre-t-il pas
analogique et numérique » Nombres et formes ne correspondraient-ils pas à deux façons, duales, d’embrasser les sons, les gestes, les
diane schuh messages, de nous confronter avec le monde ?

22 La causalité devient douteuse. Si j’entends un bruit de verre cassé, c’est peut-être qu’un verre s’est brisé, c’est peut-être aussi que

quelqu’un vient de mettre un disque d’effets sonores.

23 Par expérimentation personnelle, je n’entends pas seulement le réglage fin des sons « en temps réel ». Il est curieux de noter que ce sont

souvent les musiciens tenant d’une position assez formaliste qui se jettent à corps perdu dans I’empirisme en recourant aux commandes
en temps réel. Le musicien se trompe s’il croit pouvoir, en temps réel, accorder le timbre à son gré, selon ses désirs, se fiant à son oreille et
à son intuition. Le temps réel ne lui permettra d’influencer que les paramètres affectés aux controles gestuels de la machine: cette
affectation est déterminée par une préstructuration effectuée hors temps réel, et qui limite inéluctablement le champ que la
manipulation temps réel permet d’atteindre. Et à varier au hasard les nombreux paramètres d’un modèle complexe, on ne peut
raisonnablement espérer arriver à un but précis: essayez de tourner au hasard les faces d’un cube Rubik pour arriver à la solution. D’autre
part, comme Dufourt et Manoury l’ont fait remarquer, l’ordinateur ne se borne pas à réaliser les désirs des musiciens. il peut les déplacer,
en faire surgir de nouveaux, suggérer de nouvelles explorations: le musicien doit pouvoir réagir à l’inattendu, aussi est-il nécessaire qu’il
soit aux commandes pour percevoir à chaque détour, à chaque surprise les possibilités nouvelles qui peuvent aimanter sa démarche. Seuls
les mélodistes de variétés délèguent le travail d’accompagnement et d’instrumentation: le musicien qui veut explorer de nouveaux
territoires à l’aide des outils numériques doit s’équiper en conséquence – l’équipement est ici d’abord intellectuel. Et les technologies
progressent, donc elles se périment: il est bien à craindre que des oeuvres conçues pour des dispositifs temps réel spécifiques ne puissent
survivre à ces dispositifs. Les nouveaux instruments numériques sont très vite frappés d’obsolescence, ils changent sans cesse: impossible
alors de constituer un répertoire, de développer une tradition d’interprétation, d’approfondir l’écoute, de retenir de nouveaux
« classiques ». Les civilisations nomades ne développent pas de culture: l’obsolescence technologique ne doit pas rendre l’oeuvre
périssable .

24 Dans 2001, Odyssée de l’espace, Stanley Kubrick s’est souvenu de cette première expérience de voix chantée par ordinateur.

25 Ruiz a pu ainsi vérifier le bien-fondé de l’hypothèse de Helmholtz sur le fonctionnement des cordes frottées: en régime permanent,

l’archet accroche la corde qui l’accompagne, puis la corde décroche et repart en sens inverse pour étre reprise par l’archet. Entre deux
reprises, la période correspond au temps nécessaire à un ébranlement pour faire un aller et retour sur la corde. Ce mécanisme a été
confirmé par les enregistrements du mouvement de la corde effectués par Mathews et Kohut, ainsi que par un film réalisé aux Bell
Laboratories à l’aide d’une caméra ultra-rapide (Hiller & Ruiz, 1971. Mathews & Kohut, 1973).

26 0n peut discuter la portée exacte de ce point de vue, mais sa pertinence « quelque part » est difficile à mettre en doute. les ébauches

donnent parfois lieu à des impressions intenses, comme si la perception sensorimotrice revivait les impuIsions gestuelles et mentales
originelles (Mandelbrojt, 1969). Pour regarder, pour dessiner, le peintre Philippe Girard nous conseillait de chercher à retrouver
l’instinct, la spontanéité, la fraicheur des sens en alerte, flairant une allure, saisissant les détails avec Ia félinité d’un fauve à l’affût.

27 Cf Fano, 1986.

28 Pour l’instant, car certaines préfigurations, considérant la démocratisation croissante de l’électronique numérique, permettent

d’envisager pour bientot de nouveaux types d’outils de création, faisant intervenir activement l’auditeur, qui pourrait aussi graduer sa
responsabilité d’interprète, voire de créateur. Cela impliquerait la proposition d’oeuvres matrices aux parcours plus ou moins nombreux,
aux spécifications plus ou moins complètes, et de nouveaux modes de reIation créateur/interprète/auditeur, estompant les frontières
entre ces rôles. Au siècle dernier l’amateur écIairé jouait à quatre mains le répertoire instrumental: une authentique participation de
« l’auditeur » l’aiderait à approfondir sa connaissance et sa perception de l’oeuvre.

29 Jean Baudrillard (1978) ironise sur «  la précession des simulacres » : « c’est désormais la carte qui précède le territoire ». Mais, comme

le rappelle Pierre Barbaud, les cartes ou portulans anciens comportaient déjà des zones blanches – « terra ignota ubi lunt leonel ».

30 Ils ne se sont pas seulement jetés sur l’ordinateur pour faire, comme on l’a dit, un bricolage, une brocante plus noble !

31 Le terme est de Bernard Durr. La réification du savoir perceptif est ancienne (cf ci-dessus, note 5), mais elle doit être mise à jour. Ainsi

la prise en compte des recherches sur les dimensions d’espaces de timbres pourrait rendre plus opérante la timonerie des systèmes
musicaux en temps réel.

32 Dans le ballet « Invisible Cities » de l’Oberlin Dance Theatre, un robot « danse » sur scène, ce qui pose un défi au « chorégraphe » :

l’enjeu est aussi de rendre plus plaisants, gracieux. les mouvements d’une machine qui aide quotidiennement des paraplégiques. Olivier
Revault d’Allonnes (1973) fait remarquer que « la production de Xenakis utilise ironiquement et presque par défi les procédés de
production les plus avancés techniquement. L’usage qu’il en fait réalire un retournement des rapports établis dans la société, par le jeu
des classer sociales, entre les hommes et les techniques » . L’ordinateur se préte bien à normaliser, uniformiser: sa « musicalisation »
montre bien qu il peut aussi permettre la personnalisation, l’errance, la différence, qu il peut contribuer à rassembler le corporel, le
cérébral, le sentimental. Mais rien n’est gagné d’avance, la musique n’a pas seule voix au chapitre. Trop souvent les médias répandent les
informations uniquement à raison de leur caractère accrocheur; diffusant l’information, ils la diluent et la banalisent – et les pentes
commerciales étouffent ou marginalisent la création authentique et mènent à de tristes chemins. Les technologies de la reproduction
sonore ont mis à même distance les musiques de différentes époques ou de différentes civilisations, situation passionnante, sans
précédent: mais dans ce vivier prolifèrent les musiques les plus « efficaces », les plus « rentables ». L’hégémonie du langage tonal, figé,
surcodé, exploité comme ingrédient mercantile, envahissant la vie quotidienne, corrompant les musiques extra-européennes, tuant le si
lence, marquerait-elle la fin de l’histoire du langage musical occidental, éclatant en multiples dialectes dispersant code et signification ?

33 Suivant le mot de Malraux.

34 Suivant Marc Le Bot.

35 Suivant l’expression de Georges Duthuit (1962).

36 « Nous avons bâti sur le sable

Des cathédrales périssables. »

(André Gide, Paludes)

37 « Dans l’assemblage nouveau, inattendu, une unité, une égalité s’établit, se maintient étrangement forte. Etrange l’invisible mortier qui

unit, quand d’une certaine façon on a désuni. Partout il y a commencement d’entrée en résonance, pourvu qu’on ne s’y oppose pas par
une volonté braquée, pourvu seulement qu’on laisse venir. »

Henri Michaux

38 Cette expression est due à Edmond Couchot, qui a analysé de façon pénétrante les médiations s’interposant insidieusement entre

l’image et le regard: espace des technologies, espace de communication, espace du langage.

39 « Artists evolve by becoming more clearly aware of the pictorial ideas in their works that were always there but not well differentiated,

and thus uncover hidden treasures the human mind » (Mandelbrojt & Mounoud, 1971). Et aussi: « Ces étrangetés deviendront… des
réalités… parce qu’au lieu de se borner à la restitution diversement intense du visible, elles y annexent encore la part de l’invisible aperçu
occultement (Klee, 1924).

Références
J.M. ADRIEN & RODET, 1985, «Physical models of instruments, a modular approach. Application to strings », Proceedings of the
International Computer Music Conference, Computer Music Association, San Francisco, pp. 85-89.
R. ARNHEIM, 1969, Visual thinking, University of California Press.

F. BACON, 1627/1981, Nouvelle Atlantide, trad.fr., Vrin, Paris.


diane schuh
G. BALZANO, 1986, « What are musical pitch and timbre?», Music Perception 3, pp. 279-314.

J.B. BARRIERE, 1986, «Mutation du matériau, mutation de l’écriture », Inharmoniques 1, pp. 118-124.

J.B. BARRIERE, Y. POTARD & P.-F. BAISNEE, 1985, « Models of continuity between synthesis and processing for the elaboration
and control of timbre structure», Proc. of the Intern. Computer Music Conference 1985, Computer Music Association, Berkeley, pp.
193-198.

R. BARTHES, 1972, « Le gain de la voix », Musique en jeu 9, p.62,

J. BAUDRILLARD, 1978, «La précession des simulacres», Traverses 10, pp. 3-37.

G.BENNETT, 1981, «Singing synthesis in electronic music», in Research aspects in singing, Royal Swedish Academy of Music,
Stockolm.

H.BERGSON, 1927, Essai sur les données immédiates de la conscience, P.U.F., Paris.

J.BLAUERT & W.LINDEMANN, 1986, « Auditory spaciousness : some futher psychoacoustic analyses », Journal of the Acoustical
Society of America 80, pp. 533-542.

M.C. BOTTE (coordiateur), 1987, Psychoacoustique et perception acoustique, Société française d’Acoustique, Paris, à paraître.

P. BOULEZ, 1963, Penser la musique aujourd’hui, Gonthier, Genève

P. BOULEZ, 1966, Relevés d’apprenti, Editions du Seuil, Paris, p 353

P. BOULEZ, 1985, «Quoi? quand? comment?», in Quoi,quand, comment/ La recherche musicale, C. BOURGOIS et IRCAM, Paris,
pp. 271-285.

A.S. BREGMAN, 1978, «Auditory streaming : competition between alternative organisations », Perception and Psychophysics 23,
pp.391-398.

A. BREGMAN, 1981, «Asking the « what for » question in auditory perception », in M.KUBOVY & J. POMERANTZ (cf. ci-
dessous), pp. 98-118.

A.S BREGMAN, 1985, Timbre: cause and effect of auditory organization, Communic. au Séminaire IRCAM sur le timbre

A.S. BREGMAN & J. CAMPBELL, 1971, « Primary auditory stream segregation and perception of order in rapid sequences of
tones », Journ. of Experim. Psychol. 89. pp. 244-249.

A.S. BREGMAN & S. PINKER, 1978, « Auditory streaming and the building of timbre », Canadian Journal of Psychol. 32. pp. 19-31.

R. BUSNEL, editor, 1963, Acoustic Behavior of Animals, Elsevier, Amsterdam.

C . CADOZ, A LUCIANI & J.-L. FLORENS, 1981, « Synthèse musicale par simulation de mécanismes instrumentaux et
transducteurs gestuels rétroactifs pour l’étude du jeu instrumental », Revue d’Acoustique 59. pp. 279-292.

E.C. CARTERETTE & M.P. FRIEDMAN, 1978, Handbook of Perception, vol. IV: Hearing, Academic Press.

J. CHOWNING, 1971, « The simulation of moving sound sources», journal of the Audio Engineering Soriety 19, pp. 2-6.

J.M. CHOWNING, 1973, « The synthesis of complex audio spectra by means of frequency modulation », Journal of the Audio
Engineering Soc. 21, pp. 526-534 (réédité dans Roads & Strawn, 1985)

J.M. CHOWNING, 1980, « The synthesis of the singing voice », in Sound generation in winds, strings, computers, Royal Swedish
Academy of Music, Stockholm.

J. CHOWNING & D. BRISTOW, 1986, FM theory and applications. Yamaha Music Foundation, Tokyo, Japan.

T. CLIFTON, 1983, Music as heard: a study in applied phenomenology, Yale University Press, New Haven.

M. CLYNES, editor, 1982, Music, mind and brain, Plenum Publishing Corporation.

R. COGAN, 1984, New images of musical sound, Harvard University Press.

J.E. COHEN, 1962, « Information theory and music », Behavorial Science 7, pp. 137-163.

E. COUCHOT, 1987, Images: de la représentation optique à la simulation numérique, Hermès, Paris (à paraître en décembre 1987).

W.A. CROZIER & A.J. CHAPMAN, editors, 1984, Cognitive processes in the perception of art, Elsevier, North Holland.

J.E. CUTTING & B.S. ROSNER, 1974, « Categories and boundaries in speech and music », Perception and Psychophysics 16, pp.
564-570.

C. DELIEGE, 1984, Les fondements de la musique tonale, J.-C. LATTES.

L. DEMANY & F. ARMAND, 1984, « The perceptual reality of tone chroma in early infancy », Journal of the Acoustical Society of
Amerira 76, p. 57

D. DEUTSCH, editor, 1982, The psychology of music, Academic Press.

C. DODGE & T.A. JERSE, 1985, Computer music; synthesis, composition and performance, Schirmer Books, New York.

WJ. DOWLING & D. HARWOOD, 1986, Music cognition, Academic Press.

M.E. DUCHEZ, 1985, L’évolution scientifique de Ia notion de matériau musiral, C.N.R.S., à paraître.

H. DUFOURT, 1985, « L’ordre du sensible », in Quoi, quand, comment/La recherche musicale, C. BOURGOIS & IRCAM, pp. 223-
239.

M. DUFRENNE, 1953, Phénoménologie de l’expérienre esthétique, P.U.F., Paris.

G. DUTHUIT, 1962, Le feu des signes, Skira, Genève.

D. EHRESMAN & D.L. WESSEL, 1978, Perception of timbral analogies, Rapport IRCAM n° 13.
P. EKMAN & al., 1983, « Emotions distinguished from autonomic nervous System activity», Science 221, pp. 1208-1210.

R. ERICKSON, 1975, Sound structure in music, Univ. of California Press


diane schuh
M. FANO, 1986, « Les images et les sons», Inharmonique, 1, pp. 182-187.

J.l. FLANAGAN, 1972, Speech analysis, synthesis and perception. Academic Press.

H. FLETCHER, 1969, « The ear as a measuring instrument », Journ. of the Andio Engineering Society 17, pp. 532-534.

R. FRANCES, 1958/1972, La perception de la musique, Vrin, Paris.

D.J. FREED & W.L. MARTENS, 1986, « Deriving psychophysical relations for timbre », Proceedings of the International Computer
Music Conference, Computer Music Association, San Francisco, pp. 393-405.

JJ. GIBSON, 1966, The senses ronsidered al perreptual systems, Houghton Mifflin Company, Boston.

J.M. GREY, 1975, An exploration of musical timbre, Doctoral Dissertation, Stanford, Calif.

M GREY, 1977, « Multidimensional perceptual scaling of musical timbres », Journ. of the Acoust. Soc. of America 61, pp. 1270-1277.

J.M. GREY, 1978, « Timbre discrimination in musical patterns », Journ. of the Acoust. Soc. of America 64, pp. 467-472.

A. GROSSMAN, R. KRONLAND & J. MORLET, 1987, Analysis of sound patterns through wavelet transforms », Intern. Journal of
Pattern Recognition and Artific. Intelligence 1, n°2, pp. 273-302.

J.M. HARY & D.W. MASSARO, 1982, « Categorical results do not imply categorical perceptions », Perception and psychophysics 32,
pp 409-418.

S. HAYNES, 1979, The musician-machine interface in computer music. Doctoral Dissertation, Univ. of Southampton, England.

Y. HELLEGOUARCH, 1983, Scales, C.R. Math. Rep. Acad. Sci. Canada 4, n° 2.

H. HELMHOLTZ, 1877/1954, On the sensation of tone, Dover, New York.

M. HENRY, 1987, La barbarie, Grasset, Paris.

L.A. HILLER & P. RUIZ, 1971, « Synthesizing musical sounds by solving the wave equation for vibrating objects », Journal of the
Audio Engineering Society 19, pp. 463-470.

W.H. HUGGINS, 1952, « A phase principle for complex-frequency analysis and its implication for auditory theory », Journal of the
Acoustical Society of America 24, pp. 582-589.

W.L. IDSON & D.W. MASSARO, 1978, « A bidimensional model of pitch in the recognition of melodies », Perception and
psychophysics 24, pp. 551-565.

M. IMBERTY, 1979, Entendre la musique, Dunod, Paris.

D. JAFFE & J. SMITH, 1983, « Extensions of the Karpus-Strong, plucked-string algorithm », Computer Music Journal 7, n° 2, pp. 56-
69.

B. JULESZ, 1981, « Figure and ground perception in briefly presented isodipole structures », in KUBOVY & POMERANTZ (cf. ci-
dessous), pp. 27-54.

B. JULESZ, 1985, « Preconscious and conscious processes in vision », Pontificiae Academiae Scientiarum Scripta Varia 54.

J.R. JULLIEN, 1982, Acoustique des salles, prise et restitution du son, analysées à partir de la notion de canal acoustique, Note
technique du CNET, NT/ LAA/TSS/ 128.

A. KIRCHER, 1650/1970, Musurgia Universalis, Olms, New York.

P. KLEE, 1924, Conférence d’Iéna, cité par W. Grohman, Paul Klee. trad. fr., Paris, 1954.

K. KOFFKA, 1935, Principles of Gestalt psychology, Harcourt, Brace and World, New York.

W. KÖHLER. 1910/1911/1915, « Akustische Untersuchungen », Zeits Psyhol., pp. 54, 58 et 72.

M. KUBOVY & J.R. POMERANTZ, editors, 1981. Perceptual organization, Erlbaum, Hillsdale, N.J.

M. LE BOT, 1977, Figures de l’art contemporain, 10/18, Paris

E. LEIPP, 1971/1984, Acoustique et musique, Masson, Paris.

Y. LEROY, 1979, L’univers sonore animal, Gauthier-Villars, Paris

E.R. LEWIS, 1987, «Speculations about noise and the evolution of vertebrate hearing », Hearing Research 25, 1987, pp.83-90.

D. LORRAIN 1980, Analyse de la bande d’Inharmonique, Rapport IRCAM n°26, Paris.

S. McADAMS, 1982, « Spectral fusion and the creation of auditory images », in M. CLYNES, editor, Music, mind and brain : the
neuropsychology of music, Plenum Press, New York.

S. McADAMS & A.S. BREGMAN, 1979, « Hearing musical streams » Computer Music Journal 3, n°4, pp. 26-43

S. McADAMS & K. SAARIAHO, 1985, « Qualities and functions of musical timbre », Proc. of the Intern. Computer Music
Conference 1985. Computer Music Association, Berkeley, pp.367-374.

F.B. MACHE, 1983, Musique, mythe, nature, Klincksieck. Paris

T. MACHOVER, coordinateur, 1984, L’IRCAM: une pensée musicale. Edition des archives contemporaines, Paris.

J. MANDELBROJT, 1969; L’abstrait et le réel, Leonardo, 2, pp. 117-125.

J. MANDELBROJT, 1977, La genèse d’une peinture, J.P. Collot. Aix-en-Provence.

J. MANDELBROJT & P. MOUNOUD. 1971, On the relevance of Piaget’s theory to the visual arts, Leonardo, 4, pp. 155-158.

P. MANOURY, 1984, « La part consciente », in Machover, pp. I57-166

D. MARR, 1982, Vision, Freeman, San Francisco.


M.V. MATHEWS, 1969, The technology of computer music, M.I.T. Press.

M.V. MATHEWS & C. ABBOTT. 1980. « The sequential drum, Computer Music», Journal 4, n°4, pp.45-60.
diane schuh
M.V. MATHEWS & J. KOHUT, 1973, « Electronic simulation of violin resonances », Joorn. of the Acoust. Soc. of America 53, pp.
1620-1626.

M.V. MATHEWS & J.R. PIERCE, 1980, « Harmony and nonharmonic partials », journ. of the Acoust. Soc. America 68, pp. 1252-
1257.

M. MERLEAU-PONTY, 1944, Phénoménologie de la perception, Gallimard, Paris.

L.B. MEYER, 1956, Emotion and meaning in music, University of Chicago Press.

L.B. MEYER, 1957, « Meaning in music and information theory, Journal of Aesthetic and Art Criticism 15, p. 412.

E. MEYER & G. BUCHMANN 1931. Die klangspektren der Musikinstrumente, Berlin.

H. MICHAUX, 1987, Affrontements, Gallimard, Paris.

G.A. MILLER, 1956, « The magical number seven; plus or minus two : some limits on our capacity for processing information »,
Psychological review 63, pp. 81-97.

M. MINSKY, 1981. « Music, mind, and meaning », Computer Music Journal 5, pp. 28-44.

M. MINSKY, 1986, The society of mind, Simon & Schuster, New York.

A. MOLES, 1958, Théorie de 1’information et perception esthétique, Flammarion, Paris.

B.C. J. MOORE 1982 An introduction to the psychology of hearing, Academic Press, London.

J A. MOORER, 1977, « Signal processing aspects of computer music », Proc. 0f the IEEE 65, pp. 1108-1137 (réédité dans Roads &
Strawn, 1985).

D. MORRILL, 1977, « Trumpet algorithms for music composition », Computer Music Journal 1, n° 1, pp. 46-52 (réédité dans Roads
& Strawn, 1985).

Music Perception, revue trimestrielle depuis 1983, Univ. of California Press.

Musique contemporaine, comment l’entendre, 1985, Esprit, numéro spécial.

J.J. NATTIEZ, 1975, Fondements d’une sémiologie de la musique, 10/18, Paris

H.F. OLSON, 1952/19G7, Music, physics & engineering, Dover, New York.

J. PIAGET, 1961, Ies mécanismes perceptifs, P.U.F., Paris.

J.R. PIERCE, 1966, « Attaining consonance in arbitrary scales », Journ. of the Acoust. Soc. of Amerira 40, p. 249.

J.R. PIERCE, 1984, Le son musical (avec exemples sonores), Pour la Science/ Belin, Paris.

R. PLOMP, 1976, Aspects of tone sensation, Academic Press.

O. REVAULT D’ALLONNES, 1973, La création artistique et les promesses de la liberté, Klincksieck, Paris.

J.C. RISSET, 1964, « Musique, électronique et théorie de l’information », L’Onde électrique 451, pp. 1055-1063.

J.C. RISSET, 1966, Computer study of trumpet tones (avec exemples sonores), Bell Laboratories, Murray Hill, N.J.

J.C. RISSET, 1968, « Sur certains aspects fonctionnels de l’audition », Annales des Télécommunication 23, pp. 91-120.

J.C. RISSET, 1969, An introductory catalog of computer synthesized sounds (avec exemples sonores), Bell Laboratories, Murray Hill,
N.J.

J.C. RISSET, 1971, Paradoxes de hauteur, Actes du 7e Congrès international d’Acoustique, Budapest (et Rapport IRCAM n° 10, avec
exemples sonores, 1978).

J.C . RISSET, 1973, « Sons », Encyclopedia Universalis 13, pp. 168-171.

J.C. RISSET, 1977a, « Hauteur et timbre des sons », Revue d’Acoustique 42, pp. 263-268 (et Rapport IRCAM n°11, avec exemples
sonores, 1978).

J.C. RISSET, 1977b, « Musique, calcul secret? », Critique 359, pp. 414-429.

J.C. RISSET, 1978, « Musical Acoustics » , in E.C. CARTERETTE & M.P. FRIEDMAN, editors, Handbook of Perception, vol. IV,
Hearing, Academic Press, pp. 521-564.

J.C.. RISSET, 1985a, « Le compositeur et ses machines de la recherche musicale? », in Musique contemporaine, pp. 59-76.

J.C. RISSET, 1985b, « Digital techniques and sound structure in music », in Roads, pp. 113-138.

J.C. RISSET, 1985c, « Musique et perception », in Quoi, quand, comment/ La recherche musicale, C. Bourgois & IRCAM, Paris, pp.
211-219.

J.C. RISSET, 1986, « Timbre et synthèse des sons », Analyle musicale 3, pp 9-20.

J.C. RISSET, 1986, « Aspects de la perception du temps en musique », Bulletin d’Andiophonologie 2 NS n° 4, pp. 261 -278.

J.C. RISSET, 1986, « Pitch and rhythm paradoxes: Comments on « Auditory paradox based on a fractal waveform  » », Journal of
the Acoustic Society of America 80, pp. 961-962.

J.C. RISSET & M.V. MATHEWS, 1969, « Analysis of instrument tones », Physics Today 22, n° 2, pp. 23-40.

J.C. RISSET & D.L. WESSEL, 1982, « Exploration of timbre by analysis and synthesis », in Deutsch, pp. 25-58.

C. ROADS, editor, 1985, Composers and the computer, W. Kaufman, Los Altos, Calif.

G. ROUGET, 1980, La musique et la transe, N.R.F., Gallimard, Paris.

P. RUIZ, 1970, A technique for simulating the vibrations of strings with a digital computer, Thesis, University of Illinois, Urbana.
J.-P. SARTRE, 1954 « Ies peintures de Giacometti », Les temps modernes, n° 103, pp. 347-363.

P. SCHAEFFER, 1966, Traité des objets musicaux (avec exemples sonores>, Éditions du Seuil, Paris.
diane schuh
A. SCHAEFFNER, 1930, Origine des instruments de la musique, Payot, Paris.

B. DE SCHLOEZER, 1947, Introduction à J.S. Bach, N.R.F., Paris.

P. SCHOELLER, 1986, « Mutation de l`écriture: Éclat, Stria, Désintégrations », Inharmonique 1, 1986, pp. 197-208.

M.R. SCHROEDER, D. GOTTLOB & K.F. SIEBRASSE, 1974, « Comparative study of european concert halls: correlation of
subjective preference with geometric and acoustic parameters », Journal of the Acoustical Society of America 56, pp. I 195-1201.

E.D. SCHUBERT, editor, 1979, PsychologicalAcoustics, Dowden, Hutchinson & Ross, Stroudburg (Pennsylvania).

M. SERRES, 1985, Les cinq sens, Grasset, Paris.

R.N. SHEPARD, 1964, « Circularity of relative pitch », Journ. of the Acoust. Soc of America 36, pp. 2346-2353.

R. SHEPARD, 1981, « Psychophysical Complementarity », in Kubovy & Pomerantz (cf. ci-dessus), pp. 279-341.

R.N. SHEPARD & L.A. COOPER, 1982, Mental images and their transformations, M.I.T., Press.

W. SLAWSON, 1985, Sound color, Univ. of California Press.

A. SOURIS, 1976, Condition de la musique et autres écrits, Université libre de Bruxelles et C.N.R.S.

C. STUMPF, 1883/1890, Tonpsychologie, Hirzel, Leipzig.

J. SUNDBERG, 1978, « Synthesis of singing », Swedish Journ. of Musicology 60, pp. 107-112.

J. SUNDBERG, 1982, « Speech, song and emotions », in M. CLYNES, 1982

J. SUNDBERG, editor, 1983, « Studies of music performance », Pub1ications of the Royal Swedish Academy of Music, Stockholm, n°
39.

J.C. TENNEY, 1965, The physical correlates of timbre, Gravesaner Blätter 26. pp. 106-109.

J.C. TENNEY, 1985, « Review of Music as heard: a study in applied phenomenology », by Thomas CLIFTON, Journal of Music
Theory 29, pp. 197-213.

E. TERHARDT, 1974, « Pitch, consonance and harmony », Journ. of the Acoust. Soc. of America 55, pp. 1061-1069.

R. THOM, 1974, Modèles mathématiques de la morphogenèse, 10-18, Paris.

S. TURCKLE, 1984, The second self, Simon & Schuster, New York.

L.P.A.S. VAN NOORDEN, 1975, Temporal coherence in the perception of tone sequences, Institute for Perception Research,
Eindhoven, Hollande.

E. VARÈSE, 1983, Écrits, C. Bourgois, Paris.

B. VERCOE, 1985, « The synthetic performer in the context of live performance », Proceedings of the 1984 International
Computer Music Conference, Computer Music Association, Berkeley, pp. 199-200.

G. WEINREICH, 1981, « Synthesis of piano tones from first principles », Jourrnal of the Acoultical Society of America 69, p. 588.

J. WEIZENBAUM, 1976, Computer power and human reason, Freeman, San Francisco.

D.L. WESSEL, 1978, Low dimensional control of musical timbre, Rapport IRCAM n° 12 (avec exemples sonores), Paris.

D.L. WESSEL, 1979, « Timbre space as a musical control structure », Computeur Music Journal 3, n°2, pp. 45-52.

D.L. WESSEL & J.C. RISSET, 1979, Les illusions auditives, Universalia (Encyclopedia Universalis), pp. 167-171.

E.ZWICKER & R. FELDTKELLER, 1981, Psychacoustique, Masson, Paris.

____________________________
Server © IRCAM-CGP, 1996-2008 – file updated on .

____________________________
Serveur © IRCAM-CGP, 1996-2008 – document mis à jour le .

Pa r co u r i r l e s a r t i c l e s
← Journal

   · © 2021 diane schuh · Propulsé par  · Réalisé avec the Thème Customizr · Retour haut de page

Vous aimerez peut-être aussi