Vous êtes sur la page 1sur 218

Jean-Louis WEISSBERG

PRÉSENCES À DISTANCE

Déplacement virtuel et réseaux numériques :


POURQUOI NOUS NE CROYONS PLUS LA
TELEVISION

ÉDITIONS L'HARMATTAN
5-7, rue de l'École-Polytechnique 75005 Paris
Tél 01 40 46 79 20
email : harmattan1@wanadoo.fr
304 pages
Prix : 160 F
Présentation
Ce livre propose une analyse des incidences culturelles de la cyber-informatique autour de la
présence à distance, selon trois idées directrices
- Tendance anthropologique fondamentale (indissolublement culturelle et technique), la
Téléprésence voit augmenter son caractère incarné Désormais, c'est avec notre corps entier
que nous communiquons à distance ou avec des environnements virtuels (jeux vidéo, par
exemple) Au-delà de l'opposition entre présent et absent, se construisent de fines graduations
qui incitent à repenser la relation aussi bien lointaine qu'immédiate
- L'incarnation dans la présence à distance, alimente la crise de confiance envers la télévision,
en particulier Téléprésents, nous exigeons désormais des images incarnées, vivantes : des
moyens pour expérimenter l'actuel -ou le passé- et non plus pour en reproduire de simples
traces Les médias numériques offrent naturellement leurs services pour cette expérimentation
directe de l'information modélisée Mus par un puissant attracteur techno-culturel, nous
substituons progressivement, à l'ancienne figure "cru parce que vu", la formule "cru parce que
expérimentable"
- Les incidences culturelles de la téléinformatique sont paradoxales Et les visions convenues
(catastrophe du "temps réel" ou, à l'inverse, suprématie du savoir comme fondement du lien
social) sont, au mieux, simplificatrices En effet les réseaux numériques fabriquent une forme
de localisation Le temps différé se tisse à l'instantanéité La linéarité est vivifiée par
l'hypermédiation et l'accélération nourrit le ralentissement de la communication Loin de
dessiner un paysage univoque, la téléinformatique métisse anciennes et nouvelles logiques
Ces trois questions offrent autant de vues sur le statut de l'interactivité informatique, les
enjeux politiques de l'apprentissage des langages hypermédias, l'automatisation de la
médiation sur Internet, ou encore certains aspects de l'art numérique en passant par une
relecture de L'image-temps de Gilles Deleuze

Jean-Louis Weissberg est Maître de conférences en Sciences de l'Information et de la


Communication à l'Université Paris XIII
Il enseigne aussi en INFOCOM et au département HYPERMÉDIA de l'Université Paris VIII
Table
Présentation

Remerciements

Introduction

Chapitre I : Entre présence et absence

A - Éléments pour une archéologie de la Réalité Virtuelle


C - Les interfaces : la commutation homme/univers virtuel
D - Le retour du corps
E - Graduations de présence
F - Simulation, restitution et illusion

Chapitre II : La crise de confiance des massmedia et le principe d'expérimentation

A - Du spectacte au spectacte
B - La crise de confiance des massmedia
C - La demande de participation traduite par le système télévisuel
D - Vers l'expérimentation de l'information
E - Une expérimentation véridique, sans mise en scène ?

Chapitre III : L'auto-médiation sur Internet comme forme politique

A - L'auto-médiation versus autonomisation


B - L'auto-médiation versus automatisation
C - L'auto-médiation, un concept paradoxal
D - Scénographie de l'auto-médiation

Chapitre IV : La téléinformatique comme technologie intellectuelle

A - Technologies intellectuelles, activité scientifique, dynamiques sociales


B - Réseaux, information, travail symbolique et travail "immatériel"
C - Archive virtuelle, archive "spectrale"

Chapitre V : Retour sur interactivité


A - L'interactivité : quelques réévaluations
B - Éloge des savoir-faire intermédiaires ou le home multimédia, un enjeu politique
C - Récit interactif et moteur narratif

Chapitre VI : Commentaires sur l'image actée, à partir de L'image-temps de Gilles


Deleuze

A - De Matière et mémoire au concept de cristal dans L'image-temps


B - De L'image-temps aux concepts de l'image actée,
versus de l'image virtuelle du miroir à l'avatar virtuel
C - Image-temps et image-présence : l'hypothèse du "cristal présentiel"

Chapitre VII : Les paradoxes de la téléinformatique

A - Réseaux et présence à distance : une disparition de l'inscription territoriale ?


B - Internet : l'évanouissement des intermédiaires dans l'espace public ?
C - L'univers de l'hypermédiation : une éclipse de la séquentialité ?
D - La retraite de l'auteur et l'amour des génériques
E - Panoptisme et réglage individuel des trajets
F - Le régime temporel des télé-technologies : ralentir la communication

Conclusion

Index

Bibliographie
Table des matières

À Rose

REMERCIEMENTS

J'adresse mes remerciements à Jean-Pierre Balpe dont les judicieux commentaires m'ont
permis de clarifier certaines questions alors que cet ouvrage était encore dans une phase
intermédiaire. De plus, ses travaux ont inspiré certaines de mes réflexions, ainsi qu'en
témoigne l'un des chapitres de ce livre. Ma gratitude va aussi à mes collègues et amis de
l'I.U.T. de Villetaneuse, Pierre Barboza, Frédéric Dajez et Patrick Delmas. Le cadre de travail
élaboré en commun pour imaginer et mettre en place de nouvelles formations au multimédia a
été une incitation permanente pour ouvrir de nouvelles directions de recherche et préciser mes
analyses. Je remercie aussi Claude Poizot pour son travail de correction de ce livre.

Enfin, je ne saurais oublier à quel point au cours de ces dernières années de réflexions
communes, les vues pénétrantes de Toni Negri m'ont, latéralement, fait entrevoir de nouveaux
horizons pour penser à la fois la dynamique propre des télétechnologies et leur efficacité dans
les mutations sociales en cours.
"Il faut prendre à la lettre ce que nous
enseigne la vision : que par elle nous
touchons le soleil, les étoiles, nous
sommes en même temps partout, aussi
près des lointains que des choses
proches, et que même notre pouvoir
de nous imaginer ailleurs - "Je suis à
Pétersbourg dans mon lit, à Paris, mes
yeux voient le soleil" [Robert
Delaunay, Du cubisme à l'art
abstrait] - de viser librement, où qu'ils
soient, des êtres réels, emprunte
encore à la vision, remploie des
moyens que nous tenons d'elle."

"La peinture réveille, porte à sa


dernière puissance un délire qui est la
vision même, puisque voir c'est avoir
à distance, et que la peinture étend
cette bizarre possession à tous les
aspects de l'Être, qui doivent de
quelque façon se faire visibles pour
entrer en elle."

Maurice Merleau-Ponty, L'oeil et


l'esprit

Introduction
Pourquoi mettre Présences au pluriel dans le titre de ce livre ? Les "présences à distance"
visent une région particulière, celle des déplacements fluides gérés par les technologies
numériques, mais conçus dans leur dépendance aux "machines" intellectuelles et corporelles
(langage, vision, audition, geste, etc.). Il ne s'agit, ici, ni d'une lecture généalogique, ni d'une
description fidèle du paysage technique et politique des télécommunications. Nous explorons,
en revanche, quelques logiques homogènes aux procédés actuels de déplacements des signes
de la présence en les comparant à celles qui ont gouverné leurs prédécesseurs. Nous ne
présupposons pas que la Téléprésence est appelée à se substituer aux rencontres charnelles
dans les activités humaines. D'où le pluriel qui affecte le terme "présence", exprimant le
développement de solutions intermédiaires entre l'absence et la présence strictes : les
modalités de la présence à distance se multiplient, et surtout, le coefficient corporel augmente
dans ces transports. La Téléprésence agit comme une "forme culturelle" qui redéfinit la notion
même de rencontre (comme d'autres, telles que la photographie ou la télédiffusion
audiovisuelle, l'ont déjà accompli). Nous aurons bien sûr, à nous expliquer sur cette notion de
"forme culturelle" dans ses rapports à la technique en général et aux techniques particulières
qui la sous-tendent. Ainsi -c'est l'une des propositions principales de ce livre- la Téléprésence
transforme l'exercice de la croyance telle qu'elle se concrétise aujourd'hui encore dans la
télévision, parce qu'elle affecte les conditions du déplacement de la présence.

La crise de confiance qui taraude les massmedia dans leur fonction informative entretient, en
effet, des rapports explicites avec la Téléprésence, si l'on admet que la croyance, quel qu'en
soit le vecteur, exige un transport de l'événement (article de presse, enregistrement vidéo,
etc.). On est présent par procuration en lisant un article de presse qui décrit un affrontement
militaire, par exemple. On est témoin par oeil et oreille interposés quand on regarde un
reportage sur ce même conflit. Avec les vecteurs numériques, on est présent aussi, mais de
manière à la fois plus distante et plus intime, dès lors qu'il devient possible d'expérimenter
l'événement par le truchement de son modèle, et non plus d'apprécier la transposition écrite ou
la capture audiovisuelle pratiquée par autrui.

Transporter suppose alors de modéliser préalablement l'événement. Et c'est là qu'interviennent


les technologies numériques, non pas seulement pour transporter l'information mais pour la
mettre en forme et la rendre ainsi expérimentable. Et l'on voit bien que ces questions
pourraient être prolongées dans le domaine politique puisque le système de la démocratie
représentative repose sur la séparation entre représentants et représentés. Quelles formes
politiques pourront-elles bien correspondre à une situation où l'on peut être à la fois ici et
ailleurs ?

À ce commerce entre le technique (la maturation, la disponibilité des techniques de


modélisation numérique) et le culturel (l'exigence d'expérimentation que personne n'exprime
en propre et que tout le monde partage), la notion de "forme culturelle" vient apporter un
cadre. Il s'agit bien d'un lieu de mixage où se négocient, s'interpénètrent et se contraignent
mutuellement, dispositifs, usages sociaux et désirs collectifs. On pourrait aussi bien parler de
"forme technoculturelle". Ce serait, au plan épistémologique, parfaitement justifié ; la
"culture" se constitue fondamentalement dans le technique, et doit-on les différencier ? Je
préfère, cependant, conserver la notion de "forme culturelle" pour ne pas laisser entendre que
la Téléprésence relève essentiellement de techniques, éléments indépendants avec lesquels
nos sociétés devraient négocier comme avec une contrainte imposée de l'extérieur. Notre
monde, en effet, secrète les appétits que les dispositifs viennent satisfaire. Et c'est au niveau le
plus général, la culture (orientations, visions du monde, modes de travail, habitudes,
croyances, désirs collectifs, comme on voudra) que le frayage s'opère.

Dans l'étude de la présence technologique à distance, le terme "technologique" pourrait être


supprimé, si on admet que la notion même de déplacement de présence l'inclut implicitement.
On le conservera néanmoins pour marquer la spécificité des technologies dures face aux
technologies mentales "molles" (imagination, fantasme éveillé, etc.), la séparation entre elles,
pour réelle qu'elle soit, pouvant accueillir des voies de passages. Nos investigations tentent,
notamment, de relier les segments durs de circulation des signes (écriture, imprimerie,
enregistrement, numérisation) aux transferts et traitements propres à l'activité mentale
(imagination, mémoire, souvenir). Le chapitre VI, consacré à une discussion du travail de
Gilles Deleuze sur le cinéma, tente, en particulier de concrétiser cette direction d'étude.

Dupliquer non seulement l'apparence de la réalité mais sa mise en disponibilité -c'est-à-dire le


mode d'accès à cette réalité transposée-, telle pourrait être la définition de la Téléprésence.
S'ouvre dès lors la controverse sur l'ampleur et l'intensité possible de cette mission. Doit-on
appréhender la réalité transposée comme une réalité en compétition globale avec notre monde
empirique habituel ? Ce qui est en cause dans cette discussion concerne d'abord la notion de
déplacement dans ses rapports à la présence. Cette question est d'une grande complexité dès
qu'on refuse d'identifier présence corporelle et présence psychique et qu'on dissocie l'unité de
lieu et de temps dans la multiplicité des espaces-temps mentaux[1]. L'ordinaire de notre
existence se tisse dans d'extraordinaires enchevêtrements de voyages imaginaires, de
déplacements identificatoires, de migrations incorporelles. C'est dire la difficulté d'élaborer
une réflexion sur les rapports entre présence corporelle et déplacement des signes de la
présence, rapports auxquels il faudrait ajouter ceux que nous entretenons avec des objets
intermédiaires, remplaçant sur un plan imaginaire, la présence[2]. Nous y sommes aidé par
une série de recherches et d'acquis sur les déplacements des signes dans leurs rapports à la
production matérielle et intellectuelle. Certains travaux fondamentaux, historiques et
philosophiques, sur la naissance de l'outil, de l'écriture, ou des télé-technologies inspirent nos
investigations. Nous croiserons dans cette tentative des perspectives variées, de la tentative
médiologique au concept de "technologie intellectuelle", de l'histoire des techniques de
représentations à la phénoménologie. L'objectif est d'en approfondir certaines logiques, à la
faveur de l'incontestable accélération du mouvement de Téléprésence. De les relire
rétrospectivement, en quelque sorte. De ce mouvement, on ne proposera pas une cartographie
précise. Notre ambition est autre. Elle consiste à proposer quelques outils méthodologiques
pour en saisir les enjeux. Mais sans doute est-il temps de montrer comment s'articulent les
différentes parties composant ce livre dans leurs rapports, parfois indirects, à la Téléprésence.

L'invention, à la fin du siècle précédent, des techniques d'enregistrement avait déjà suscité une
prémonition de leur dépassement. Archéologie de la Réalité Virtuelle, ces visions s'étaient
asséchées avec la sédimentation de la radio et de la télévision. Les techniques de simulation
numérique les ont fait passer de l'état de fictions à celui de premières réalisations. Dans un
premier chapitre, nous proposons une définition du mouvement actuel de Téléprésence dans
ses relations aux formes antérieures de déplacement des signes de la présence (écriture,
imprimerie, téléphone, etc.). L'hypothèse centrale d'une augmentation tendancielle du
caractère incarné du transport de la présence y est affirmée en regard de ce qu'offrent les
technologies numériques. Numérisation, modélisation, mise en réseau constituent en effet la
chimie de base de la Téléprésence. Nous centrons notre enquête sur la commutation entre
l'activité humaine et les univers virtuels, c'est-à-dire sur la notion d'interface. Nous tentons en
particulier de montrer que loin d'éliminer le corps et les sensations physiques dans une
supposée fuite en avant de l'abstraction, la Téléprésence les réinjecte au centre de l'expérience
humaine. Cependant, ce retour du corps dans l'expérience virtuelle s'accompagne d'une
redéfinition de la kinesthésie. La Téléprésence ne restitue pas à l'identique les performances
que nous accomplissons habituellement. Elle invente un autre milieu perceptif dans lequel se
concrétisent notamment des mouvements relationnels entre objets et sujets humains,
particulièrement sensibles dans le travail coopératif à distance. Entre la présence en face à
face et l'absence, se construisent donc des graduations sans cesse plus fines qui incitent à
repenser nos conceptions héritées, relatives au partage commun de "l'ici et maintenant" et
corrélativement à la séparation. Comment, dans ces conditions, apprécier les craintes d'une
possible confusion des registres "réels" et "virtuels" ? Peut-on imaginer des transactions à
distance qui rendraient transparents les procédés relationnels au point de les effacer de la
perception des acteurs ? Nous esquissons, pour clore cette partie, une réponse à ces questions.

Le deuxième chapitre, qui offre son sous-titre à ce livre, propose de relier la crise actuelle des
médias de masse à l'accentuation de l'incarnation de la communication. On l'a dit, le
développement de nouvelles formes de présence à distance (réseaux, supports numériques
interactifs) permettent, en effet, un rapport plus intime avec l'événement. Les modalités de la
croyance sont alors recomposées sous la pression de ces exigences de participation plus
intime. Les formules reliant croyance et mise en forme visuelle du monde, qui ont assuré les
beaux jours des techniques d'enregistrement, entrent en crise, inassouvies par la restitution
inerte des prélèvements opérés par les divers systèmes de l'ère de la capture directe
(photographie, radiodiffusion, télévision, etc.). Au prélèvement événementiel, succède
l'épreuve d'une animation simulée de modèles, prolongeant les dynamiques vivantes
auxquelles ils réfèrent. L'hypothèse développée affirme, à l'encontre des discours érigeant la
télévision en pouvoir fascinant absolu, que les massmedia ne souffrent pas d'un trop-plein de
participation mais d'un déficit, et que progressivement se mettent en place, grâce à la
Téléprésence, les moyens d'une expérimentation plus directe de l'information. D'où
l'avènement d'un spectacte, succédant au spectacle. On comprend la multiplication des
tentatives d'intégration, par le système télévisuel, de cette demande participative, de même
que l'on constate les limites intrinsèques des réponses fournies à la quête de réalisme. Est-ce à
dire qu'il n'y aurait plus de mise en forme de l'information, qu'un accès pur de toute médiation
serait désormais possible ? La propension expérimentatrice trouve-t-elle son origine dans
l'existence de technologies qui lui fournissent l'occasion de s'exprimer ? Peut-on relire
d'anciennes analyses élaborées à propos de la photographie, à la lumière de l'importance prise,
aujourd'hui, par les "télé- contacts" ? D'où l'occasion d'avancer quelques hypothèses sur les
nouvelles scénographies qui se construisent dans le contact à distance, dont les "avatars
virtuels" sont l'une des illustrations.

Le chapitre III est spécifiquement consacré à Internet, sous un angle particulier : la question
de la médiation. Poussé par une puissante vague visant à supprimer les intermédiaires
traditionnels (édition, distribution, recherche d'information, etc.), ce nouveau média peut-il
tenir les promesses qui le soutiennent ? Peut-on, en effet, considérer Internet comme un
modèle politique d'organisation sociale anti-hiérarchique, valorisant les relations latérales ?
On discutera, sous trois éclairages différents, la tendance à l'affaiblissement des médiations.
D'abord en observant qu'un autre type de médiation émerge avec le développement du réseau
mondial : l'auto-médiation, fondée sur l'alliance de l'autonomisation et de l'automatisation de
la médiation, alliance que l'espace Internet suscite et fortifie. Ensuite, Internet sera envisagé
comme espace politique propre. Comment les principes démocratiques prônés dans le réseau
sont-ils appliqués au gouvernement du réseau lui-même ? Enfin, sur un tout autre plan, nous
comparerons les deux grandes postures de la navigation interactive (CD-Rom et réseau) dans
leurs rapports à l'idéal d'une autonomie revendiquée. Quel sens donner à l'utopie Internet ? Et
de quel type d'utopie s'agit-il ?

Il nous a semblé nécessaire, avant d'aborder la question de l'efficacité culturelle de la


Téléprésence, de préciser, dans le quatrième chapitre, nos positions quant au statut des
technologies intellectuelles en général, et de la téléinformatique en particulier. Cette
délimitation réfère aux travaux de l'école épistémologique d'anthropologie des sciences et des
techniques, laquelle privilégie les réseaux sociaux dans l'étude du fait techno-scientifique.
Nous essayons d'en évaluer l'apport, mais aussi les limites, à la faveur d'exemples d'usages
d'Internet. L'idée que les technologies intellectuelles sont les facteurs décisifs du dynamisme
social global s'accorde, apparemment, parfaitement avec le caractère stratégique de
l'informatique et des réseaux numériques. Internet serait, en quelque sorte, la parabole de la
mondialisation, non seulement de par sa diffusion planétaire, mais surtout comme illustration
de la sociologie constructiviste. La suprématie souvent accordée depuis Marshall McLuhan, à
la sphère du traitement des signes alimente les thèses convenues sur la société de l'information
et du travail immatériels. Nous les discutons en insistant sur la difficulté de séparer, dans le
travail symbolique lui-même, les segments durs (machines, réseaux, etc.) des segments
"mous" (idée, pensée, affect).
Le développement des scénographies interactives est l'un des cadres où s'expérimente une
forme de présence. Non pas dans la séparation géographique, mais dans l'inscription interne à
un cadre d'action, que ce soit un musée formalisé, un jeu vidéo ou un récit fictionnel. Qu'est-
ce qu'être présent dans un tel cadre ? Comment thématiser les configurations, dites
interactives, qui permettent d'intervenir pratiquement dans des scénographies narratives
installées ? Telles sont les principales questions abordées dans le chapitre V. Notre attention
est, en particulier, attirée par le développement, dans l'aire du multimédia, de solutions de
continuité entre réception et production. Cette observation est de la plus haute importance
pour reconnaître et développer les savoir- faire intermédiaires de l'hypermédiation. Après
avoir réexaminé, de manière critique, certaines tentatives de formalisation du concept
d'interactivité, nous examinons l'évolution de la notion d'interface dans ses rapports à la
posture interactive. De même nous attacherons-nous à l'une des dimensions prometteuses de
l'interactivité : l'animation autonome de scénarios évolutionnistes. Les programmes
"génétiques" en sont un parfait exemple. Par ailleurs, le savoir accumulé en matière
d'inscription du spect-acteur dans le récit s'est concrétisé dans de nombreuses réalisations.
Celles-ci affrontent, avec des réponses différenciées, quelques questions communes. Par
exemple, comment la succession des choix dans une scénogaphie peut-elle orienter le
déroulement futur d'une trajectoire ? La proposition d'une littérature génétique -en décalage
avec l'interactivité- apporte une réponse originale à cette interrogation. Nous la discutons en
montrant comment différents modes de construction de récits se rattachent implicitement à
des conceptions de la vie.

Le chapitre VI a un statut particulier. Plus philosophique et d'une lecture moins facile, il


expérimente quelques hypothèses plus qu'il ne propose des résultats. J'y ai poursuivi une
direction d'analyse sur l'image simulée, ponctuée notamment par les écrits d'Henri Bergson,
de Maurice Merleau-Ponty, et que les livres de Gilles Deleuze sur le cinéma sont venus
revivifier. Il m'est, en effet, apparu que la tentative, à propos du cinéma, d'en "faire la théorie
comme pratique conceptuelle", pouvait être mise à profit sur le terrain des images actées. La
place qu'accorde le philosophe à Bergson pour bâtir sa théorie de l'image-temps ne pouvait
que m'inciter à m'engager dans cette direction. La question de la perception est en effet au
coeur de cette interrogation sur les enjeux de l'image actée, sur la manière dont elle suscite et
traduit une posture perceptive. Une orientation très riche s'en dégage pour aborder les rapports
technologie/perception dans la lignée des propositions de Walter Benjamin ou de
Marshall McLuhan. L'enquête phénoménologique ouvre une voie précieuse pour apprécier
comment la liaison de l'action et de l'image -l'image actée- redéfinit la vision, laquelle chez
Maurice Merleau Ponty est explicitement une présence tactile à distance. La direction
bergsonienne exploitée par Gilles Deleuze pour rendre compte du cinéma d'après-guerre
exprime les mouvements abstraits à l'oeuvre dans la vision, mouvements relatifs à la
temporalité, et qu'un certain cinéma révèle distinctement. Une telle démarche est-elle
concevable à propos de l'image actée ? Peut-on dégager des concepts spécifiques à cette
expérience ? Notre proposition de "cristal présentiel", répondant à "l'image-cristal" de
Gilles Deleuze, est une indication dans cette direction. Elle tente de thématiser les
déplacements de présence qui fondent certaines oeuvres télé-technologiques. Elle se heurte,
cependant, au caractère encore mal délimité du genre. Gilles Deleuze analyse des films
singuliers d'une période historique, et non pas le cinéma comme technologie en général. Cela
dit, ses remarques, par exemple, sur l'adjonction du son à l'image lors de la naissance du
cinéma sonore, peuvent, je crois, être prolongées lorsque l'action se compose à l'image sonore
dans l'image actée. Poursuivre ces constructions conceptuelles en se tenant au plus près
possible des propositions artistiques qui émergent, telle est, on le verra, la direction
qu'indiquent les défrichages fondateurs de Gilles Deleuze.
Il s'agira enfin, dans le dernier chapitre, de reprendre de manière unifiée les principaux
résultats obtenus auparavant, autour de la question des enjeux culturels de la téléinformatique.
L'hypothèse centrale consiste, à la différence de nombreuses analyses, à affirmer qu'il n'y a
pas d'incidences culturelles unilatérales et globales repérables dès lors qu'on examine
attentivement les différentes strates dans lesquelles les télé-technologies inscrivent leurs
opérations. Somme-nous vraiment confrontés à une déterritorialisation radicale, à une
suppression galopante des intermédiaires, à l'accélération absolue et à la conquête achevée de
l'instantanéité, à l'éclipse évidente de la linéarité, au déclin manifeste de l'auteur individuel ou
encore à l'affaissement du panoptisme ? Sur ces différents plans, nous tentons de montrer que,
loin d'oeuvrer dans un sens univoque, la télé-informatique engendre elle-même des tensions
entre des logiques antagonistes : délocalisation et inscription locale, temps différé et temps
réel, séquentialité et hypertextualité, accélération et ralentissement. Il ne s'agit pas là
essentiellement de gestion des survivances, ni de manifestations de résistances. Réinterprétant
les situations héritées, les technologies conservent souvent les anciennes logiques en les
hybridant aux nouvelles plutôt qu'elles ne les effacent totalement. Et ces manifestations
semblent particulièrement virulentes dans l'univers des télé-technologies. Nous faisons
effectivement l'hypothèse que la télé-informatique diffuse plutôt une méta-culture, qu'une
culture, disjoignant, plus que d'autres grandes vagues technologiques passées, les méthodes et
les contenus, les logiques et les manifestations. Elle laisserait donc croître et se diversifier,
sous sa portée, des logiques hétérogènes, voire antagonistes, mais surtout, hybriderait anciens
et nouveaux principes.

[1] Dissocier lieu et temps : l'état de rêverie éveillée nous en donne l'expérience. Souvenirs,
fantasmes et rêves déclinent toute la gamme des combinaisons possibles. Dans ses formes
extrêmes, cette dissociation devient pathologique. Dans une intervention orale au séminaire
"Pratiques - Machines - Utopie" (Université Européenne de la recherche - Département des
Sciences politiques de l'Université Paris VIII, Paris, 1994), le psychiatre Jean Oury éclairait la
psychose en la décrivant comme un trouble de la présence : un patient qui parlait avec lui dans
son bureau, était, en fait, resté près de l'étang, à côté des canards.

[2] Toute une dimension mythologique et fantasmatique de la téléprésence symbolique


pourrait ici être invoquée, de la "téléprésence" divine incarnée dans un messager, à la côte
tissée par Pénélope, et aux "objets transitionnels" chers à la psychanalyste Mélanie Klein.
Chapitre I
Entre présence et absence

La Téléprésence moderne se caractérise par l'augmentation du coefficient charnel dans la


communication à distance. Les signes de la présence dans de telles situations s'incarnent, en
effet, toujours plus. La Téléprésence n'a pas attendu les réseaux numériques pour se déployer.
Mais le mouvement qui augmente, aujourd'hui, la proportion charnelle dans les canaux
expressifs est très lisible. L'écriture manuscrite, premier transport à distance du langage,
formalise à l'extrême la corporéité de l'auteur, ne la laissant transparaître qu'à travers la
calligraphie. L'expansion de l'imprimé réalise ce que l'invention de l'écriture annonçait, mais
uniquement comme promesse abstraite : la formation de communautés de lecteurs éparpillés
sur un territoire et réunis par les mêmes livres [1]. L'instantanéité de la transmission orale
-sans la réactivité- est atteinte grâce au télégraphe. Avec le téléphone qui assimile les canaux
vocaux et auditifs, la simultanéité de l'émission et de la réception épouse un peu plus le
modèle de la communication en "face à face". L'émission de l'image, et sa réception
instantanée, charge la relation d'une dimension visuelle incontournable. Sur les réseaux
numériques s'expérimente, pour la première fois, une communication collective,
éventuellement anonyme, rappelant l'échange multipolaire des groupes rassemblés dans un
même lieu et rompant avec le modèle pyramidal des massmedia. Enfin, dans le sillage de la
Réalité Virtuelle, la télévirtualité immerge les partenaires dans le même espace virtuel. Elle
ajoute le canal gestuel au canaux visuels et sonores et ouvre à l'échange kinesthésique.

Le partage commun de "l'ici et maintenant", modèle principal de la relation humaine, se


transpose ainsi dans l'espace et devient la référence de la communication à distance. Ce
partage, on le sait, ne se limite pas à l'échange de signes verbaux et non verbaux. Il est tissé de
gestes, de contacts corporels concrets ou potentiels et de manipulations conjointes d'objets.
Cette dimension "haptique" (du grec haptein, toucher) lutte contre l'affadissement inévitable
d'une communication contrainte à ne s'extérioriser que par le texte, le son, l'image sans
pouvoir s'appuyer sur une interaction corporelle, directe ou indirecte. L'enjeu n'est alors plus
seulement communicationnel, mais relationnel. Il ne s'agit plus de transmettre des
informations mais de créer les conditions d'un partage mutuel d'un univers.

Après avoir posé, dans une première partie, quelques jalons pour une archéologie de la Réalité
Virtuelle, nous préciserons les conditions de ce partage, et ceci dans deux directions, le
perfectionnement des interfaces de communication et la naissance de nouveaux milieux de
présence partagée, tirant profit des ressources abstraites de la télévirtualité. Nous
prolongerons, ensuite, cette enquête en interrogeant les craintes d'un éventuel doublage virtuel
de notre environnement ; craintes qui, tout en créditant la simulation numérique d'un pouvoir
imitatif probablement démesuré, méconnaissent les dimensions proprement créatives des télé-
technologies.

A - éléments pour une archéologie de la Réalité Virtuelle [2]


L'essai pamphlétaire de Jean Brun, Le rêve et la machine [3] contribue à dégager une
archéologie de la Réalité Virtuelle. Sa thèse centrale se résume ainsi : la science et la
technique sont filles de l'activité onirique, tentative de dépassement -vouée à un échec
dramatique, selon l'auteur- des cadres spatiaux et temporels propres à l'humain.
L'opérationalité des applications, tout comme les motivations apparemment rationnelles des
acteurs ne servent, selon lui, que d'alibis à cette tentative. Ce qui est remarquable dans le
développement de l'argumentation, c'est l'identification des traits essentiels de la tentative de
déplacement sans fin des limites marquant l'existence humaine. Tentative désespérée, pour
Jean Brun inspiré par la théorie chrétienne du salut [4]. Le chapitre intitulé "Télé-présences et
réalités virtuelles" concentre assez bien les enjeux de l'épopée technicienne considérée comme
tentative de sortie de la condition humaine. Se tenir à distance de soi, réaliser l'ubiquité,
approcher une transsubstantiation, une désincarnation voire une réincarnation, voilà les
objectifs aussi vains (selon Jean Brun) qu'affirmés par la saga technicienne [5]. "Le désir de
l'homme de métamorphoser son temps et son espace pour aller habiter d'autres moi, se défaire
à nouveau de ceux-ci pour toujours recommencer, témoigne de la détresse de celui qui
voudrait s'arracher à lui-même afin de pouvoir tout savoir et pouvoir tout posséder" [6].

L'essence de l'entreprise technologique réside précisément dans la tentative de vivre


"plusieurs existences ayant pour auditorium des espaces multidimensionnels" [7] afin
d'échapper à l'unicité de la localisation dans l'espace et à la linéarité du déroulement temporel.
La dénonciation des transgressions qui en résultent s'accompagne d'une piquante revue
d'essais littéraires préfigurant l'actualité des télé-transports et de la Téléprésence. Au XIXe
siècle finissant, la naissance des techniques d'enregistrement (photographie, phonographie et
cinéma) féconde l'imaginaire littéraire et lui fait entrevoir de somptueuses perspectives. Ce
qui est remarquable dans ces fictions, c'est l'anticipation sur le stade, tout juste atteint, de la
capture d'empreinte. Comme si l'horizon découvert autorisait tous les vagabondages
visionnaires, espérances tangibles d'une poursuite de la vague innovatrice vers toujours plus
de réalisme dans la concrétisation des représentations. Avec le développement de la diffusion
radiophonique, la prémonition rencontre la réalisation technique. Paul Valéry en tirera
immédiatement, et magistralement, les leçons. Dans le cadre du mouvement de la
cybernétique, on s'attachera aussi à imaginer des formes de télé-déplacement de substance. On
quitte alors le terrain de la fiction ou de l'extrapolation pour investir celui du projet
scientifique. Quelques années plus tard, avec les premiers simulateurs numériques de pilotage
d'avions, l'informatique commencera à concrétiser ces pressentiments.

D'Apollinaire à Saint-Pol-Roux

Guillaume Apollinaire imagine un procédé d'enregistrement et de transmission d'existence,


non plus de l'apparence mais de la vie même. Dans Le toucher à distance, Apollinaire décrit
l'étrange appareil qu'utilise le baron d'Ormesan : "De même que la voix peut se transporter
d'un point à un autre très éloigné, de même l'apparence d'un corps, et les propriétés de
résistances par lesquelles les aveugles en acquièrent la notion, peuvent se transmettre, sans
qu'il soit nécessaire que rien relie l'ubiquiste aux corps qu'il projette" [8]. Le baron avait
disposé dans huit cent quarante grandes villes des récepteurs de présence (et particulièrement
sur les façades des synagogues, puisqu'il souhaitait se faire passer pour le messie). Grâce à
son émetteur de présence, il pouvait retrouver sa maîtresse tous les mercredis à Paris alors
qu'il se trouvait à Chicago, Jérusalem ou Melbourne. Tout cela finit mal, huit cent quarante
fois mal, car le baron assassiné mourra autant de fois que ses doubles délocalisés.
À propos du cinéma, Saint-Pol-Roux poursuit les mêmes desseins avec sa conception
"idéoréaliste". Ils s'inscrivent dans le cadre d'un rejet affirmé de l'écrit et d'une valorisation de
l'oral que véhiculent les techniques d'enregistrement (phonographie, cinématographie). Saint-
Pol-Roux, dans son essai Cinéma vivant : "...le cinéma en est aux Ombres de Platon, il doit
sortir de la Caverne. Le prisonnier doit se libérer" [9] et donc le cinéma actuel n'est que "le
Cro-Magnon du cinéma futur" [10], "le Destin va se cristalliser, va se corporiser. Le cinéma
sera organique" [11]. Son "idéoréalisateur" devrait pouvoir créer des "êtres-images" et les
déplacer à distance sous forme d'"ondes carnifiées". "Puisqu'on est parvenu à la photographie
à distance, pourquoi n'atteindrait-on pas l'apparition de son original, pourquoi à la chambre
noire ne succéderait pas une chambre blanche ?" Le cinéma s'emploiera "à capter le désir
collectif et à en objectiver le motif" [12]."On surcréera les autres, on se surcréera soi-même"
[13]. L'"idéoplastie" ouvrira le champ du transport spatio-temporel : "on invitera des
célébrités chez soi, "dans nos meubles, à notre table, il y aurait à domicile des soirées César,
Dante".

On peut noter l'inspiration organique de "l'idéoréalisme". Il s'agit bien d'incarnation, voire de


réincarnation. La perspective de Saint-Pol-Roux est en fait assez éloignée d'une recréation
artificielle, d'une synthèse. C'est plutôt en radicalisant la photographie qu'il espère engendrer
une "surcréation" tridimensionnelle. On soulignera aussi l'énergie révolutionnaire issue du
"miracle" photographique, irriguant d'autres projets de transport bien plus audacieux, comme
si la séparation de l'apparence et de la forme autorisait l'espoir d'extraire la forme elle-même
par un procédé similaire [14].

De Paul Valéry à Norbert Wiener

Jean Brun aurait pu également solliciter Paul Valéry qui a, bien entendu, lui aussi anticipé la
télévirtualité. La construction même du célèbre article, La conquête de l'ubiquité, recèle une
vision prémonitoire. Avant de décrire et d'analyser la télé-diffusion de la musique et du son, il
commence par abstraire la forme fondamentale du phénomène : "Sans doute ce ne seront
d'abord que la reproduction et la transmission des oeuvres qui se verront affectées. On saura
transporter ou reconstituer en tout lieu le système de sensations (italique ajouté par le
rédacteur), -ou plus exactement, le système d'excitations- que dispense en un lieu quelconque
un objet ou un événement quelconque" [15]. Pressentant la continuité entre le développement
des réseaux énergétiques (eau, gaz, électricité) et des futurs réseaux informationnels, il
désigne, après la musique [16], le prochain milieu candidat à la télé-exportation : les images
visuelles. "Un soleil qui se couche sur la Pacifique, un Titien qui est à Madrid ne viennent pas
encore se peindre sur le mur de notre chambre aussi fortement et trompeusement que nous y
recevons une symphonie. Cela se fera" [17]. En cela, Paul Valéry ne se situe plus, comme
Apollinaire, sur le terrain de la fiction littéraire mais sur celui de l'extrapolation socio-
technique, soutenu par une intelligence profonde du phénomène. Radicalisant encore son
pressentiment, il s'interroge : "Je ne sais si jamais philosophe a rêvé d'une société pour la
distribution de Réalité Sensible à domicile" [18]. Les majuscules élèvent l'intuition au rang de
concept, rejoignant, cinquante ans auparavant, les mêmes marquages typographiques qui
affectent la Réalité Virtuelle lorsque les ingénieurs américains des années soixante-dix la
baptisèrent et signifièrent ainsi l'invention d'un nouveau milieu de "Réalité Sensible".

Dans Cybernétique et société, paru aux États-Unis en 1950, Norbert Wiener, l'un des
principaux créateurs du mouvement de la cybernétique, propose une argumentation visant à
établir la possibilité théorique de l'enregistrement et de la transmission du vivant. Il s'agit là
d'un tournant dans le projet de transfert de présence, car pour la première fois c'est une
argumentation scientifique, et non une spéculation visionnaire, qui est avancée.
Indépendamment du degré de pertinence du propos, ce changement de registre mérite d'être
souligné. Wiener ne décrit pas simplement le projet, il indique comment il faut le réaliser.
L'idée maîtresse, conforme à l'esprit conquérant de la cybernétique, repose sur une conception
"immatérielle" du corps, sa définition informationnelle, énergétique. "L'individualité du corps
est celle de la flamme plus que celle de la pierre, de la forme plus que celle d'un fragment
matériel ; cette forme peut être transmise ou modifiée, ou doublée" [19]. La définition
énergétique de la matière annonce sa définition informationnelle : "Nous ne sommes que les
tourbillons d'un fleuve intarissable, non-substance qui demeure, mais modèles qui se
perpétuent, [...] l'idée selon laquelle on pourrait imaginer non seulement le voyage par train ou
par avion, mais aussi par télégraphe, n'est pas absurde en soi, si loin qu'elle doive être de sa
réalisation" [20]. L'idée générale est de remplacer un corps humain par son double
informationnel, de le transmettre et de le reconstituer à distance par une sorte de synthétiseur
de présence. Affirmant que l'obstacle technique n'est que provisoire, il ajoute que cette
reconstitution totale d'un organisme vivant ne serait pas "plus radicale que celle subie
effectivement par le papillon au cours de sa métamorphose" [21]. Un tel projet se rapproche
clairement de la synthèse numérique. Il demeure partiellement organisciste : on s'attache à la
constitution d'une matière modélisée, -la comparaison avec la chrysalide atteste qu'il s'agit
toujours de mutation organique- et on l'expédie grâce à une transmission substantielle. Mais
l'évocation de la synthèse informationnelle rapproche le projet de la logique numérique et
même de la Réalité Virtuelle. Observons que les voies imaginées par Wiener ne sont pas du
tout, actuellement tout au moins, celles qu'empruntent les ingénieurs de la Téléprésence. Ils
oeuvrent dans le champ de la synthèse de la présence perceptive (image, son, tactilité, effort)
et n'envisagent pas le moins du monde de se lancer dans des projets de synthèse et de
transport substantiel du vivant (aujourd'hui, ils en seraient, de toute manière, bien incapables).

La présence à distance : un concept charnière

La présence est une notion à la fois évidente et floue. Unité de lieu et de temps définissent la
présence physique, et encore [22]. Mais les espaces-temps mentaux -ce à travers quoi on est
physiquement présent- sont, eux, multiples. Leurs topo- chronologies ne sont pas
descriptibles. On n'est jamais là et à l'instant où l'on croit. On s'expatrie continuellement...
surtout à l'état immobile. Pour élargir les fondements d'une archéologie de la Réalité
Virtuelle, ces quelques références devraient être complétées par de plus amples investigations,
relatives notamment :

- à l'espace langagier : mise en commun entre des sujets s'opérant toujours par le détour
abstrait d'un tiers symbolisant, et rendant de ce fait illusoire tout espoir d'une communication
im-médiate,

- à la notion de marché, ajustement plus ou moins spontané des acteurs économiques sans
qu'ils soient directement en contact,

-à la présence divine (vue comme présence à distance) dans ses différentes versions :
prophétique et donc portée par le discours ou le texte (tradition juive), incarnée et imagée
(tradition chrétienne en n'oubliant pas la position jésuite, moderne avant la lettre : image qui
se donne comme telle appelant à être appréciée pour ses qualités sensibles et non pour sa
signification).
- au fétichisme : prendre la partie pour le tout est une forme de présence à distance opérant par
mobilisation d'un objet partiel remplaçant la totalité (qu'il s'agisse de satisfaction sexuelle,
d'opération langagière ou de substitution maternelle grâce à un "objet transitionnel"),

- à l'action à distance : la notion physique de champ de forces (gravitationnel, électrique,


magnétique, etc.) concrétise une projection, de la cause, à distance.

Dans notre enquête, nous rencontrerons certaines de ces directions même si nous privilégions
plutôt les traits socio- techniques de la Téléprésence.

B - La Téléprésence, une définition

Wiener avait vu juste lorsqu'il préconisait de réaliser le doublage informationnel d'un corps
pour, ensuite, le télé-déplacer. Il prévoyait ainsi l'interdépendance entre la simulation
informatique et l'expansion des réseaux numériques, qui constituent aujourd'hui les deux cas
d'emploi du terme "virtuel" [23]. Mais le cybernéticien, tout comme ses prédécesseurs de
l'avant-dernier siècle, demeurait prisonnier d'une vision réaliste du doublage. Il s'agissait bien
de reconstitution à l'identique. Or les réalisations actuelles démontrent que la virtualisation ne
réplique pas des univers de référence, elle invente, à partir d'eux, de nouveaux mondes. Ainsi
exprime-t-elle sa puissance générative. Notre investigation de la Téléprésence est fondée sur
un mouvement en quatre temps qui explicite la notion de déplacement informationnel et
caractérise ses phases :

- la production d'une représentation formelle de l'objet à déplacer pour qu'il puisse passer par
le filtre d'un réseau numérique,

- l'accroissement des caractères incarnés des représentants ainsi obtenus (ajout de l'image au
son pour accéder à la visiophonie, passage à la troisième dimension dans Internet, par
exemple),

- l'impossibilité, toutefois, de faire coïncider le représentant et l'original, mais poursuite du


mouvement pour s'en approcher,

- dans cette tentative mimétique déjouée, naissance d'un espace propice à la création de
formes hybrides soumettant le double informationnel de l'objet source -rendu transportable- à
de nouvelles modalités cognitives et actives (comme le multifenêtrage, hybride entre la
multiplicité des espaces d'un bureau réel et la bi-dimensionalité de l'écran ou encore l'usage
du regard pour se déplacer dans les espaces de Réalité Virtuelle).

Il s'agit donc de préciser et d'illustrer ces quatre opérations. Nous envisageons les relations
entre les phases d'imitation et d'invention comme une manière d'analyser les réalisations et les
projets en cours, de les soumettre à une même interrogation discriminante. Cette interrogation,
relève, par ailleurs, d'une problématique beaucoup plus vaste, que nous ne ferons que
suggérer, englobant le champ de la dynamique technique, comme mouvement de création en
tant que telle : imitation, détournement, inflexion de la nature, par d'autres moyens que la
nature, et donc création, de fait, d'un nouveau milieu naturel/artificiel [24].

Modéliser et transporter
La première opération de la Téléprésence consiste à traduire numériquement les composantes
appelées à être déplacées (voix, image, éventuellement efforts physiques) [25]. De même, les
éléments de l'environnement sujets à interactions sont transcrits (espaces documentaires, lieux
de travail comme dans la Bureautique virtuelle). Enfin, les interfaces spécifiques nécessaires
sont installées pour animer ces univers (de la définition des zones sensibles dans l'écran aux
organes de commandes gestuels tels que les souris et joysticks - jusqu'aux interfaces de
Réalité Virtuelle comme les gants de données, casques d'immersion, etc.). Ce premier
mouvement s'adosse à la simulation informatique qui affine sans cesse ses capacités à
produire des modèles numériques fonctionnels des objets et systèmes qu'elle prend pour cible.

Dans un deuxième temps, on transporte, via des réseaux adaptés, ces éléments modélisés. Une
grande variété d'applications concrétise cette double opération qui, de l'enseignement à
distance au télétravail en passant par le déplacement d'oeuvres ou de musées et les facultés
inédites de travail coopératif à distance, combine différents composants (textes et graphismes
avec ou sans image de l'interlocuteur, réception des efforts physiques à distance, etc.). On ne
fera pas ici la typologie de ces configurations, nous réservant par la suite d'approfondir
certains exemples, en particulier dans le domaine de la Réalité Virtuelle, qui concentre le plus
grand nombre de canaux perceptifs.

Déplacement d'existence et déplacement de présence

Simuler et déplacer, ces deux opérations recouvrent les deux cas d'emplois du terme "virtuel".
Le premier, la modélisation numérique, désigne une variation d'existence. De la réalité de
premier ordre, empirique, on passe à une réalité de deuxième ordre, construit selon les règles
de la formalisation physico-mathématique. La deuxième acception du terme"virtuel" relève
d'une variation de distance, et c'est là que prend place le transport par réseau. On parle
d'entreprises, de casinos, ou de communautés virtuels pour désigner des institutions, ou des
personnes, éloignées et qu'on ne peut atteindre qu'à travers le réseau. Et cet éloignement est le
fruit de leur modélisation numérique préalable, condition pour qu'ils puissent se glisser dans
les mailles du réseau. On entre en rapport effectif avec un ensemble de signes traduisant leur
présence (textes, voix, images, etc.) dans une forme mue par des programmes informatiques.
Cette animation automatique par programmes donne consistance à l'appellation "virtuel".
Sinon, il s'agirait d'une simple télé-communication, comme avec le téléphone. (On peut parler,
par exemple, de "casino virtuel" sur Internet parce qu'un modèle de casino fonctionne sur un
serveur, à distance). Le "virtuel" de la simulation ne s'oppose pas au "virtuel" des réseaux, il
le prépare. Ces accommodations numériques ne sont certes pas anodines et il ne faudrait pas
laisser croire qu'elles se contentent de répliquer les phénomènes et les relations situés à leur
source. Elles ne se limitent pas à filtrer la communication à distance. Elles sélectionnent,
surtout, les matériaux qui se prêtent à une transmission (ainsi l'odorat, malgré les récentes
recherches en cours, est couramment délaissé au profit de l'image plus valorisée
culturellement et... facilement modélisable). La forme des entités déplacées, tels les "avatars
virtuels", est strictement dépendante de ces sélections opérées. Tel "avatar" privilégiera la
qualité graphique des costumes, un autre la qualité sonore, un autre encore la conformité
photographique du visage. C'est dire si ces transpositions altèrent et redéfinissent les acteurs
engagés ainsi que leurs relations.

C - Les interfaces : la commutation homme/univers virtuel

Avec le développement des organes intuitifs de commande des ordinateurs, dans les années
quatre-vingt, la notion d'interface a d'abord désigné les organes matériels de communication
homme/machine (tels que le clavier, la souris ou les leviers de commande) ainsi que
l'organisation dynamique des affichages à l'écran (multi-fenêtrages et menus déroulants). Dix
ans plus tard, avec la vague du multimédia, la diffusion du CD-Rom et d'Internet, une autre
signification s'y est adjointe, dès lors qu'il devenait possible d'activer directement les objets
sur l'écran. La notion d'interface graphique est apparue, désignant à la fois les outils de
navigation dans un programme multimédia ainsi que l'organisation logique de l'application,
telle qu'elle apparaît sur l'écran.

Nous réservant de reprendre plus avant cette dernière acception de la notion d'interface, nous
centrerons, ici, notre analyse sur son versant externe, matérialisé par les équipements de
commutation entre l'expression humaine et les univers virtuels, tels que : éditeurs partagés,
affichage vidéo, visio et audio-casques, gants capteurs, costumes de données, senseurs, exo-
squelettes, systèmes à retour d'efforts ou leviers de commandes multi-usages.

Espaces de travail partagés

Le travail de groupe sur les mêmes sources numériques (architecture, dessin industriel, etc.) a
rendu nécessaire la mise au point d'<<éditeurs partagés>> assurant la collectivisation de toute
modification individuelle apportée au projet, ceci afin d'échapper à l'imbroglio résultant de la
circulation simultanée (par disquette ou courrier électronique) de plusieurs versions d'un
même travail. Manipuler des objets communs est une chose, échanger à propos de cette
activité en est une autre. Comme l'explique Michel Beaudoin-Lafon, directeur du Laboratoire
de Recherche Informatique à l'Université Paris-Sud : "En effet, le processus de production de
l'objet est aussi important que le résultat de ce processus, particulièrement dans les tâches à
couplage fort (nécessitant une très forte interaction entre les participants, comme dans le
brainstorming). Par exemple, lorsque l'on fait un croquis pour expliquer une idée, on fait
constamment référence à cette figure par des gestes. Il faut donc donner les moyens à chacun
de percevoir les actions des autres et pas seulement le résultat de ces actions" [26]. Plusieurs
systèmes prennent en compte cette dernière faculté en affichant sur les documents, les
positions des pointeurs activés par les participants ou encore en délimitant, par des dégradés
de couleurs, les zones que chacun affiche sur son écran, de telle manière que chacun puisse
voir ce que regardent les autres.

Le partage, à distance, d'espace de travail est aussi l'objectif visé par le système ClearBoard
[27]. L'image vidéo de l'interlocuteur est superposée à la surface de travail sur l'écran de
l'ordinateur, si bien que les deux personnes ont l'impression de travailler à modifier un plan,
par exemple, en étant situées de part et d'autre d'une vitre transparente sur laquelle s'affiche ce
plan. L'espace de travail se confond alors avec l'espace de communication. C'est l'une des
concrétisations de la notion de mediaspace, espace commun de travail à distance sur des
ressources multimédia, mobilisant principalement ordinateur, caméra vidéo et microphone,
prolongeant des équipements habituels (courrier interne, téléphone, messagerie, etc.).

Ces recherches ont mis en lumière la nécessité de respecter les échelles de disponibilité de
chacun des participants à un médiaspace, en particulier lorsque tous partagent des locaux
contigus (laboratoire, ensemble de bureaux d'un service, etc.). Dans ces conditions, autant les
espaces communs (cafétéria, bibliothèque) sont toujours accessibles, autant les postes de
travail personnels peuvent alors être protégés d'une incursion intempestive par de subtiles
procédures qui vont de l'affichage d'une porte sur l'écran (ouverte, entrouverte -il faut alors
frapper- ou fermée) au "coup d'oeil" lancé vers l'écran d'un collègue pour le saluer brièvement
ou vérifier qu'il est disponible. D'autres codes sociaux gouvernant l'établissement d'un contact,
telle la graduation de l'approche permettant progressivement l'installation de la relation, se
révèlent plus difficile à reproduire. Avec les écrans, les transitions sont difficiles à ménager :
l'image apparaît soudainement. Des propositions sont à l'étude pour y remédier.

En tout état de cause, on peut déjà observer que le doublage des relations de proximité
ordinaire par des dispositifs techniques, tout en tenant compte des contraintes sociales locales,
les modifie en instaurant un double système de relation. Ces systèmes imprégnés des
contraintes dues à la séparation physique, inventent de nouvelles mises en forme des espaces
de travail ; c'est cela qui les distingue d'une simple télétransmission et qui rend indispensable
une modélisation préalable du fonctionnement des interfaces élaborées. On retiendra, de plus,
que les mediaspaces -a priori conçus pour donner la sensation d'un espace commun entre des
équipes éloignées- sont aussi expérimentés dans des institutions à localisation unique.

Réalité augmentée, réalité ajoutée, doublage virtuel des interfaces

Toute invention d'interface est un nouveau circuit reliant réalité de premier ordre et réalité
modélisée. Les exemples qui suivent indiquent différentes voies par lesquelles la
commutation réel/virtuel s'établit. On ne saurait trop souligner l'importance de l'une de ces
directions : l'alliage de l'objet matériel et de sa modélisation virtuelle. Le projet Karma,
développé par une équipe de l'Université de Columbia (New-York) permet d'ajouter à la
vision ordinaire d'un équipement, une vue synthétique tridimensionnelle permettant de faire
fonctionner celui-ci. L'imprimante tombe-t-elle en panne ? Il suffit de mettre une paire de
lunettes, forme simplifiée d'un casque de vision de Réalité Virtuelle. Le squelette fonctionnel
apparaît. Il ne reste plus qu'à manoeuvrer les boutons, leviers et autres manettes virtuelles
permettant d'ouvrir un capot, faire glisser un tiroir, activer un mécanisme et en observer les
conséquences ; le tout en simulation, bien entendu [28]. Ainsi, la Réalité Virtuelle surimpose
à la vision ordinaire de l'objet une vue chirurgicale fonctionnelle, autorisant la manipulation
simulée de l'objet. Les interfaces matérielles (organes de commandes de l'appareil) ont ainsi
été doublés par leurs équivalents virtuels.

Dans le même registre, d'autres recherches ont pour objectif la disparition du support
d'affichage lui-même : plus d'écran à regarder ni de lunettes à porter. Dans la filiale
européenne du P.A.R.C. de Xerox, installée à Cambridge (Grande-Bretagne), P. Wellner
dirige un projet nommé Digital Desk qui élimine les interfaces habituelles (clavier, souris,
etc.). Sur le bureau s'affichent directement les données issues d'un projecteur numérique en
surplomb relié à un système élaboré de vision artificielle capable d'interpréter certains gestes
et de reconnaître des données montrées du doigt sur le bureau, par exemple. Les activités
médicales constituent aussi un important champ d'expérimentation pour ces interfaces plus
naturelles. Ainsi, un institut allemand a conçu une table de consultation destinée à l'initiation à
l'anatomie [29]. Plusieurs étudiants, équipés de lunettes à cristaux liquides, peuvent observer
l'un d'entre eux, disposant d'un "gant de données", manipuler une image tridimensionnelle
d'un corps humain projeté sur la table lumineuse. Squelette, système circulatoire, respiratoire,
etc. peuvent être, tour à tour et simultanément, visionnés ou auscultés. Ici, l'écran individuel a
été remplacé par un équipement permettant de collectiviser l'apprentissage.

Réalité animée

Les "réalités prolongées" assouplissent des objets qu'on plie selon nos quatre volontés, c'est-à-
dire incorporent certaines dimensions subjectives humaines dans leur mode de manipulation.
Dépositaires d'une réactivité, d'un réglage comportemental, ils s'ajustent à nos comportements
et s'auto-définissent dans un rapport adaptatif. Les recherches sur les smart rooms et smart
clothes élargissent ainsi la notion d'objets interactifs. Citons Alex Pentand, l'un des
responsables de ce programme de recherche au Medialab du M.I.T. à Boston : "It is now
possible to track people's motion, identify them by facial appareance, and recognize their
actions in real time using only modest computational resources. By using this perceptual
information we have been able to build smart rooms and smart clothes that have the potential
to recognize people, understand their speech, allow them to control computer displays
without wires or keyboards, communicate by sign language, and warn them they are about to
make mistake" [30]. Au-delà de l'usage d'ordinateurs, de vastes perspectives sont ouvertes
pour élaborer des objets sensibles, cartes de crédit qui reconnaissent leur propriétaire, sièges
qui s'ajustent pour nous garder éveillés et à l'aise, chaussures qui savent où elles se trouvent.
Transformer les objets qui nous entourent en assistants personnels, tel est l'objectif poursuivi.

C'est ce même objectif que visent les "robots chercheurs", dans le domaine documentaire, afin
de doter des programmes de capacités à reconnaître et à interpréter les actions de l'opérateur
dans le balayage de banques d'informations. On demande, par exemple, à un programme de
traiter une requête telle que : "Trouvez-moi les trois livres les plus intéressants sur les
nouveaux projets d'interfaces". Connaissant les centres d'intérêt du demandeur, la nature de
ses requêtes récentes, les articles qu'il écrit, celui-ci parcourra un ensemble de banques de
données, consultera les "abstracts" et autres listes de mots-clés dans les bases de données qu'il
jugera les plus appropriées. La mise au point de tels agents "intelligents", dont nous utilisons
des versions simplifiées sur Internet, est, depuis plusieurs années, au centre des activités de
l'Advanced Technology Group d'Apple visant à enrichir les interfaces graphiques -basées sur
le multifenêtrage et les menus déroulants- popularisés par le bureau du Macintosh. Le maître
mot est celui de délégation. Ajoutons "de compétence". Il faut pour cela que des programmes
puissent avoir accès à nos habitudes et soient en mesure d'acquérir des informations sur nos
centres d'intérêt sans que nous soyons obligés de leur faire subir un fastidieux apprentissage
sur le modèle des systèmes experts actuels. Eric Hulten, responsable du Human Interface
Group dans ce laboratoire d'Apple, explique : "De fait, nos ordinateurs savent déjà bien des
choses sur nous : leurs disques durs contiennent les coordonnées de nos interlocuteurs, notre
agenda, nos ressources et dépenses... Ils pourraient en apprendre encore plus dans notre
courrier électronique" [31].

Ces recherches sont à rapprocher de celles entreprises dans un autre cadre : l'intelligence
artificielle distribuée. Il s'agit de fournir à des agents autonomes certaines compétences
limitées leur permettant de conduire une activité de manière autonome, l'association de ces
conduites pouvant aboutir à résoudre des problèmes (comme le jeu du pousse-pousse ou le
Rubix's cube). Dans cette approche, point n'est besoin d'un programme de résolution global.
On installe une scénographie et un jeu d'acteurs qui, une fois définies les conditions initiales
et l'objectif souhaité, enchaînent eux-mêmes les actions nécessaires pour résoudre le
problème. Ces méthodes, dites de programmation multi-agents, sont utilisées, en particulier,
pour modéliser l'évolution d'une situation aussi complexe que la vie d'une fourmilière ou
étudier la dynamique d'évolution de robots adaptatifs dont la morphologie évoluera en rapport
avec l'accomplissement plus ou moins réussi de certaines tâches comme la recherche dans
leur environnement et le transport de certains matériaux (minerai, débris, etc.).

Symbolique amplifiée

Parallèlement aux dimensions strictement fonctionnelles, toute une symbolique spécifique


s'élabore pour amplifier la portée cognitive des systèmes conçus. Comme l'explique
Bertrand Duplat, directeur de Virtools, il faut "...inventer des métaphores intuitives qui
permettent une utilisation pragmatique de la réalité virtuelle. Car c'est la simplicité
d'utilisation, plus que le recours systématique à l'immersion, qui garantira le développement
de ces nouvelles interfaces et donc des applications professionnelles de cette technologie"
[32]. Par exemple, dans la transposition virtuelle de la navette spatiale réalisée par la NASA,
des flèches stylisées viennent figurer l'écoulement, invisible, de l'air autour de la navette
spatiale. Les ingénieurs qui circulent, par immersion virtuelle, au voisinage de cette navette
visualisent ces écoulements aérodynamiques sous la forme d'êtres mathématiques répartis
dans l'espace.

Autre exemple, l'Institut Français du Pétrole utilise une interface de navigation permettant de
circuler dans une base de données scientifiques tridimensionnelle. L'interaction avec un
modèle virtuel abstrait permet, en effet, de mieux comprendre le fonctionnement de systèmes
complexes tels que la modélisation moléculaire (utilisé chez Glaxo) ou l'analyse de données
financières, affichées dans un espace tridimensionnel. La mise au point de ce type d'outil peut
ainsi faciliter l'analyse de systèmes à plusieurs paramètres, ce qui est impossible avec tout
autre moyen. L'objectif est de maîtriser des systèmes d'informations complexes et de grande
dimension (supervision de processus industriel, outils de vigilance ou de décision pour les
contrôleurs aériens, etc.) [33]. Ces outils symboliques, loin d'imiter la réalité empirique,
donnent forme à des mixages de représentation réalistes et d'espaces cognitifs, radicalisant
ainsi ce qu'ont préparé, avant eux, nombre de techniques d'inscription (dessins d'architecture,
dessin industriel, etc.). Mais ici la fonction représentative est augmentée d'une mission
directement opérationnelle.

Recherches spécialisées, mais orientation généralisable

Nous avons décrit et commenté des recherches avancées qui donnent le sentiment, justifié,
qu'il s'agit de prototypes nullement stabilisés sur le plan technique et dont la large diffusion
est loin d'être garantie. Nous savons bien que les voies qui conduisent une innovation de
laboratoire à un usage étendu sont impénétrables. Mais notre recension n'a pas un objectif
prospectif. Elle indique une direction générale, laquelle se concrétisera selon des trames
encore mal dessinées. Les jeux vidéos sont, évidemment, l'un des principaux vecteurs de
diffusion de l'augmentation sensorielle. Nous en voulons pour preuve, par exemple, la mise
sur le marché des jeux vidéos, d'interfaces de " retour d'effort" qui étaient, il y a peu encore,
l'apanage de laboratoires ou de professionnels spécialisés [34]. Ainsi, pour les courses
d'automobile, le constructeur américain ACT Labs propose un volant sensible qui transmet les
moindres cahots du bolide engagé dans l'épreuve. Microsoft, pour sa part, commercialise
depuis décembre 1997, le dispositif SideWinder -manche à balai rétroactif contrôlé par
repérage de position optique et muni de deux moteurs- qui vibre si l'on roule sur une chaussée
déformée et oppose une résistance croissante dans les virages si la vitesse augmente. En
simulation de vol, il propage les efforts selon les conditions de vol et le type d'avion utilisé et,
dans les jeux guerriers, provoque un recul variable selon qu'on actionne une arme à répétition
ou un canon. Dès 1998, une société américaine mettait sur le marché The Intensor Tactile
Chair, chaise conçue pour les jeux vidéos. Équipée de haut-parleurs, elle réagit aux
différentes phases du jeu grâce à ses vibreurs disposés dans le dos et sous le siège. Dans la
même perspective générale, les systèmes de Réalité Virtuelle qui jusqu'à présent demeuraient
l'apanage de laboratoires scientifiques ou de lourds équipements de jeux d'arcades, semblent
pouvoir se répandre dans les foyers. Des améliorations techniques notables (suppression des
retards d'affichage des images lors des mouvements brusques, par exemple) ainsi qu'une
spectaculaire baisse des prix [35] laissent entrevoir l'ouverture des marchés grands publics.
Déjà en Novembre 1998, IBM présentait un micro-ordinateur portable (moins de trois cents
grammes) contrôlable à la voix, avec des lunettes spéciales en guise d'écran d'affichage. Et en
décembre 1998, Sony annonçait la mise sur le marché de Glasstron, écran visuel portatif
connecté à un DVD, récréant à quelques centimètres des yeux l'impression d'une écran de plus
de plus d'un mètre de large, situé à deux mètres de distance ; l'image est paraît-il de grande
qualité et l'impression saisissante [36].

Au delà de la maturation et de la sélection des systèmes qu'assure le champ des jeux vidéos
ainsi que l'expansion des technologies mobiles (téléphonie évoluée, postes légers de
connexion à Internet, etc.) ce qui nous semble pouvoir être retenu, c'est la direction générale
prise vers le prolongement virtuel des objets quotidiens d'une part et la multi-sensorialité de
l'autre.

D - Le retour du corps

On a souvent mis l'accent sur le versant "immatériel" des technologies du virtuel. En fait, rien
de tout cela n'est vraiment immatériel, c'est le type de matérialité qui se modifie :
miniaturisation, approche de certaines limites physiques des composants, flux opto-électro-
magnétique, vitesse de commutation des états (avec le méga-hertz comme unité), fluidité de
l'imagerie informatique. Avec la Réalité Virtuelle, un tout autre volet se découvre. Une partie
majeure du savoir-faire des ingénieurs s'investit dans l'invention et la mise au point
d'interfaces destinées à assurer la conjonction entre les univers virtuels et notre corps. La liste
est longue des trouvailles et autres ingénieux dispositifs qui assurent ces fonctions [37].

Chaque projet d'envergure se doit d'inventer l'équipement de commutation approprié. Par


exemple, lorsque les chercheurs de l'Université de Caroline du Nord ont réalisé leur prototype
de visite virtuelle d'un vaste espace architectural -en l'occurrence, un hall d'hôtel- ils ont
imaginé un tapis roulant, capteur du déplacement longitudinal, muni d'un guidon enregistrant
les inflexions directionnelles. Cette solution -la "patinette immobile"- permet de visiter, dans
un laboratoire de taille modeste, des espaces de très grande dimension (hall d'exposition
d'aéroport, etc.). Ils auraient pu se contenter d'un levier manuel de commande, mais auraient
alors perdu la dimension corporelle déambulatoire, indispensable à la restitution des
sensations éprouvées lors d'une visite d'un bâtiment.

Bien que ne relevant pas directement de la Réalité Virtuelle, signalons que des logiciels de
simulation permettant l'exploration sensible de la résistance d'objets tridimensionnels grâce à
la souris sont déjà expérimentés. Équipés de systèmes à retour d'effort, la souris restitue les
sensations de résistances lors de l'auscultation d'objets modélisés apparaissant à l'écran.

C'est bien notre corps, considéré comme sujet de la perception, qui revient au centre de ces
recherches. La mise en correspondance généralisée avec les environnements simulés par la
Réalité Virtuelle souligne l'importance des équipements de connexion, hybridant nos sens aux
expériences virtuelles. L'extrême malléabilité des productions simulées (sons, images,
mouvement, perception tactile, efforts physiques, etc.) exige des interfaces matérielles, on ne
peut plus visibles et palpables.

On doit ici faire mention d'une tendance des recherches actuelles visant à diminuer la lourdeur
de ces interfaces : caméras analysant la position tridimensionnelle des mains, dispositifs
déterminant la direction du regard, etc. Ce qui retient l'attention, c'est la prise d'information
directe sur le flux perceptif : capteurs bio-électriques destinés à enregistrer la contraction des
muscles et à en déduire les trajectoires gestuelles, caméras alimentant des réseaux neuronaux
pour reconnaître la disposition des mains devant un écran, enregistrement des mouvements
oculaires, lasers inscrivant directement l'image sur la pupille. Même s'ils s'allègent, ces
appareillages ne pourront s'effacer totalement, car ils organisent la commutation de nos
actions perceptives avec les mondes virtuels. Plus on souhaitera affirmer le réalisme des
interactions avec ces mondes (et ceci est une logique majeure), plus cette commutation
occupera le centre de la scène virtuelle. D'où la vitalité des recherches en matière d'interfaces,
recherches qui, dans le même mouvement, inventent des modalités inédites de fréquentation
d'univers virtuels.

Il n'est pas étonnant que les investigations artistiques de l'univers de la Réalité Virtuelle,
privilégient l'invention, l'adaptation ou le détournement de telles interfaces. L'intelligence
sensible de nombre d'artistes s'investit ainsi dans la création de situations propices à induire
une suspension du temps ou un trouble dans la situation spatiale. Ces interventions ont
souvent en commun d'échanger ou de combiner, grâce aux interfaces conçues, les activités
perceptives. Citons, à titre d'exemple, l'installation Handsight d'Agnes Hegedüs [38]. Le
visiteur introduit, avec sa main, un globe oculaire dans un globe en Plexiglas vide et
transparent. Le globe est, en fait, un capteur qui explore un univers virtuel, décalé d'une
bouteille "de patience" de la tradition hongroise (exposée à coté). Les déplacements manuels
provoquent le calcul d'images affichées sur un grand écran.

Tenir son oeil au bout de sa main, tel est le collage perceptif que nous propose l'artiste,
indiquant ainsi qu'un vaste mouvement d'échange et de combinaison des perceptions est
aujourd'hui en cours, sous l'impulsion de leur traduction numérique. Des applications à
caractère fonctionnel, dans la communication dite "multi-modale", exploitent les mêmes
directions : saisir avec l'oeil (tir des pilotes de chasse) ou commander à la voix.

Avec La plume et le pissenlit d'Edmond Couchot et Michel Bret [39,] le souffle, métaphore de
la vie corporelle s'il en est, devient l'interface d'effeuillage de l'image numérique. On aura
compris qu'il s'agit de souffler sur un capteur pour détacher les fleurs du pissenlit ou faire
s'envoler la plume, qui retombe conformément aux lois de la résistance de l'air. Le souffle,
comme le dit Edmond Couchot, "implique le corps de manière discrète mais très profonde".

Le geste et le sens [40]

Claude Cadoz, dans une très intéressante étude sur la place des sensations physiques dans la
communication avec l'ordinateur, rappelle les trois fonctions principales du canal gestuel [41].
Outre une mission sémiotique évidente (le geste accompagnant la parole afin de situer la
nature du propos), le canal gestuel possède aussi des fonctions épistémiques et "ergotiques".
La fonction épistémique prend en charge la "perception tactilo-proprio-kinesthésique". Elle
permet d'apprécier des qualités telles que la température, la forme, la texture, les mouvements
d'un corps. La dimension "ergotique" (de "ergon", travail en grec) tient à ce que le rapport à
notre environnement n'est pas exclusivement informationnel, il est aussi énergétique. Si l'on
serre un gobelet en plastique, on le déforme. La spécificité du canal tactile est de modifier
l'état de la source qui le stimule.

On semble ici aux antipodes d'une réflexion sur le statut des images si tant est que ce qui
caractérise notre relation aux images optiques (aussi bien qu'à celles qui sont faites à la main),
c'est précisément l'intégrité dont elles bénéficient lors de tout acte contemplatif. La Réalité
Virtuelle assure, de manière emblématique, la jonction entre l'univers informationnel et
l'univers énergétique/mécanique, relativisant ainsi la coupure que la cybernétique des années
cinquante avait établie entre énergie et information. Les notions d'interaction, de retour
d'effort du virtuel vers le réel [42] illustrent notamment ce mouvement. "Il existe des
situations communicationnelles où la dépense d'énergie est nécessaire" [43] comme la
communication musicale, rappelle Claude Cadoz. De même, dans certaines activités, comme
la danse, la fonction ergotique du geste ne peut être séparée de sa fonction sémiotique.

Il est vrai que le toucher, comme le geste, souffre de connotations négatives qui mêlent les
interdits sexuels à cette dimension, peut être encore plus fondamentale, d'altération de l'objet.
Le primat du contemplatif, de la présence à distance non interventionniste, au détriment du
contact physique va de pair avec un certain puritanisme qui n'est plus de mise. L'iconophilie
contemporaine se soutiendrait donc, aussi, de ce que la vue est une présence à distance qui
respecte, par définition, son objet. L'image actée, -si l'on appelle ainsi une image chaînée avec
des actes- constitue un compromis ingénieux entre l'accès direct à l'objet (en fait, à son
modèle) et la sauvegarde d'une réalité tenue en retrait. Nouvel âge des représentations, elle
renoue avec l'interventionnisme de l'image, stade magique des temps anciens (non totalement
révolus), où l'image est une médiation active dans l'accomplissement d'un acte : vengeance,
satisfaction d'un désir, aide pour surmonter une épreuve, etc.

E - Graduations de présence

Mobilisant nécessairement des interfaces, aussi simplifiées soient-elles, les transpositions


virtuelles échouent à rendre compte pleinement de la simplicité des interactions ordinaires,
notamment lorsqu'elles revêtent un caractère collectif. Elles découvrent, en revanche, de
nouveaux modes de relation combinant :

- la transmission plus ou moins dégradée des vecteurs de communication (comme la


représentation des intervenants par un "avatar" schématique),

- et des procédures abstraites (comme le simple adressage automatique par liste de diffusion
sur Internet, jusqu'à l'affichage de la cartographie des échanges entre plusieurs participants).

L'impossibilité d'imiter les relations ordinaires des humains entre eux et avec leur
environnement matériel s'allie avec ces procédures abstraites pour donner forme à de
nouveaux milieux où la présence ne se conjugue plus au singulier mais selon des graduations.
Celles-ci étagent des niveaux de présence selon deux lignes non exclusives :

- une direction extensive (d'une présence, encore assez dégradée, dans les réseaux actuels
-téléphone, Télétel, Internet- aux figures plus expressives promises par la Réalité Virtuelle en
réseau [44]),

- une direction intensive, avec l'invention d'indicateurs abstraits de présence.

Que sont ces indicateurs ? Il est bien connu que toute communication à distance nécessite des
marqueurs spécifiques qui suppléent aux incertitudes nées de l'absence de contacts directs.
L'écriture mobilise ses codes graphiques et sémantiques pour diminuer la flottaison du sens
(mise en page, respect plus strict de la grammaire, etc.). La communication téléphonique
majore les caractères formels de l'échange et use abondamment de la redondance. On le sait,
les réseaux actuels (Télétel, Internet) sont encore faiblement incarnés. Mais la tendance à
l'augmentation s'affirme nettement [45]. La Téléprésence, quant à elle, met à profit
l'ingénierie numérique pour intensifier la présence (capteurs corporels, retour d'effort) en
inventant de nouveaux marqueurs. Or, le phénomène le plus radical est encore d'un autre
ordre : c'est la combinaison des deux lignes extensives et intensives, aboutissant à la création
d'hybrides, mélanges de présences physiques et de traitements abstraits. L'exemple du projet
DIVE aidera à les situer.

DIVE ou l'invention de marqueurs relationnels abstraits

Le projet DIVE (Distributed Interactive Virtual Environment), développé au S.I.C.S. en


Suède, est un système multi-utilisateur de télévirtualité qui expérimente des mécanismes
d'interaction pour des tâches effectuées, en coopération, par des acteurs éloignés. Il vise aussi
bien à reconstituer un cadre de travail de bureau (muni des outils bureautiques) qu'un
laboratoire de recherche, par exemple. Ainsi que le déclare, Lennart E. Fahlen, l'un des
responsable du projet : "Nous proposons un modèle d'interaction qui utilise la proximité dans
l'espace, la position et l'orientation comme des mécanismes de traitement de l'information.
Nous pensons qu'un système qui correspond aux métaphores naturelles du monde réel sera
facile et naturel à utiliser" [46]. Les concepteurs parlent à la fois "d'ensemble de mécanismes
fortuits" et de "conventions sociales classiques qui relèvent du <<monde réel>>". L'objectif
est de reconstituer un espace de travail commun pour des acteurs humains éloignés, équipés
de systèmes de Réalité Virtuelle. DIVE gère leur signalisation respective dans l'espace sous la
forme d<<'avatars>> (dans la version actuelle, ils apparaissent avec des corps schématisés
surmontés d'une vignette photographique affichant leur visage).

Mais DIVE organise aussi les interactions entre des acteurs humains et des objets (livres,
documents, sources audiovisuelles). Ces derniers sont dotés de propriétés qualifiant leurs
modalités d'interactions avec les usagers, et entre eux. Des concepts-clés ont été forgés. Par
exemple, l'aura est un sous-espace lié à l'objet qui augmente le potentiel d'interaction entre
objets. Le focus est le centre d'attention qui agit comme sélecteur d'informations. Le nimbus
est "le lieu où un objet met à la disposition des autres objets un aspect de lui-même. Cela peut
être une projection de qualité ou de propriété comme la présence, l'identité ou l'activité. Par
comparaison avec le monde réel, nimbus rayonne du <<je ne sais quoi>> qui émane de la star
de cinéma -ce qui fait que chacun s'arrête et que tous portent attention sur elle" [47]. Des
programmes particuliers peuvent transformer les sous-espaces pour amplifier, atténuer ou
étendre certains champs.

Ces opérations rapportées au monde réel consisteraient, par exemple, à utiliser un microphone
pour amplifier la voix, monter sur une estrade pour se rendre plus facilement visible. Notre
ambition n'est pas de décrire, dans le détail, le fonctionnement -complexe- de cet espace
coopératif de travail. Elle vise plutôt à montrer en quoi ce travail est exemplaire.

Les concepts, assez abstraits, qui gouvernent DIVE restituent nos habitudes de fréquentation
d'univers socio-topologiques. Ils explicitent des mouvements abstraits, ou plus exactement
mentaux, qui gouvernent nos rapports à un environnement matériel et humain. Ainsi en est-il
de la notion de "centre d'intérêt", ou d'horizon de recherche. Lorsque nous recherchons un
dossier dans un bureau, c'est l'image de ce dossier que nous projetons, tel un faisceau
lumineux, sur l'environnement. À ce moment, les autres objets (chaise, livres, ordinateur...) se
fondent dans un décor vague. Les autres dossiers dispersés, de couleur différentes, jouiront en
revanche d'un coefficient de présence plus soutenu. C'est ce genre de rapports que les
concepteurs de DIVE tentent de matérialiser dans l'espace commun, et c'est cela qui est
novateur. Car il ne s'agit plus de restitution mais d'invention de marqueurs abstraits
d'interaction (signes graphiques, protubérances visuelles, accrochées aux "avatars"), pouvant
être affiché par programmes informatiques. Par exemple, s'adresser à quelqu'un nécessite
d'intercepter son champ visuel -augmenter le potentiel d'interaction avec cette personne, dira-
t-on dans le vocabulaire de DIVE. Plus les champs visuels sont interpénétrés, plus l'affinité est
importante.

Les relations d'usages, d'intérêts, de même que la fréquence des rapports sont concrétisées,
alors que d'ordinaire ces mouvements sont intégrés automatiquement dans notre perception
spontanée de la situation. Les acteurs -humains et non-humains- de ce monde virtuel
possèdent un différentiel de présence qui traduit la nature et l'intensité des relations qui les
unissent (ou les séparent). On voit s'ébaucher une démarche visant à objectiver, à imager
métaphoriquement des mouvements subjectifs latents. Une sorte de couche relationnelle est
projetée sur la scène matérialisant graphiquement les interactions à l'oeuvre. Cette couche
abstraite traduit -partiellement, bien sûr- des investissements psychologiques habituels. Mais
elle les exprime à travers des jeux scénographiques agençant les propriétés modélisées des
différents acteurs (objets et humains), et ce, grâce à des traitements par programmes.

On peut tirer quelques enseignements à caractère plus général de ce projet. Les concepteurs
auraient pu se contenter de dupliquer les conditions du travail coopératif. Ils ont finalement
inventé un nouveau milieu d'interaction sociale dont il serait absurde d'imaginer qu'il traduise
la souplesse des interactions ordinaires d'une communauté en co-présence mais qui, en
revanche, crée des outils formels pour une cartographie dynamique relationnelle. Telles sont
bien les limites et la portée de la Réalité Virtuelle, car ici encore faute de reproduire on
invente. En effet, on ne peut traduire à l'identique nos activités perceptives (vision,
préhension, etc.). Encore moins peut-on espérer restituer ce qui est le plus mobile et fugitif,
nos états mentaux. Plutôt que de s'y essayer, les créateurs de DIVE ont défini des instruments,
nécessairement rigides et peu malléables, mais qui offrent l'énorme avantage de se prêter au
calcul par programme et de se surajouter ainsi à la perception spontanée, qui, il ne faut pas
l'oublier, continue à interpréter et à ajuster les interactions à l'oeuvre.

On peut prédire un bel avenir à cette direction de recherche. Restituer les dimensions
affectives dans la communication à distance est un objectif partagé par de nombreuses
recherches, des désormais célèbres "émotikons" sur Internet au modelage expressif des
"avatars" des communautés virtuelles (comme dans l'expérience HABITAT au Japon).
Comment traduire un désir d'en savoir plus, une envie, une aversion, une habitude d'usage ?
Un passionnant champ de recherche s'ouvre aux "psychomécaniciens" des environnements
communautaires afin de traduire la diversité de nos mouvements relationnels. Peut-être leur
faudra-t-il spécifier les formes matérielles de ces mouvements selon le degré d'opérationalité
souhaité (travail, formation ou relation libre) bien qu'un strict partage entre ces postures soit
difficile à imaginer. Il se confirme, en tous cas, que pour faire coopérer des communautés à
distance de manière régulière et fructueuse, on ne saurait se limiter à convoyer des
informations. Cela exige de prendre en compte les dimensions psychosociales des relations de
travail [48], pour ensuite cartographier les interactions à l'oeuvre, en imaginant une ingénierie
infographique socio-topologique. On est donc conduit à densifier les fonctions de présence et
à ne pas se contenter de les transporter.

Les spect-agents

L'ingénierie de simulation, dans sa quête de densification des relations à distance fait naître
une génération d'avatars, doubles, spectres, substituts, représentants numériques, dont la
caractéristique essentielle consiste à être animée, à la source, par un agent humain. Nous
regroupons ces créatures sous le vocable de spect-agent. Le vocable spect-agent exprime
l'alliance de la fluidité du spectre et du caractère actif du représentant lié à son origine
humaine mais aussi aux automatismes qui l'animent (on a vu comment des "représentants"
peuvent exprimer des fonctions abstraites de présence). Ce néologisme désigne ce qui n'est ni
un double, ni une copie dégradée, mais une graduation d'existence. C'est donc une
dénomination plus respectueuse de la spécificité de ces représentants que le terme "avatar"
(signifiant "copie dégradée") fréquemment employé. Les spect-agents procèdent d'une co-
construction, synthétique (mue par les programmes informatiques) et humaine (alimentée par
l'activité immédiate d'un sujet), où il s'agit de doubler la vie réelle, et, pour ce faire d'inventer
une générativité, due, pour une part, à la résistance qu'oppose le réel à sa duplication
mimétique.

Ainsi, dans des projets tels que DIVE, HABITAT au Japon [49] ou "Deuxième monde" en
France [50], (intervention par "avatars" interposés), et plus généralement dans les récents
travaux utilisant le langage V.R.M.L. [51] sur Internet, on retrouve très nettement les trois
mouvements constitutifs de la dynamique inventive : la tentative d'imitation, l'impossibilité
intrinsèque d'un tel projet de duplication à l'identique et en dernier lieu, l'ouverture d'un
espace de possibles dynamisé par la confrontation avec ces obstacles rédhibitoires. Ces
applications et recherches combinent, actuellement, la restitution formelle et empirique
(imitation de l'apparence tridimensionnelle et simulation comportementale d'objet) avec la
construction inédite d'un milieu cognitif et relationnel objectivé (inscription graphique des
relations, des émotions, invention de marqueur des qualités des rapports entre les acteurs et
avec les objets).

La ductilité du milieu virtuel permet ces agencements qui allient plusieurs composants. On
pourrait parler de greffes mêlant des génotypes différents. Les premiers types de composants
sont des formes (agents humains, scènes, objets, dispositifs) analogues à notre niveau de
réalité, ainsi que des comportements à vocation imitatifs ou prédictifs (la simulation réaliste,
la C.A.O., la modélisation scientifique). Les deuxièmes sont constitués par des interactions
ouvrant à ce qu'on pourrait appeler une perception synthétique. Celle-ci associe librement les
vecteurs perceptifs et effectifs de l'action humaine (déplacement par le regard, vision qui se
poursuit en action comme dans le tir par viseur tête haute où repérer la cible sur la visière
virtuelle permet de déclencher le tir par la voix). Enfin, les troisièmes types de composants
pour la synthèse en milieu virtuel sont les dimensions affectives, cognitives, relationnelles
entre spect-agents d'une part, objets et dispositifs simulés de l'autre, matérialisant ainsi
certains états mentaux (intention, disposition affective comme les Kansei d'HABITAT [52]).
Signalons que dans le domaine des jeux vidéos, les game designers ne jurent plus que par
l'autonomie comportementale des acteurs virtuels injectés dans la scène. Le joueur les
rencontrera et il devra comprendre, pragmatiquement, leurs caractères (recherche d'affection,
par exemple) et leurs spécificités comportementales (serviabilité,agressivité, etc.) ; ceci pour
s'en faire des alliés, par exemple. L'intelligence des dimensions socio-affectives deviendra
alors un enjeu essentiel pour participer au jeu... et gagner.

De même, dans une perspective d'apprentissage, les premières réalisations de séquences de


formation mobilisant des "enseignants virtuels" dits "intelligents", promettent de renouveler
les relations entre apprenants et systèmes informatiques. Créatures anthropomorphes, ces
agents incarnent -au sens propre du terme- des formateurs présents dans la scène et
médiatisent les démarches cognitives. Capables de répondre aux questions de l'élève,
possédant une "intelligence" du domaine (dépannage d'un dispositif, diagnostic et intervention
médicale, apprentissage d'une langue, par exemple), "l'enseignant virtuel" devient un véritable
tuteur personnalisé, toujours disponible. L'un des objectifs consiste même à inverser le
processus afin de faire apprendre à l'agent de nouvelles tâches en observant les gestes d'un
instructeur humain. De même, s'agira-t-il de permettre à "l'enseignant virtuel", de percevoir et
de réagir aux comportements non-verbaux de l'élève (expressions du visage, attitudes, gestes,
etc.). Conçus en Réalité Virtuelle, sur plate-forme locale, ces agents commencent à être
déclinés, de manière simplifiée, pour être accessibles à distance, via Internet [53].

D'une manière générale, les communautés virtuelles ainsi réunies sont, comme toutes les
associations humaines, des assemblées d'agents humains et non humains (objets,
environnements, etc.). La communication médiatisée par des spect-agents transcrits -de
manière souvent encore assez frustes- des actions humaines (comme le ferait la
visioconférence, par exemple) mais ajoute la plasticité de la sphère non-humaine
(modifications de l'environnement, expérience à distance sur les mêmes objets, etc.). Un
ingrédient original -des oxymores spect-agents, qui naissent dans, et par, le milieu virtuel-
vient donc s'ajouter à la scénographie, déjà complexe, de la communication à distance.

F - Simulation, restitution et illusion

Produire, avec les moyens actuels de l'ingénierie numérique, une représentation formelle du
monde pose tout simplement la question de son caractère prétendument illusoire. Aucun esprit
occidental ne confond le portrait photographique d'une personne avec cette personne elle-
même, ni n'envisage d'adresser la parole à un acteur sur l'écran dans une salle de cinéma. (La
suppression de cette impossibilité est précisément la trame du chef-d'oeuvre de Woody Allen,
La rose pourpre du Caire). Il faut à la fois établir la différence radicale de l'imagerie
informatique interactive avec les techniques d'enregistrement, et penser cette distance comme
un écart non moins important avec notre niveau habituel de réalité.

L'émergence du "virtuel" dans la culture visuelle contemporaine mêle deux évolutions


simultanées, coordonnées et parfois divergentes. Le mouvement d'imitation exacte de la
réalité, initié par le dessin perspectiviste et radicalisé par la photographie, trouve dans la
numérisation un outil providentiel. Mais le stade numérique (digitalisation de la réalité
visuelle, et aussi, symétriquement, simulation de modèles idéels rendus ainsi visibles)
manifeste une rupture avec le stade "indiciel" propre à l'enregistrement. L'image affaiblit son
lien privilégié avec le passé, sa fonction de témoignage -témoignage mental, travaillé par
l'imaginaire dans le dessin et la peinture, plus instrumental avec l'invention des techniques
d'enregistrement- pour devenir une forme de contact avec une néo-réalité numériquement
modélisée. Elle constitue alors une interface de manipulation d'objets virtuels, dont elle
affiche des vues contrôlables.

L'image de synthèse, une extinction du référent ?

Si on prend pour argent comptant la vocation substitutive du "virtuel", comme nous y invite
une vulgate répandue, on est conduit à durcir la ligne qui sépare la simulation numérique de
l'enregistrement indiciel. Par exemple, s'interrogeant sur les rapports respectifs
qu'entretiennent la photographie et l'image de synthèse avec la mort, Chantal de Gournay se
demande : "Car si l'image (photographique, cinématographique) est ce miroir de l'invisible qui
nous aide à faire le deuil de nos morts, de nos terreurs, de nos ethnocides ou de nos crimes
contre la nature, de quoi peut-on faire le deuil avec une image de synthèse ?" [54] Le
présupposé de cette question affirmative consiste à considérer qu'une image de synthèse
serait, par essence, totalement réductible aux procédés logico-mathématiques qui la
constituent, et par là, à l'abri de toute contagion référentielle. La gestation algorithmique
tracerait une barrière définitive avec l'autre régime de l'image, indiciel, qui enregistre la
réalité, telle qu'elle est, avant même tout regard, toute mise en forme langagière. L'indicialité,
serait la seule modalité où les scories du réel, ce qui échappe à toute formulation, viennent
s'inscrire, s'imprimer sur le support, et s'offrir, subrepticement, à notre appréhension. Le mode
de production de l'image informatique, réductible à la maîtrise technique, la projetterait hors
du cycle vivant et de l'altération qui en résulte.

Il y a lieu de douter de telles vues. D'où viendrait ce statut d'exception de l'image informatique
qui, production humaine, pourrait miraculeusement effacer cette origine pour sembler ne
provenir que de froides procédures (elles aussi absolument auto-engendrées, inhumaines ?).
C'est ignorer le singulier commerce qu'entretiennent les réalisateurs d'image de synthèse avec
leur production [55]. Maîtrise ? Peut-être, mais singulièrement malaisée. Comment peut-on
imaginer une telle activité où s'abîmerait, par miracle ou par décret, l'imaginaire du
réalisateur, ses évaluations intermédiaires, ses hésitations. Croit-on à l'automatisation
intégrale d'une telle production ? (Et encore, serait-elle automatisée, qu'il conviendrait de
remonter la chaîne des investissements, d'interroger le choix du dispositif, des logiciels, le
travail de programmation, etc.). Mais ici nul automatisme à l'oeuvre dans le dessin des
formes, le choix des textures, la réalisation éventuelle de maquettes en dur, la sélection des
éclairages, des points de vues, etc. Pas plus d'automatisme dans les arrangements temporaires,
les graduations de finitions possibles et la décision d'arrêt. Il ne s'agit pas, pour autant, de
dissoudre la spécificité des images ainsi obtenues, de négliger les moments de dépossession,
de surprise. Il ne faudrait pas non plus sous-estimer l'automaticité partielle de la production
(lancer une procédure de calcul d'une ombre, animer une forme par un programme, etc.) et
surtout tenir pour négligeable l'usage de procédures programmatiques [56]. Mais pourquoi
décider de supprimer les moments d'évaluation humaine et de choix, moments omniprésents
dans une telle élaboration ? S'il faut invoquer un deuil impossible, ce serait bien,
paradoxalement, celui de la tentative de se passer d'une référence à la réalité. Si tant est que la
simulation n'est pas effacement du réel mais seulement tentative. Affirmer sa réussite est un
acte de foi aussi arbitraire que commode, car ainsi le grand partage entre réel et virtuel devient
possible. Tout comme avec l'image enregistrée, on fait, ici aussi, le deuil de l'invisible source
des projets, de l'impossibilité de les terminer, des mille décisions qui président à leurs
naissances et qui demeureront opaques.

Qui se tient attentif au processus de création d'une "image de synthèse", ne peut ignorer à quel
point elle métabolise "les scories du réel" qui l'assaillent de toutes parts et ceci à toutes les
phases de sa constitution. Ces scories, on les pressent dès le projet initial (toujours une idée
accrochée au fil d'une histoire individuelle et collective). On les sent dans les méthodes et
outils : lancer de rayon et autres artifices constructifs, morphogénétiques. Ces méthodes
matérialisent des théories expérimentales sur le fonctionnement de la réalité qu'il s'agisse de
croissance de plantes ou de vagues croulant sur une plage. On insiste, parfois à juste titre, sur
le versant abstrait de l'opération modélisatrice. Il est vrai que l'étude de phénomènes non
visibles en tant que tels -comme le comportement d'équations mathématiques- trouve, dans la
mise en image des modèles, un vecteur d'étude irremplaçable. Mais bien souvent, aussi, la
simulation informatique, loin de se borner à étudier le comportement futur d'un système,
devient une manière d'éclairer, d'ausculter la réalité, et non pas de construire une néo-réalité à
vocation substitutive [57]. Enfin, on ressent les "scories" dans le résultat final, livré à
l'appréciation de sensibilités humaines. Ajoutons enfin, qu'une image de synthèse peut
sombrer dans l'oubli ou le mystère d'une intangibilité pour peu qu'on ait laissé s'éteindre les
lignées technologiques (ordinateurs, systèmes d'exploitation, interfaces) qui permettent de
l'afficher, ce qui arrive plus souvent qu'on ne le croit.

L'imagerie numérique joue avec la notion de limite, multipliant les actualisations, décuplant
les cheminements. Comme dans une fête foraine, on ne sait où donner de la tête, mais dont
quelques heures plus tard et après moult déambulations, on s'est mentalement fabriqué un
plan. Assouplissant les repères, ces scénographies intensifient la question. Toujours déçu,
mais toujours en quête de recul des bornes, nous ne finissons pas d'éprouver les paradoxes
croisés du désir de liberté, des sentiments d'inquiétude devant ces conquêtes et aussi des
déceptions face aux contraintes ressenties. Croire en l'immanence des montages numériques,
c'est les magnifier, leur attribuer un surcroît de puissance, celui d'abolir les limites. Oserait-on
suggérer qu'ainsi s'investit l'espoir qu'ils détiendraient un tel pouvoir ? Le pouvoir faustien de
nous placer hors d'atteinte de la ruine, de la mort si, comme l'affirme Chantal de Gournay, "
[...] le monde virtuel de l'ordinateur, régi par la logique de la simulation et du simulacre, est
un monde placé hors d'atteinte de la mort [...]" [58]. Résultat considérable, si toutefois c'était
le cas. Mais là encore, heureusement, nous serons déçus.

Du souci d'imitation à l'invention d'un nouveau milieu perceptif

Malgré les apparences, ce n'est pas l'illusion du réel que visent les techniques de Téléprésence
-elles en sont bien incapables- et surtout, on manquerait leur spécificité en leur assignant cet
objectif. À première vue, on viserait une restitution, au plus près possible de la réalité. Mais,
sa réalisation, on l'a vu, se heurte à des obstacles permanents et surtout découvre des horizons
inattendus, engageant la construction d'ordres spécifiques de réalités plutôt que la substitution
du niveau empirique.

La notion de dimension offre une entrée intéressante dans la thématique de l'imitation. Cette
fameuse troisième dimension, présentant la profondeur sur la surface est au fondement de
l'illusion. Mais pourquoi parle-t-on d'<<illusion perspectiviste>> ? Est-ce parce que la
troisième dimension est figurée sur le tableau ou bien, plutôt, parce que le tableau se
rapproche de l'image visuelle ? "L'illusion" se situerait plus en référence à l'acte de vision qu'à
son objet, la réalité. Comme le signale Louis Marin [59], l'enjeu de la perspective n'est pas de
donner l'illusion de la présence, en trois dimensions, des personnages couchés sur la toile,
mais de former son regard dans la vision d'autrui, en référence à une organisation
"transcendantale" de la vision qui permet la formation d'une communauté d'observateurs. Tout
en semblant viser une "construction légitime" de l'image respectant le fonctionnement de la
vision, la perspective invente un autre monde visuel, et par là une expérimentation potentielle
de l'espace. Elle devient alors machine à fabriquer d'autres machines intellectuelles et
matérielles (de la géométrie descriptive au dessin industriel).

La Réalité Virtuelle poursuit ce programme en le radicalisant puisqu'elle fonctionne selon les


principes dynamiques de la vision. Même pour ce qui est des fonctions purement
"mécaniques" -car la vision humaine est avant tout un acte mental -c'est, évidemment, grâce
au corps qu'une saisie oculaire est possible. Notre vision s'effectue par le déplacement
corporel dans l'épaisseur d'une durée et elle s'hybride aux autres acquisitions perceptives
effectuées simultanément (audition, olfaction, toucher, etc.). On oublie trop souvent que tout
l'intérêt de la Réalité Virtuelle réside dans un transfert de support : de la réalité vers le visio-
casque, pour le dire sommairement. Et, dans ce transfert, les interfaces sont le véritable lieu de
la transubstantialisation. Nourrit par le projet d'imitation, un nouveau milieu perceptif
s'invente qui outrepasse cet objectif initial pour inaugurer d'autres configurations liant vision,
action, perception et connaissance.

L'hypothèse domiciliaire

Affirmer la croissance de la Téléprésence n'implique nullement d'augurer une vie sociale


totalement organisée par des télé-relations, substituant progressivement le contact à distance à
la co-présence hic et nunc. Nous rejoignons Bernard Miège lorsqu'il écrit : " [...] ce qui frappe
dans les approches contemporaines, c'est la conviction fortement partagée que nous serions
entrés dans une ère nouvelle (ou en tous cas que le processus serait bien engagé), caractérisé
désormais par la prégnance des techniques de l'information et de la communication et
corrélativement par la réduction des occasions de communiquer en face à face... Il nous
apparaît que cette perspective est, stricto sensu, indémontrable, [...]" [60]. Bernard Miège a
parfaitement raison de signaler qu'il ne peut s'agir d'une perspective quantitative où des
relations in situ seraient systématiquement substituées par des contacts à distance. S'il fallait
tenir une comptabilité, elle serait extraordinairement complexe et des études récentes ont
montré qu'évidemment, les groupes sociaux qui font le plus fréquemment usage de techniques
de communication sont aussi ceux qui ont des relations sociales les plus denses. Il est
significatif qu'un quartier central de Paris comme le Sentier, carrefour des entreprises de la
confection depuis longtemps, devienne la plaque tournante des entreprises du Web. Proche de
la Bourse et des grandes agences de presse (dont l'A.F.P.), le Sentier est le quartier de Paris où
s'échange le plus d'information. Nul étonnement à voir les moteurs de recherche Yahoo,
Lokace, Lycos ou Nomade s'y installer aux côtés d'une myriade de petites entreprises du
multimédia. Trier et fabriquer de l'information dans le cyberespace déterritorialisé exige de
fréquenter les mêmes cafés et restaurants, c'est-à-dire d'être physiquement aux côtés les uns
des autres. Dans la même perspective, Marc Guillaume signale, par exemple, que l'activité de
salles de marché, structurée par le recours permanent aux réseaux spécialisés, est néanmoins
localisée dans les quartiers d'affaires. Les agents ne peuvent se passer des rumeurs, échanges
et confrontations ; aliments indispensables pour prendre le pouls d'une situation [61]. Plus
généralement, le constat du développement de la Téléprésence et l'intensité croissante des
relations à distance, engage à s'interroger sur les incidences de cette situation en regard des
relations de visu, c'est-à-dire sur la combinaison des deux modalités de rapport et non pas leur
prétendue équivalence.

"Double réalité" de l'image et métaprésence

Platon définissait l'art comme mimesis, imitation qui a conscience d'elle-même. On peut
étendre cette conception au principe de la représentation, qui, espace clivé, présente toujours
simultanément le contenu et le procédé, l'illusion et ses moyens. Perspective, photographie,
cinéma et aujourd'hui image numérique relient, à chaque fois singulièrement, sujet humain et
dispositif scénographique. Toute présence s'appuie sur un horizon de métaprésence combinant
présence et oubli du lieu de la présence, savoir et sensation mêlés de la mise en scène
spectaculaire, accommodation au dispositif artificiel [62]. Dans toutes les formes de présence
à distance, ce savoir/sensation est actif. Une sorte d'arrière-fond de l'expérience du dispositif
transactionnel (lecture, téléphone, groupe de discussion sur Internet, Réalité Virtuelle), non
directement perceptible, à la fois constamment rappelé et oublié. Expérience du dispositif qui,
par exemple, permet le transport dans le récit selon des modes différents selon qu'il s'agit d'un
livre, d'un film ou d'un multimédia.
Avec le déplacement de la présence par réseau numérique, il ne s'agit donc pas d'une
immédiation. Dans le réseau, le média tente de se faire oublier par toutes sortes de
perfectionnement (adjonction du son, de l'image animée, puis de l'immersion et de la synthèse
des perceptions kinesthésiques). Mais, plus la médiation mime la transparence, plus la
prégnance de sa fonction est massivement ressentie et plus ses logiciels et ses matériels
deviennent complexes et substantiels. C'est pourquoi la présence à distance n'est pas une
réalisation de la présence. Se tenir en contact passe toujours par une médiation. Et si on
recherche la transparence, on interposera toujours plus d'interfaces sophistiquées pour
concrétiser cette transparence. Chaque pas qui fait avancer ce projet éloigne alors d'autant la
cible.

La Téléprésence, une donnée anthropologique

On peut établir une analogie de principe entre le mouvement de naturalisation des


représentations et la notion de "tendance technique" qu'élabore André Leroy-Gourhan [63],
comme mouvement universel traversant les cultures et les ethnies et que chacune d'elles
interprète et développe à leur manière. Mais au delà de ces variations, la tendance déploie ses
principes et "pousse le silex tenu à la main à acquérir un manche" [64]. On pourrait affirmer
que, de la même manière, la tendance à l'incarnation croissante pousse la photographie à se
doter du mouvement et celle-ci à s'émanciper de l'enregistrement en devenant, avec la
simulation, une libre exploration de l'espace puis un univers d'expérience physique.

Rappelons que l'une des idées maîtresses qui orientent le travail du célèbre préhistorien, mais
aussi anthropologue, établit que le processus d'hominisation se caractérise par la
domestication du temps et de l'espace grâce à la symbolisation, elle-même chevillée à
l'émergence de l'outil et du langage. Si l'on entend par symbolisation la capacité de faire
valoir une chose pour une autre, on comprend en quoi le langage (mettre des sons à la place
des choses), l'outillage (mettre des instruments à la place du corps) ou encore la figuration
graphique (dessiner des formes à la place des animaux) sont des processus solidaires et qui
expriment une proto-Téléprésence. Le rôle du piège du chasseur est à cet égard
paradigmatique. On peut certes considérer le piège comme un pur système opératoire, mais on
laisse alors de côté l'essentiel. Installer un piège engage le chasseur dans une pratique de
substitution. Le piège fonctionne à sa place, le libère du contrôle de l'espace, de l'assignation
territoriale ainsi que de l'affectation temporelle. C'est le premier dispositif automatique de
l'humanité, qui plus est, cybernétique, puisque c'est l'énergie potentielle ou cinétique de
l'animal qui permet son auto-capture. Le piège suppose et secrète une symbolisation portant
sur le sujet humain lui-même (remplacer le chasseur).

Là, avec l'inscription dans un dispositif artificiel d'un projet formé à l'avance, pré-vu,
s'originent, par exemple, les principes de la programmation, au sens littéral (pro-gramme
signifie "inscrit à l'avance") [65]. Le système artificiel de capture est un puissant instrument
de Téléprésence, qui à la fois engage -dans une perspective téléologique, on dirait "qui secrète
automatiquement"- les pratiques de contrôle du temps et de l'espace et les intériorise comme
horizon de la conscience humaine. Affirmer que l'hominisation est co-extensive à la
Téléprésence n'est en rien céder à un effet de mode, tout au plus ajuster le vocabulaire à ce
que les temps actuels développent de manière extrême.

Promesses de la Téléprésence
Lorsqu'on porte un regard rétrospectif sur l'histoire des technologies de Téléprésence, on peut
y découvrir un principe d'analyse liant les étapes successives : chaque invention majeure tient
la promesse de la précédente et annonce une promesse qu'elle ne peut tenir. L'écriture étend la
mémoire sociale que la phonation langagière tenait emprisonnée dans les capacités mnésiques
individuelles (avant qu'on la note, conserver la parole exigeait de la mémoriser, souvent en la
liant à des séquences de gestes). Par la multiplication à l'identique d'un original, l'imprimerie
tient la promesse d'une inscription permanente que l'écriture manuscrite, faiblement
distribuée, n'avait qu'esquissée. La photographie concrétise l'exactitude de la prise de vue
exprimée par la peinture réaliste et concrétise l'instant comme élément du mouvement. Par
l'animation, le cinéma amplifie la saisie vivante du monde que la photographie maintenait
figée, tout en annonçant (grands écrans, spatialisation du son, etc.) l'immersion dans l'image.
L'image tridimensionnelle interactive réalise la promesse de la perspective et des techniques
d'enregistrement, d'un libre parcours à l'intérieur de l'image. La simulation numérique
matérialise la sortie hors de la représentation audiovisuelle vers l'expérimentation empirique
de l'environnement. Le réseau multimédia ne peut tenir la promesse de l'expérience corporelle
partagée, ce que la Réalité Virtuelle en réseau laisse entrevoir.

Pour rendre cette lecture rétrospective plus affinée, il conviendrait d'y ajouter quelques
boucles historiques : par exemple, bien avant les écrans panoramiques du cinéma, la
perspective circulaire antique pratiquait déjà l'immersion dans l'image. Ce travelling
historique ne présente aucun caractère téléologique. Tout au plus permet-il de questionner les
développements actuels. Quelle promesse la Téléprésence actuelle ne peut-elle tenir ? Elle
demeure, par exemple, prisonnière de la modélisation préalable des univers d'interaction, si
bien que toute surprise est déjà inscrite dans les formes de transpositions choisies qui
déterminent les genres d'imprévisibilités possibles. Il faudra suivre, ici, les développements
futurs de la modélisation automatique d'objets, de scènes déjà engagée dans certains domaines
(comme la capture tridimensionnelle automatique d'objets architecturaux, de sites
préhistorique ou...de formes corporelles [66]). Passera-t-on au stade de l'enregistrement
automatique de modèle comportementaux de systèmes en évitant leur formalisation physico-
mathématique ? La Téléprésence maintient une distance entre description informationnelle et
existence concrète des objets qu'elle manipule et transporte. Ces limites sont-elles
inamovibles ? On retrouve ici, les espoirs d'un Norbert Wiener prophétisant l'analyse et la
reconstruction moléculaire, à distance, des corps. Mais peut-être la formulation de la question
sur les promesses de la Téléprésence véhicule-t-elle une métaphysique du redoublement à
l'identique, que je dénonce, par ailleurs, comme une aporie ?

[1] Dans son remarquable travail sur l'imprimerie, (La révolution de l'imprimé dans l'Europe
des premiers temps modernes, La Découverte, Paris, 1991), Elisabeth L. Eisenstein analyse
les effets de mise à distance provoqués par le livre imprimé. Elle cite par exemple Isaac
Joubert, professeur de médecine à Montpellier au XVI [e] siècle, qui parlant des livres les
qualifient "d'instructeurs silencieux qui, de notre temps, portent plus loin que les cours
publics" (op. cit., p. 118) ou encore Malesherbes, dans son discours de réception à l'Académie
: "Les Gens de Lettres sont au milieu du public dispersé ce qu'étaient les orateurs de Rome et
d'Athènes au milieu du peuple assemblé "(op. cit., p. 120). Elle signale aussi, que, a contrario,
les évangélistes et autres discoureurs publics virent leur public s'élargir du fait de la
disponibilité d'annonces imprimées.

[2] Cette amorce d'archéologie de la Réalité Virtuelle provient d'une partie d'un article déjà
publié : L'augmentation tendancielle du taux de présence à distance, in Terminal ndeg. 69,
automne 95, L'Harmattan, Paris, pp. 69/83.
[3] Jean Brun, Le rêve et la machine, La Table ronde, Paris, 1992.

[4] Il n'entre pas dans nos objectifs de réfuter, ici, les thèses de Jean Brun sur la signification
du fait technique. Disons, pour faire court, que nous nous situons dans une perspective assez
différente de celle de cet auteur. Nous analysons plutôt la tentative de débordement, par la
technique, des cadres spatio-temporels hérités, comme constitutifs, et non corruption, du
monde humain. Il n'en demeure pas moins que le livre de Jean Brun nous intéresse parce qu'il
présente et radicalise, de manière richement illustrée, la thèse de la corruption.

[5] On ne peut s'empêcher de penser que Jean Brun discrédite, par avance, toute forme
réalisée de Téléprésence, baigné qu'il est par une Téléprésence divine autrement prometteuse.

[6] Op. cit, p. 221.

[7] Op. cit, p. 224.

[8] Guillaume Apollinaire, L'hérésiarque et cie, "L'amphion faux messie ou histoires et


aventures du baron d'Ormesan". Cité par Jean Brun, op. cit., p. 226.

[9] Saint-Pol Roux, Cinéma vivant, Rougerie, 1972, p. 96 - cité par Jean Brun, op. cit., p.229.

[10] Op. cit., p. 58.

[11] Op. cit., p. 62.

[12] Op. cit., p. 63.

[13] Op. cit., p. 94.

[14] Certains dispositifs actuels de numérisation automatique de formes tridimensionnelles


par auscultation laser concrétisent, timidement encore, cette voie.

[15] Paul Valéry, La conquête de l'ubiquité, In Œuvres II, Bibliothèque de la Pléiade, NRF
Gallimard, Paris, 1960, p. 1284. Rappelons que Paul Valéry écrit cet article en 1928, quelques
années seulement après les premières expériences de diffusion radiophoniques.

[16] Nulle incitation romantique dans l'évocation de la nouvelle mobilité de la musique. Mais
plutôt le sentiment que la disponibilité d'écoute conquise rapproche des conditions vivantes de
la création du compositeur. Paul Valéry écrira même que le travail de l'artiste musicien trouve
dans l'enregistrement "la condition essentielle du rendement esthétique le plus haut", op. cit.,
p. 1286.

[17] Paul Valéry, op. cit., p. 1286.

[18] Paul Valéry, op. cit., p. 1285.

[19] Norbert Wiener, Cybernétique et société, coll. 10-18, 1962, p. 212 cité par Jean Brun, Le
rêve et la machine, p. 231.

[20] Op. cit., pp. 118,126.


[21] Op. cit., pp. 128.

[22] Le travail effectué par Henri Bergson, notamment dans Matière et mémoire, est ici
incontournable. Il montre à quel point, dans l'attention présente, le souvenir et la perception se
co-définissent sans qu'il soit possible, à la limite, de les distinguer. Nous y reviendrons au
chapitre VI, à propos de l'étude de Gilles Deleuze sur le cinéma, L'image-Temps, où nous
verrons comment la notion de cristal actuel/virtuel s'appuie sur la théorie bergsonienne de la
temporalité dans ses rapports à l'action, la perception et la mémoire.

[23] L'une des premières recherches pour la Réalité Virtuelle, réalisée par la NASA à la fin
des années soixante-dix, fut la télé-robotique spatiale basée sur le couplage des mouvements
d'un opérateur au sol et de son exo-squelette virtuel dans l'espace. Dans ce projet, simulation
numérique interactive et déplacement informationnel étaient déjà condition l'un de l'autre.

[24] Le courant de recherche pratique et épistémologique autour de la "vie artificielle" porte


aujourd'hui cette interrogation à un point critique.

[25] Certaines activités se limitent à une phase de traduction/codification numérique pour


rendre possible une télé-relation. Par exemple, un groupe de musiciens dispersés aux quatre
coins du monde, peuvent jouer ensemble en se connectant à Internet, réseau à bande passante
pourtant faible. Il leur faut utiliser un logiciel d'interconnexion musicale, tel que Distributed
Real Groove Network, véhiculant des compositions réalisées sur un clavier aux normes Midi.

[26] Michel Beaudoin-Lafon, Les habits neufs du travail en équipe, Collecticiels et


médiaspace au service de la communication formelle et informelle, in L'ordinateur au doigt et
à l'oeil, Spécial La Recherche, ndeg. 285, Mars 1996, p. 50.

[27] Ce système a été développé par H. Ishii aux laboratoires de N.T.T., au Japon. Voir
l'article de Michel Beaudoin-Lafon déjà cité.

[28] Voir l'interview de Steven Feiner, in SVM MAC, avril 1994, ndeg. 50, p. 130.

[29] Ces travaux ont été réalisés par le département de "visualisation scientifique" du
Supercomputer Center au German National Research Center for Computer Science, près de
Bonn.

[30] Alex Pentand, "Smart rooms, smart clothes", in Actes d'Imagina, Monaco, 21 au
23/02/1996, p. 176. (Il est maintenant possible de suivre les mouvements de quelqu'un, de
l'identifier en reconnaissant son visage et de reconnaître ses actions, en temps réel, en ne
mobilisant que de modestes ressources informatiques. En utilisant cette information
perceptive, nous avons pu mettre au point des "chambres intelligentes" et des "vêtements
intelligents" qui peuvent reconnaître des gens, comprendre leur langage, leur permettre de
contrôler des affichages sur écran sans câbles ni claviers, de communiquer par signes, et de
les avertir lorsqu'ils sont sur le point de commettre des erreurs.) Sans doute peut-on
rapprocher ces recherches de celles, encore plus prospectives menées au Xerox Center de Palo
Alto, sur les "sensors", mini-puces communiquantes dotées de capteurs, micro-machines et
autres piézo-matériaux, qui pourraient se fondre dans les composants élémentaires d'un pont
pour éviter qu'il ne s'effondre lors d'un tremblement de terre ou revêtir les ailes d'un avion
d'une sorte de peau capable de stabiliser l'appareil en toute circonstance. Il s'agit, en fait, de
diffuser l'informatique au coeur même de la matière pour que les objets s'adaptent d'eux-
mêmes aux conditions ambiantes par des ajustements "intelligents" sans dépendre d'un
ordinateur central.

[31] L'ordinateur, délégateur zélé, in SVM MAC, avril 1994, ndeg. 50, p. 127.

[32] Franck Barnu, Programmer le virtuel, in La Recherche, mai 1994, p. 506.

[33] Avec le Dataland, le M.I.T. a développé depuis le début des années quatre-vingt, une
interface gérant des sources d'informations multiples et complexes.

[34] Ces interfaces ont été présentées à Electronic Entertainment Exhibition, Salon
international du jeu vidéo à Atlanta (États-Unis), 17/20 Juin 1997. Signalons aussi la
Feedback Racer de Guillemot International, comportant 14 boutons de contrôle et des
capteurs qui repèrent la position des mains sur le volant et transmet les chocs côté gauche ou
droit de la route ou encore les sensations de cisaillage provoquées par les joints métalliques
lorsqu'on franchit un pont.

[35] La société californienne au nom évocateur de Retinal Displays prépare la


commercialisation, qui sera assurée par Philips et des industriels japonais, d'un appareil léger
et performant pour environ 800 dollars. Elle travaille déjà à la prochaine génération de
systèmes immersifs, prévue pour l'an 2000, qui inscrira l'image directement sur la rétine grâce
à un dispositif de projection holographique. À voir...

[36 ]Ce dispositif est connectable à un micro-ordinateur ainsi qu'à une console Playstation.
Philips propose pour sa part Scuba, casque de Réalité Virtuelle qui s'adapte sur les principales
consoles de jeux.

[37] On en trouvera une description détaillée sous la plume de Jean Segura, La panoplie du
virtuel, in La recherche, Mai 1994, Ndeg. 265, p. 499/503.

[38] Réalisé au Zentrum für Kunst und Medien de Karlsruhe (Allemagne), Handsight a été
présenté à Artifices 3, Saint-Denis, décembre 1994.

[39] Installation présentée à l'Espace Landowski à Boulogne-Billancourt, décembre 1998.

[40] Cette partie provient de notre article "Les images hybrides : virtualité et indicialité, in
Image & média, sous la direction de Bernard Darras, MEI ndeg.7, L'Harmattan, Paris, 1998.

[41] Claude Cadoz, "Réintroduire les sensations physiques", in La Recherche, ndeg. spécial,
ndeg.285, Mars 1996, p. 80.

[42] Plusieurs laboratoires utilisent de tels systèmes. Citons le programme GROPE, à


l'Université de Caroline du Nord : un bras articulé à six degrés de liberté permet de manipuler
des objets virtuels sur un écran et de restituer les forces d'interaction entre les objets déplacés,
tels que des molécules par exemple. A l'Université de Rutgers dans le New Jersey, le projet
"Rutgers Portable Force Feedback Master" permet à un ordinateur de régler la pression dans
des petits pistons à air comprimé afin d'exercer une force entre la paume et l'extrémité des
quatre doigts. En fin le Laboratoire ACROE à Grenoble a développé plusieurs systèmes à
finalité musicale dont le clavier rétroactif modulaire (CRM). Des informations détaillées sont
fournies sur ces recherches dans l'article précité.
[43] Claude Cadoz, op. cit., p. 82.

[44] La spatialisation du son est un bon exemple de ce mouvement extensif, c'est-à-dire qui
vise à imiter toujours au plus près la communication hic et nunc. Le téléphone, comme la
télévision restitue le son de manière directionnelle, à partir de haut-parleurs. La stéréophonie,
et d'autres procédés comme le Dolby, le dote d'un certain relief. Mais seule la Réalité
Virtuelle parvient à spatialiser réellement le son, c'est-à-dire à calculer, en temps réel, la
position relative de l'auditeur et des sources d'émission dans l'espace, pour diffuser, dans
chaque oreille, des sons modulés selon ces positions.

[45] La possibilité de créer des espaces interactifs tridimensionnels sur Internet grâce aux
applications V.R.M.L. en est un exemple frappant.

[46] Lennart E. Fahlen, Actes d'Imagina 1994, INA, p. 218.

[47] Lennart E. Fahlen, Op cit., p. 219.

[48] Cette prise en compte entre en résonance avec l'importance que de nombreux courants de
la sociologie du travail attachent aujourd'hui au facteur subjectif dans les relations de travail.
D'où le développement de recherches sur ces dimensions subjectives exigées et valorisées
dans la nouvelle configuration productive post-fordiste, marquée par l'accentuation du
caractère coopératif du travail, l'importance des ajustements interindividuels et la croissance
du travail intellectuel. Citons, à titre d'exemple, Philippe Zarafian, La nouvelle productivité,
Paris, L'Harmattan, 1991, le très stimulant livre de Christian Marazzi sur le rôle directement
productif du travail linguistique, La place des chaussettes, L'éclat, Paris, 1997 ainsi que le
Ndeg.16 de Futur antérieur, Paradigmes du travail, Paris, L'Harmattan, 1993/2.

[49] L'expérience HABITAT au Japon, "communication médiatisée par ordinateur" ainsi que
la définisse ses concepteurs, a initié la présence visuelle des intervenants sur un réseau. Ceux-
ci composent leur "avatar", sortes de marionnettes graphiques, habillées, personnalisées,
sexuées. Pour une description approfondie de ce projet, patronné par Fujitsu, voir Alsuya
Yoshida et Hajime Nonogaki, Habitat, in Actes d'Imagina 1994, pp. 249/254.

[50] Cette application, réalisée par Cryo Interactive, modélise le centre historique de Paris sur
un CD-Rom et permet, via une connexion Internet, à plusieurs participants d'entrer en relation
dans cet espace par l'intermédiaire "d'avatars" graphiques. L'objectif est de concrétiser, dans
un monde virtuel parallèle, la plupart des relations sociales urbaines (rencontres, commerce,
éducation, participation politique, etc.).

[51] Devenu une "coqueluche" du Web, V.R.M.L. (pour Virtual Reality Modeling Language)
est un langage qui permet de créer des espaces virtuels tridimensionnels interactifs dans
lesquels on peut circuler, que l'on peut meubler d'objets avec lesquels une interaction
collective devient possible. Voir notre article : "Internet, un récit utopique", in B.P.I. en Actes
(sous la direction de Jean-Pierre Balpe), Actes de l'Observatoire des lectures hypermédias,
Centre Georges Pompidou, Paris, 1997.

[52] Le kansei désigne, dans HABITAT, une "personnalité électronique", basée, de manière
très sommaire, sur les expressions non-verbales, mimiques faciales et marques intentionnelles.
[53] Voir Michel Alberganti, "Steve et Adele, enseignants virtuels", in Le Monde interactif,
supplément au Monde, 13/01/99, p. IV.

[54] Chantal de Gournay, Le deuil de l'image, in Réseaux Ndeg.61, L'Harmattan, 1993,


p. 129/130.

[55] Voir à ce sujet notre article déjà cité, "Les images hybrides : virtualité et indicialité"
(revue MEI, Ndeg.7, L'Harmattan, Paris, 1997) où sont distingués les différents types
d'accouplement entre les images produites par capture indicielle et les traitements numériques.
La Réalité Virtuelle, notamment, y est soumise à un questionnement sémiotique où il apparaît
qu'un certain type d'indicialité trouve, indirectement, à s'y exprimer.

[56] Procédures qu'on désigne souvent par le terme ambigu de "langage de programmation",
l'ambiguïté tenant à ce qu'il leur manque l'essence d'une langue naturelle, sa polysémie et sa
transformation permanente par l'usage social.

[57] Jean-Louis Boissier est l'un des premiers qui ont éclairé cette importante question. Voir
par exemple, "Bambous : pour que poussent les images", in Les chemins du virtuel, Centre
Georges Pompidou, Flammarion, Paris, 1989.

[58] Chantal de Gournay, loc. cit.

[59] Louis Marin, De la représentation, Gallimard - Le Seuil, Paris, 1994.

[60] Bernard Miège, La société conquise par la communication, Tome 2 : La communication


entre l'industrie et l'espace public, Presses Universitaires de Grenoble, 1997, p. 142.

[61] Marc Guillaume (sous la direction de), Où vont les autoroutes de l'information ?,
Descartes et Cie, Paris, 1997. Voir en particulier p 111/128, où il est montré qu'en milieu
urbain les réseaux ajoutent des fonctions de "commutations" à celles qui existent déjà
(transports, équipements culturels, etc.). De ce fait, ils augmentent le pouvoir attracteur des
grandes métropoles.

[62] Voir Jacques Aumont : "Ce que nous dit cette théorie (celle de la double réalité de
l'image) par conséquent, c'est que le spectateur a affaire principalement à l'espace illusoire de
la représentation ; mais que cela n'est complètement possible que s'il garde en même temps, et
subsidiairement, conscience des moyens de cette illusion." L'oeil interminable, Séguier, 1989,
p. 142, cité par Kamel Regaya, Du cinéma à la télévision : quel régime perceptif ? in
Télévisions, L'Harmattan, Paris, 1995, p. 35. Sur la même question et traité d'un autre point de
vue, voir aussi le passionnant article d'Octave Mannoni, Je sais bien, mais quand même... in
Clefs pour l'Imaginaire, Points-Seuil, Paris, 1969.

[63] André Leroy-Gourhan, L'homme et la matière, Albin Michel, 1973.

[64] André Leroy-Gourhan, op. cit., p. 27.

[65] Bernard Stiegler a consacré les deux tomes de La technique et le temps, à la discussion
approfondie de ces questions (Galilée, Paris, T. I, 1994 et T. II 1996).
[66] Il n'est pas sans intérêt de remarquer qu'une véritable industrie de la capture volumique
est en passe d'éclore avec les cabines d'essayage qui, scannant notre corps, permettent de le
revêtir de vêtements virtuels, en haute résolution. La marine française a déjà utilisé ce procédé
pour réaliser les uniformes de 70 000 marins. Une nouvelle vie pour le sur-mesure... Voir
Clive Cookson, La prêt-à-porter veut en finir avec les cabines d'essayage, in Courrier
International, ndeg. 425-426, 23/12/1998, p. 47.
Table des matières

Chapitre II
La crise de confiance des massmedia et le principe
d'expérimentation
Un nouveau paradigme -l'expérimentation- tend à fonder la croyance dans les régimes actuels
de la communication. Il s'agira d'abord de spécifier ce nouveau principe en regard de ceux qui
le précèdent, et notamment en le comparant au régime de croyance issu de l'enregistrement
optique. Nous préciserons ensuite comment il contribue à défaire les évidences qui fondaient
nos régimes de vérités à l'heure de la télévision triomphante, c'est-à-dire comment il corrompt
le théorème central de cette période : "cru parce que vu". Nous verrons que la crise du
spectacle n'est pas celle d'un trop- plein de participation mais d'un déficit. Se dégagera alors
l'axe principal de ce chapitre`, montrant comment les régimes d'expérimentation portés par les
médias numériques tentent de combler ce passif. En témoignent certaines analyses actuelles
sur la photographie, comme celle de Jacques Derrida en particulier, qui souligne à quel point
la question du contact direct, du toucher devient une dimension majeure de l'assurance
réaliste. Il s'ensuit qu'à l'instantanéité propre à la télédiffusion, succèdent d'autres régimes
temporels engageant le passage à l'ère du spectacte.

A - Du spectacle au spectacte

On instruit assez souvent le procès de la fonction informative de la télévision en l'accusant


d'un excès de subjectivité. Elle serait un porte-parole trop peu fiable parce que travesti par
l'idée que se font les responsables de leur propre mission. Manipulation procédant moins d'un
travers idéologique que d'une propension à mettre en scène l'information comme un spectacle
envoûtant qui invite à une participation charnelle. Le diagnostic de Régis Debray est, à cet
égard, emblématique d'analyses fréquemment produites. "Le problème aujourd'hui n'est
nullement la distance spectaculaire, mais les communions englobantes et charnelles du non-
spectacle, je veux dire du direct, du live et de la "performance". Le passage du cinéma à la
télévision, d'un dispositif de projection domestique, de l'oeuvre en différé au document en
temps réel, marque précisément le moment où l'image cesse d'être un spectacle pour devenir
un milieu de vie, supprimant la différence fondatrice entre le vu et le vécu"[1]. Nous
proposons d'inverser la perspective en montrant comment de nouveaux rapports à l'événement
tentent de tenir les promesses que les massmedia ont murmurées sans pouvoir les assumer
pleinement. Dans cette hypothèse, le reproche fondamental que nous adresserions
collectivement à la télévision, c'est précisément de ne pas réussir à faire suffisamment
coïncider l'information et l'événement, c'est de ne pas constituer, malgré tous ses efforts, un
"milieu de vie". Ce dont elle souffre, à nos yeux, ce n'est pas d'un excès d'intimisme mais
plutôt d'un défaut de proximité. La déception viendrait de son incapacité à tenir les promesses
d'incarnation, d'engagement en maintenant le destinataire séparé de l'émetteur. Dans cette
perspective, ce qu'on nous offre comme dispositif projectif est bien trop plat, trop plein et
insuffisamment malléable. On lui fait grief de ne pas contenir une pluralité de point de vue,
voire tous les points de vue possibles. Ce dont se rapproche évidemment un peu plus la
représentation virtuelle dont l'interactivité constitutive implique nécessairement qu'elle soit
expérimentable. Le règne du spectacle céderait alors sa place à celui du spectacte.
Fusionner le spectacle et la vie

Le désir de fondre ensemble la vie et le spectacle, la vie et la littérature, la vie et l'art a inspiré
nombre de courants philosophiques et artistiques. Mais dans une perspective quasiment
symétrique de celle que Régis Debray dénonce dans la télévision. Qu'il s'agisse du
mouvement surréaliste, du situationnisme ou encore des positions exprimées par Gilles
Deleuze dans toute son oeuvre, la séparation représentation/réalité est toujours vécue comme
un frein à l'augmentation de liberté, comme une camisole enserrant le mouvement vital.

Supprimer la distinction entre la vie, et tout particulièrement la vie de la pensée d'une part, et
la représentation de l'autre, définit l'une des visées essentielles du mouvement surréaliste.
André Breton, dans le Manifeste du surréalisme, l'exprime clairement dans sa définition.
"SURRÉALISME, n.m. Automatisme psychique pur par lequel on se propose d'exprimer, soit
verbalement, soit par écrit, soit de toute autre manière, le fonctionnement réel de la pensée.
Dictée de la pensée, en l'absence de tout contrôle exercé par la raison, en l'absence de toute
préoccupation esthétique ou morale"[2]. Et quelques lignes plus loin : "le surréalisme repose
sur la croyance à la réalité supérieure de certaines formes d'associations négligées jusqu'à lui,
à la toute-puissance du rêve, au jeu désintéressé de la pensée"[3]. Breton projette des rapports
entre réalité et surréalité qui dépasseraient la problématique contenant/contenu, repoussant
toutes les tentatives de "soustraire la pensée de la vie, aussi bien que de placer la vie sous
l'égide de la pensée"[4].

Habiliter les vertus d'une pensée directe, libre de toute mise en forme, de toute contrainte
logique telle est la charge du Manifeste. Sur ce chemin, se dressent évidemment la pesanteur
des artifices de toutes sortes, la présence incontournable des instruments d'extériorisation de
la pensée ainsi que les pressions contraignantes des techniques. Ces médiations, Breton les
assigne à convoyer la tradition, à exprimer l'ordre du monde, le poids de la réalité, dont la
seule forme digne d'intérêt, pour l'inspirateur du mouvement, est de s'appliquer au
fonctionnement de la pensée. La métaphysique négative de l'artifice, du média, s'oppose à la
glorification d'une expression pure de tout intermédiaire ("l'enfance qui approche le plus de la
vraie vie"[5]). Breton hésite, bien sûr, à rejeter le langage et la communication et il s'exprime
dans une forme syntaxique excellente, très éloignée des "associations libres" préconisées dans
son essai. Le premier manifeste se termine par cette phrase : "L'existence est ailleurs"[6]. Pour
parvenir à cette autre "existence", deux chemins se dessinent : la poésie et la politique. La
politique transformera le monde et la poésie exprimera directement la pensée, sans détour
sémantique. Forme indicielle -au sens de Charles S. Peirce[7]- de la pensée, la récitation
intérieure du poème fait surgir immédiatement le sens par le jeu des motifs sonores et des
analogies émotionnelles engendrées. Elle rend immédiatement présente la signification par les
distorsions de la langue, sans avoir à la représenter par le recours systématique aux
significations déposées dans les règles grammaticales et les usages sociaux du langage. Mais
s'émancipe-t- on vraiment de la représentation dès lors qu'on s'impose pour ce faire une forme
(un média), le poème, par lequel on fait jaillir affections, émotions et visions intérieures ? Qui
plus est, en déniant le monde de la sémantique par l'intermédiaire de mots[8].

On pourrait poursuivre la même discussion à propos du situationnisme et de son rejet du


"spectacle", médiation corruptrice propre au capitalisme contemporain, comme on le sait. Je
renvoie, sur ce point, à la pénétrante mise en parallèle, proposée par Régis Debray, entre la
métaphysique situationniste de la séparation vie/spectacle et la logique feuerbachienne d'une
essence humaine aliénée dans l'illusion religieuse[9]. Gilles Deleuze, lui aussi, fait courir tout
le long de son oeuvre une ligne conductrice glorifiant la rencontre, voire la fusion entre
production conceptuelle et flux vital, écriture et pouvoir de la vie, ou encore description et
nature. Dans le chapitre 6, nous retrouverons ce mouvement particulièrement sensible dans
son travail sur le cinéma. Viser la vie et non la vie des signes, extraire les concepts du cinéma
pour rejoindre les personnages du film et aller vivre avec eux : le projet -d'inspiration
explicitement nietzschéenne- est clairement affirmé. Le paradoxe consiste à rallier la vie par
l'intermédiaire de son double (l'écriture, ou le film) tout en affirmant la violence mortifère de
ce détour. Or s'il y a un instrument, un moyen pourquoi ne pas lui reconnaître une vie propre,
non réductible à l'extinction de la séparation représenté/représentant, mais en tant que tel,
comme espace médian valant pour lui-même et participant du flux vital général ?

Un risque de dispersion ?

L'analyse de la présence à distance se confronte à la critique de la communication, vue


comme corruptrice du lien social. Dans cette perspective, les institutions et techniques de
communications contemporaines sont désignées comme responsables de la montée

de l'individualisme et la réflexion politique qui accompagne leur essor est accusée de


s'inspirer et de nourrir exclusivement une idéologie anarcho-libérale. Dans la défense des
principes "autogestionnaires" d'Internet, on voit bien effectivement les courants techno-
libertaires et libéraux, favorables à la dérégulation, s'allier contre le contrôle étatique. Le
mouvement de Téléprésence est donc dénoncé comme brisant les liens sociaux et séparant les
collectifs. Ce point de vue est défendu, par exemple, par Philippe Breton[10] qui convoque
Guy Debord comme visionnaire de ce mouvement séparateur. Dans La société du spectacle,
l'inspirateur du situationnisme conclut en effet : "[...] de l'automobile à la télévision, tous les
biens sélectionnés par le système spectaculaire sont aussi des armes pour le renforcement
constant des conditions d'isolement des foules solitaires". (Et Philippe Breton d'acquiescer :
"On peut ajouter sans peine Internet et les futures "autoroutes de l'information" à cette liste").
Faut-il être sensible à la critique et suivre Guy Debord dans sa charge contre la corruption des
solidarités ? Sommes-nous toujours dans la même période marquée conjointement par la
consommation de masse et la montée de l'idéologie individualiste ? La perspective présentée
ici s'écarte de ce schéma. Elle explore une autre hypothèse où l'ère flamboyante de la
séparation serait progressivement asséchée par cela même qui la nourrit, où les promesses
d'une communion à distance commenceraient à se concrétiser, où la disjonction dans l'espace
ne serait plus synonyme de séparation, et où, enfin, l'enveloppe individuelle s'écarterait, par
moments, de l'environnement immédiat pour se mettre en prise directe avec le lointain. La
séparation, l'isolement s'assouplissent alors progressivement -sans disparaître totalement- dans
un continuum de liaisons sensibles avec l'éloigné ; liaisons qui diminuent, partiellement,
l'obstacle à l'expérience conjointe hic et nunc. Ajoutons, enfin, que ce type de critique de la
séparation prend finalement à la lettre les mots d'ordre de ce qu'elle dénonce. Elle crédite les
réseaux d'une véritable puissance de substitution aux relations de proximité. Elle laisse, ce
faisant, de côté tout un pan des télé-relations ; celui où le lien à distance se combine au
contact direct, et parfois le fonde. Nous aurons l'occasion de cerner plus en avant ces rapports
inédits qui se tissent entre proche et lointain.

La vidéosphère : une évidence discutable

La discussion sur la crise de crédibilité dont souffre la télévision peut être utilement éclairée à
partir d'une discussion des propositions de Régis Debray pour qui le petit écran symbolise le
nouveau régime médiatique dominant, la vidéosphère. Deux controverses polarisent la
discussion des thèses du "médiologue". La première porte sur le nombre ainsi que sur le
découpage des médiasphères. Nous ne ferons que l'évoquer. La deuxième concerne la
pertinence de l'idée selon laquelle la vidéosphère -dont les caractéristiques (pouvoir englobant
de l'image télévisuelle, etc.) ont été rappelées plus haut- définirait le régime médiatique
actuellement dominant. Sur ce point, nous tenterons de montrer en quoi l'hypermédia
constitue un régime médiatique à part entière, réductible ni à la graphosphère, ni à la
vidéosphère.

La controverse portant sur le nombre de médiasphères est intéressante, car elle montre que la
tripartition proposée (logosphère, graphosphère, vidéosphère) n'est pas aussi évidente qu'il y
paraît. Roger Chartier apporte des vues qui complexifient notablement les frontières[11] en
distinguant deux régimes de la vidéosphère : celui où l'image se singularise sans co-présence
du texte (cinéma et télévision) et celui "du texte donné à lire dans une nouvelle représentation
(électronique), sur un support nouveau (l'écran) et selon des modes de contextualisation et de
maniement sans précédent dans l'histoire longue des supports de l'écrit". Ainsi, les deux
mutations fondamentales qui caractérisent la vidéosphère seraient "la prolifération des images
sans écrit, mais aussi la transformation de la représentation de l'écrit"[12]. Ce détour par la
critique de l'organisation des médiasphères intéresse notre enquête parce qu'il débouche
précisément sur le statut de la numérisation du texte, comme changement radical des pratiques
de lecture et d'écriture. Modifications qui bouleversent l'unité même de ces activités en les
mélangeant directement aux pratiques d'inscriptions, en général, aussi bien textuelles
qu'illustratives, imagées ou sonores. La numérisation des signes distingue notre époque
comme étant la première où tous les types d'informations transitent par les mêmes codages
(binaire), les mêmes équipements (ordinateur) et surtout les mêmes types de traitements
(programmes informatiques). Il s'agit d'un saut où le technique renvoie au symbolique dans un
sens fort du terme, c'est-à-dire qui a trait aux langages. Les pratiques d'écriture et de lecture
sont alors plongées dans des agencements d'une grande variété (dessins, schémas, tableaux,
images numérisées, séquences sonores, etc.). La gestion de la circulation dans ces inscriptions
devient une question centrale. Une nouvelle "grammatologie du document hypermédia"
-selon l'expression pertinente de Henri Hudrisier- s'élabore à partir d'un travail collectif et
international de définition de normes. Dans l'écriture multimédia, par exemple, cette activité
radicalise les opérations d'organisation et de recherche des contenus déjà sédimenté dans la
conception des textes (sommaires, notes, index, etc.). Cette grammatologie dessine
notamment une carte des circulations possibles dans les corpus (arborescences, liens
hypermédias, gestion des balises sur le Web) et mobilise des instruments informatiques de
recherches adaptés à ce nouveau milieu, tels que les "moteurs", "agents intelligents" et autres
logiciels d'indexation automatique.

Dans ce nouvel état du texte, la frontière avec les autres types de signes n'est plus aussi bien
dessiné qu'à l'ère de l'imprimé. Parallèlement de nouveaux régimes temporels d'appropriation
s'annoncent. Mis en mouvement par la numérisation, le texte est, paradoxalement, ralenti par
une appropriation hésitante, hachée, où immobilisations, relectures et flux rapides se
succèdent, où les respirations se règlent sur la matérialité de la mise en espace et des
scénographies dynamiques du texte, brisant le flux uniforme de la disposition régulière le long
des pages d'un livre. D'autant que le texte numérisé peut s'accoupler à des messages sonores
ou imagés dans une perspective multi- ou hypermédiatique. Il ne s'agit pas ici de supposer que
le rythme de la lecture individuelle s'accordait mécaniquement à la linéarité du texte sur
support stable. La lecture obéit à des inflexions temporelles évidentes, fruits d'une traduction
d'un texte stable en discours intérieur fluctuant selon la subjectivité du lecteur. Mais la
matrice séquentielle régulière qui ordonne l'inscription typographique forme néanmoins la
structure objective principale du texte auquel toute lecture se confronte, serait-ce pour la
contester. Le régime médiasphèrique-roi de la vidéosphère, le "temps réel", serait ainsi,
bizarrement, plus en adéquation avec le temps continu, régulier de l'imprimé qu'avec les
ruptures (zapping), les arrêts et finalement le ralentissement des flux propre à l'ordre
numérique ; nous y reviendrons.

Une virtuosphère ?

La vidéosphère, définie comme "l'ère du visuel" dans le livre que Régis Debray consacre à
l'image, place -à travers sa dénomination même- l'audiovisuel moderne, et principalement la
télévision, en institution-reine distribuant nos régimes de croyances et de vérité. "Telle serait
l'hallucination-limite de l'ère visuelle : confondre voir et savoir, l'éclair et l'éclairage"[13]. Le
postulat implicite sur lequel est fondé toute l'analyse se construit sur la suprématie d'une
vision devenue "ère du visuel" plaçant en position sommitale une modalité particulière de
l'appareil médiatique : l'image vidéo et son vecteur institutionnel et technique central, la
télévision. La thèse défendue consacre le dispositif télévisuel en ordonnateur de la vérité, en
fondateur de l'espace public ainsi que du lien social. Cela justifiera qu'ultérieurement, un livre
entier, L'état séducteur[14], soit consacré au renversement de sujétion entre télévision et
pouvoir politique. L'hypothèse que nous mettons à l'épreuve, énonce que précisément le
régime télévisuel connaît une crise de légitimité profonde qui interdit d'en faire l'attracteur
principal de nos régimes de vérité comme de notre espace public[15]. Les modalités techno-
culturelles qui dérivent de l'image numérique interactive, tracent des lignes de fuite qui
contredisent celles qui s'originent dans la télévision. Il est symptomatique que dans les pages
où Régis Debray appréhende les enjeux de l'image numérique[16], il n'est quasi
exclusivement question que des techniques de traitement d'image (imagerie scientifique,
médicale,...), lesquelles n'instaurent pas, fondamentalement, une nouvelle modalité de
fréquentation des images. Une image numérique satellitaire se regarde comme une
photographie prise d'avion. Sont délaissées, de fait, toutes les régions (jeux vidéo,
multimédias de visites virtuelles ou d'apprentissage, circulation dans les réseaux, télévision
interactive, etc.) où des pragmatiques inédites s'installent, bouleversant les modes antérieurs
d'approche de l'image, régions que nous regroupons sous le vocable d'image actée. (Je
préfère, en effet, la dénomination image actée à celle, plus courante -et valide- d'"image
interactive". Elle marque, en effet, plus nettement l'existence d'un acte intentionnel comme
fondement d'existence de ces images, signifiant par là qu'elles s'enchaînent à partir d'actions
accomplies par un sujet provoquant, en retour, d'autres actions). L'univers de l'action sur
l'image est ainsi ignoré. Le primat de l'immédiateté propre à la logique de "temps réel" des
médias de flux (radio, télévision) est considéré comme l'ultime -et dramatique- visage de la
temporalité réglant les fonctionnements de l'espace public. Il ne vient pas à l'esprit du
"médiologue" que l'ordre numérique véhicule une autre distribution temporelle chevillée aux
règles de mise en oeuvre des programmes informatiques.

Dans sa réponse aux critiques qui lui sont faites, Régis Debray admet, en règle générale, leur
pertinence mais il ajoute une croyance : celle selon laquelle "le message sans code (l'image
électronique), fore et ratisse plus large que l'autre ("la transmission numérique des textes"),
unimédia ou non"[17]. Dans ses travaux antérieurs, l'auteur avait déjà crédité l'image d'un don
qui se pare du costume de l'évidence. "La preuve par l'image annule les discours et les
pouvoirs"[18]. Considérant que la capture vidéographique supprime le travail d'élaboration,
de mise en forme, caractéristique des régimes d'inscriptions antérieurs, il affirme la naturalité
de la puissance de l'enregistrement : "La vérité en vidéosphère est originelle, non finale"[19].
Ainsi la force de conviction du message visuel semble être fondé sur un critère quasi physique
: le privilège de l'indicialité -peircienne- de la capture optique sur toute attitude réflexive. Ce
serait donc quasiment un fait naturel qui expliquerait le lien entre vérité et vision. Notre
désaccord, sur ce point, est total. Et, comme souvent, ce sont précisément les dynamiques
actuelles qui, fissurant l'ancien pacte de croyance, en révèle la contingence. Elles le
découvrent alors comme une construction sociale et altèrent sa supposée naturalité. Notre
critique est donc double. Elle porte d'abord sur l'idée que la télévision -média déclinant dans
ses formes actuelles- puisse continuer à assumer, ad vitam eternam, une fonction structurante
de notre espace public. En deuxième lieu, elle conteste la possibilité de réunir sous un même
vocable -vidéosphère- les logiques contradictoires de la vision basée sur l'enregistrement
indiciel avec celle de l'expérimentation basée sur celle du traitement par programme.
Comment conviendrait-il de nommer cette deuxième composante de notre "médiasphère" ?

Dans la même livraison de la revue Le Débat consacrée à la médiologie, Roger Laufer insiste
sur les linéarités partagées de la télévision et de l'écrit, en y opposant l'hypertexte dans lequel
"commence à se développer aujourd'hui un mode d'organisation non linéaire de la pensée, au
coeur de la logo-graphosphère informatisée"[20]. Le terme de numérosphère vient à l'esprit. Il
est d'ailleurs évoqué par Régis Debray lui-même accordant crédit aux remises en cause de
Roger Laufer et amorçant ainsi la reconnaissance du nécessaire clivage interne à la
vidéosphère entre les logiques du "temps réel" et celles du temps différé. La proposition est
alléchante. Elle possède l'avantage de souligner l'importance d'une codification désormais
commune à tous les types de signes (manuscrit, imprimé, sonore, imagé, etc.). Mais le
numérique n'est qu'un codage, un moyen, une forme technique (et c'est bien ce à quoi
s'intéresse la médiologie) dont la fantastique explosion est la conséquence directe de
l'informatisation. Le codage numérique existait bel et bien avant l'invention de l'informatique.
Mais sans l'ordinateur, et donc la possibilité de traitements par programmes automatiques, ce
code est un fardeau inutile. Ce qui est central à notre époque, ce n'est pas tant la victoire du
code binaire, mais la disponibilité généralisée de machines fiables capables d'exécuter des
programmes automatiques. Bien que la notion de programme soit bien antérieure à celle
d'informatique, tout comme celle d'automatisme, on peut postuler qu'aujourd'hui une
accélération définitive a été enclenchée par la délégation de traitements intellectuels à des
programmes d'ordinateur. On proposerait donc volontiers, malgré la sonorité disgracieuse,
"programmosphère". Mais, outre l'insuffisante spécificité du concept général de programme
pour désigner l'informatique, l'inconvénient d'une telle proposition réside dans le message
qu'elle véhicule, tendant à certifier qu'avec l'informatique, des logiques univoques de partage
spatio-temporel sont à l'oeuvre. On verra, plus en avant, en quoi une telle proposition est
discutable. Alors virtuosphère ? Mais peut-être faut-il se résigner à ne pas inscrire la
complexité du régime actuel de la communication dans une seule sphère.

B - La crise de confiance des massmédia

Nous commenterons ici quelques faits et controverses qui sont autant d'indices assez
explicites, de la crise qui affecte les massmedia. Nous soulignons tout particulièrement le
défaut d'expérimentation qui transparaît dans les reproches adressés à tel ou tel projet, et
mettons en perspective les premières réalisations qui prennent le relais des médias handicapés
par leurs difficultés à assumer des missions expérientielles.

L'état de méfiance

On se souvient de l'effondrement de l'émission La preuve par l'image sur France 2, retirée de


l'antenne après que furent révélées les conditions douteuses de tournage d'un reportage censé
saisir sur le vif un épisode de ventes d'armes dans les caves d'une cité de la banlieue
parisienne. Daniel Schneidermann, à l'époque journaliste au Monde, commentait ce tête-à-
queue, en expliquant, à juste titre, qu'il est emblématique d'un état d'esprit "[...] sans doute
parce que la conscience est désormais solidement ancrée que les images de télévision ne
sauraient constituer quelque preuve que ce soit"[21]. Quelques fameux scandales (faux
massacre de Timisoara, images d'archives lors de la guerre du Golfe, fausse interview de
Fidel Castro, etc.) ont puissamment façonné cette conscience. Elle constitue, en tant que telle,
un symptôme. Cette crise de confiance ne peut être mise sur le compte de l'existence des
trucages, ni sur leur multiplication. Même si l'aisance qu'offrent les technologies numériques
nourrit la tentation d'en abuser, il ne faut pas oublier, en la matière, le passé chargé de la
photographie et du cinéma. L'enregistrement du mouvement (Lumière) engendre
immédiatement l'illusion (Méliès). En revanche, la culture contemporaine du montage
photographique et cinématographique nous a rendus disponibles à toutes les distorsions
visuelles et a peut-être rendu moins coupables les travestissements qui nous choquent
aujourd'hui[22]. Mais là n'est pas l'essentiel. Car, répétons- le, les mises en scènes et
mensonges audiovisuels ont toujours été, plus ou moins - il faudrait distinguer les périodes et
les régimes politiques-, l'ordinaire des pratiques de reportages[23].

Que "la preuve par l'image" devienne la preuve que l'image trompe, nous signale qu'un ancien
régime de légitimation décline sous la poussée de nouvelles exigences. Ici, à la différence du
conte, c'est parce que le pouvoir du roi est vacillant qu'on peut s'écrier "le roi est nu". D'où le
démontage en cours des anciens mécanismes qui assuraient, non pas l'objectivité de
l'information, mais l'efficacité de la formule "cru parce que vu". Les artifices, les tromperies,
les arrangements, bref la mise en scène de la vérité télévisuelle est désormais sous le feu du
soupçon et le chroniqueur intitule précisément son propos : "L'état de méfiance". On
retiendra l'hypothèse que la méfiance n'est pas le produit de la tromperie, mais qu'à l'inverse
la tromperie est débusquée parce que règne désormais "l'état de méfiance".

Le soupçon généralisé ne porte pas tellement sur la conformité des images enregistrées à leur
référent -où s'apprécierait un défaut d'indicialité de la capture optique, rongée par le trucage et
la mise en scène- mais plutôt sur l'incapacité des images enregistrées (ou transmises en direct,
là n'est pas la différence essentielle) à offrir un instrument d'expérimentation. Et les
massmedia ont déjà perçu cette limite, sans toutefois pouvoir la déjouer. D'où l'affectation un
tantinet masochiste avec laquelle ils se plaisent à souligner leurs propres erreurs
d'appréciation : victoire programmée de Balladur à la présidentielle du printemps 1995,
accueil enthousiaste du plan Juppé sur la Sécurité sociale à l'automne de la même année, par
exemple. On pourrait, dans la même perspective, interpréter le culte nostalgique que vouent
régulièrement des émissions à l'histoire de la Télévision[24]. S'agit-il d'y vénérer un agonisant
ou déjà un disparu ?

Si le chroniqueur du Monde constate que "La France ne croit plus ce qu'on lui montre" et que
"quiconque prétend s'adresser à elle, quiconque inscrit son visage sur l'écran familier, est
d'emblée suspect"[25], c'est parce que le soupçon précède toute présentation purement
audiovisuelle désormais trop affaiblie pour établir une référence solide. La vérité exige
aujourd'hui de pouvoir la vérifier soi-même. Précisons que cette vérité "expérimentale" ne
saurait posséder un caractère ultime. Ce n'est évidemment qu'un régime particulier et actuel de
vérité plus adéquat à nos attentes culturelles que la conformité indicielle, laquelle provient
d'un prélèvement direct à la source de l'événement, comme dans toutes les formes
d'enregistrement. On précisera cela ultérieurement.

Instantanéité et véracité
Christiane Amanpour, reporter phare de CNN, affirmait en octobre 1998, que la baisse
d'audience de la chaîne était due à la montée en puissance des sites d'informations en ligne sur
Internet. Voici ce que déclarait, en décembre 1998, Howard Rosenberg, critique de télévision
au Los Angeles Times : "Les infos à la télé n'ont jamais été aussi mauvaises [...] les télévisions
se ruent sur le spectaculaire, comme les courses d'hélicoptères [poursuites policières
transmises en direct] et sur les sujets les plus faciles à couvrir : les meurtres. Un cadavre
encore tiède, un flic et c'est dans la boîte. De plus en plus de gens préfèrent regarder le câble
et s'informer sur Internet"[26]. Ces déclarations jouxtent un article qui présente Newsblues
-site Web impertinent- exutoire, où les journalistes américains racontent pour la première fois
à cette échelle et le plus souvent de manière anonyme, les turpitudes de leurs directions :
sensationnel à tout-va, malhonnêteté financière, etc. Cent vingt mille visites dès le premier
jour : cette expression publique est un signe évident de la crise de confiance, exprimée cette
fois de l'intérieur de l'appareil télévisuel.

En France, il n'est pas certain que la grande messe du vingt-heures attirera toujours autant de
fidèles. Plus que la baisse d'audience, tendancielle, pour ce rendez-vous quotidien, c'est la
transformation de la réception qui doit être soulignée. Désormais, on regarde le "vingt-heures"
aussi comme un spectacle. On peut s'en désoler où s'en réjouir, mais force est de constater que
la valeur "cultuelle"[27] cède la place au décodage distancié. Et cette attitude évaluatrice,
pratiquée collectivement, tend à devenir la condition spectaculaire. Le sentiment commun du
partage de la retransmission de l'événement tend à faire de la retransmission un événement en
tant que tel.

Cette question de la valeur "cultuelle" de la télévision risque d'être fortement déplacée sous
l'effet des profondes modifications du système de diffusion. La perspective, en France, de
pouvoir recevoir, notamment grâce à la numérisation, plus de cent chaînes risque de
transformer considérablement la notion de partage collectif de l'événement. Notons que cette
situation, effective depuis des années aux États-Unis, n'a pas jusqu'à présent supprimé les
quelques occasions où les téléspectateurs se trouvent rassemblés par dizaines de millions pour
suivre simultanément des retransmissions à valeur fusionnelle[28] : super-bowl aux états-
Unis, Jeux Olympiques, débat entre les candidats à l'élection présidentielle, etc. La persistance
de telles télé-rencontres de masse nous interroge sur leur fonction. Le partage simultané
d'événements, serait-ce par télé-relation, participe aujourd'hui à la structuration de toute
communauté.

Observons que l'instantanéité d'un tel partage constitue encore un gage de confiance dans la
véracité du reportage, c'est-à-dire dans sa capacité à oblitérer tout questionnement sur ses
effets de mise en scène. Si un événement est télédiffusé instantanément à un vaste public, il
paraît être à l'abri des soupçons de montage ou de trucage. Cette observation semble
pérenniser la télévision dans sa fonction de principal instrument du lien social à distance.
Ainsi, dans son étude sur "l'Histoire du regard en Occident"[29], Régis Debray affirme-t-il
que la question de l'authenticité des images, c'est-à-dire de leur conformité au référent va être
déplacée vers celle de leur "vraisemblance" et que "...celle-ci ne sera plus garantie que par
leur rapidité de transmission : plus bref le délai, moins de possibilité de truquage (qui
demande des machines et du temps)"[30]. Or des traitements numériques d'images qui
permettent d'hybrider, quasi instantanément, des images optiques enregistrées avec des
images totalement calculées sont d'ores et déjà en fonctionnement. Citons, à titre d'exemple le
procédé Epsis mis au point par Matra qui permet d'incruster, en "temps réel", des images de
synthèses dynamiques dans des reportages de télévision ; ce procédé est utilisé aujourd'hui
pour des publicités virtuelles lors de retransmissions sportives, par exemple[31]. Instantané
n'est plus synonyme de vérifiable. Bref, il va falloir faire notre deuil d'une confiance
inébranlable dans la vérité "indicielle" et du sentiment d'authenticité qu'assurait la
télétransmission instantanée. Et ce tournant, déjà sensible dans notre suspicion à l'égard des
massmedia, loin de renforcer les duperies médiatiques ouvre à une mise en doute généralisée
de toute information rapportée. Désormais pour croire, il va falloir mettre la main à la pâte.
Une pâte malléable, ductile, que l'on veut tester, éprouver, bref une pâte virtuelle. Ce qui ne
veut pas dire -on s'en doute- véridique, infalsifiable ou irresponsable.

Entre l'enregistrement et la simulation

Depuis mars 1998, l'Agence France Presse propose un nouveau service d'information
infographique tridimensionnelle destiné aux chaînes de télévision. Chaque jour une animation
en images de synthèse 3D leur est soumise, relevant d'un événement particulier de la journée,
accident, fait divers, sport... Ces animations sont destinées à compléter des séquences tournées
et peu compréhensibles (accident, attentat, par exemple) ou à clarifier des images confuses
comme un départ de course automobile enfumé par les gaz d'échappement. Parmi les
premières images réalisées en 3D à titre de test, on a pu voir comment, lors de la course
Vendée Globes 96, le skipper Bullimore se trouvait incarcéré sous la coque de son voilier
retourné. De même a-t-on vu la localisation du bateau naufragé au milieu de l'Atlantique. La
chaîne qui achète le document peut l'obtenir dans sa version standard, ou bien dans une
version "châssis d'image" qu'elle peut ensuite personnaliser. Elle peut également solliciter
l'A.F.P. pour lui fournir la même scène, mais sous un angle différent. On voit donc se
construire une industrie de "l'arrangement", intermédiaire entre la prise de vue et la synthèse
d'images, dont on ne peut affirmer qu'il s'agit d'un trucage pur et simple, puisqu'il s'agit d'être
plus près de l'événement ; beaucoup plus près que ne le permet la capture optique. D'où les
distorsions qui découlent de ces opérations qui mixent capture optique et synthèse numérique.
Et la logique veut, qu'à une phase ultérieure, les fichiers numériques sources puissent être
transmis par réseau à des fins de mise en scène directe par le téléspect-acteur à son domicile.

"L'expert" : l'éveil de l'image enregistrée

Après s'être investi dans la fabrication d'un néo-réalité à vocation réaliste, l'image numérique,
démontrant peut-être ainsi sa maturité, se tourne vers son passé immédiat, l'image vidéo. Le
film numérique L'expert[32] est en effet, totalement bâti à partir d'un corpus, lourd s'il en est,
formé par les trois cent soixante-dix heures de bandes du procès Eichmann, à Jérusalem ;
bandes que personne pour ainsi dire n'avait jamais revues[33]. Ces documents inédits ont
donné à Egyal Sivan et à Ronis Brauman (l'ex-Président de Médecins Sans Frontières) l'idée
de se pencher sur la personnalité de l'ancien chef nazi à la lumière du livre-reportage sur le
procès, publié en 1963 par Hannah Arendt : Rapport sur la banalité du mal[34]. Leur
intention est de faire revivre le regard que portait la philosophe sur Eichmann. Non pas un
bourreau sanguinaire, mais un citoyen ordinaire obéissant à un appareil de pouvoir.

À partir des centaines d'heures composant les archives, un film de deux heures est né qui
mobilise des techniques de retraitement numériques originales[35]. Les images d'archives ont
été tournées par quatre caméras fixes, opérant alternativement. Tout travelling, zoom ou effet
optique étaient donc impossibles. Ces images forment une sorte de banque de données à partir
de laquelle de nouvelles prises ont été reconstituées (ce dont les spectateurs seront avertis dès
le début du film). Des mouvements virtuels de caméras (panoramiques, travellings), par
exemple, ont été calculés en tenant compte de la géométrie de la salle (qui existe encore à
Jérusalem). Les acteurs du procès, témoins, juges, avocats et accusé sont réinsérés dans une
maquette tridimensionnelle des lieux. Des effets complexes (modifications d'éclairage et de
texture) affectent les images. Des changements virtuels de focales modifient les vues. Des
images des témoins s'affichent, en réflexion, sur la vitre blindée de la cage de verre qui
séparait Eichmann du tribunal alors qu'elles n'apparaissent pas dans les bandes originales. Le
son est aussi retravaillé, pour faire coïncider, par exemple, les réactions d'Eichmann aux
témoignages, en gommant le temps de latence pris par la traduction.

L'image de synthèse réinterprète ainsi l'image enregistrée. Trouant les surfaces, elle lui donne
une profondeur de champ que celle-ci s'était vu confisquer par le caractère indélébile de la
prise d'empreinte. Elle remonte l'entropie de la pente temporelle en recomposant à volonté les
durées et les enchaînements déposés une fois pour toutes dans la succession des prises de
vues. Le matériau de base de la refonte numérique devient l'image enregistrée isolée,
capturée, sculptée, mise en série pour devenir un méta-film. Du "ça a été" on est passé au "ça
pourrait être ça aussi". Le rêve ancestral consistant à obtenir d'une image plus qu'elle n'en
exhibe de prime abord, à la faire exsuder ses constituants dissimulés, commence à se
concrétiser. Il se vérifie que l'image numérique révèle (au sens photographique) l'image
enregistrée, comme celle-ci révèle son référent réel. La redéfinition de l'espace (et du regard)
concerne la finitude de la capture optique dans ses rapports au temps. L'image enregistrée
nous a habitués à sa stabilité qui renvoie elle-même à l'immuabilité apparente du passé. Ce
régime est révolu. L'expert en est l'un des plus purs témoignages. La trace du passé est, à la
manière d'une fouille archéologique, relancée dans l'actuel, comme ces photographies
d'enfants disparus que des logiciels font vieillir au fur et à mesure que le temps passe[36]. On
creuse derrière l'enregistrement pour en extraire une autre actualisation, non pas fausse, mais
compossible. Ce qui a été capturé n'est que l'un des possibles que sa mise en traitement
numérique va libérer de son inscription, auparavant définitive, sur la pellicule. La
démonstration est, ici, paradoxalement renforcée par le fait que le résultat est un film : le
numérique est, en l'occurrence, un rebond qui ramène à la forme filmique initiale. (Pas
d'interactivité dans ce cas ; les réalisateurs de L'expert ont, en effet, soigneusement
sélectionné et mis en scène certains effets signifiants illustrant leur thèse). Mais la portée de
cet étonnant travail va bien au delà de cette constatation. S'il est possible de tirer des images
enregistrées de leur torpeur, c'est bien, qu'aujourd'hui, un principe d'expérimentabilité les
domine. Désormais, tout film classique est, potentiellement, une matrice d'où peuvent naître
des séries.

C - La demande de participation traduite par le système télévisuel

Des fictions réalistes toujours décevantes

Les affaires judiciaires sont un filon inépuisable pour tenter de rapprocher le spectacle et la
vie... et transformer un reportage en instrument destinée à modifier le cours de la justice. D'où
l'exemple suivant de justice-fiction, mais cette fois avec le vrai supposé coupable. R. Agret
avait été condamné pour un double meurtre dans les années soixante-dix. Il avait été ensuite
gracié, puis acquitté. Sur le plateau, les acteurs du drame : parents et proches de l'accusé,
expert médecin légiste, les avocats de la partie civile et de la défense, un gendarme partie
prenante de l'enquête, un juré. L'émission débutait par une fiction réaliste reconstituant le
cadre familial et social. L'animatrice s'appuyait sur la contre-enquête entreprise par l'équipe
qui avait préparé l'émission, repérant les incohérences et les faiblesses du dossier pouvant
conduire à réviser le procès. Mais, au grand désespoir du principal protagoniste et de Philippe
Alphonsi, TF1, flairant peut-être la chausse-trappe, renonçait à la diffusion. Bref, les fictions
réelles commençaient à sentir le soufre. Mettre en cause le pouvoir judiciaire en le doublant
par une reconstitution, aussi professionnelle soit-elle, semblait dangereux pour la chaîne, en
particulier dans une période fertile en démêlés juridiques. Proposons une autre hypothèse, non
contradictoire.

La télévision aurait désormais tiré les leçons de son échec à proposer l'expérimentation de la
réalité par les moyens du spectacle. La disgrâce des reality shows creuse, de manière
symptomatique, ce déficit. Mais l'échec n'est apparemment jamais considéré comme définitif.
Régulièrement, de nouvelles réalisations viennent tenter de recoudre la vie et la fiction. Les
"feuilletons documentaires" -docusoaps comme les nomment les réalisateurs anglais après les
avoir importés de leurs homologues néerlandais, inventeurs du genre- en sont les derniers
avatars. Faire jouer à l'infirmière ou à la vendeuse de grand magasin sa vie sociale réelle en la
ponctuant d'intrigues ou de gags : ainsi se rejoignent la réalité "brute de décoffrage" avec
"l'humour et l'émotion", comme l'explique Christoph Jörg[37], chargé des docusoaps sur Arte.
Nous ne sommes pas surpris de voir, dans le dossier de presse, qu'il s'agit de "construire des
histoires au plus près de la vie". Les fictions réalistes sont, en effet, la réponse exacerbée à
cette soif de réalisme et d'implication qu'une puissante vague culturelle fait déferler. Mais ils
ne peuvent l'étancher. Comme le dit Gérard Leblanc : "Rien n'a absolument changé avec les
reality shows, sinon qu'ils renforcent le désir, faute de l'avoir satisfait, d'une ouverture sur le
réel qui ne serait pas jouée d'avance"[38]. Le reality show est cardinal, non pas comme genre
télévisuel, mais en tant que métaphore de la recherche de réalisme. Ainsi Jean-Claude
Soulages montre comment, depuis sa naissance, les informations à la télévision sont sujettes à
cette tension. On débute, nous dit-il, après guerre, avec le modèle spectaculaire des actualités
cinématographiques. Puis le langage se délie dans les années 1960 et vers les années 1980, on
reconnaît la prise de parole du citoyen (micro-trottoir, débats en direct, etc.). Enfin,
aujourd'hui, "le but de la scénarisation est d'immerger le téléspectateur dans le réel selon trois
méthodes : filmer en direct, reconstituer le fait comme il a eu lieu, ou scénariser l'événement
en suivant des personnages"[39]. Ajoutons que s'il s'agit d'"immerger le téléspectateur", des
moyens autrement plus efficaces que le petit écran se font jour. On l'a compris, nous
prolongeons le diagnostic par un pronostic.

Déplacer les limites, élargir l'espace du jeu avec le réel : tel serait le projet que les médias
numériques promettent de concrétiser. Mais là gardons-nous de tout emportement mécaniste.
Élargir ne signifie pas supprimer les limites. Dans les micro-mondes simulés, celles-ci n'ont
pas disparu. En revanche, elles deviennent le produit de l'action et de la perception et non plus
leurs présupposés, tels qu'ils se figent dans la construction et la rhétorique de l'émission de
télévision. Ces limites relèvent d'une double définition. D'une part, elles sont perçues comme
barrières infranchissables, bornes déposées par les concepteurs du micro-monde simulé. Je ne
peux pas sortir du musée pour aller me promener dans la rue si les concepteurs ne l'ont pas
"joué d'avance". D'autre part, elles sont construites par l'interactant. Toute décision, à un
moment donné d'un parcours, inscrit une limite irréversible. Si on revient en arrière, c'est une
autre séquence temporelle qui s'ouvre. Si j'ai poursuivi la visite du deuxième étage de l'aile
Richelieu au Louvre, j'ai perdu -peut-être définitivement, et en tous cas pour ce parcours-
l'accès à l'escalier vers le troisième étage. On peut faire l'hypothèse que l'assouplissement des
bornes de la présentation, comme le réglage du hors-champ[40] par le spectateur, loin
d'assouvir le désir de participation et de rupture de la barrière représentationnelle, ne renforce,
au contraire, l'appétence pour un jeu ouvert avec le réel et n'aiguise encore plus le goût du
franchissement de la barrière représentative. Ainsi se révéleraient les fondements de la
tendance à l'incarnation croissante des représentants (la prochaine étape étant, avec la Réalité
Virtuelle, la généralisation de l'immersion pluri-sensorielle individuelle, puis collective).
Les premières armes de la télévision interactive

La télévision interactive exprime la recherche, dans le cadre télévisuel, d'un compromis entre
émission collective et réception personnalisée. Avec FSN (Full Service Networks : "réseaux
de services complets", nom donné à l'expérimentation de télévision numérique d'Orlando), on
a vu se profiler de nouveaux alliages entre émission et réception[41]. L'un des services du
FSN -TNX News Exchange- conçu avec la rédaction de Time, permettait d'effectuer une
sélection thématique automatique en compilant un ensemble de sujets diffusés par les grandes
chaînes de télévision ou les stations locales. Ces émissions étaient numérisées, compressées,
découpées par thèmes et stockées sur les batteries d'ordinateurs du centre informatique. Il ne
restait plus aux abonnés qu'à choisir le (ou les) thèmes : Bourse, Bosnie, économie, météo,
tourisme, arts, etc.[42]. Sports-on-demand offrait, sport par sport, les matches de la journée ou
de la semaine ou, si l'abonné le désirait, les entretiens avec sa vedette préférée, l'affichage de
photographies ou d'informations en vidéotexte. La chaîne NBC Sports envisageait d'offrir aux
téléspectateurs l'équivalent d'une régie à domicile. Suivre tel joueur plutôt qu'un autre, voir le
match en surplomb ou derrière les filets de l'équipe adverse, revoir des séquences passées,
déclencher un ralenti... Très logiquement, la télévision numérique offre un accès à des univers
simulés simplifiés, expression plus nette encore de la formule spect-actrice en gestation.
Toujours sur FSN, Shoppervision, centre de télé-achat virtuel, exhibait ses galeries
tridimensionnelles. On pénétrait dans les boutiques, on consultait des catalogues, on
manipulait des objets pour les observer sous toutes leurs coutures. Mais, retour au réel oblige,
tout cela finissait par un bon de commande sur lequel la frappe d'un code d'identification
réalisait l'achat et déclenchait la future livraison à domicile. Mais la maîtrise technique ne
décide pas de tout, loin s'en faut. Le marketing, les réactions des publics ainsi que la
maturation d'autres solutions techniques[43] détermineront les rythmes de mise en service de
ces innovations (L'abandon, par exemple, de l'expérience FSN montre que rien n'est encore
vraiment stabilisé dans ce domaine). En recul en Floride, la télévision interactive a refait
surface à Hongkong où l'opérateur de téléphone Hongkong Telecom lançait, à l'automne 1997
et après trois années d'expérimentation, de véritables services de télévision interactive[44] tels
que vidéo à la demande (plus de cent films dès l'ouverture), télé-achat (six mille produits)
puis, progressivement, programmes éducatifs et connexion à Internet.

Enfin, prolongement logique, la publicité interactive s'apprête à offrir ses écrans sur les
chaînes numériques câblées[45], non sans illustrer immédiatement la contradiction
fondamentale qui oppose média de flux et réception à la demande ; en effet si un spot est
retenu, son exploration interactive mordra sur les autres messages publicitaires qui lui
succèdent, au grand dam des responsables des régies.

Télévision et multimédia en ligne

Quelles qu'en soient les formes, la convergence entre l'univers de la télévision et celui du
multimédia en ligne est une orientation majeure que la plupart des industries de ces secteurs
concrétisent à leur manière. En France, les opérateurs de chaînes par satellite proposent, pour
les uns, des chaînes interactives de jeu ou d'opérations bancaires et, pour les autres, la
consultation de sites Web avec hauts débits via le satellite pour l'arrivée et téléphone pour le
départ. Symétriquement, France Télécom étudie différents moyens d'acheminer de la vidéo de
bonne qualité sur les écrans des ordinateurs. L'opérateur national développe des canaux
multimédias à grande vitesse et des accès rapides à Internet. Des modem-câbles sont proposés
qui devraient permettre d'afficher des séquences vidéos sur Internet de qualité similaire à celle
de la télévision.
Alors que les réseaux télévisuels tentent de conquérir l'interactivité des réseaux numériques,
ceux-ci convoitent, à l'inverse, de devenir l'un des supports de télédiffusion. Sous la pression
des push technologies, des chaînes multimédias spécialisées, et à diffusion permanente,
apparaissent sur Internet. Il s'agit bien, dans la logique des médias de flux, de "pousser"
l'information vers l'utilisateur et non de "tirer" celui-ci vers l'information, comme dans la
navigation classique. Bref, entre chaînes de télévision, câblées ou par satellites, services sur le
Web et opérateurs du téléphone des alliances mouvantes se trament. De nouveaux alliages
temporels entre réception de flux et navigation interactive apparaissent, dont il nous
appartiendra d'évaluer, ultérieurement, la nature.

L'interactivité est l'une des principales directions visées. Depuis le mois de mars 1997, suivre
une course de Formule 1 sur CanalSatellite revient à sélectionner, avec la télécommande, six
canaux diffusant simultanément la tête de la course, le pilotage (grâce à des caméras
embarquées dans le cockpit) ou encore l'activité dans les stands. On ne regarde plus la
transmission de l'épreuve, on prélève -par un zapping permanent- un reportage personnel.
Avec l'ajout de reportages sur les pilotes et les écuries, le zapping s'approche un peu plus de la
navigation dans un hypermédia (CD-Rom ou Web).

Dans la même perspective, signalons que la nouvelle génération de supports numériques


(DVD-Rom) incite des réalisateurs à inclure, dès la conception du film, la possibilité de
choisir un angle de prise de vue ou d'influer sur le déroulement d'une intrigue. Ce support,
démultipliant la quantité d'information inscrite sur le disque[46], pousse déjà les éditeurs à
offrir, outre des films d'une très grande qualité visuelle et sonore, une navigation pour
visionner des interviews des acteurs, des "making of" du film, voire des séquences non
montées dans le film original, de même que des prises non retenues ou encore des fins
différentes de la version connue.

Les abonnés à la chaîne C:, diffusée jusqu'en 1998 sur CanalSatellite, ont pu télécharger des
logiciels sur leur ordinateur (jeux, logiciels en promotion, etc.) et recevoir des véritables
magazines multimédias en liaison avec les émissions vidéo diffusées sur la chaîne (science-
fiction, BD par exemple)[47]. Apparaît une nouvelle forme de télévision à deux couches en
quelque sorte. La couche multimédia fait office de fenêtre approfondissant le sujet de
l'émission. Un concert, par exemple, est accompagné, sur le supplément multimédia, d'une
discographie, d'articles de presse ou d'extraits d'autres enregistrements.

Cette évolution affecte aussi la radiodiffusion. Ainsi, la programmation, totalement


numérisée, de la nouvelle station de Radio-France -Le Mouv'- est d'emblée conçue pour être
déclinée en ligne sur Internet. Outre l'écoute directe sur le site, la sélection possible des textes
des chansons tout comme l'affichage des jaquettes des disques ou la sélection des reportages
récemment diffusés transforment la station en chaîne multimédia, que seule la spécificité
musicale marque comme station de radio. Des liens hypermédias permettent de parcourir la
base de données, constamment alimentée par les nouveaux reportages effectués, et donnent
accès, selon les thèmes retenus, à des sites extérieurs. Enfin, un forum de discussion
rassemble les auditeurs et les animateurs de la chaîne. Il n'est pas jusqu'à l'existence d'une
Web- cam (caméra vidéo installée en permanence dans le studio) qui ne permette à l'auditeur-
Internaute curieux de s'introduire à tout moment dans les locaux de la station.

Enfin, dernier, et non des moindres, exemple, la nouvelle chaîne multimédia audiovisuelle
éditée, en 1997, par CNN (CNN Custom-News), approfondit le Webcasting dans des
proportions inégalées. L'abonné commence par répondre à une centaine de questions portant
sur ses domaines de prédilection et, dans chacun de ces domaines, il peut préciser jusqu'au
détail ses préoccupations. La chaîne est bien sûr alimentée par l'énorme fond documentaire de
CNN. Elle est aussi reliée aux principales agences de presse, à quelques grands titres de la
presse quotidienne et à une quarantaine de magazines thématiques (des sciences et techniques
à la chasse en passant par l'alpinisme et l'arboriculture). Balayant ces gigantesques sources
documentaires, la chaîne affiche un journal personnalisé qu'il est encore possible d'affiner en
indiquant quelques mots clés supplémentaires. Ce journal multimédia combine textes, courtes
vidéos et séquences sonores. Alors qu'il consulte son journal, l'abonné voit défiler, en bas de
page, des nouvelles fraîches, "poussées" sur son écran, en rapport, avec ses centres d'intérêt.
En octobre 1998, Reuter annonçait le lancement de NewsBreaker, chaîne multimédia à
destination aussi bien des opérateurs de chaînes de télévision que des particuliers via Internet.
Netscape et Microsoft[48] ne sont pas en reste, qui proposent dans les dernières versions de
leurs navigateurs, des abonnements à des bouquets de chaînes. Même si, dans un premier
temps tout au moins, ce sont les entreprises, via les réseaux Intranet, qui formeront la clientèle
principale des technologies push, une extension progressive aux particuliers semble, à terme,
probable. D'autant que les nouvelles générations de langage de conception de site (X.M.L.)
succédant à H.T.M.L., renforceront la liberté de mise en forme des pages reçues, et
permettront d'y insérer des informations élaborées par l'internaute lui-même.

Ces évolutions, que nous aurons l'occasion de retrouver pour en apprécier les formes
temporelles inédites, montrent assez clairement, que le média télévision (comme la radio) est
en redéfinition sous la pression des réseaux numériques. Cela ne signifie pas qu'il va être
absorbé dans les réseaux numériques et perdre toutes ses spécificités, notamment sa valeur
"cultuelle" (rassemblement autour d'événements phares assurant une participation sociale
commune). Mais son unité technologique est en passe de se fractionner et ses modes d'usages
en seront sans aucun doute redessinés[49].

D - Vers l'expérimentation de l'information

Balbutiements d'expérimentation politique

Dans la dernière campagne présidentielle américaine, de multiples observateurs ont souligné


l'importance nouvelle d'Internet. Certes, l'usage du réseau ne fait que translater, pour une part,
des formes antérieures de propagande (spots télévisés, etc.). Sur les sites ouverts par les deux
concurrents, la défense et l'illustration des programmes respectifs ont redoublé les classiques
moyens de propagande. Interroger les candidats et recevoir des réponses circonstanciées
relève déjà d'une circulation d'information moins unilatéralement polarisée. Mais l'éclosion de
multiples sites accueillant des forums de discussions transversales entre citoyens signe
l'émergence d'autres modalités de participation[50]. Le média devient lui-même un terrain
d'affrontement entre les militants qui créent des sites et rivalisent d'ingéniosité pour afficher
leurs convictions, pourfendre les idées adverses et convaincre les hésitants. Il n'est certes pas
anodin, c'est le moins que l'on puisse dire, que ces demandes d'information, contacts et
confrontation se déroulent sans déplacements physiques. Baigné dans l'atmosphère éthérée du
cyberespace, un conseiller spécial de Clinton tire de cette économie de mobilité, des
conclusions radieuses : "En plus, tout le monde, où qu'il soit, peut les obtenir [les brochures,
tracts et lettres] sans aller à une réunion électorale ou passer au siège de la campagne.
L'Internet a créé un nouvel espace de débat politique, et il permet d'amener à la politique des
gens qui ne s'y intéressaient pas par le passé..."[51]. Fortes de cette nouvelle démonstration,
les idées -anciennes- de référendum gouvernemental électronique refont surface.
Faut-il en conclure que l'ère des grands rassemblements qui font vibrer à l'unisson des milliers
de supporters, est terminée ? Rien n'est moins sûr. Mais désormais l'argumentation dans la
controverse politique se voit renforcée grâce aux médias qui facilitent les relations
personnalisées, la discussion publique et les initiatives locales. Et, dans de multiples domaines
de la vie sociale, ce goût renforcé pour une expérimentation directe des propositions, pour des
liens moins hiérarchiques est sans doute l'une des principales raisons du succès d'Internet.
D'ailleurs, on voit se multiplier des extrapolations, où les formes même de la vie politique
serait redéfinies par Internet, et précisément par ses modes internes de gouvernement[52].
(Nous aurons l'occasion d'approfondir ces questions dans le chapitre suivant qui traite plus
spécifiquement d'Internet comme modèle politique). Nous n'avons pas encore d'exemples
frappants de simulations de scénarios politiques proposées au grand public. Parions que ceci
ne saurait tarder. Trois sources d'activités peuvent venir donner chair à cette perspective : les
simulations stratégiques militaires, les jeux de gouvernement (dans la lignée de Sim City) et
les jeux vidéo[53].

La "pulsion" expérimentatrice s'exprime, bien entendu dans d'autres sphères que l'information
politique, et notamment dans le domaine judiciaire. Les tribunaux, aux états-Unis, par
exemple, ont de plus en plus fréquemment recours à des simulations en images de synthèse
tendant à démontrer, par exemple, l'inanité d'une légitime défense invoquée par la Police alors
que la victime, à terre, avait déjà été atteinte. Une autre reconstitution virtuelle a prouvé qu'un
accident de circulation ne pouvait qu'impliquer la responsabilité du conducteur. La
modification interactive des paramètres de vision des scènes (vue subjective, déplacement de
point de vue, etc.) assure une confrontation concrète des thèses opposant les parties. Le
développement d'une véritable industrie de la preuve expérimentale par reconstruction
simulée -une cinquantaine d'entreprises s'y sont déjà spécialisées[54]- est d'autant plus
remarquable qu'elle est souvent sollicitée par les procureurs eux-mêmes. Ces développements
sont loin de convaincre systématiquement les jurys, mais parfois ils jouent un rôle de premier
plan. Ils posent, bien entendu quantité de problèmes (notamment financiers et d'égalité face à
la loi), mais le dynamisme du marché de "l'animation judiciaire" peut nous persuader que la
démarche expérimentatrice est dans l'air du temps. La création de sites Web ou l'édition de
CD-Rom, à l'occasion de grandes affaires judiciaires, bien que de nature plus informative, le
confirme.

"L'affaire Simpson"

Le traitement télévisuel des affaires judiciaires de moeurs exercent, on le sait, un attrait


considérable aux États-Unis. Sur ce terreau fertile, l'expérimentation de l'information
commence à investir les supports adaptés à ses logiques. La reconstitution du procès relatif à
"l'affaire Simpson" a considérablement accéléré le processus. CNN a édité, fin 1994, un CD-
Rom édifiant[55]. A coup de clic, on chemine dans des vidéos montrant l'état sanglant des
lieux découverts après le meurtre. S'y bousculent la foule, la police. Deux clics sur le dossier
"L'arrestation", et s'affiche la course poursuite sur les autoroutes de Los Angeles. On peut
aussi écouter une ancienne bande audio où la femme du footballeur, terrorisée, appelle les
urgences policières. Le spect-acteur poursuit son exploration entrant dans les méandres de la
procédure, examinant, par exemple, les réponses des experts aux questions juridiques posées.

Les abonnés à Compuserve pouvaient aller chercher directement les documents publics de
l'affaire sur des bases de données : photos officielles, dessins des médecins légistes incluant
les traces de coups de poignard ainsi que le texte intégral des comptes rendus du procès. Des
conversations directes avec des experts leur étaient proposées. Sur America On Line, l'autre
grand service d'informations en ligne, on trouvait aussi les questionnaires que les jurés avaient
dû remplir, portant sur la connaissance qu'ils avaient de l'affaire, préalablement à leur
nomination. On pouvait aussi accéder à des banques de données juridiques ou participer à des
groupes de discussions. Des clips audio des moments forts du procès (témoignages,
plaidoiries, réquisitoires) étaient disponibles ainsi que, à la demande, des pièces du dossier
telles qu'une photographie du visage tuméfié de la victime après l'une de ses confrontations
musclées avec son mari. Hors services privatifs, de nombreux groupes de discussions ont vu
le jour, et la controverse y a battu son plein, spécialement autour de la fameuse question du
supposé parti pris raciste des enquêteurs.

épreuves érotiques

Demeurons dans l'aire "sulfureuse" en élargissant le champ de l'épreuve interactive aux CD-
Rom pornographiques. On constate que, fatalement, ce marché est soumis à une pression
innovatrice pour la mise au point d'interfaces idoines. Les CD-Rom érotiques deviennent une
plate-forme d'essai pour des interfaces et des scénographies beaucoup plus "impliquantes" que
la simple navigation dans des images ou des séquences vidéos. Exploitant la dimension
naturellement interactive de l'échange langagier, des ingénieurs spécialisés en Intelligence
Artificielle, ont adapté un logiciel pour converser librement avec une créature à l'écran,
l'interroger et lui donner des ordres (dont on devine la teneur). Des concepteurs américains
préparent d'autres jeux roses très interactifs, et, pour ce faire, conçoivent des interfaces
adaptées : bracelets qui permettent de diriger les mouvements des belles virtuelles, bagues
fixées sur le doigt dirigeant une main modélisée qui parcourt l'image à volonté[56]. Et des
prothèses encore plus proches des organes sexuels sont à l'étude, comme des sexes virtuels
clonés à distance, conçus selon la logique des systèmes à retour d'efforts expérimentés dans
les applications d'arrimage moléculaire en Réalité Virtuelle, par exemple.

Nul étonnement à ce que l'activité sexuelle soit l'objet de recherches visant la présence à
distance. Le cybersex, ici aussi, prolonge les formes antérieures de transports sexuels (contes,
récits littéraires, bandes dessinées, photographies, films, communications téléphoniques,
Minitel rose, images de synthèse interactives, et, à terme, Réalité Virtuelle en réseau). Que le
fantasme puisse être considéré comme une" technologie" érotique ne surprendra personne.
Mais faut-il conserver les guillemets à "technologie" ? On peut aussi appréhender le fantasme,
ainsi que le souvenir ou encore l'imagination comme des technologies de mise à distance et de
transport qui empruntent les voies tressées du langage et du souvenir perceptif inscrit.
(Revivre le passé, c'est le redéfinir : toute remémoration est aussi une interprétation actuelle).
On pourrait d'ailleurs construire une histoire des transports sexuels à distance, échelonnée sur
chacun de ces supports (contes, films, etc.) et qui distinguerait les modes de sollicitation
fantasmatique dans leurs rapports aux différents types d'inscriptions et à leur mise en jeu
fantasmatique.

La production "multisupport"

Développée notamment par l'INA, la production multisupport brise la finitude de l'émission


de télévision. À terme, le téléspectateur pourra accéder, au delà de l'émission diffusée, à la
production "grise", c'est-à-dire à l'ensemble des rushes, archives et images associées, dont une
infime partie seulement est diffusée, faute de temps, à l'antenne. Bref l'équivalent
"audiovisuel" de la consultation de l'environnement documentaire dans la presse en ligne
(dossiers, rapports, publications qui "entourent" l'article publié dans le titre papier et devienne
accessibles dans l'édition électronique). Ainsi Bernard Stiegler, directeur du département
Innovation à l'INA explique : "Si nous avons dix heures d'interview de Nathalie Sarraute, par
exemple, pourquoi ne pas les proposer aux téléspectateurs intéressés ? Une bonne partie
pourrait être mise en ligne en accompagnement de l'émission de 45 minutes, en organisant
pour cela une navigation documentaire. Lors de la présentation du programme sur une banque
d'images, un indicateur pourra signaler que, derrière telle séquence, un sujet plus long est
disponible, qui lui-même renvoie à un ensemble de documents"[57]. Dès la phase de
production, l'objectif n'est plus de produire des émissions mais des ressources documentaires
déclinables dans plusieurs directions : films, CD-Rom, banque d'images, etc.[58]. Il s'agit là
d'une réorientation majeure pour les auteurs qui devront, non plus sélectionner des matériaux
pour servir un propos unique dans un format délimité (le fameux 52 minutes, par exemple),
mais construire des scripts exploitant les ressources documentaires rassemblées, grâce aux
logiciels idoines disponibles. (On peut se demander, sur ce point, si la "patte" d'un réalisateur,
parviendra aussi bien à s'imprimer dans ce nouveau système de contraintes : un excellent
auteur de films peut se révéler un piètre concepteur de CD-Rom. Miser sur "l'auteur collectif"
est peut-être, de ce point de vue, un raccourci trompeur. Mais sans doute aussi faut-il imaginer
une redistribution plus collective du travail dans un tel cadre, tirant profit des compétences de
chacun). Évidemment dispositions inédites, aussi, pour le téléspect-acteur qui passera d'un
régime réglé sur le flux linéaire temporel à une proposition d'exploration en profondeur
rejoignant celle qui s'impose avec les hypermédias (CD-Rom et sites Internet). Plus
radicalement encore, il est envisagé qu'à terme, le public puisse avoir accès aux outils utilisés
par les auteurs afin de fabriquer d'autres programmes hypermédias avec le stock de matériaux
rassemblé par l'équipe initiatrice. Le partage, même inégal, des outils logiciels entre
professionnels et amateurs avertis[59] est, en effet, source de remaniements profonds dans la
structure des rapports auteurs/public et l'expérimentation de l'information trouverait, avec ces
propositions, un large espace d'expansion.

Le cadre scénographique de l'image actée

L'expérience interactive s'impose comme scénographie hors de l'aire strictement informative.


Et c'est bien cette structure d'appropriation largement diffusée dans les champs narratif,
ludique, éducatif ou... érotique qui se répand aujourd'hui dans les domaines de l'information
socio-politique et culturelle. À cet égard, les jeux vidéos ont servis de plate-forme
expérimentale diffusant, auprès de dizaines de millions d'adeptes, les composantes
élémentaires de la culture de l'image actée. Aujourd'hui apparaissent des propositions qui
signent une radicalisation de cette scénographie de l'interaction. L'exemple du jeu Pod illustre
parfaitement cette évolution. Pod est, au départ, un jeu de course automobile d'un réalisme
surprenant déployant l'arsenal du décorum des circuits (seize circuits évoquant les univers de
Blade Runner, Mad Max, etc.) et multipliant les degrés de réglage des engins (accélération,
adhérence, braquage, etc.). Les voitures concurrentes sont dotées d'une "intelligence propre"
de la course assez évoluée. Mais l'innovation fondamentale réside ailleurs. Un forum sur
Internet, permet aux "mordus" de concevoir de nouveaux circuits dans lesquels ils peuvent
inviter des concurrents. Gagner la course n'est plus alors l'unique objectif. S'éloigner du
circuit et visiter les paysages présente, pour certains, autant d'intérêt. De nouveaux véhicules
peuvent aussi être fabriqués avec des caractéristiques techniques propres. Et finalement,
bouclant le circuit, les créateurs de Pod vont concevoir les nouvelles versions du jeu en
s'inspirant de l'imagination des adeptes du site. Ainsi, on est passé, par touches successives,
d'un jeu vidéo à une expérimentation collective d'un cadre scénographique, où les participants
sont à la fois acteurs de leur spectacle et spectateurs de leurs actes.

E - Une expérimentation véridique, sans mise en scène ?


Le spectacte est-il à l'abri du soupçon ? Doit-on lui reconnaître une meilleure aptitude à
convoyer la vérité grâce à son expérimentabilité ? Peut-on considérer que l'ingénierie
interactive serait, par nature, plus véridique, qu'elle approcherait de plus près l'événement
qu'une narration ou un reportage filmé ; bref, qu'elle ne recèlerait aucune mise en scène ?
Non, elle est tout simplement plus adéquate à l'esprit du temps, expérimentateur en diable.
Évitons de distiller l'illusion qu'avec ces formules d'expérimentation, on parviendrait à une
présence directe -im-médiate- dans la vie réelle, et que la séparation entre l'information et
l'événement serait abolie. Dissipons toute croyance en la possibilité d'une expression directe
de la réalité, qui, sans médiations, sans travail de construction, viendrait s'inscrire,
transparente, sur l'écran des ordinateurs. Gardons-nous des mirages objectivistes qui
assimileraient vérité et expérimentabilité, authenticité et réalisme des doubles, exactitude et
similarité des représentants.

L'expérimentation virtuelle est aussi une médiation, la présence à distance demeure une
scénographie, l'interactivité se joue dans un théâtre. Mais ces formes obéissent à de nouvelles
distributions de rôles ainsi qu'à des systèmes de valorisation inédits. Ce qui diffère dans le
nouveau régime de légitimation de la croyance, ce n'est pas qu'il serait plus "réaliste" que
l'ancien mais qu'il est construit selon des procédures plus homogènes aux exigences de
l'incarnation croissante et à l'espérance d'une élaboration individuelle d'un point de vue. Mais
cette construction individuelle recèle des limites.

Nouveau régime de vérité et de légitimation "relativiste"

Si elle devient plus charnelle, plus expérimentable, l'information sera moins indicielle, plus
construite. On n'expérimente que ce qui a été modélisé de manière pertinente. L'événement est
mis en maquettes, articulé en rhétoriques cohérentes. Le processus informationnel sera
l'aboutissement d'une épreuve publique de légitimité (au sens où la légitimité scientifique
s'acquiert à travers la confrontation publique des hypothèses). Ces modèles sont-ils de fidèles
représentants ? Où se situent leurs limites, leurs points aveugles ? La modélisation est, dans le
domaine de l'ingénierie, une épreuve opérationnelle, et dans le domaine social une épreuve
herméneutique. Quels partis pris le CD Rom modélisant le procès Simpson aux États-Unis
exprime-t-il ? Sur quelles ignorances est-il édifié ? Quelles interprétations juridiques sont-
elles à sa source ? Ces questions affleurent obligatoirement dès lors que l'interrogation et les
choix de circulation sont délégués à l'interactant.

Curieux procès, c'est le cas de le dire, de légitimitation. On renvoie au public le soin de


choisir ses présupposés : un procès pour les Blancs, un autre pour les Noirs. La formation
d'une légitimité, l'émergence d'un point de vue, apparaît comme la mise à l'épreuve d'un
ensemble d'a priori. Fonction miroir de l'expérimentation : en cela elle n'est ni plus véridique,
ni moins, que la preuve télévisuelle, qui, elle, fonctionne selon la formule "cru parce que vu"
et, précisément cru parce que tout le monde, y compris les experts, peut voir. La maxime
émergente "cru parce que expérimentable" pose des problèmes bien plus complexes. Elle
altère, par constitution, l'idée d'une vérité unique et engendre, le plus naturellement du monde,
la relativisation de toute démonstration, de tout jugement.

Ce qui est essentiel, c'est le mouvement de consolidation réciproque entre progrès dans
l'incarnation tangible des représentants et fondation culturelle de la vérité sur
l'expérimentabilité. La figure du réalisme aurait ainsi changé de costume : d'une facture
essentiellement liée à la capture visuelle, elle est en passe de se lier au test pratique. Et la
représentation virtuelle numérique permet, à la différence du spectacle audiovisuel plat et
plein, d'inclure dans le spectacte, une multiplicité de vues, éventuellement contradictoires. À
charge pour le spect-acteur de choisir, l'angle (ou les angles) d'éclairage qui lui convient.
Transfert de source de légitimité, de l'émetteur vers le récepteur, telle serait la mission, ou le
fantasme de la présentation virtuelle. Et l'on perçoit immédiatement certaines apories qui en
découlent. Le récepteur peut-il devenir la seule source de légitimation des informations et de
leurs mises en récits ? Évidemment pas. Le paradigme de l'expérimentation n'affirme pas
l'extinction des foyers qui surplombent l'acteur individuel et irradient les normes sociales,
foyers à travers lesquels l'expérience est à la fois vécue et construite. La référence au groupe
n'a pas disparu dans ces jeux expérimentaux, elle s'est simplement assouplie, libérant des
espaces de parcours singuliers. On ne saurait substituer une caricature à une autre en
échangeant le modèle hétéronome des massmedia supposés conditionner le social avec celui
de l'expérience, laquelle assurerait la parfaite autonomie d'une subjectivité individuelle. Il
faut, en revanche, prendre la mesure de la mise en critique généralisée et du relativisme que le
dispositif expérimentateur du spectacte véhicule et induit à la fois.

Vouloir croire : la fonction "communautaire" vaccine-t-elle la télévision contre la crise de


confiance ?

Pour caractériser la crise du régime classique d'adhésion, j'ai surtout insisté sur
l'affaiblissement du pacte visuel, le vacillement du régime de vérité fondé sur le "voir pour
croire". Deux aspects de la question méritent une discussion : l'accompagnement langagier de
l'image télévisuelle et surtout le sentiment communautaire, qu'on peut aussi appeler la valeur
"cultuelle" de la télévision.

En effet, l'image télévisuelle apparaît rarement isolément. Elle est mise en scène par un
discours, un commentaire omniprésent qui cadre, définit, contextualise les images montrées.
Le régime de croyance propre à la télévision serait donc non pas "croire ce qu'on voit" mais
"croire ce que le commentaire fait voir ". C'est un fait universel, le cadrage langagier ne
contraint pas mécaniquement la signification. Par ailleurs, lorsque le sujet est brûlant, le
commentaire se heurte -et ceci, depuis toujours- aux horizons d'attente basés sur les
convictions et engagements préalables des publics. Outre ces données générales, l'activité
discursive est majorée dans le contexte actuel de la crise de confiance, dans la mesure où elle
doit vaincre en permanence le sentiment partagé que "les médias nous trompent". D'où une
surcharge souvent pénible, -un appareil de persuasion redondant- qui tente désespérément de
rattraper le déficit d'adhésion et qui participe finalement à notre désaffection[60].

Venons-en maintenant à la valeur cultuelle de la télévision, soit encore sa fonction de lien


social. Cette question ouvre à une discussion plus complexe. Le sentiment que des millions de
personnes sont rassemblés dans une même vision à distance leste l'événement télévisuel d'un
crédit incontestable. Croire c'est aussi faire partie d'une communauté, avant d'être un exercice
intellectuel. L'adhésion procède d'un mouvement volontaire, ou plutôt nécessaire : "entrer
dans l'orchestre" comme le dit Daniel Bougnoux. Appartenir à une communauté, serait-ce une
communauté séparée comme celle des téléspectateurs, engage, selon de toutes autres
modalités (l'intérêt, le maintien des liens,...), qu'une opération raisonnée dissèquant la validité
d'une proposition. La dimension cultuelle, religieuse de la télévision, au sens propre du terme,
la prémunirait-elle donc de l'altération "fiduciaire", au sens de la perte confiance dans la
"monnaie" du visible ? Et la formule émergente "cru parce que expérimentable" demeure-t-
elle valide dans ce contexte de l'adhésion engagée ? Je le pense, pour l'essentiel. S'il est vrai
que la fonction communautaire assure pour une grande part la pérennité du modèle
massmedia -et la réception simultanée a donc encore de beaux jours devant elle- cette
fonction n'est pas à l'abri des transformations en cours. J'ai le sentiment que cette fonction
communautaire joue plus sur la dimension narrative -le besoin que l'on nous raconte les
mêmes histoires- que sur un plan informatif ou cognitif : croire les experts ou les médiateurs
patentés.

C'est plutôt cette deuxième opération qui est taraudée par le désir d'expérimentation. Et la
force de cette option, c'est qu'elle assure un compromis acceptable entre une participation
intime -par l'entremise de modèles- et un risque limité, c'est-à-dire un engagement protégé par
la distance. Mon hypothèse ne conclut d'ailleurs ni à la disparition future de la télévision, ni à
celle du "grand public", mais à l'effritement de son pouvoir référentiel et persuasif au profit
d'autres régimes de croyance appuyés sur les pragmatiques socio-techniques de
l'expérimentation.

Par ailleurs, la fonction cultuelle est à la source de controverses sur les rapports média de
masse/espace public. En effet, au moment où se multiplient les signes annonciateurs d'une
baisse de régime "fiduciaire" des massmedia, se font jour des évaluations quelque peu
nostalgiques. Elles suggèrent que les massmedia, comme forme, sont peut-être inséparables
de l'idée de démocratie (c'est le point de vue, par exemple, de Dominique Wolton[61]). Dans
cette perspective, en ces temps de rigueur individualiste, le grand public serait plutôt une
réserve de liens sociaux à protéger qu'une survivance totalitaire à dissiper.

Comment en effet penser un espace public qui ne serait plus construit selon le modèle de la
pyramide ? D'où viendraient les références communes à l'expérience, les normes réglant
l'échange ? Ceux qui partent en guerre contre les formes diffractées de l'espace public -telles
qu'Internet- défendent, je crois, une conception rigide et archaïque de l'espace public.
Présupposant un lien consubstantiel entre média de masse et démocratie, ils restreignent la
crise de la démocratie représentative à ses aspects régressifs (le Monicagate, par exemple),
oubliant que même à travers cet épisode scabreux se manifeste une véritable recherche de
rapports latéraux, non ou anti- étatiques. Ils ramènent les modalités actuellement encore
dominantes de la médiation, à des formes absolues et veillent jalousement sur le monopole
professionnel dont ces formes jouissent encore et que certains usages d'Internet, notamment,
menacent (ce qui -on s'en expliquera- ne signifie pas un épuisement de la médiation comme
principe).

Demeure la question des formes de l'espace public que dessineraient les scénographies
hybrides mêlant simulation, réception directe, accès à des banques de données et échanges
latéraux. Qu'induiront ces nouveaux cadres de réception/action ? Ils posent effectivement
nombre de questions quant à la détermination de références communes dans l'échange social.
Ne concluons pas trop vite à leur disparition, si tant est que ces références "transcendantes"
qu'on croyait disparues ressurgissent souvent à travers le processus même qui les disperse. On
doit même constater que ces processus sont inducteurs de relations spécifiques, y compris
locales, à l'image des regroupements, associations, communautés nés de la fréquentation des
réseaux. Ils sont aussi à l'origine de liens collectifs, comme l'automatisation de la médiation
sur Internet, dont nous reparlerons. Ces processus définissent des normes communes, y
compris morales, dans l'affrontement à l'État et aux groupes privés. Et l'on pourrait même
aller jusqu'à considérer la présence à distance comme l'un de ces ciments collectifs.

Ces nouvelles formes de lecture par navigation -qui s'opposent, par nature, aux logiques du
l'instantanéité- enrichissent l'éventail des pratiques de communication. Elles réévaluent ce que
signifie "s'approprier", rajeunissent la notion de durée. Et ce n'est pas la disponibilité
technique de ces nouvelles formes de lectures qui, par contagion d'usages, transformerait le
"grand public" des massmedia en enquêteurs attentifs, recoupant les sources et testant des
interprétations. C'est plutôt l'inverse qu'il faut considérer : l'émergence de ces dispositifs
expérimentaux comme indice d'une redistribution des normes de croyance. Et finalement,
pour évaluer ces conclusions, il conviendrait de les appliquer récursivement à elles-mêmes.
Ce qui revient à observer dans quelle mesure elles peuvent servir à nourrir de nouvelles
expérimentations de l'information modélisée.

La tendance à l'incarnation des représentants est-elle d'origine technologique ?

La formulation de notre question sur les fondements techniques du mouvement d'incarnation


laisse effectivement entendre qu'il serait possible d'autonomiser le facteur technologique dans
l'ensemble des déterminations à l'origine du phénomène. Laissons de côté, ici, une discussion
sur la possibilité même d'isoler le technique du symbolique et admettons, sous réserve
d'inventaire, cette hypothèse. Dans quelle mesure cette critique d'un déterminisme
technologique pourrait-elle alors s'appliquer à notre hypothèse centrale postulant l'émergence
d'un paradigme de l'expérimentabilité virtuelle comme nouveau régime de croyance ? Serait-
ce un mouvement technique -la réflexivité des programmes informatiques et la numérisation
de l'information- qui provoquerait la déstabilisation de notre régime visuel de croyance[62] ?
Ou, dit autrement, la tendance à l'augmentation de l'incarnation des représentants puise-t-elle
son énergie dans la sphère de l'innovation technologique ?

Notons d'abord que la vocation expérimentatrice n'est pas né avec les technologies
numériques interactives. Ce désir a sous-tendu toutes les technologies de représentation :
dessin, perspective, photographie, cinéma muet, parlant, etc. On peut en effet considérer que
l'appétit pour l'expérimentation est déjà manifeste dans la production de représentants
analogiques. Cette tendance s'est adossée à un mouvement social et culturel, en Grèce antique
avec l'émergence de l'apparence comme question éthique et pratique. Elle s'est renouvelée et
accentuée lors de la Renaissance (imprimerie, perspective), et a été décuplée par la révolution
industrielle (photographie, enregistrement). On peut en effet lire l'histoire des techniques de
représentation, au moins depuis le XIXe siècle, comme une quête de modèles sans cesse plus
proches de la réalité référentielle, et pour cette raison plus ductiles. L'invention de la
photographie a joué un rôle majeur dans cette accélération. L'enregistrement est, à cet égard,
une rupture essentielle. Mais on ne saurait comprendre les intentions profondes -explicites et
muettes- qui sont à la source de la photographie en ignorant la dimension proprement
expérimentatrice de la perspective, de la lanterne magique ou encore de la géométrie
descriptive, véritables technologies propices à inventer d'autres technologies, torpilles
exploratrices lancées pour investir à la fois le monde et la perception humaine.

La dimension représentative -imiter le monde- n'est que l'une des faces de ces exercices
démiurgiques. L'autre réside dans leur fonction poïétique : l'émergence d'un univers inouï,
totalement hétérogène à ce que l'expérience humaine avait conçu jusque-là. L'inscription
visuelle permanente d'une co-présence passée dans la photographie en est un exemple type.
La prise de vue photographique est d'emblée une prise de temps. Ce geste participe de l'auto-
construction d'un rapport au temps, où le passé peut être re-présenté. Il constitue aussi une
expérience sociale princeps de l'automatisme et, depuis la fin du XIXe siècle, de
l'instantanéité de l'enregistrement. Ainsi le mouvement d'expérimentation dans la production
de représentants possède des dimensions tout à la fois corporelles, mentales et axiologiques :
blocs de gestes, d'attitudes corporelles, de dispositions d'esprit, d'épreuves perceptives et de
systèmes de valeur.
Ce serait donc plutôt une tendance techno-culturelle profonde, de nature anthropologique, qui
serait à la source du mouvement d'incarnation croissante des représentants. "Techno-culturel"
désigne ici une dynamique née, non pas directement dans la sphère de la production de biens
matériels mais dans celle des activités scientifico-artistiques (la photographie ne se rattache
pas directement à la lignée des machines énergétiques, ni le cinéma). Nous avons déjà tenté,
dans le 1er chapitre, de montrer dans quel complexe de déterminations -langagières,
scientifiques, imaginaires- il convient de situer la notion de présence à distance. Cette
tendance constituerait même, répétons-le, un fondement anthropologique, si on considère que
le mouvement de substitution et de transport de la présence à distance se confond avec le
processus d'hominisation lui-même.

De nouvelles distanciations

La forme télévisuelle borne les limites de la tentative de faire se rejoindre le spectacle et la


vie. Impliquant ce que, par abus de langage, on nomme le "temps réel"[63] (quasi-coïncidence
de l'émission et de la réception), elle interdit un retour sur le message autre que mental. Et l'on
connaît la difficulté d'un tel exercice. Que la télévision tente de mettre fin à la séparation entre
spectateur et spectacle, c'est une chose mais qu'elle y parvienne, c'en est une autre. Et on a vu
les apories de cette tentative. Il est courant d'entendre et de lire que les images électroniques
sont indicielles, fascinantes, séductrices, charnelles, obsédantes, aveuglantes, hallucinantes et
qu'elles tiennent de ce fait une place déterminante dans notre système politico-médiatique. Or,
selon notre hypothèse, les images électroniques de télévision ne sont pas trop charnelles, mais
plutôt insuffisamment. D'où le désenchantement qui commence à les assaillir. La forme
moderne de spectacle que constitue la télévision incite à revisiter, sous l'éclairage de
l'incarnation, des figures plus anciennes.

Il est remarquable que dans la première livraison de la revue Les Cahiers de médiologie[64],
intitulée : "La Querelle du spectacle", une proportion quasi majoritaire des articles prend,
totalement ou partiellement, le théâtre comme référence du spectacle. Ce qui revient à
considérer que la forme matricielle du spectacle est le spectacle vivant, plus précisément
encore -car la danse ou le concert possèdent aussi cette qualité- le spectacle vivant parlant, la
mise en scène des récits. La question de la séparation entre le spectacle et le spectateur est l'un
des axes cardinaux des réflexions développées. De multiples exemples d'assauts livrés contre
le clivage scène/salle, acteurs/spectateurs viennent illustrer la tendance à l'immersion dans le
spectacle. Dans un article d'ouverture de la revue, Daniel Bougnoux[65] érige même la rampe,
matérialisation de la séparation entre la scène et la salle, en symbole de la coupure sémiotique.
Mettre la scène au milieu des spectateurs (Mnouchkine), faire le spectacle avec les spectateurs
(Living Theater), transformer le spectacle en agitation politique (agit-prop), les formules n'ont
pas manqué qui participent de cette volonté d'abroger la loi qui cloisonne physiquement
l'espace fictionnel (rappelons que ces assouplissements scénographiques sont déjà présents
dans le théâtre grec classique avec l'installation des choeurs qui représentaient les spectateurs
dans le spectacle et signifiaient ainsi l'existence d'un ailleurs du récit, lieu permettant son
interprétation et sa critique). Glissons une hypothèse. Ce serait le mouvement d'incarnation
croissante dans le transport de la présence à distance qui fonde ce recours nostalgique à la co-
présence charnelle hic et nunc. Curieusement, ce n'est pas la télévision, forme spectaculaire
massive, qui est prise comme archétype, ni le cinéma. Avec le spectacle vivant, l'idée d'une
parenthèse insérée dans le flux quotidien, un moment inédit et non reproductible de
communion -spectateurs/acteurs et spectateurs/spectateurs- s'impose comme définition du
spectacle pur. L'enregistrement, entraînant la reproductibilité audio-visuelle à l'identique
(cinéma, télévision) souille cette co-présence, ce souvenir d'un événement original et
unique[66]. Prise d'empreinte d'un instant, par constitution, passé, l'enregistrement se situe à
l'un des deux pôles opposés au spectacle vivant (l'autre est le spectacte).

Photographie, toucher et co-présence

La photographie a ceci de paradoxal que, dissociant la temporalité du partage de l'expérience,


elle fonde néanmoins son "réalisme" sur une co-présence passée et constamment revivifiée.
La nature de la certification réaliste propre à la photographie demande à être questionnée.
Dans cette accréditation d'authenticité -la photographie comme inscription indubitable d'une
co-présence passée- le contact et le toucher à distance jouent, on le verra un rôle central.
Bernard Stiegler aborde ces questions dans La technique et le temps : "L'intentionnalité de la
photographie est la Référence comme certitude que la chose photographiée a été"[67] et
d'enchaîner sur Roland Barthes : "J'appelle 'référent photographique' non pas la chose
facultativement réelle à quoi renvoie une image ou un signe, mais la chose nécessairement
réelle qui a été placée devant l'objectif, faute de quoi il n'y aurait pas de photographie. La
peinture, elle, peut feindre la réalité sans l'avoir vue"[68]. Nous décelons une hésitation dans
cette certitude de réalisme. Et d'abord dans l'identification, qui semble aller de soi, entre
réalité et réalité visuelle. La seule réalité dont peut se prévaloir le "référent photographique"
est chevillée à la perception visuelle, c'est-à-dire au sentiment que voir équivaut à s'assurer de
la réalité physique, tactile, sonore [...] de l'objet, même si on n'en fait pas l'expérience
kinesthésique. La photographie engage une théorie prédictive qui opère par réduction
phénoménologique de la sensorialité à la vision. Que cette équivalence fonctionne comme
évidence en dit long sur le primat actuel de la vision sur tout autre vecteur perceptif. Roland
Barthes : "dans la photographie, je ne puis jamais nier que la chose a été là. Il y a double
position conjointe : de réalité et de passé"[69].

L'auto-conviction réaliste fonctionne, en fait, en parcourant une chaîne complexe


d'accréditations successives. Au nombre desquelles il faut compter l'habitude que la vision
d'un objet soit un gage de sa présence (habitude pourtant mise en défaut par les illusions
optiques) ou l'accoutumance à ce qu'une photographie prise renvoie à une co-présence passée
de l'objet, de l'image, du dispositif de capture et du sujet prenant le cliché, donc une mise en
scène de l'acte de vision, ou encore, par exemple, la confirmation que la vision d'une
photographie de quelqu'un qu'on ne connaît pas, puisse être un préalable à une rencontre
ultérieure avec cette personne. Et la liste des accréditations pourrait être allongée. Le
"nécessairement réelle" provient d'un consensus basé sur l'expérience (ayant partie liée avec
le phénomène indiciel, de transfert d'existence par prise d'empreinte) et sur la réduction de la
réalité à sa perception visuelle. D'ailleurs, pour appuyer sa démonstration, Barthes affirmera
le caractère indiciel -toujours au sens de Charles S. Peirce- de la photographie : "D'un corps
réel qui était là sont parties des radiations qui viennent me toucher, moi qui suis ici. Peu
importe la durée de la transmission. La chose d'autrefois, par ses radiations immédiates (ses
luminances), a réellement touché la surface qu'à son tour mon regard vient toucher"[70]. Le
réalisme est adossé au toucher, un toucher différé qui transforme la photographie en
médiateur de l'effet de la lumière, à distance de temps, mais un toucher sensible
cependant[71]. La dissociation temporelle engage un trouble spatial, trouble que l'idée d'un
contact matériel différé tente d'effacer.

Inversement, d'ailleurs, une dissociation spatiale peut provoquer un trouble temporel. Bernard
Stiegler rappelle ce que Proust écrit à propos du téléphone : "usant de cet appareil pour la
première fois, il entendit la voix lointaine de sa grand-mère qui lui apparut déjà morte "[72].
La distance spatiale engendre une distance temporelle. Être écartelé, au même instant, entre
un ici et un là-bas, provoque une distorsion dans l'équivalence de l'ici et du maintenant,
comme si la simultanéité dans la distance spatiale, ne pouvait s'opérer qu'au prix d'une
déliaison temporelle, prenant, ici, la forme d'une distanciation : Proust entend son aïeule ici,
mais la voit plus tard, la disjonction spatiale impliquant un dérèglement temporel.

La "spectralité" de la photographie

Dans un livre d'entretien ultérieur avec Jacques Derrida[73], Bernard Stiegler reprendra ce
thème du toucher différé. Inspiré par Lévinas, Derrida souligne l'effet de réalité de la
photographie en singularisant les cas où ce sont des visages qui nous adressent leur regard,
comme "source d'une vue possible"[74]. Dans cet entretien, Jacques Derrida enchaîne une
réponse qui constitue une voie d'entrée fondamentale sur la "spectralité" moderne. Derrida
précise d'abord que le spectre, à la différence du revenant, "c'est toujours du visible [...]. Il se
refuse à l'intuition à laquelle il se donne, il n'est pas tangible (marqué par nous)"[75]. Le
phénomène de "hantise" est donc constitué par la privation du toucher, déliant ainsi la vision
de la tactilité. Enchaînant sur la présence essentielle de la mort dans tout acte d'enregistrement
(capture ou lecture) -comme prémonition de notre présence actuelle, appelée à disparaître- le
philosophe affirmera clairement quelques pages plus loin : "On a l'impression, c'est un
sentiment dont on a du mal à se défendre, qu'une substitution peut suppléer à tous les sens,
sauf au toucher. Ce que je vois peut être remplacé. Ce que je touche, non, ou en tout cas on a
le sentiment, illusoire ou non, que le toucher assure l'irremplaçabilité : donc la chose même
dans son unicité"[76].

On comprend alors l'effort conjoint de Bernard Stiegler et de son interlocuteur pour fonder le
réalisme photographique sur la tactilité. Contact à distance de temps, transfert photo-
énergétique de la surface de l'image enregistrée, rencontre différée du regard de l'autre, la
perspective peircienne de l'indice est omniprésente[77]. Comme le suggère Derrida, "la
technologie moderne [...] bien qu'elle soit scientifique, décuple le pouvoir des fantômes"[78].
Mais aujourd'hui le genre technologique "spectre", limité jusqu'ici à la prise d'empreinte,
demande à être considérablement élargi[79]. Aux technologies d'enregistrement s'adjoignent
progressivement, on le sait, les technologies de simulation et de télé-présence. Il s'en suit que
de nouvelles générations de spectres font leur apparition. En premier lieu, on le sait,
l'ingénierie informatique de simulation a engendré des représentations qui n'obéissent plus à la
logique de l'enregistrement mais à celle de la modélisation. Image d'un présent
perpétuellement rafraîchi, elles offrent un espace d'affirmation immédiate et ne restituent plus
un ancien présent capturé. Ces présentations se sont progressivement dotées, non seulement
des attributs de l'indicialité audiovisuelle (image et sons) mais aussi des caractéristiques
physiques des objets et systèmes qu'elles simulent (déformation, chocs, etc.). Avec la Réalité
Virtuelle, ce sont les formes de fréquentation de ces objets virtuels qui se sont enrichies de
nouveaux vecteurs sensoriels grâce aux interfaces "haptiques" traduisant précisément la
tactilité. Les systèmes à retour d'efforts concrétisent cette tendance au réalisme, non plus
audiovisuel, mais kinesthésique. Le développement de la Téléprésence s'accompagne
maintenant de protocoles dans lesquels nous sommes dédoublés par des "avatars" virtuels
voyageant à notre place dans des univers de synthèse, ("avatars" que j'ai préféré dénommer
spectagents, dans la mesure où ils allient la fluidité du spectre et le caractère actif du
représentant traduisant la permanence de son alimentation humaine).

Derrida affirme que le spectre ne se définit pas seulement comme phénomène visuel, mais par
le fait que "nous nous sentons regardés, observés, surveillés,... nous sommes "devant la loi",
sans symétrie possible, sans réciprocité..."[80]. Dans quelle mesure, pourrait-on se sentir épié
par ces spectagents, alors même que nous en réglons les actions ? Sans doute leur activation
volontaire minore leur pouvoir de surveillance. Nous mesurons encore assez mal la nature de
ces situations où un dédoublement, très imparfait, s'allie à la manifestation d'une certaine
autonomie de ces créatures auxquelles nous insufflons notre énergie.

Le spectacte, une nouvelle formule d'unicité de l'expérience

À l'opposé du spectacle vivant et reformulant les conditions du partage spatio-temporel, les


médias du spectacte recherchent -sans la trouver, en tous cas sous une forme identique- une
nouvelle formule d'unicité de l'expérience. C'est bien ainsi qu'on peut approcher le concept
d'interactivité dans ses tensions entre la création d'espaces de liberté et la manifestation des
limites qui, constamment déplacées, s'imposent néanmoins dans tous les univers interactifs
(nous retrouverons ces questions dans le chapitre consacré à l'interactivité). Que l'on souhaite
un rapport aux modèles plus charnels, une implication plus effective, de multiples indices le
montrent. Mais les massmedia ne fournissent plus les moyens d'un tel projet. À leur manière,
ils ont fait croître le désir d'une relation plus intime avec la réalité, relation permettant de
remonter la pente de l'entropie temporelle propre à l'enregistrement. C'est-à-dire de rejouer
l'événement bien qu'il ait déjà eu lieu.

Un nouveau système de représentation vient souvent tenir les promesses de ceux qui l'ont
précédé, avons-nous déjà dit. La simulation interactive, par exemple, permet de faire l'épreuve
de la troisième dimension, exercice que la perspective, en la limitant à une activité purement
mentale, ne faisait que présager. Aujourd'hui, les médias numériques basés sur l'engagement
expérimental (CD- - Rom, Web, etc.) viennent tenir les engagements chuchotés par les
techniques d'enregistrement qui annonçaient déjà, mezza voce, la possibilité de rapports plus
charnels avec l'événement.

D'autres régimes temporels

Il faut, en effet, aller chercher les moyens d'une épreuve incarnée là où ils se trouvent, c'est-à-
dire dans les techniques numériques de simulation fonctionnant selon un tout autre régime
temporel que celui de l'enregistrement et de la diffusion instantanée. L'usage du concept de
"temps réel" est source d'ambiguïté. On le sait, ce concept trouve sa source dans l'univers de
l'informatique pour désigner des systèmes dont les temps de réponse sont contrôlés. Or il est
devenu synonyme de simultanéité de l'émission et de la réception dans un tout autre univers,
celui des médias audiovisuels classiques (radio, télévision). Dans le monde de l'informatique,
en revanche la logique du temps différé retrouve ses lettres de noblesse, même s'il ne s'agit
plus du temps différé de l'écriture mais d'un mixage d'instantanéité et de différemment. La
Téléprésence par agents interposés ("avatars virtuels") ou l'usage d'Internet qui mêle
navigation et abonnements à des chaînes multimédias spécialisées (push technologie)
concrétisent ces hybrides temps différé/"temps réel". Traiter l'information dans des procédures
interactives suppose des temps de latence et de retour sur les messages dont la structure en
deux mouvements -écriture puis validation- propre au courrier électronique est un exemple.
En symbolisant la temporalité dominante par la fabuleuse croissance du rythme auquel battent
les horloges de nos ordinateurs, on isole une performance technique des conditions générales
d'usage de l'informatique laquelle obéit à des logiques bien plus complexes (émancipation et
dépendance des temps humains de traitement)[81].

L'épreuve de la subjectivité
Convoyer le monde sur l'écran numérique, ce n'est pas le contempler dans son salon. Il ne
s'agit plus, alors, de spectacle -distancié ou englobant- mais de simulation. Et la simulation
n'est plus de l'ordre du visible mais du méta-visible, c'est-à-dire d'activités mettant en scène le
visible, mais aussi l'audible, le textuel, le gestuel (et finalement, avec les Réalités Virtuelles,
la perception tactile). Bref, il ne s'agit plus de spectacle audiovisuel, mais de performance
hyperstésique incluant le réglage et la modification du spectacle, indissolublement écriture et
lecture, vision et mise en scène du regard, audition et écoute, mouvement et retour d'effort.
On pourrait parler, au sens étymologique du mot cyber, d'un cyber-spectacle, spectacle
partiellement gouverné par le spectateur.

Milieu de vie, la nouvelle télévision ? Oui, au sens où tout média construit son milieu. Mais la
crise de légitimité qui frappe désormais la télévision lui interdit cette perspective
"englobante". Peut-elle être reprise à son compte par l'ordre virtuel ? Est-il en mesure de
donner une nouvelle vigueur à cette logique d'enveloppement qu'une télévision affaiblie ne
peut plus soutenir ? Le mouvement d'incarnation croissante des représentants véhicule
communément le sentiment d'une confusion des registres réel/virtuel, spectacle/vie réelle, etc.
Dans notre esprit, il ne s'agit pas, avec le spectacle, d'une dissolution des distinctions entre
référent et représentation, de substitution du spectacle par la vie réelle mais d'une nouvelle
scénographie culturelle, d'un désir d'une représentation active du monde plus adéquate aux
exigences d'incarnation, car fondée sur l'expérimentabilité de celui-ci et non plus sur son
enregistrement. Mais comment expérimenter un procès, une guerre, un conflit social ? Il y
faut de bons modèles. Pas des copies passives, objectives et unilatérales. Mais des instruments
qui intègrent l'expérimentabilté dans leurs principes constitutifs inséparablement techniques et
psychologiques. L'ingénierie numérique, (hypermédias, réalités virtuelles, mise en réseau)
-née dans et pour cet esprit- offre alors ses services pour imaginer les nouveaux alliages
donnant forme au spectacte.

À cet égard, le développement d'Internet fournit quelques indications intéressantes dans la


mesure où il s'accompagne d'une perte de spécificité technologique des autres médias. Nous
ne sous-entendons pas ici que la presse, la télévision, ou la radio n'ont d'autre destinée
possible que être diffusées sur Internet ou sur les réseaux à plus hauts débits qui s'annoncent.
Cette hypothèse exigerait de fines prévisions croisant les stratégies industrielles et les
pratiques culturelles, et rien n'assure qu'elle puisse se vérifier. En revanche, il nous semble
que l'accueil sur un même support de toutes les formes médiatiques existantes (et l'apparition
de nouvelles) devrait favoriser la conception de programmes se donnant explicitement comme
objectif une expérimentation informationnelle. De telles propositions, par exemple sur un
conflit tel que celui qui s'est déroulé (et se poursuit) en ex-Yougoslavie, cumuleraient
simulation stratégique et géopolitique, recherche automatisée d'information sur le Web,
réception de journaux et de programmes audiovisuels thématiques personnalisés, animation de
forums, etc. Mais ces propositions ne présupposent-elles pas d'expliciter des partis pris ? On
voit mal, en effet, comment un tel investissement pourrait se justifier en dehors d'un certain
engagement, aussi ténu soit-il. Ne faudrait-il pas rendre apparents les paramètres qui sous-
tendent les modélisations proposées ? Et comment le faire sans tomber dans un relativisme
dénué d'intérêt ? Des premières réalisations éclaireraient sans nul doute ces interrogations.

De plus, et c'est une question essentielle, expérimenter par simulation sauvegarde la sécurité
physique du spect-acteur. Souhaiter un rapport plus charnel à l'événement est une chose,
devenir un acteur au sens plein du terme en est une autre. Et ici, il ne s'agit évidemment pas
de cela. Le spectacte offre un engagement acceptable qui allie une mise à l'épreuve des
certitudes avec la sauvegarde de l'intégrité personnelle (même si, sur un autre plan, une
participation engagée peut parallèlement s'accomplir). L'idéal d'objectivité, battu en brèche
par la mise en spectacle de l'information, retrouverait alors une nouvelle jeunesse sous les
auspices d'une subjectivité assumée, individuelle et collective, laquelle soumettrait ses
inclinations à l'épreuve de l'expérience.

[1] Régis Debray, à propos du spectacle, in Le débat, n° 85, Gallimard, Paris, p. 12.

[2] Manifeste du surréalisme (premier manifeste-1924), Folio-Gallimard, 1985, p. 36.

[3] Loc. cit., La proximité de ce que Breton appelle la "pensée parlée" avec la démarche
psychanalytique de l'association libre est évidente. Dans le même texte, Breton rend
explicitement grâce à Freud d'avoir rétabli le rêve comme "part considérable de l'activité
psychique" (p. 21).

[4] Le surréalisme et la peinture (1928), cité par lui-même dans Qu'est-ce que le
surréalisme ?, Actual/Le temps qu'il fait, Paris/Cognac, 1986, p. 19.

[5] Manifeste du surréalisme (premier manifeste-1924), Folio-Gallimard, 1985, p. 52.

[6] Op. cit., p. 60.

[7] On rappelle que pour Peirce un signe "indiciel" entretient un rapport de contiguïté
physique avec le phénomène qui lui a donné naissance : la trace laissée par le pas dans la
neige, par exemple.

[8] On aurait affaire à un mécanisme représentationnel qui s'affirmerait en tant qu'il se nie. On
pense ici au mouvement, décrit par Yves Barel dans La société du vide, (Le Seuil, Paris,
1984) d'installation implicite d'une transcendance par la recherche d'une autonomie la plus
intègre possible.

[9] Régis Debray, à propos du spectacle, in Le débat, n° 85, Gallimard, Paris, p. 3/15.

[10] Philippe Breton, Sus au principe de séparation !, in Le Monde, 4/09/1996, p. 13.

[11] Ainsi note-t-il : "...l'invention du codex aux IIe-IIIe siècles de notre ère, qui représente,
du point de vue de la relation entre la forme du livre et le rapport à l'écrit, une révolution
infiniment plus importante que celle de l'imprimerie. Avec le codex, ce sont, en effet, toutes
les catégories et tous les gestes de la culture de l'écrit qui se trouvent redéfinis". Et il poursuit
en notant que le concept de logosphère efface totalement cette mutation décisive dont le seul
équivalent est (ou sera) le remplacement de la représentation imprimée du texte par sa
représentation électronique. "Roger Chartier, Médiologie, sociologie des textes et histoire du
livre, in Le Débat, n° 85, mai - août 1995, Gallimard, Paris, p. 21. Régis Debray convient
d'ailleurs qu'un assouplissement de la tripartition des médiasphères s'impose pour tenir
compte, par exemple, de la mnémosphère, régime de transmission oral des sociétés ignorant
les systèmes d'inscription. De même admet-il que la vidéosphère, loin de traduire un régime
stabilisé, ne s'avère constituer qu'une "courte phase de transition vers une numérosphère, un
tout informatique à la fois plus stable et mieux articulé (entre l'écrit et le visuel notamment)".
Chemin faisant, in Le Débat, n° 85, p. 56.

[12] Roger Chartier, op. cit., p. 20.


[13] Régis Debray, Vie et mort de l'image, Gallimard, Paris, 1992, p. 376.

[14] Régis Debray, L'État séducteur, Gallimard, Paris, 1993.

[15] Sans qu'on puisse encore en tirer un argument décisif, il n'est pas sans intérêt de noter
qu'une chute notable d'audience affecte l'information télévisée, aux États- Unis. Alors que
60% des Américains regardaient le traditionnel journal télévisé du soir en 1993, cette
proportion est descendue à 42 % en 1996. Et les magazines d'informations connaissent une
évolution semblable. La participation de la télévision à la construction de l'espace public ne se
réduit pas, bien sûr, à l'information mais celle-ci n'en constitue pas moins un secteur
stratégique.

[16] Les pages 394 à 396, spécialement.

[17] Régis Debray, Chemin faisant, in Le Débat, n° 85, p. 59.

[18] Régis Debray, Vie et mort de l'image, Gallimard, Paris, 1992, p. 375. On pourrait ajouter
nombre de prise de position du même auteur allant dans ce sens telle que la suivante, publiée
dans un livre ultérieur : "Nous adhérons naturellement à ce qui nous parvient comme naturel
(la vue sans prise de vues)....En vidéosphère, il n'y a pas de faux témoins". L'état séducteur,
Gallimard, Paris, 1993, p. 128.

[19] Op. cit., p. 378.

[20] Roger Laufer, Mort ou résurrection de la médiologie ?, in Le Débat, n° 85, p. 37.

[21] Daniel Schneidermann, L'état de méfiance in Le Monde, Radio - Télévision, 31 décembre


1995, p. 35.

[22] Dans plusieurs passionnants articles, Edgar Roskis, montre comment se combinent
logiques éditoriales et disponibilité technique pour redessiner la vérité visuelle dans la presse
ou la télévision. Citons dans Le Monde diplomatique, Mascarades (décembre 1996),
Mensonges du cinéma (novembre 1997) et La deuxième vie de l'image (avril 1998).

[23] Ainsi, dans un livre d'anthologie, David King décrit par le menu les pratiques de
falsifications photographiques du régime stalinien (The Commissar Vanishes, Metropolitan
Books, New-York, 1997.)

[24] Culte, dont des émissions comme "Les enfants de la Télévision" sur TF1 ou le feuilleton
de Pierre Tchernia, "Notre télévision", sur France 2 durant l'été 1993, sont de bons exemples.

[25] Daniel Schneidermann, loc.cit.

[26] Libération, 9/12/98, p. 32.

[27] La dimension cultuelle réfère au culte qui rassemble les fidèles et assure la participation
dans l'ici-et-maintenant en référence à un ailleurs à la fois inaccessible (car intangible) et
proche (culturellement)... comme précisément la télévision.
[28] Notons, cependant, qu'en 1998 pour la première fois, l'audience cumulée des trois grands
networks américains (ABC, CBS et NBC) est passée sous la barre des 50 %, signant ainsi
symboliquement l'entrée dans une nouvelle ère de fragmentation de la télévision. Mais il ne
faudrait pas en tirer des conclusions hâtives quant à la poursuite de cet affaissement.

[29] Tel est le sous-titre de Vie et mort de l'image, Gallimard, Paris, 1992

[30] Op. cit, p. 379.

[31] Notre article "Images hybrides, virtualité et indicialité", (in Image & média sous la
direction de Bernard Darras, MEI n°7, L'Harmattan, Paris, 1997, pp. 103/128) présente une
analyse des principales applications dans ce domaine et les interroge selon l'hypothèse qu'un
nouveau type d'indicialité trouve à s'y vérifier .

[32] Le titre est provisoire. Le film devait initialement s'intituler Dans la cage de verre.

[33] Ces informations proviennent de discussions avec Jean Ségura, journaliste spécialisé en
imagerie informatique, ainsi que de l'article qu'il a publié dans Libération du 3/03/1997.

[34] Hannah Arendt, Eichmann à Jérusalem, réédition Folio Histoire n°32.

[35] Le studio Ex Machina s'est vu confier ces traitements raffinés.

[36] Ainsi a-t-on appris qu'une enfant de huit ans, enlevée à l'âge de quatorze mois, avait été
retrouvée au Porto Rico par un agent d'Interpol grâce à la consultation d'un site Web d'une
association américaine d'enfants disparus, qui avait fait vieillir une photographie prise alors
que l'enfant était encore au berceau. Ce travail complexe, impliquant notamment IBM, Sony et
les services secrets, mobilise plusieurs techniques (ressemblance prédominante avec l'un des
deux parents, recoupement et traitement de photographies d'enfance de la famille, etc.).

[37] Interview dans Libération par Catherine Malaval, "Le docu ne crache pas dans le soap",
3 et 4 octobre 1998, p. 37.

[38] Gérard Leblanc, Happy ending, in Esprit n° 1, janvier 1993, p. 48.

[39] Jean-Claude Soulages, interview dans Le magazine de l'image et du son, INA, n° 8, nov.
1998, p. 21.

[40] Le hors-champ, au cinéma, désigne ce qui sort du champ de la caméra et donc n'apparaît
pas dans la scène filmée, même si des effets s'y manifestent.

[41] Yves Eudes, Les mirages de la télévision interactive, in Le Monde diplomatique, janvier
1996, p. 17.

[42] Autre avantage substantiel, FSN enregistrait, à la seconde près, les choix de chaque
abonné. Plus besoin de mesure d'audience, de dresser des profils de consommateur-type, de
peaufiner des statistiques sur les goûts des publics, sur les pratiques d'usages du média ; tout
cela était capturé automatiquement par l'opérateur.
[43] La vidéo à la demande affichée sur écran d'ordinateur en réseau et mis à jour par satellite,
est une solution étudiée, par exemple, par TF1 associé à Microsoft.

[44] Ces services s'appuient sur de véritables avancées technologiques : compression


numérique d'un ratio de 1 à 90, dizaines de milliers d'appels simultanés gérés selon la
technologie ATM de transfert à large bande. Depuis octobre 1998, l'opérateur offre l'accès à
NewsBreaker, la chaine multimédia d'informations à la demande de l'agence Reuter.

[45] La publicité interactive semble être d'une exceptionnelle rentabilité, car elle concrétise
l'efficacité du marketing direct : l'activation du message permet, en effet, de recueillir les
coordonnées des personnes intéressées par le produit. En 1997, TPS et CanalSatellite ont déjà
expérimenté des logiciels spécialisés et diffusés quelques spots interactifs.

[46] Aujourd'hui un DVD-Rom stocke huit fois plus d'information qu'un CD-Rom, et ce
rapport va, sans doute, lui-même doubler, et plus, dans les prochaines années.

[47] Parallèlement C: offrait un accès à Internet avec réception par le satellite -garantie de
meilleure qualité d'images et d'interactivité- et envoi de données via modem. En 1998, C: a
cessé d'être diffusée faute d'une rentabilité suffisante ; preuve supplémentaire, s'il en était
besoin, de l'instabilité actuelle des équilibres techno-économiques et des usages. Mais non
point condamnation de la recherche d'une combinaison entre logique de flux et logique de
navigation, même si la télévision n'est sans doute pas le média qui accueillera finalement cet
alliage, mais plutôt les réseaux à hauts débits.

[48] En France, Microsoft offre un premier ensemble de douze chaînes. On y trouve


notamment TF1, NRJ, Gaumont, Elle, l'Agence France Presse, Les Échos.

[49] Certaines enquêtes d'audience effectuées aux États-Unis relèvent déjà les signes d'une
certaine compétition, pour les hommes, entre l'information télévisée et Internet. Une
proportion significative des jeunes Américains commence à privilégier le réseau aux journaux
télévisés.

[50] Plusieurs sites ont connu une affluence record. Hotwired, site consacré à l'élection
présidentielle, ouvert par le célèbre périodique Wired, pourtant peu versé dans la politique,
revendiquait plus de 10 000 connexions par jour.

[51] P. Sabatier, élections pièges à électrons in Libération, 11/10/96, p. 11

[52] J.P. Barlow, co-fondateur de l'Electronic Frontier Fondation, une puissante association
de défense d'Internet, déclare : "[...] le monde interactif est d'ores et déjà en train de créer des
systèmes de gouvernement bien mieux adaptés à l'économie de l'information que ceux de
l'état-nation de l'ère industrielle", cité par P. Sabatier, élections pièges à électrons in
Libération, 11/10/96, p. 11.

[53] Le CD-Rom Croisades, édité par Index+, offre une double vision, occidentale et
orientale, de l'histoire des croisades. À travers un jeu, il permet "d'expérimenter" dans une
certaine mesure, ces événements en respectant la pluralité des déterminations (religieuses,
politiques, sociales).
[54] Yves Eudes dans son article ("L'image virtuelle se fait auxiliaire de justice", Le Monde,
24/11/97, p. 32) cite des noms éloquents : "Preuves Matérielles Productions, Média médico-
légal, Témoignages visuels".

[55] P. Briançon, O.J. Simpson, le dernier réseau où l'on cause, in Libération, 7/02/95.

[56] Voir Yves Eudes, L'essor du CD Rose, Le Monde (supplément multimédia), 21 et


22/01/96, p. 27.

[57] Interview au Magazine de l'image et du son, INA, juin 1998, p. 10.

[58] Dès 1998, l'INA mettait en place un "studio de production multisupport". Plusieurs
projets sont déjà en cours, en particulier avec France Télévision pour des émissions de la série
"Un siècle d'écrivains".

[59] Le coût des systèmes de production de programmes en vidéo numérique a été divisé, en
francs constants, par 10 entre 1973 et 1998 ; et ceci avec des performances techniques en
constante progression. Cette diminution de prix se poursuit : début 1999, on pouvait acquérir
une station de production pour un investissement allant de 50 à 100 000 F. L'entrée de
gamme, sous forme d'ordinateur portable qui connecte caméscope, appareil photo, Minidisc,
etc. -officiant comme banc de montage numérique- se situait à moins de 20 000 F. Voir
Franck Poguszer, Home vidéo : ma télé à moi, in In@visions, n° 9, janvier 1999, INA, p.16.

[60] Lors de l'enregistrement d'une édition de La Marche du siècle sur FR3, une assistante me
disait : "Dans cette émission on est clair et simple, on annonce : "la voiture rouge va passer",
on voit la voiture rouge qui passe et on conclut : "la voiture rouge est passée"".

[61] Voir Éloge du grand public, Flammarion, Paris, 1990.

[62] Dans son commentaire critique des thèses de Régis Debray, Jean-Louis Missika appelle,
lui aussi, à ne pas accorder une primauté de principe au facteur technique: "[...] encore plus
naïfs sont ceux qui [...] pensent que la télévision a révolutionné le régime de la preuve et de la
croyance". (Le Débat, n° 85, Gallimard, Paris, p. 42/43). Passons donc pour un naïf, nous qui
tenons pour l'idée qu'un régime de vérité -distribuant des intérêts, et donc des partis pris,
parfois contradictoires - se forge dans l'alliage d'un système technique, d'institutions et
d'orientations culturelles dominantes. Le système technique -ne serait-ce que comme surface
active réfléchissant ces orientations culturelles-, devrait donc se voir reconnaître sa part
d'efficacité dans l'attelage qui tire un régime donné de vérité.

[63] On s'expliquera au dernier chapitre sur les raisons de l'usage décalé du concept de "temps
réel" né dans l'univers de l'informatique militaire des années cinquante et souvent adopté
aujourd'hui pour caractériser l'émission/réception instantanée.

[64] La Querelle du spectacle, Les Cahiers de médiologie n°1, Gallimard, Paris, 1996.

[65] Daniel Bougnoux, Bis ! ou l'action spectrale, op. cit., pp. 15/28.

[66] ll y aurait matière à discuter le caractère inédit de chaque représentation d'une pièce.
Quiconque assiste à deux représentations d'une même mise en scène d'un spectacle théâtral
est, au contraire, frappé par leur ressemblance. Mais accordons- lui cette qualité d'événement
unique.

[67] Bernard Stiegler, La technique et le temps, Tome II, Ed. Galilée, Paris, 1996, p. 25.

[68] Roland Barthes, La chambre claire, Les Cahiers du cinéma /Gallimard/Le Seuil, Paris,
1980, p. 120.

[69] Roland Barthes, op. cit., p. 126.

[70] Roland Barthes, op. cit., p. 127.

[71] La réalité optique est, on le sait, strictement inverse. Avec ce "toucher du regard", on voit
resurgir la théorie antique de la vision ; celle du "rayon visuel", émis par l'oeil, qui va palper
la réalité et ramène à la rétine les informations acquises.

[72] Bernard Stiegler, op. cit., p. 37.

[73] Jacques Derrida, Bernard Stiegler, échographie de la télévision, éd. Galilée, Paris, 1996.

[74] Jacques Derrida, Bernard Stiegler, op. cit., p. 138.

[75] Jacques Derrida, Bernard Stiegler, op. cit., p. 129.

[76] Jacques Derrida, Bernard Stiegler, op. Cit., p. 140.

[77] Voir aussi sur ce point la très riche argumentation de Pierre Barboza dans Du
photographique au numérique - La parenthèse indicielle dans l'histoire des images,
L'Harmattan, Paris, 1996.

[78] Jacques Derrida, Bernard Stiegler, op. Cit., p. 129.

[79] Voir mon article, Les images hybrides, in revue MEI n n°7, L'Harmattan, Paris, 1997.

[80] Jacques Derrida, Bernard Stiegler, op. cit., p. 135.

[81] Nous reviendrons ultérieurement sur l'hypothèse que, paradoxalement, l'usage des
programmes automatiques n'accélére pas unilatéralement la communication sociale mais la
ralentit aussi.
Table des matières

Chapitre III
L'auto-médiationsur Internet comme forme politique
L'usage public d'Internet -nous laissons de côté, ici, ses fonctions purement commerciales-
concrétise l'idéal d'un fonctionnement social fondé sur la pure circulation et sur l'inexistence
d'intérêts contradictoires. La distance permet un refroidissement des conflits : ils se traitent
alors comme de purs enjeux intellectuels et non comme des contradictions sociales. Les
espoirs de Norbert Wiener, formulés dans Cybernétique et société, se renouvellent ici. Une
prolifération des flux d'informations permettrait la libre discussion et l'obtention de consensus.
Lequel consensus devient un mécanisme social idéal. La forme politique absolue qu'Internet
promeut consiste à fonder directement la légitimité du pouvoir sur l'association de collectifs
de base, sans référence à une instance qui les dépasse. Actualisant, sur un terrain
technologique, une forme de pensée politique anarchiste, le pouvoir n'est, alors, légitime que
s'il est immanent et toute transcendance, étatique ou privée, est vigoureusement combattue. La
montée du relativisme, du scepticisme devant les vérités révélées (religieuses, économiques,
morales) renforcent le sentiment qu'une nouvelle politique doit émerger, par une poussée
ascendante, d'un mouvement brownien de contacts et contrats sociaux passés entre collectifs
autonomes. Il y en, en effet, une profonde convergence entre une philosophie politique édifiée
autour du concept de réseau et le constructivisme sociologique. Le social y est conçu
précisément comme un ajustement progressif, entre individus et collectifs censés être
autonomes. Internet peut servir de parabole à des processus plus généraux[1]. Les concepts de
négociation et de contrat se substituent alors à ceux d'antagonisme social et de divergence
d'intérêts[2].

Mais la transcendance, chassée par la porte, ne risque-t-elle pas de faire retour par la fenêtre ?
La rencontre sur un même terrain (l'échange déterritorialisé) procède déjà d'un consensus
aveugle : le désir de construire une association alternative et non de se replier sur une
existence en pure autarcie. L'immanence est donc déjà encadrée par ce désir implicite. En
outre, des collectifs autonomes, peuvent-ils exister comme collectifs sans une référence qui
les dépasse et les fonde ? Sur quels principes (épistémologiques, moraux) peuvent-ils fonder
leurs rapports ? (La communauté scientifique, par exemple, partage, non sans conflits, une
conception pragmatique de la vérité scientifique basée notamment sur l'expérimentabilité, la
réitérabilité, la régularité des résultats obtenus). La recherche de la vérité, la diffusion du
savoir ou le partage des connaissances n'ont aucun sens sans que soit reconnue préalablement
une valeur -même locale et temporaire- à l'authenticité et aux normes morales qui permettent
de parler un langage social commun.
S'agit-il vraiment, avec Internet, d'un espace lisse, uniforme où, par glissements diaphanes, on
rencontrerait, sans résistances, des millions de personnes connectées, dans une sorte de
"village planétaire" bâti dans un tissu aux mailles aussi serrées que le réseau téléphonique
mondial ? Il y a lieu d'en douter. L'océan calme qui baigne les rives des modemS est en train
de révéler quelques aspérités. Par exemple, pour les éditeurs de sites, la "visibilité" des
services offerts devient une qualité essentielle : pages d'accès chatoyantes, soigneusement
designées, luxuriance de la navigation hypertextuelle. Les hiérarchies socio-économiques
émergent à nouveau, dès lors qu'Internet devient une surface commerciale stratégique.

Le versant libertaire d'Internet doit-il être considéré comme une utopie malsaine ? Nullement.
Mais il est truffé des contradictions sociales actuelles[3]. Bien qu'il soit soumis à l'idéologie
individualiste (seul et libre face à des millions de partenaires), et à la pression libérale, l'esprit
d'Internet mérite d'être défendu et Pierre Lévy a raison de rappeler, dans Cyberculture, que le
réseau est le fruit d'un puissant mouvement social coopératif, né aux États-Unis dans les
années soixante-dix, "visant la réappropriation au profit des individus d'une puissance
technique jusqu'à lors monopolisée par de grandes institutions bureaucratiques"[4]. Mais cette
défense des principes généreux qui ont présidé à l'émergence de la Toile, ne saurait dispenser
de trier les propositions, ni ignorer que le développement du réseau ne garantit pas
mécaniquement la poursuite du projet initial d'une démocratie informationnelle.

Internet symbolise incontestablement des dynamiques sociales qui assouplissent le modèle


descendant du pouvoir. Comment ne pas jeter le bébé avec l'eau sale du bain, c'est-à-dire
reconnaître les valeurs démocratiques qu'Internet représente et développe tout à la fois, sans
pour autant succomber aux champs de sirènes des chantres de l'anarcho-libéralisme ? Autant,
la description constructiviste du champ social est discutable, autant on peut afficher sa
sympathie pour de nouveaux rapports démocratiques anti-étatiques dont le mérite est de
déplacer et d'affaiblir certaines formes de domination devenues insupportables. On a souvent
éclairé les convergences structurelles entre la forme pyramidale des massmedia et le
fonctionnement ascendant de la démocratie représentative. Les uns comme l'autre sont
actuellement déstabilisés. La parenté des mouvements qui les ébranlent a maintes fois été
soulignée. Ce n'est pas le lieu d'approfondir ces questions, tout juste d'en rappeler certains
fondements. Et la question des intermédiaires en est l'un des points cardinaux. La
déstabilisation de l'état fordiste et du type de régulation des conflits qui l'accompagnent
nourrit une recherche d'autres formes de gestion des antagonismes, formes que la culture des
réseaux annoncerait. La crise du modèle des massmedia est en profonde convergence avec la
recherche -annoncée par la Citizen Band et les premières messageries télématiques- de médias
construits par mouvements concentriques et contrôlés par les agents sociaux qui l'utilisent.
Internet est, à ce titre, emblématique d'une tentative partiellement réussie -jusqu'à présent-
d'engendrement et de contrôle social d'un réseau de communication. Pour la première fois, un
système de communication de masse ne distingue pas, dans son principe (et seulement dans
son principe), l'émetteur et le récepteur. L'expression publique, directe de tous vers tous est-
elle pour autant audible ? On verra à quel point un tel idéal est soumis à de vives
contradictions, mais il continue d'inspirer massivement le développement du réseau. Et la
question des intermédiaires -qu'il s'agisse de leur disparition, de la modification de leur rôle
ou de l'apparition de nouvelles fonctions médiatrices- est au coeur de ces enjeux.

Ce sont ces mouvements que nous approchons par la notion paradoxale d'auto-médiation dans
ses deux dimensions -en partie contradictoires- d'autonomisation et d'automatisation de la
médiation. On parlera d'autonomisation lorsque l'acteur médiatise lui-même l'événement et
construit ainsi directement l'espace de sa communication/diffusion. On caractérisera
l'automatisation de la médiation par l'usage direct de logiciels permettant d'accomplir
directement une tâche (par exemple, rechercher des informations sur Internet). On suivra ces
mouvements dont la synthèse donne corps au concept d'auto-médiation, mouvements qui
s'expriment dans la substitution directe d'intermédiaires mais aussi, bien que moins
explicitement, dans l'évitement d'institutions par des relations horizontales.

Dans un deuxième temps, nous poursuivrons, sous un autre angle, l'interrogation sur l'éviction
ou le déplacement des intermédiaires en comparant les deux grandes figures qui remettent en
cause les formes usuelles de la médiation : le parcours interactif sur support local et la
navigation sur réseau. Cette dichotomie, quelque peu rigide dans cet énoncé, doit être
comprise, on le verra, comme l'étude de types idéaux et non comme une analyse factuelle.

Internet, un plurimédia

Mais avant de poursuivre, il convient de préciser le statut d'Internet en termes de relation


médiatique. Nous proposons de qualifier Internet de plurimédia, car, c'est inédit, le réseau des
réseaux cumule dans un seul espace les trois principales relations médiatiques. La
communication d'individu à individu, développée par le courrier postal et le téléphone, se
concrétise avec le courrier électronique. Bien qu'à réception interactive, l'édition commerciale
de sites se rapproche, par certains aspects, (notoriété, logique publicitaire de l'Audimat) du
fonctionnement des massmedia[5]. Enfin, Internet étend la communication collective (groupe
de discussion, forum), rompant potentiellement, pour la première fois à cette échelle, la
séparation entre émission et réception. Mais cette juxtaposition de ces trois grands types de
communication n'épuise pas la spécificité d'Internet. On doit remarquer la coexistence, sur un
même support, d'une production issue du monde des médias (sites de titres de presse, de radio,
de télévision, etc.) avec une offre d'information plus spécialisée (banque de données,
documents en version intégrale, etc.) et une production plus informelle (groupe de discussion,
sites personnels). La pluralité des logiques éditoriales, des modes de traitement ainsi que des
niveaux de légitimation de l'information ne sont pas les moindres des particularités du réseau.

A - L'auto-médiation versus autonomisation

L'autonomisation de la médiation s'exprime dans l'exercice direct d'une fonction sociale


exigeant auparavant des savoir-faire spécialisés. À ce titre, comme tout nouveau média,
Internet élimine ou redistribue le rôle des intermédiaires traditionnels. J'écris un livre,
j'annonce sa parution, je fais sa promotion, je le distribue on line, j'anime un groupe de
discussion sur son contenu, etc. Je court-circuite ainsi des fonctions séparées : édition,
distribution, promotion, mise en vente, critique sur d'autres supports éditoriaux. Des logiciels
permettent à chacun de composer, assez facilement, des hypermédias dont les graphes
deviennent vite très complexes : on devient à la fois imprimeur, responsable d'un standard
téléphonique et metteur en scène de textes audiovisuels. Des services apparaissent, comme
Cylibris[6] qui proposent, par exemple à de jeunes talents d'éditer leur première oeuvre sur le
réseau. Cylibris enchaîne d'ailleurs -par le biais de forums- avec une intervention directe des
lecteurs encourageant ou critiquant les romans et nouvelles publiées, donnant ainsi forme à
une sorte de salon littéraire disséminé. (La fonction de l'éditeur classique ne se limite pas au
rôle de filtre -parfois exagéré- dans les procédures de sélection. Il participe, dans la version
classique, à l'édition de l'ouvrage en aidant l'auteur à mieux exprimer sa pensée et en lui
faisant bénéficier de son savoir-faire éditorial. Son absence, dans l'auto-édition, n'est donc pas
sans poser problèmes. Les lectures croisées y remédient, mais en partie seulement).
Dans son article sur la presse face aux enjeux d'Internet, B. Giussi -cyberjournaliste ayant mis
sur le Web le magazine L'Hebdo de Lausanne- explique que, dans le contexte de l'édition
électronique, "le rôle du journaliste en tant qu'expert décline" et que le réseau confère à
chacun "le même pouvoir communicationnel"[7]. Même si ce diagnostic demande à être
discuté plus finement, il n'en reflète pas moins une part de vérité qui alimente les espoirs
visant à contourner les médias établis. Affirmant que les fonctions de producteur et de
consommateur d'informations tendent à se confondre, il ajoute : "les faits et les informations
circulent souvent sans médiation du journaliste, amené à renoncer à une partie de son pouvoir
traditionnel pour devenir animateur. C'est tantôt un agent qui dirige le trafic, parfois un
explorateur, souvent un <<facilitateur>> de discussion". Internet ne supprime donc pas la
médiation journalistique, mais la transforme. La profusion d'informations disponibles
majorera l'importance du travail de tri, de comparaison, de recoupement des sources, bref tout
ce qui constitue le savoir-faire d'un rédacteur. Mais il fera ce travail sans pouvoir se mettre à
l'abri, en quelque sorte, du regard des lecteurs. Ceux-ci peuvent, à tout moment, vérifier par
eux-mêmes certaines informations, en débusquer d'autres ou solliciter directement des
experts, en ayant éventuellement recours à la communauté des Internautes intéressés par les
mêmes sujets. C'est ce qui fait dire à Alain Simeray, rédacteur en chef de l'hebdomadaire en
ligne LMB Actu[8] : "Le journaliste ne peut plus se placer comme celui qui révèle des
informations qui lui étaient réservées, il devient le médiateur d'une ressource partagée"[9].
Deux mouvements semblent donc affecter la médiation journalistique. D'une part, le rôle de
passeur s'affaiblit au profit de celui d'expert détenteur d'une connaissance en surplomb. De
l'autre la médiation tend moins à s'exercer entre des informations et des personnes qu'entre les
personnes elles-mêmes.

Ajoutons que la presse en ligne tend à s'émanciper de la pure restitution numérique. Elle offre
de plus en plus, outre le journal, des documents in extenso qu'on ne peut publier faute de
place, des liens avec d'autres sites, des adresses de banques de données consultables ainsi que
des espaces de discussion. De plus, les nouveaux langages annoncés, d'édition de documents
sur Internet (de type X.M.L. succédant à H.T.M.L.) autoriseront le récepteur à modifier les
pages et lui permettront d'y intégrer ses propres informations. La rupture avec le mode de
consultation de la presse classique en sera encore approfondie.

Internet commence aussi à modifier sérieusement les conditions de la publication scientifique.


Un mouvement destiné à contourner le filtre des comités de lecture des revues prestigieuses se
dessine, par publication d'articles on line. Parfois, avant qu'il n'épouse sa forme définitive,
l'auteur le soumet à la discussion. Il questionne des spécialistes, leur demande des
commentaires, garantissant ainsi à sa publication une visibilité dans la communauté des
chercheurs concernés. Il peut ensuite enrichir son article par un dossier joint, contenant ses
réponses et les modifications effectuées. C'est finalement un dossier "vivant" qu'il édite,
évoluant au gré des interventions successives, (où il se vérifie que le changement de média
modifie les formes de validation de la connaissance scientifique)[10]. En particulier, la vitesse
de rétroaction entre l'auteur et ses lecteurs augmente considérablement ; et l'on sait à quel
point cette augmentation conditionne l'acuité de toute recherche (cette affirmation générale
demandant, bien sûr, à être contextualisée finement au cas par cas).

Le devenir-médiateur de l'acteur

L'empressement avec lequel des médias traditionnels (presse, chaînes de radio et télévision)
se précipitent sur Internet ne saurait surprendre. C'est leur propre fonction d'intermédiaire
spécialisé dans le traitement de l'information qui se joue. De la mise en ligne des titres de
presse (changement de support à contenu invariant) à l'animation de sites ponctuels, la palette
des initiatives est large. Notons cependant, qu'à l'heure actuelle, la mise sur le Web des
journaux n'a pas cannibalisé leur édition papier, parfois bien au contraire[11]. Il ne faut donc
pas pronostiquer mécaniquement la disparition des massmedia. Cependant, ces derniers
-notamment dans leur quête du scoop comme dans l'affaire Monica Lewinsky[12]-se voient
concurrencés par la relative facilité avec laquelle il devient possible de diffuser largement
l'information à toute échelle grâce au Web, et spécialement par l'ouverture de sites
événementiels.

Mais ce qui se profile remet en cause de manière bien plus profonde encore la structure de la
médiation puisque le réseau permet aux acteurs d'un événement de devenir les producteurs et
diffuseurs naturels de l'information qui concerne cet événement. Par exemple, parmi les sites
qui ont couvert le procès Papon, l'un d'entre eux a été créé et tenu seul par l'un des plaignants,
Jean- Marie Matisson. Il proposait la consultation du dossier d'accusation, la présentation des
familles plaignantes, les témoignages tout aussi bien que des forums ou l'intervention de
spécialistes ; toutes propositions hors de portée des médias traditionnels et qu'à lui seul il
offrait. Ce qui en dit long sur les nouvelles possibilités éditoriales ouvertes par ce nouveau
canal d'expression. Plus même que l'abondance de l'information, c'est la tonalité qui était
remarquable. Acteur engagé, Jean-Marie Matisson ne s'encombrait pas du style impersonnel
des médias de masse, employé même par ceux qui avaient ouvertement pris parti. Par ailleurs,
il ne faut pas opposer mécaniquement médias de masse et édition de sites. La notoriété du site
Matisson était fondée dans une large mesure sur des médias traditionnels : ce sont des articles
de presse, en l'occurrence, qui ont annoncé et validé ce site.

On s'accorde à constater que la médiatisation accomplie par des institutions spécialisées


(presse, télévision, etc.), participe de la construction de l'événement. Dans le contexte de
l'auto-médiation, cette idée demande alors révision. Ici, en effet, événement et médiatisation
sont inséparables puisque ce sont les mêmes acteurs qui les portent. Tout au plus peut-on
considérer qu'il s'agit de moments particuliers dans un même processus.

On voit se dessiner, en fait, une double évolution. Avec de faibles moyens -et une grande
dépense d'énergie- on peut atteindre une audience sans commune mesure avec ce que
coûterait une diffusion par les médias classiques. Mais parallèlement, les principaux acteurs
de l'édition en ligne (grands quotidiens, chaînes d'information comme CNN, etc.) investissent
des sommes importantes dans des programmes et moteurs de recherche offrant exhaustivité,
rapidité et convivialité aux utilisateurs. L'industrialisation de l'auto-médiation devient l'un des
principaux enjeux socio-techniques d'Internet. Mais cette industrialisation porte dans ses
flancs des outils facilitant l'expression directe des acteurs sociaux. Dans cette course-poursuite
rien ne garantit le succès final des industries informationnelles.

Le on line devient une modalité idéale de service personnel. Quantité d'illustrations peuvent
être invoquées. Ici, un site du syndicat américain AFL-CIO propose aux salariés de comparer
leur feuille de paye avec celle des patrons de plusieurs centaines de grandes entreprises,
incluant leur prime et autres émoluments adjacents. Là, on peut suivre quasiment en direct,
sur le site d'un organisme de prévision météorologique[13], le résultat des simulations des
effets de El Nino sur le climat actuel et futur du continent américain ainsi que des principales
régions du globe. Là encore, des étudiants, en mal d'inspiration, de compétence ou de temps,
s'adressent à des sites spécialisés pour télécharger des devoirs prêts à l'emploi[14].
Les activités boursières trouvent avec Internet un fantastique moyen d'effectuer directement
des transactions en évitant les maisons de titres et de courtage[15]. Réalisée sur Internet aux
États- Unis, le coût d'une opération est en effet près de huit fois plus faible que par l'entremise
d'un courtier utilisant le téléphone, la télécopie ou le courrier. Le média incite à la création de
services spécifiques, indépendants de l'industrie financière installée. De grands opérateurs
(ainsi que certains fonds de placement), conscients du risque de perte de leur monopole,
ouvrent, eux aussi, des sites Web pour permettre aux épargnants de placer directement leurs
fonds. La substitution du courtage financier par des instruments automatiques commence à
concurrencer, aux États- Unis, les sociétés boursières. Il est désormais possible de réaliser
directement, via le Web, une introduction en Bourse, grâce à l'assistance de programmes
spécialisés[16]. Opération coûteuse (jusqu'à plusieurs centaines de milliers de dollars),
fastidieuse (des formulaires de plusieurs centaines de pages) et longue lorsqu'elle est réalisée
par des institutions spécialisées, elle devient économique et plus rapide sur le Web.

"Do it yourself"

Le domaine musical est particulièrement exemplaire. Non pas seulement parce qu'il se prête
assez facilement à l'envoi de fichiers sur le Net (des formats de codages, tels que MP3[17],
accélèrent aujourd'hui notablement de tels échanges). Mais parce qu'avec deux logiciels
gratuits disponibles sur le Web, n'importe quel amateur peut proposer à la ronde ses CD
favoris. Les enjeux sont multiples et sérieux (laissons ici de côté l'épineuse question des droits
d'auteur). Chaque artiste qui le souhaite peut alors distribuer directement sa production[18].
Des dizaines de milliers de personnes transforment, en toute illégalité, leur ordinateur en juke-
box. Mais plus significative encore est l'activité moléculaire des milliers d'entre eux qui
montent des sites spécialisés, offrent le téléchargement gratuit des logiciels nécessaires et
améliorent régulièrement tous ces outils. Chacun devient ainsi un agent effectif d'une mise en
cause pratique des majors de l'industrie du disque, lesquels étudient les différents moyens
d'une riposte (notamment par la mise au point de robots de recherche spécialisés ainsi que par
le tatouage numérique des titres).

On pourrait multiplier les exemples et convoquer d'autres réalisations dans des activités aussi
variées que la formation, la culture (visite de musées), la banque, le jeu d'argent (cybercasino)
ou les enchères en temps réel. L'éviction des anciens intermédiaires au profit d'un modèle
fluide de rapports directs est l'un des messages centraux d'Internet (le vocable barbare de
désintermédiation a même été forgé pour désigner ce phénomène). C'est un modèle
d'organisation sociale à peine voilé qui se fait jour. Le visage public d'Internet s'y dessine et
c'est ce qui alimente son dynamisme conquérant. Le combat contre toutes les formes de
transcendance qui rassemble des courants ultra-libéraux et anarchistes trouve dans la
suppression des intermédiaires un objectif majeur. L'affrontement des puissances établies
devient un rapport social positif, substituant une ancienne domination. Par exemple, participer
à la diffusion de titres musicaux gratuits sur le Web met en cause pratiquement un rapport
marchand établi et on comprend d'où vient la formidable énergie sociale qui s'y investit : il
s'agit bien d'une forme de militantisme que, pour le coup, les ultra-libéraux prisent assez peu.
On peut parler d'une logique performative qui accomplit sa visée, ou encore qui affirme
l'antagonisme et le supprime en instituant une alternative dans une logique proche, toutes
proportions gardées, de celle du double-pouvoir des périodes révolutionnaires. Un double-
pouvoir alternatif aux logiques marchandes et hiérarchiques, c'est bien ce que visent
explicitement les courants les plus radicaux du cybermonde et qu'instaurent, de fait, les
dizaines de milliers d'adeptes de la version cyber du "Do it yourself".
Évitement d'institutions

Délaisser des institutions traditionnelles (justice, santé, formation) pour assumer plus
directement leurs missions, telle est l'une des dimensions du mouvement d'évitement des
intermédiaires spécialisés. Il ne s'agit pas de substituer ces fonctions par des programmes
automatiques, mais plutôt d'imaginer des formes de rapports sociaux plus horizontaux, plus
souples et dont le fonctionnement est négocié entre les acteurs. Bien entendu ce mouvement
ne menace pas la légitimité de ces institutions en tant que telles ; il manifeste cependant un
désir d'autosuffisance, à l'écart de, voire contre, l'État. Ainsi, la justice se voit-elle contournée
par des relations plus directes entre justiciables. Plusieurs types de cours de justice
"virtuelles" existent déjà sur le réseau. Leur saisie, motivée par le souci d'éviter les longues et
coûteuses démarches traditionnelles, suppose, bien entendu, l'accord des parties. Sur des sites
Web aux États-Unis, les jurés disposent de forums de discussion et leurs votes sont
sécurisés[19]. Autre exemple, des juristes québécois ont ouvert en juin 1998, le
Cybertribunal, cour virtuelle spécialisée dans les litiges relatifs au commerce électronique
mais aussi au droit d'auteur ou au respect de la vie privée. N'importe qui peut le saisir s'il
s'estime victime, par exemple, d'un commerçant. Si, dans un premier temps, les efforts du
médiateur s'avèrent infructueux, le Cybertribunal rendra un arrêt. Dénuée de tout contenu
légal, cette décision puisera sa force dans la publicité donnée à la condamnation, risquant
d'entamer le crédit d'une entreprise commerçant sur le Net. En fait, jouant la logique du
certificat de bonne conduite, Cybertribunal incite les entreprises à afficher un logo indiquant
aux clients qu'elles s'engagent à faire appel à cette cour virtuelle en cas de différend. Tenter de
régler les conflits privés ou commerciaux en trouvant d'autres espaces neutres plus proches
des justiciables que les institutions étatiques, semble être la principale motivation qui anime
aussi bien les initiateurs des cours virtuelles que ceux qui y recourent.

Le secteur de la santé est lui aussi soumis à la même pression où se combinent télé-médecine
et tendance à l'élimination des intermédiaires. Par exemple, à l'hôpital Rothschild, à Paris, la
visioconférence permet d'ores et déjà de rassembler autour d'un patient des équipes médicales
interdisciplinaires localisées dans plusieurs hôpitaux parisiens. Radicalisant cette perspective,
l'installation de capteurs sensoriels à domicile permettant l'auscultation à distance est
envisagée. Aux États-Unis, certaines autorités médicales pensent à installer en ville des
bornes multimédias afin de pratiquer des check-up et même une auto-délivrance de
médicaments. Ajoutons à cela un système de vidéoconférence pour se faire examiner à
distance par un spécialiste et nous avons les premiers segments d'une offre d'équipements de
télé-médecine que la réalité virtuelle en réseau et la télé-robotique médicale viendront
progressivement compléter. Time Warner, dans le cadre de l'expérimentation du réseau FSN à
Orlando, avait déjà conçu un service nommé Health TV (Canal Santé) basé sur l'installation à
domicile de dispositifs permettant à des médecins de pratiquer des auscultations à distance :
pouls, pression artérielle, niveau de stress. L'envoi de la force d'interposition américaine en
Bosnie s'est accompagné d'une expérience en vraie grandeur de télé-médecine.
Visioconférence, télé-radiologie, télé-dentisterie ont été mises à profit pour garantir qu'un
soldat sera aussi bien soigné en Bosnie que chez lui. Ainsi, le général A. Lanoue, chef du
service médical de l'armée américaine, affirmait : "Il y a toujours des spécialistes réveillés
quelque part dans le monde. Si on a besoin d'un dermatologue, avec le réseau -sur le site Web
dédié- on arrivera toujours à joindre quelqu'un de frais et dispos"[20]. (Ajoutons que la télé-
médecine représente, pour les États-Unis, un enjeu industriel et géostratégique, spécialement
dans leur nouvelle politique africaine). Il est vrai que la télé-médecine ne supprime pas, en
tant que tels, les spécialistes sollicités à distance. Et l'auto-médication est loin de conduire les
professionnels de la santé aux portes des agences pour l'emploi. Mais, l'augmentation du
niveau général de connaissance médicale, tout comme l'incitation -pour certaines maladies- à
déléguer aux patients une part croissante de la surveillance et des soins, élargissent la voie
pour une prise en charge directe de certains soins. Le perfectionnement des systèmes de
télésurveillance et de télé-diagnostic accentuera nécessairement cette tendance. Surveiller,
c'est, en cas de problèmes, inciter à l'intervention, en particulier lorsque la visite d'un médecin
est difficile voire impossible (navires en pleine mer, par exemple).

Le domaine de la formation est certainement celui qui résiste le plus à un strict passage au
télé-enseignement, sauf dans certaines conditions exceptionnelles (lieux d'habitation isolés,
formations de hauts niveaux s'adressant à des publics déjà fortement diplômés, par exemple).
L'absence de co-présence physique est toujours considérée, par les enseignants et les élèves,
comme une grave privation, même dans les expériences les plus accompagnées[21]. Il n'en
demeure pas moins que, outre l'usage croissant de formes hybrides[22], des cursus complets
ainsi que de véritables établissements d'enseignement en ligne commencent à voir le jour. Ces
services deviennent alors des médiateurs spécialisés de télé-formation, mixant la
communication médiatisée (contacts électroniques formateurs/formés) avec un recours
croissant à l'auto-formation (circulation hypertextuelle, séquences d'auto-évaluation à
correction automatisée, etc.).

La communication politique est, elle aussi, le siège de transformations notables. Lors de la


dernière campagne présidentielle américaine (conclue par la seconde victoire de Cliton),
Internet a commencé à concurrencer les moyens classiques de propagande (brochures, tracts,
et même émissions de télévision). Une relation directe s'est établie, via le réseau, entre les
sites des états-majors des candidats et des électeurs qui ne se contentaient pas de prendre
connaissance des programmes mais questionnaient les candidats et discutaient leurs
propositions. Des médias traditionnels comme CNN et Time ont réagi en créant un site
-Allpolitics Politics Now- alimenté aussi par ABC, le Washington Post et Newsweek. Ce site
offrit des informations quotidiennes, des articles de fond, des comparaisons de programmes,
etc. Hotwired, le site de Wired, a par exemple recueilli plus de dix mille connexions
quotidiennes sur Netizen, son Web politique créé pour l'occasion. Utilisé par des millions
d'Américains, l'impact du Web sur la campagne fut considérable, aux dires de plusieurs
observateurs spécialisés. On peut, sans prendre beaucoup de risques compte tenu de la
progression des abonnements, prédire un essor marqué de cette forme de communication qui
déplace, plus que toute autre, la fonction des intermédiaires consacrés et notamment celle de
la télévision.

B - L'auto-médiation versus automatisation

Le moteur de recherche est le premier agent d'auto-médiation. Mobiliser des programmes


informatiques à distance pour rechercher de l'information sur le Net : ainsi s'exprime
clairement et massivement l'automatisation de la médiation. Mais comment choisir la bonne
référence sur un sujet, comment apprécier la qualité d'un ouvrage ? L'inflation de publications
-due à l'importance sociale de cette activité pour un nombre croissant de professions- trouve,
avec Internet, un terrain naturel d'expansion. Mais peut-être aussi une limite, par
indifférenciation explosive. On ne peut lire plusieurs centaines d'articles ou de livres par mois.
Ce qui se profile tranche nettement avec le modèle de fluidité que pourrait laisser espérer
l'éviction des courtiers en tout genre. Progressivement des différenciations apparaissent. Le
secteur des logiciels de navigation sur le réseau se révèle stratégique. Parallèlement, des
prestataires de services monnayent des services d'assistance à la recherche, offrant de la
"valeur ajoutée" à l'information disponible. Ils éditent des catalogues, des index, des études
d'évaluation sur les sources d'informations, bref des filtres. De nouveaux mécanismes
d'évaluation émergent donc, tels que des comités de lecture, le chiffrage public des
consultations de sites, des étoiles décernées[23] ou... des critiques sur les médias traditionnels
rapportées dans les groupes de discussion.

Des méthodes plus systématiques font leur apparition. Par exemple, Lycos, robot chercheur
d'information -le premier qui indexe aussi les images et les documents sonores- confectionne
une liste de deux cent cinquante sites considérés comme les plus "populaires". Comment les
repérer ? Suivant une logique "citationnelle" (comptage du nombre de références faites à un
article scientifique dans les articles publiés sur les mêmes thèmes, afin d'en fixer le niveau
d'intérêt général). Le robot parcourt plusieurs milliers de sites chaque jour et mémorise le
nombre de liens qui mènent vers chacun d'entre eux. Plus il y a de liens, plus le site est dit
"populaire". Les robots et les guides de recherche permettent une véritable industrialisation de
cette logique d'automatisation de l'évaluation[24].

L'usage de ces programmes ne se limite pas à l'estimation automatique des consultations. Il


s'étend aussi à l'édition automatique. Computist's Communique, par exemple, est un
hebdomadaire électronique diffusé par messagerie, rassemblant des informations récentes
disponibles sur l'Internet selon certaines spécialités. Non seulement le routage est automatisé,
mais la sélection des articles et l'édition de la publication l'est aussi, assurée par des robots
chercheurs.

En 1998, on dénombre déjà plus de mille trois cents robots de recherche. Comment trouver
celui qui convient, compte tenu du domaine défini ? Dans une logique naturellement méta,
des robots de robots ont été conçus, tel que Savy search, à l'Université de Colorado, qui
n'exige que quelques indications sur la nature des informations recherchées (données
existantes sur le Web, noms de personnes, des sites commerciaux, par exemple). Savy
sélectionnera lui-même les robots les plus compétents selon les domaines prescrits, leur
enverra la requête, réceptionnera les réponses, éliminera les croisements et présentera les
résultats. Certains méta-robots testent plusieurs dizaines de moteurs et les classent par ordre
de pertinence sur le domaine indiqué dans la requête. D'autres encore, comme Metacrawler,
brassent les résultats de l'ensemble des autres robots.

Une nouvelle génération de méta-moteurs de recherche commence à apparaître qui assure des
fonctions de filtrage et d'évaluation de l'information selon plusieurs niveaux de recherche
incluant des méthodes d'analyse sémantique. Digout4U, à finalité plutôt professionnelle, en
est un bon exemple. Ce moteur accepte l'interrogation en langage naturel, interrogation à
laquelle il appliquera des procédures d'analyses sémantiques et syntaxiques. Il élargira de lui-
même, par exemple, l'interrogation "trafic en Asie" à "drogue OU mafia OU blanchiment...
ET Chine OU Thaïlande OU Laos...". Traquant moteurs de recherche, sites et même groupes
de discussion, Digout4U hiérarchise les fruits de ses investigations par ordre de pertinence.
Grâce à son module de traitement sémantique[25], coeur du système, la qualité des réponses
obtenues est étonnante. Pour faire face à l'augmentation de la surface informationnelle du
réseau et à l'acuité croissante des réponses espérées, verra-t-on apparaître des méta-méta-
robots ?

Commerce, voyage et télescope

La vente de voyages est, elle aussi, en passe de subir de profonds remaniements qui menacent
les intermédiaires habituels (agences, voyagistes, etc.). Exploitant la puissance des moteurs de
recherches, de nombreux sites proposent des services de veille personnalisée sélectionnant
sans relâche les destinations et les dates indiquées par l'Internaute tout en affichant des
tableaux comparatifs de prix[26]. L'instantanéité est ici un atout essentiel : qu'une place se
libère et le client est immédiatement prévenu par courrier électronique. Non seulement
l'agence de voyage est ignorée, mais le rapport commercial s'automatise. Les logiciels
personnalisés prennent, ici, la place de l'employé spécialisé.

Le cybercommerce offre un espace rêvé au déploiement de l'automatisation de la médiation.


On sait que, par exemple, des bibliothèques et des librairies virtuelles se développent et
offrent déjà des catalogues de plusieurs centaines de milliers de titres[27]. Plus précisément,
le cybercommerce est un terrain privilégié pour les robots d'achats[28] -les shopbots. Ils
parcourent le Web à l'affût de la bonne affaire ou affichent un tableau comparatif des prix
avec descriptif des produits et disponibilités, et par-dessus le marché, c'est le cas de le dire,
indiquent les liens hypertextes donnant accès aux sites choisis. Plus ambitieux encore, le
Media Lab du M.I.T. met au point un programme, nommé tete@tete, pondérant les différents
critères (prix, délais, conditions de livraison...) selon les choix de l'acheteur, évacuant même
les références trop excentriques, donc probablement peu pertinentes.

Dans d'autres domaines, la propension à éviter les intermédiaires se traduit par la mobilisation
à distance d'automates peu conventionnels. Par exemple, on peut commander, via Internet,
une observation par télescope d'une portion du ciel. Depuis le remplissage du formulaire
précisant la demande sur le Web jusqu'à réception par courrier électronique des images
acquises, tout est automatique[29]. Le télescope est pour ainsi dire télécommandé à distance.
Il décrypte les indications transmises et effectue les prises de vues correspondantes sans
interposition de personnels spécialisés. La grande mécanique techno-scientifique devient ainsi
mobilisable pour des usages personnalisés.

Auto-médiation, production de connaissances, transfert et acquisition de compétences.

Bien que ne relevant pas directement de l'auto-médiation pratiquée par le grand public,
l'automatisation intensive des techniques d'analyses documentaires transforme
considérablement certaines activités banales. La polémique politique, par exemple, s'est
trouvée enrichie récemment de nouveaux et puissants instruments. Durant la campagne
législative anglaise de 1998, l'état-major de Tony Blair s'est équipé du logiciel professionnel
Retrievial/Ware -déjà utilisé par Bill Clinton en 1992- afin de découvrir rapidement, par
exemple, une citation d'un ancien discours contredisant les propos actuels d'un leader
conservateur. Des recherches qui mobilisaient des équipes entières durant des journées
s'effectuent maintenant en quelques secondes[30].

L'automatisation de la médiation s'exprime non seulement à travers la recherche


d'information, mais aussi comme instrument de production de connaissances. Le domaine de
la recherche documentaire sur de vastes corpus -et, particulièrement le champ des
hypertextes- est l'un de ceux où ces évolutions sont particulièrement visibles. Par exemple,
des logiciels issus de l'ingénierie de consultation des bases de données, permettent de
cataloguer automatiquement des chaînes de références dans un ensemble de publications
numérisées. Ils cartographient des paysages en inscrivant graphiquement la géographie des
proximités d'emprunts, grâce à tout un arsenal d'examen systématique des auteurs, articles et
livres cités ainsi que des concepts utilisés. Il s'agit donc d'exprimer la configuration d'un
ensemble de connaissances pour lui-même, indépendamment de toute exploration
intentionnelle, afin de faire apparaître, par exemple, l'importance des différents emprunts
transdisciplinaires. De tels exercices peuvent parfois éclairer les thématiques qui polarisent
des domaines de recherches et révéler des tropismes auparavant invisibles. Ils accélèrent, en
tous cas, la perception pour une communauté de chercheurs par exemple, de ses lignes
conceptuelles migratoires, de ses modes intellectuelles ou de l'intensité de ses liens aux
disciplines voisines. Ces méthodes sont en passe de révolutionner les métiers de veille
technologique[31], tout comme les bases de données spécialisées ont transformé l'ingénierie
documentaire traditionnelle. Bien sûr, ces outils ne concernent, aujourd'hui que les travailleurs
intellectuels spécialisés. Mais leur diffusion vers des cercles plus vastes est en cours : certains
de ces instruments sont déjà disponibles sur le Web.

L'automatisation des traitements alliée à la formation, grâce à Internet, d'un espace unifié
mondial de l'information numérique crée une situation très nouvelle démultipliant la portée de
chacun de ces deux facteurs pris isolément. L'idée d'auto-médiation ne doit pas être
confondue avec celle d'automatisation, même si la première emprunte les voies de la seconde.
Ce qui apparaît dans l'élimination d'intermédiaires traditionnels, c'est, en premier lieu, la
possibilité d'effectuer directement des opérations qui exigeaient auparavant une maîtrise
professionnelle des sources d'informations ainsi que des procédures opératoires. L'effet-réseau
est d'abord une opération de rassemblement qui réunit en une seule base documentaire
répartie ce qui auparavant était éparpillé en autant de sources spécialisées, dont la localisation
était connue des seuls professionnels. Les logiciels de réservation de voyages sur le Web, par
exemple, sont fonctionnels parce que les robots de recherche se chargent de trouver les
adresses des sites concernés par une requête. La présence commune préalable de ces sites sur
le réseau est la condition de l'efficacité de ces logiciels. L'automatisation de la recherche est,
en deuxième lieu, le corollaire indispensable de cette possibilité d'accès démultiplié. C'est
l'alliance de la réunion des sources et de l'automatisation qui permet l'auto-médiation versus
automatisation.

Mais approchons-nous d'un peu plus près de cette notion. Quel est le contenu concret de
l'extension du self-service informationnel ? Il requiert, de plus en plus, un apprentissage, quasi
professionnel dans certains cas, de techniques de recherches documentaires, dont le
perfectionnement actuel des requêtes sur les robots chercheurs donne un aperçu. Plus
largement, l'usage approfondi du réseau relève d'une véritable compétence spécialisée, si on y
inclut la maîtrise des téléchargements des programmes complémentaires nécessaires pour
assurer une interactivité de l'image, le contrôle des push technologies, la réception
d'applications en V.R.M.L., etc. En regard de l'informatique documentaire professionnelle, les
techniques de recherches sur Internet sont, bien sûr, simplifiées. Mais elles se complexifient,
pour peu qu'on souhaite en exploiter toutes les potentialités. Opérateurs booléens,
parenthèsages, et bien d'autres méthodes se développent. Avec leur corollaire, des traductions
graphiques sous forme d'arborescences, par exemple, aidant l'utilisateur à préciser ses choix.
Internet étant, dans son principe, un média public, on voit d'un côté se complexifier et se
raffiner ses modes d'usages, et de l'autre se développer des aides cognitives spécialisées. Il
n'en demeure pas moins que l'usage du réseau exige et développe des compétences
spécifiques nullement triviales, selon des niveaux d'exigence variables, des applications grand
public aux activités professionnelles. L'auto-médiation requiert donc des apprentissages
typiques, dont la sophistication varie selon les différentes activités effectuées. Rien ne serait
plus inexact, que d'envisager ces pratiques comme relevant d'activités presse-boutons.

Croissance de la mémoire, agents intelligents et contraction temporelle


L'invention de ces programmes exprime aussi la contradiction entre la somme des
informations produites et le temps humain de recherche et d'appropriation mobilisable. La
recherche automatisée des robots réalise la contraction temporelle nécessaire pour dominer
l'énorme masse d'informations produites sur un thème, masse qui surpasse la capacité de
surveillance d'un individu, voire d'une équipe. Les simples techniques documentaires (fichier,
index, mots clés, abstracts) ne suffisent plus à contracter la base de données. Il faut recourir à
des automatismes de recherche sans cesse plus puissants. La vogue des agents intelligents
personnalisés et évolutifs répond au souci de ne pas s'épuiser dans des recherches sans fin sur
les mailles d'un réseau rassemblant des milliers de banques de données. On donne à ces agents
quelques indications sur nos centres d'intérêts et ils commencent à butiner dans les sites,
journaux, magazines, revues qui, de près où de loin, traitent de ces questions. Les réponses
s'inscriront en temps voulu dans la mémoire de l'ordinateur sans qu'il soit nécessaire de rester
connecté durant ces investigations. Il existe même des agents qui, d'emblée, nous demandent
de préciser notre profil (hobby, émissions de télévision et lectures préférées, sports pratiqués,
voyages souhaités, etc.) et dirigent leurs requêtes selon les indications fournies. Au début, les
fruits de ces recherches s'accordent mal aux attentes exprimées. On fait part de sa frustration.
L'agent en tient compte pour affiner ses démarches. De génération en génération, il se fait une
idée toujours plus précise de nos attentes et affûte ses réponses. La "personnalisation" apparaît
ainsi comme un objectif central. L'industrie publicitaire avec son obsession de cibles et autres
profils, y voit un instrument rêvé ; tout comme la vente sur catalogue, qui envisage d'adresser
à chacun un support calibré selon ses goûts.

Des effets pervers ?

Les robots de recherche et les guides de recherche sont-ils parfaitement "objectifs" ?


Éliminent-ils les inclinations personnelles de leurs concepteurs ? La réponse doit être
modulée. Certes, les critères sur lesquels robots chercheurs ou agents intelligents règlent leurs
investigations dépendent des méthodologies choisies par leurs concepteurs. S'il n'y a pas lieu
de suspecter des partis pris systématiques dans les méthodes d'indexation automatique ou
humaine, celles-ci sont en revanche soumises aux effets de masse. Elle traduisent
mécaniquement la présence inégalitaire des différents éclairages sous lesquels une même
question est présente dans les sites, les publications ou les groupes de discussion. À charge
pour l'Internaute de faire preuve de discernement et de perspicacité dans le libellé de ces
requêtes, s'il veut débusquer les approches originales qui l'intéressent particulièrement. (La
question de la compréhension du langage gouverne celle de l'interprétation des champs
sémantiques des banques de données disponibles sur le réseau. Ces problèmes -cruciaux- sont
loin d'être résolus.)

Il est vrai que l'auto-médiation engendrée par les moteurs et guides de recherche n'influe pas
sur les contenus informationnels repérés. Elle compile des stocks et produit des liens logiques.
Son élément, c'est essentiellement aujourd'hui la statistique et l'indexation des données. Mais
le tournant est pris, on l'a vu avec Digout4U, vers l'interprétation sémantique des
informations, et là, bien sûr, une subjectivité "machinale" -pas nécessairement intentionnelle-
s'exprime nécessairement, de par la mise en procédures automatisées des méthodes
d'extraction du sens imaginées par les concepteurs.

Par ailleurs, un média construit sur l'accès direct à l'information risque d'engendrer une
certaine clôture des champs d'intérêts. En lisant un journal, la formulation d'un titre intriguant
nous incite parfois à lire un article qu'on n'aurait jamais parcouru spontanément. La
"personnalisation" inhibe ces effets de proximité. L'émiettement, le confinement et le
compartimentage des aires de curiosité risque d'instituer un univers normatif et conservateur.
La maîtrise accrue des procédures de recherches d'informations ou de participation à des
collectifs thématiques véhicule une tendance à la spécialisation et peut traduire un désir de
confinement. L'horizon relationnel risquerait d'être a priori rétréci, éloignant toute rencontre
hors champ. Ces tendances à la personnalisation, incontestablement dans l'air du temps, ne
doivent cependant pas être érigées en mécaniques fatales. L'usage de ces agents personnalisés,
même s'il résonne avec de fortes tendances à la spécialisation, n'est pas exclusif d'autres
formes de parcours plus intuitifs, plus collectifs et ouverts à des rencontres imprévues. Rien
n'autorise, actuellement, à opposer mécaniquement individualisation et vagabondage intuitif.
L'une, activité finalisée, limitée à des centres d'intérêt précis, peut parfaitement s'accommoder
avec l'autre, à caractère plus ludique, dans des domaines aux frontières floues. Si la
valorisation de l'individualisation des requêtes mérite d'être soulignée, il serait imprudent de
déduire, à partir des usages actuels du réseau, des formes dominantes (individualisme, en
particulier) qui le qualifierait définitivement. La médiation automatisée recule, et ce n'est pas
rien, d'un cran (voire de deux, avec les méta-robots) la confrontation avec des décisions
humaines. Est-ce à dire qu'elle a vocation à éliminer tous les courtages humains ? Ce serait
aller vite en besogne.

C - L'auto-médiation, un concept paradoxal.

Auto, c'est soi-même, médiation c'est quasiment l'inverse : elle suppose l'intervention d'un
tiers. L'auto-médiation est paradoxale. D'une part, loin d'instaurer une relation "im-médiate",
elle mobilise des automates en position tierce -de nouveaux types de médiateurs- dont les
robots et guides de recherche sont, on l'a vu, sont les plus purs exemples. D'autre part, comme
on va le voir, elle est utilisée, à rebours, par les industriels du service en ligne face aux
Internautes.

Bataille politique contre la prééminence de l'État ou de firmes privées dans le contrôle des
communications, modèles de rapports interindividuels non médiatisés, valorisation de
l'autonomie et de l'action libérée au maximum de toutes contingences extérieures, tous ces
traits s'allient pour faire de la tentative de suppression des courtiers traditionnels un enjeu
nodal. Il faut cependant souligner l'impossibilité logique du modèle qu'Internet promeut, plus
ou moins délibérément, en annonçant une émancipation complète des intermédiaires.

Naviguer, surfer sur l'océan informationnel comme on navigue librement sur les mers du
globe, est une métaphore douteuse. Seul, face aux Gigabits des centaines de milliers de
services accessibles, on serait vite englouti sans les automates de recherche disponibles. Plutôt
que d'une suppression d'intermédiaires, ne s'agit-il pas de leur substitution par une nouvelle
catégorie, sécrétée par le média lui-même, dont la principale caractéristique consiste à
automatiser la médiation. La maison de courtage en Bourse est substituée par des sociétés
offrant des logiciels de recherche et de transaction en ligne, tout comme le voyagiste l'est par
d'autres logiciels et moteurs de recherche spécialisés. La poste voit sa fonction
avantageusement accomplie par les serveurs de courriers électroniques. L'institution éducative
prend la forme d'un fournisseur de services en ligne de télé-formation. L'éditeur, le libraire
sont remplacés par un gestionnaire de sites sur le réseau ou un diffuseur de logiciels de
recherches hypertextuelles. Les nouveaux médiateurs combinent en réalité télé-relation entre
acteurs humains et mise à disposition d'automates.

Convenons, enfin, que séparer autonomisation et automatisation de la médiation est quelque


peu rigide. Bien souvent, les deux processus se combinent en proportion variable pour se
renforcer mutuellement. Par exemple, mettre un titre musical en ligne (autonomisation)
nécessite d'utiliser des automates (notamment de compression) et de faire référencer le titre
sur les moteurs de recherches appropriés. De même, passer un ordre en Bourse s'effectue en
utilisant un logiciel spécialisé. Inversement, se servir d'un moteur de recherche
(automatisation), c'est accroître son autonomie informationnelle. C'est pour la commodité du
propos que nous avons juxtaposé les deux composantes de l'auto- médiation. On pourrait fort
bien, dans de nombreux cas, les entrelacer.

À rebours de l'auto-médiation : le profilage automatisé

L'auto-médiation est à double face. En effet, les outils de l'auto-médiation sont mis à profit
par ceux qui se situent sur l'autre versant du réseau, les industriels du service en ligne, face
aux Internautes. Amazon.com, par exemple, propose à l'acheteur des livres correspondant à
son profil de lecteur. Des programmes, opérant par "filtrage collaboratif", lui adressent des
propositions d'achats en compulsant inlassablement les listes de livres commandés par les
autres acheteurs du même titre. D'autres applications de compilation automatique sont, en
revanche, la conséquence directe de l'existence de la Toile. Par exemple, la multiplication des
sites musicaux sur le Web (plus de vingt-sept mille, fin 1997) rend difficile le strict respect de
la protection des droits d'auteurs. Qu'à cela ne tienne, une agence américaine de recouvrement
de droits vient de mettre en service Musicbot, robot qui, à grande vitesse, surveille et recense
la diffusion de musique sur le Net.

Dans le même esprit, certaines entreprises de cybercommerce ont développé des logiciels pour
contrer l'usage des robots d'achat qui réduisent à néant leurs efforts publicitaires ou de
marketing. Ils analysent systématiquement l'adresse du visiteur et ferment l'accès au site
lorsqu'ils repèrent un robot ou réduisent les prix d'achat en majorant les frais de livraison.
Enfin, frisant l'escroquerie, certains robots sont en fait rattachés à des "entreprises partenaires"
; d'autres sont rétribués selon les clients "rabattus".

Par ailleurs, cette logique provoque de grandes tensions dans le domaine sensible de la vie
privée. Employée à grande échelle dans des pays comme les États-Unis, à législation laxiste
en la matière, ces méthodes étendent considérablement le champ de l'enquête individuelle
pratiquée par des sociétés privées[32]. Enfin, l'auto-médiation peut prendre le visage trouble
de l'auto-censure. Des outils, qualifiés de censorware, commencent à être utilisés pour
organiser l'automatisation individuelle de la censure dans la consultation des sites, non sans
engendrer de graves contresens[33].

Partager le travail de la médiation

Que l'irruption de l'auto-médiation bouscule des séparations solidement établies entre


producteurs et consommateurs informationnels, n'est pas surprenant. Les défenseurs du travail
professionnel de la médiation, comme Dominique Wolton ou Jean- Marie Charron, insistent, à
juste titre, sur l'indispensable labeur de tri, de mise en perspective, de recoupement et de
hiérarchisation de l'information accompli par les spécialistes patentés (journalistes de la
presse écrite et audiovisuelle, pour l'essentiel). Ainsi, les médiateurs seraient, selon
Dominique Wolton, les "ouvriers de la démocratie" (d'où l'idée qui lui est chère d'un lien
consubstantiel entre médias de masse, démocratie et espace public). L'erreur de Dominique
Wolton n'est pas de valoriser le travail de la médiation. Non, l'erreur ou plutôt la limitation de
ce positionnement, c'est de refuser le partage de ce travail avec les acteurs humains (acteurs
individuels ou collectifs engagés dans l'événement) et les humains indirects (logiciels et
autres moteurs et guides de recherche). La perspective ici énoncée consiste, en revanche, à
reconnaître l'amateurisme -au sens littéral du terme "amateur", "celui qui aime"- de la
médiation, comme une donnée marquante que l'espace Internet exprime, autorise et promeut
tout à la fois. J'accorde une attention particulière au cyberespace comme révélateur et comme
catalyseur de ces mouvements où émergent des savoir-faire intermédiaires, émergence qui
m'apparaît comme l'une des grandes questions politiques actuelles (on la retrouvera dans le
chapitre sur l'interactivité). Il ne s'agit donc pas, dans mon esprit, de dénoncer une médiation
corruptrice, d'en appeler à l'immanence contre toutes formes de transcendance, mais de
reconnaître une graduation de ces savoirs, des formes professionnelles les plus classiques aux
pratiques d'expression directe.

Il est frappant de voir se généraliser, dans une forme d'espace public, une auto-médiation
automatisée dont on n'a pas fini de découvrir la puissance parce qu'elle traduit un profond
désir d'accroître notre puissance d'intervention pratique et relationnelle en profitant des
formidables automates intellectuels mobilisables à distance par le réseau. Sous cet angle, la
présence à distance intensifie l'existence sociale.

Expression, engagement et dissémination de l'auteur

Internet n'est pas seulement un espace fonctionnel où l'on résout des problèmes (trouver
l'information pertinente, acheter un produit, réserver un voyage, etc.). C'est aussi un espace
d'expression où chacun est censé pouvoir s'adresser, sans autorisation préalable, au monde
entier. La multiplication des sites personnels et des home pages en témoigne. Cette situation,
qui radicalise des tendances antérieures dont l'imprimerie a été l'un des vecteurs, comporte des
aspects inédits. Il nous faudra prendre la mesure de la production exponentielle de textes et de
documents multimédias sur le réseau, dont il est difficile de préciser le statut : productions à
caractère informatif auxquelles il est impossible d'appliquer les règles usuelles de validation
(notoriété, responsabilité, etc.), textes expressifs dont on ignore quasiment tout de l'auteur,
dissimulation ou travestissement de l'émetteur, interventions fragmentaires dans des groupes
de discussion ou encore messages reçus grâce à des listes de diffusion, etc. Des flux textuels
sont mis en ligne sans être investis par leurs auteurs comme des matériaux qui les engagent ;
une production expressive et documentaire souvent anonyme, en croissance permanente.
Cette fontaine prolifique n'est plus soumise à des exigences de consistance, d'originalité, de
responsabilité, de qualité littéraire, de pertinence et de style. Elle s'apparente beaucoup plus à
une conversation orale, ou plutôt à un bruissement mondain, une profusion d'interpellations,
des bribes de discussions aussitôt perdues qu'engagées -abdiquant d'emblée le prestige qui
s'attache à la chose écrite et notamment sa conservation. Peut-elle se prêter à des
enchaînements ? Constitue-t-elle autre chose qu'un espace projectif, où chacun peut trouver
matière à alimenter ses propres associations et fantasmes ? De telles propositions, peuvent-
elles faire penser ?

Nombre de prosélytes des réseaux nous invitent à abdiquer tout questionnement sur l'identité
de l'auteur, mettant en cause son unicité même. Mais peut-on s'approprier un texte -ou un
hypertexte- sans supposer qu'une intentionnalité (aussi ténue et difficile d'appropriation, soit-
elle) y est déposée ? Comment apprécier un texte non délimité, dont l'unité formelle
distinctive serait flottante et qui, donc ne pourrait être assigné à des intentions individuelles ou
à celles de groupes réunis par un commun parti pris ? Que la signature individuelle d'un texte
engage indirectement une cohorte d'auteurs rassemblés par les tribulations antérieures du
rédacteur, c'est l'ordinaire de la condition moderne d'auteur. Mais qu'on puisse dissoudre cette
exigence dans une prétendue virtualisation où plus aucune idée n'est assignable à un auteur
individualisé, au profit d'une écriture collective, parallèle et disséminée est hautement
problématique. Peut-on penser une communauté qui transcende immédiatement ses
composantes et qui, d'emblée, fonctionnerait dans l'échange, sans pôle privilégié
d'individuation assumant les fonctions d'accumulation et de mémorisation ? Nous le verrons,
malgré bien des dénégations, une mémoire individuelle et collective s'édifie de fait autour du
réseau. L'extension de l'expérience sociale que constitue Internet en est la preuve vivante.

Démocratie virtuelle, décision et conflits

La disparition de la médiation, ou son affaiblissement, gouverne la thèse de la possibilité (et


de l'intérêt), d'une reprise directe par les acteurs des garants de leur organisation sociale ainsi
que d'une définition directe des normes de leur coopération. Étendons donc cette question à la
sphère politique. Se passer des médiateurs en général et des spécialistes de l'exercice du
pouvoir en particulier, c'est redéfinir les formes de prise collective de décisions. Les usages du
réseau qui court-circuitent la démocratie représentative (consultation électronique en temps
réel, expression directe de communautés, etc.) relèvent de projets expérimentaux plus que
d'alternatives consolidées. Il est plus intéressant, en revanche, d'interroger, sous cet angle,
l'actuel mode de gouvernement propre à Internet. Christian Huitema[34] développe, à cet
égard une argumentation provocatrice appuyée sur les idées de Dave Clark, premier président
de l'I.A.B. (Internet Activities Board)[35] : "Nous rejetons les rois, les présidents et même les
votes. Nous croyons au consensus approché et aux codes qui marchent"[36]. Le refus
iconoclaste du vote est justifié par plusieurs types d'arguments. Les premiers concernent la
définition de l'électeur : individu, adresse électronique (mais un individu peut en avoir
plusieurs). On pourrait émettre des droits de vote en rapport avec le nombre de messages
envoyés sur le réseau. Entre les experts et les utilisateurs occasionnels, le coefficient de
décision varierait considérablement. Mais tous les messages ont-ils le même poids, le même
intérêt pour la communauté ? Un vote par pays, comme dans les grandes organisations
internationales, ne serait pas particulièrement démocratique, pas plus, évidemment, qu'un
scrutin par grandes firmes. Une réflexion originale se développe donc à propos des agents de
la décision : individus, groupe d'individus rassemblés dans une expérience d'élaboration
commune (B.B.S., groupe de discussion privatif, par exemple), laboratoires, centre de
documentation, firme commerciale, etc. Le réseau mélange tout cela. Il s'en suit une
augmentation de complexité de la notion de "sujet décideur". Et cette indétermination est
probablement stimulante pour renouveler les pratiques de décisions collectives.

Une autre série d'arguments remettent en cause le principe même du vote. Christian Huitema
dénonce "l'effet pervers" de "ces systèmes de votes", lorsqu'aucune proposition en présence
n'emporte la majorité absolue. "On verra se développer des négociations de coulisse qui
conduiront à des compromis boiteux"[37]. Pourquoi répudier de telles négociations
envisagées comme corruptrices ? La suite éclairera cette prévention contre les risques de
"marchandages". La règle de l'I.E.T.F. (groupement responsable de l'évolution des standards
de l'Internet[38]) est donc, non pas de décider par un vote, mais de rechercher un consensus.
Mais comment l'I.A.B. s'applique-t-elle ces principes, afin de renouveler chaque année la
moitié de ses membres ? Par tirage au sort d'une liste de volontaires qui décident
souverainement quels seront les membres remerciés et qui les remplacera. Pourquoi
rechercher un consensus ? Afin de convaincre. Comment ? "Seule compte la qualité
technique, aidée si possible par une démonstration pragmatique"[39]. Et, Christian Huitema
d'insister sur les deux critères de choix que sont la force d'une démonstration concrète par "un
logiciel qui tourne" et la facilité de production. La conclusion coule de source : "La recherche
du consensus conduit ainsi à l'élégance et à l'excellence"[40]. On pourrait ajouter : "par la
preuve technique". Si Jürgen Habermas recherchait des exemples pour qualifier le mode de
légitimation propre à la technique, il les trouverait là, "brut de décoffrage".

Mais n'oublions pas que les enjeux des décisions à prendre concernent le choix des standards
de communication[41]. S'agissant de protocoles techniques, ceux-ci peuvent être publiés sur
le réseau à des fins d'expérimentation conjointes. Les acheteurs de prototypes doivent pouvoir
choisir entre "plusieurs produits de différents fournisseurs". Dans une logique libérale, "la
responsabilité du choix", est laissée au "marché", sage instance qui régule l'adéquation entre
l'offre et la demande. Il s'agit bien là d'un ordre social, exprimant la formation, non pas d'une
opinion mais le fonctionnement pur d'un marché en situation libérale idéale, où la liberté et
l'autonomie des acteurs le dispute à la rationalité technique de leur choix. Mais même dans ce
cas, l'opérationalité technique n'est pas à l'abri des jeux de pouvoirs. Imposer une norme est
souvent un enjeu commercial considérable qui mobilise des stratégies très rusées[42].

Dans la continuité de l'expérimentation conjointe des protocoles, une question, liée à la nature
originale d'Internet, attire en particulier notre attention. Elle touche au règlement des conflits.
Tous les conflits n'ont pas à être tranchés en faveur d'une solution exclusive. Dans ces cas, le
contrat social peut alors redéfini à partir de l'acceptation de la coexistence d'expérimentations
contradictoires. C'est d'autant plus facile sur le réseau qu'il s'agit d'un échange de signes. Dans
d'autres compartiments sociaux, ce n'est pas si simple. Faut-il, à la place d'une usine
désaffectée, construire un immeuble ou aménager un parc ? On ne peut pas entreprendre de
véritables expériences urbaines ou sociales (la démarche expérimentale suppose la
réversibilité, le retour aux conditions initiales). Sur un réseau, il est en revanche possible de
faire coexister plus facilement différentes solutions antagoniques à un même problème parce
que l'espace informationnel supporte beaucoup plus aisément la co-présence de propositions
conflictuelles.

Le modèle libéral convient-il vraiment pour penser cette forme horizontale de rapport à la fois
non totalement marchand et non-étatique qu'est Internet ? Pas pleinement. Le réseau est en
effet aussi un espace public d'un type particulier, sans distinction entre centre et périphérie. Il
n'appartient ni à des individus, ni à des États, ni à des groupes privés. Et enfin, il est mû, pour
sa part non-marchande, par un idéal de participation active aux décisions. Dans le
"management" d'Internet, il y a une recherche et une activité démocratique incontestables qui
dépassent les limites de la démocratie représentative et qui reposent sur l'originalité des
logiques du réseau. Cette recherche matérialise toujours aujourd'hui l'inspiration novatrice et
l'énergie égalitaire qui avaient saisi le groupe social matriciel (chercheurs et jeunes
universitaires américains des années soixante-dix) dont est issu Internet.

D - Scénographie de l'auto-médiation

Interactivité locale et navigation sur réseau

On sait que la forme des récits, les "dispositifs d'énonciation", véhicule l'essentiel de leur
signification. Dans cette optique, je propose de comparer deux types, apparemment opposés
de dispositifs : le récit interactif et la navigation sur réseau. Tous deux concrétisent, à
première vue, l'idée d'autonomie narrative (ou "navigationnelle") et chacun se décline, par
ailleurs, dans l'une des deux configurations privilégiées du multimédia : CD-Rom et Web.
D'un côté la circulation dans un programme local, fermé mais avec des corpus de grandes
dimensions -que les nouvelles générations de supports optiques (DVD-Rom) viendront
démultiplier- de l'autre la présence à distance et l'activation de chaînages quasi infinis. D'un
côté un grand livre déjà écrit, de l'autre un livre qu'idéalement, on peut augmenter soi-même.
D'un côté la mémoire inscrite, mais inaltérable, de l'autre la circulation, l'échange, mais sans
(ou quasiment sans) le souci de la mémorisation.

Avec les dispositifs auto-narratifs (récits qu'on se raconte à soi-même), le fantasme est
d'éliminer toute référence extérieure, faire du sujet le seul auteur du récit. Fantasme
d'autonomie absolue, où, dans un premier mouvement, le récit d'autrui est ignoré à travers
l'interaction avec un moteur de propositions textuelles, imagées, et sonores. Les circulations
sur CD-Rom, par exemple, imagent cette posture[43]. Que cette tentative soit vouée à l'échec
ne la discrédite pas à l'avance. Car bien sûr le spect-acteur affronte des obstacles rédhibitoires
dans cette quête d'autonomie. Il ne maîtrise ni les matériaux narratifs ni l'enchaînement des
séquences. Ceux-ci apparaissent comme l'oeuvre du concepteur de l'hypermédia, bien que leur
destination soit de se dissimuler en tant que déjà donné, pour laisser place à un certain espace
libre de construction du récit ou du parcours par le spect-acteur, espace desserrant les
contraintes propres aux supports stables (livre, film, etc.).

Avec le Web, ce serait, à première vue, l'inverse. Ici, l'interaction idéale se déroulerait -si elle
le pouvait, et on sait la distance qui sépare ce voeu de la réalité des usages- sans
intermédiaires. Laissons ici de côté les usages informationnels d'Internet (consultation de
banques de données, de journaux, de revues, etc.). Non pas qu'ils soient secondaires mais ils
relèvent d'une communication dans laquelle, on l'a vu, les procédures automatisées
(navigateurs, robots chercheurs) occupent une place centrale et déplacent des anciennes
médiations (édition, médecine, justice...). Intéressons-nous plutôt à la part vivante du réseau,
celle qui ne mobilise pas essentiellement des programmes automatiques mais rassemble des
sujets humains à distance : messageries, groupes de discussion, etc. Nous avançons pourtant
l'hypothèse que, sous un visage différent de celui qui habille l'interactivité locale, le même
fantasme d'autosuffisance est à l'oeuvre. Certes, il ne s'agit apparemment pas d'éliminer autrui.
Plutôt de le rendre omniprésent, mais sous une forme abstraite. Dans les groupes de
discussion, la scénographie de l'échange s'émiette dans les rebonds d'une conversation
multipolaire, sans références stabilisées. Toujours évolutive, non dirigée vers la mémorisation
des échanges, elle se déroule dans une temporalité constamment rafraîchie. D'un côté -avec le
récit interactif- il s'agirait d'une tentative d'élimination de l'extérieur, de l'autre -avec le
réseau- une inflation d'extériorité. Un récit auto-engendré contre un flux d'échanges sans
récit ?

On soupçonne que l'hypertrophie de ces postures se rejoint dans leurs extrémités : tenter de
dénier l'altérité en la rabattant sur l'objet local (cas du récit interactif), ou déjouer l'altérité en
la diffractant dans un entrelacs de correspondances éparpillées dans les mailles du réseau.
Dans les deux cas, on vise à la suppression d'une référence externe au dispositif narratif ou,
plus largement, relationnel. Cette visée d'auto-référence s'accomplit de deux manières
différentes. Avec le récit interactif, il s'agit, en tendance, d'être soi-même et tour à tour
récepteur de ses décisions et, fantasmatiquement, auteur de son spectacle : spect-acteur. Avec
la navigation sur réseau, sans intermédiaire, le fantasme -bien qu'apparemment inversé- est
semblable : supprimer une instance surplombante et source de légitimité, annihiler une
transcendance à laquelle se référerait la communication interindividuelle.

L'une des dimensions principales de cette tentative est la prédominance -apparente- de la


spatialité (relation horizontale, immédiate) sur la temporalité (réduction de la mémorisation,
obsolescence accélérée de la tradition, raréfaction de la référence au passé, dissuasion de
constitution de corpus permanents)[44]. Pourtant, les relations spatiales dans le réseau sont
adossées à d'intenses opérations temporelles telles que le remembrement des anciens corpus,
la mise en disponibilité progressive de la mémoire écrite traditionnelle et surtout la
coopération et l'entraide pour l'usage des nouveaux outils apparaissant régulièrement sur le
réseau (logiciels de compression, d'affichage tridimensionnel, de visiophonie, etc.).
L'horizontalité spatiale n'est toutefois privilégiée qu'apparemment. De manière souterraine, se
creusent de complexes constructions temporelles dont nous aurons le loisir de décrypter
ultérieurement les motifs.

En ignorant les intermédiaires, c'est-à-dire en dévalorisant leur fonction, on exprime un


souhait : que la légitimation de l'information ne dépende que de ses producteurs et de ses
récepteurs. Mais en instituant le face à face direct comme forme valorisée de l'échange, on
recrée une transcendance "muette" qui fait rapidement retour comme en témoignent aussi bien
cette fameuse question de la visibilité des sites sur Internet -témoignage d'une hiérarchisation
de leur valeur- que l'émergence de nouveaux intermédiaires automatisés.

Ce type de situation manifeste le désir d'autonomie, le refus du dédoublement, mais qui reste
de fait un dédoublement dans sa forme "rusée" ; comme la forme de transcendance que, dans
son étude sur l'auto-référence et le dédoublement, Yves Barel qualifiait de particulièrement
subtile, consistant à donner le sens de quelque chose en le lui refusant : "Ce que l'on chasse
est recréé par la manière dont on le chasse"[45]. Ainsi, rapporte Howard Rheingold, "le
programme du réseau WELL le plus utilisé s'appelle <<Who>> et permet de savoir qui est
connecté à un moment donné"[46]. Le monde virtuel se regarde vivre, se met à distance de
lui-même, mais par effet miroir : "À observer une communauté virtuelle donnée [...] on a un
peu l'impression de regarder un feuilleton américain pour lequel il n'y aurait pas de séparation
nette entre les acteurs et les spectateurs"[47]. Désir d'une reprise totalisante de la vie d'une
communauté par elle-même, désir spéculaire qui manifeste non pas tellement l'auto-contrôle,
mais l'auto-référence. Les résultats d'une étude sur les modes d'usages du Web, entreprise par
un sociologue canadien, F. Bergeron vont dans le même sens. Ainsi, a-t-il eu l'idée de
comptabiliser les occurrences du mot "je" dans les langues anglaise, française et espagnole, en
lançant l'un des plus puissants moteurs de recherches, Altavista, sur le réseau. Deux fois plus
de "je" que de "tu" et de "nous", telle fut la réponse[48]. Bien entendu, il faut accueillir ces
résultats avec prudence compte tenu de l'absence de statistiques générales, mais l'indication
est intéressante. La formidable explosion des pages d'accueil personnelle sur le Web nourrit
une inflation de biographies, de récits des faits et gestes quotidiens, les uns aussi banals que
les autres, bref une soirée "diapos de vacances" à l'échelle de la planète. Aussi, en guise de
portrait type d'Internaute, dessine-t-il : "Un individu assez centré sur lui-même et qui fait de
ce recentrement un projet mondial". Finalement cet exhibitionnisme de principe, qui
transforme Internet en "lieu privilégié de l'admiration de soi", n'est peut-être pas aussi
illusoire qu'on pourrait le croire. Ce qui compte, c'est de s'afficher sans espérer pour autant
recevoir des connexions. L'affiliation au réseau par installation d'une carte de visite
multimédia fait alors office de lien social, à l'image de ce que Michel de Certeau avait déjà
remarqué à propos de ceux qui laissaient la télévision ouverte même lorsqu'ils quittaient leur
domicile.

Ce que l'on chasse -la médiation- est recréé ici, en instituant l'échange permanent, multiplié,
diffracté sur le réseau comme lieu social privilégié. Le média -supposé miroir- recrée une
distance et dédouble les cybernophiles en observateurs d'eux-mêmes. Ils n'affirmeront jamais
qu'ils se replient dans le réseau, que c'est un refuge. Bien au contraire, ils le présentent comme
le symbole de l'ouverture au monde, avec, en prime, l'allégement des appartenances. On se
définit par l'affiliation au réseau. Dans cette logique, être membre d'un groupe de discussion
devient une marque sociale notable. Et une adresse électronique, un signe de reconnaissance
de plus en plus courant. En fait la scénographie cyber transforme l'Internaute en centre
privilégié, la périphérie n'est là que pour lui assurer cette position nodale. Mais cette
certification dépend de la société des correspondants. C'est un compromis ingénieux entre une
négation de l'altérité -en quoi consiste l'illusion d'être le centre du réseau- et une position
constamment et directement référencée à l'assemblée mouvante des participants reliés. Ni une
vraie solitude, ni une participation totale. Ni une confrontation engageante -du type de celle
où l'on risque un échec- ni une flottaison indifférente, comme dans les foules anonymes.
Drôle d'espace, ni vraiment public ni totalement privé. On livre toujours quelque chose de soi
dans un réseau sans en maîtriser ni la signification, ni la trajectoire. Émerge ainsi une nouvelle
formule d'interpénétration des espaces publics et privés, où l'espace public s'encarte en
quelque sorte dans l'espace privé. L'interrogation porte, de fait, sur la nature d'un lien social
"virtuel" non-hiérarchique et toujours fluide : que gagne-t-on et que perd-on en tentant
d'éliminer les points d'accumulation de la mémoire, et par conséquent en affaiblissant sa
temporalisation ? Il y a manifestement un vertige, un trouble à penser un espace social a-
centré, formé de groupes à échanges partiels (à distance et par systèmes symboliques).

J'admets volontiers que cette appréhension "narcissique" de la communication sur le réseau


est partielle, voire partiale. Elle ne s'ajuste ni à un abord sociologique, ni même
psychologique. Des observations "de terrain" contrediraient sans doute cette approche, du
moins la reléguerait-elle au rang d'une posture parmi d'autres. Elle vaut, en fait, plus comme
composante, explicitant un paradigme présent selon des proportions variables dans tous les
modes d'usages ; une sorte de fantasme collectif porté par tous et accompli par personne.

Expérience et espérance : le mythe performatif Internet

Si Internet est adossé à un mythe, celui-ci tiendrait plutôt des mythes de l'âge classique (récits
fondateurs dans lesquels on s'inscrit) plutôt que de ceux de l'âge moderne (désir de dissiper les
récits fondateurs par l'opérationalité techno-scientifique). Mais ce n'est pas simplement un
récit fondateur qui distribuerait des réponses aux interrogations existentielles actuelles. C'est
un dispositif pratico-imaginaire qui expérimente, dans l'actualité, son utopie. Tout comme les
Anciens expérimentaient leurs mythes (danses rituelles, théâtre grec, cérémonies religieuses)
en essayant de fonder l'organisation de leur vie sociale sur des règles qu'ils souhaitaient
immuables, (et qui pourtant exigeaient une interprétation permanente).

Évidemment, Internet ne se présente pas comme un mythe, mais comme un dispositif socio-
technique. Il en a pourtant tous les traits. Nous le nommons "présence à distance" et le
définissons comme un mythe expérimental. Ce mythe, comme tout mythe, n'est ni un récit
mensonger ni une illusion. Il possède la double efficacité d'être à la fois une espérance et une
expérience. Espérance d'une vie plus "immatérielle", moins soumise aux pesanteurs des
macros-objets, de la matière industrielle, des rapports sociaux de domination. Le cyberespace
cumule la fonction imaginaire (ludique, onirique, relationnelle) avec la fonction opérative
(formation, commerce, travail)[49]. Dans la pure veine des utopies du siècle passé, Internet
permet d'éprouver conjointement l'évasion dans un outre-monde où les règles sociales seraient
à inventer ex nihilo (comme les règles du management interne d'Internet ou l'établissement
d'une constitution politique dans le "Deuxième monde" en seraient les prémisses) et
parallèlement de conduire des activités variées (jeux, conversations, commerce, travail) où le
média démontre sa pertinence. L'imaginaire et l'opératif s'allient pour accomplir cette utopie
pratique.
Internet reconstitue une transcendance par son combat tangible contre les intermédiaires : une
cause commune qui dépasse les acteurs et surtout qu'ils peuvent mettre en oeuvre directement.
D'autant que la sphère de la communication interpersonnelle n'épuise pas la discussion des
enjeux sociaux du réseau. Internet est aussi le porte-parole d'un vigoureux mouvement visant
à augmenter nos espaces d'autonomie, notre puissance d'intervention sociale, notamment on
l'a vu, en conquérant, par automatismes interposés, l'exercice de fonctions sociales qui nous
échappaient ou en s'opposant à certaines logiques marchandes. Aussi, faisons-nous
l'hypothèse que l'auto-médiation agit, dans ce cadre, comme principe quasi-moral, la lutte
contre les intermédiaires faisant office d'objectif normatif. Comment imaginer une force plus
transcendante (mais aussi pourvoyeuse de subjectivité) qu'une cause à laquelle on ne se
contente pas d'adhérer mais qu'on actualise, qu'on performe. Il n'y a pas de discours plus
efficaces que ceux qu'on propage parce qu'ils servent nos intérêts. Sous cet angle, au fil de nos
multiples connexions, nous construisont indéfiniment le mythe Internet, inscrivont son récit et
performont sa légende.

[1] Un exemple parmi cent possibles : dans le livre L'entreprise digitale de A. André et al.
(Andersen Consulting, First, Paris, 1997) l'entreprise numérique est définie comme "un réseau
de petites équipes autonomes, ouvert sur l'extérieur, affranchi des contraintes de l'espace et du
temps, irrigué par une information disponible. Et capable de se reconfigurer instantanément
pour s'adapter aux évolutions de son environnement."

[2] Ce constructivisme sociologique inspire nettement l'épistémologie basée sur les réseaux
socio-techniques. Nous aurons l'occasion d'y revenir par la suite.

[3] Dans les "groupes de discussion", par exemple, une pression normative ne manque pas de
s'exprimer : pas de texte flou et long (aucune chance d'être lu), ne pas ennuyer les participants,
consulter les F.A.Q. (Frequently asked questions) pour ne pas alourdir la circulation de
l'information, faire preuve de netiquette, bref être performant, circonstancié, opérationnel.

[4] Pierre Lévy, Cyberculture, Odile Jacob/Conseil de l'Europe, Paris, novembre 1997,
pp. 147/148.

[5] La logique du massmedia est très lisible du point de vue de l'éditeur. En attestent les
dépenses de publicité sur le réseau visant à retenir l'Internaute sur un même site ainsi que le
développement de campagnes promotionnelles ciblées. Par exemple, le site d'IBM a reçu plus
de quatre millions de visiteurs durant la confrontation entre Deep Blue et Gary Kasparov
(dont 420 000 pour la dernière partie). Une telle audience comparable à celle d'un bon
programme sur le câble, hisse cette opération au rang de principale campagne publicitaire
menée sur le Net. En revanche, du côté du récepteur, cette caractérisation doit être nettement
tempérée. L'Internaute circule interactivement dans un site édité, et, de plus, à la différence
d'un journal ou d'une revue papier, il peut le quitter instantanément pour aller sur d'autres
sites.

[6] Cylibris propose au lecteur tenté par l'offre, de passer à l'écriture à partir de textes
téléchargés, et offre des conseils à destination des apprentis auteurs.

[7] "Dans le cyberespace, chacun est simultanément écrivain et journaliste, éditeur et lecteur,
vendeur et acheteur." (B. Giussi, Révolution dans l'information, in Le Monde Diplomatique,
oct.1997, p. 27).
[8] LMB Actu est publié par le C.N.R.S.

[9] Alain Simeray, La pêche à la ligne, in Libération, supplément multimédia, 21/11/1997, p.


VII.

[10] Il faut entre six et dix-huit mois pour publier un article -s'il est accepté- dans une revue
de renom. La publication directe est la conséquence, aussi, d'une certaine tendance des
comités de lecture -assaillis par un nombre croissant de propositions d'articles- à privilégier,
faute de temps, les articles les moins "fantaisistes", lesquels recèlent parfois de véritables
innovations déstabilisatrices. Voir Jean Zinn-Justin, L'influence des nouveaux outils
informatiques sur la publication des travaux en physique, in Terminal, ndeg.71/72, 1996, pp.
259/266.

[11] L'exemple du San Jose Mercury News aux États-Unis est symptomatique, qui a vu croître
simultanément la lecture des deux versions.

[12] La publication sur le webjournal de Matt Drudge, d'informations non vérifiées à propos
des liaisons extra-conjugales de Clinton a contraint les grands quotidiens à emboîter le pas de
peur qu'ils ne soient devancés par leurs concurrents.

[13] Il s'agit de la N.O.A.A. (National Oceanographic and Atmospheric Administration).

[14] Des sites commerciaux ou coopératifs, aux États-Unis, se livrent une concurrence
acharnée pour répondre aux demandes les plus diverses, grâce à leurs bibliothèques contenant
des milliers de devoirs et à leurs moteurs de recherche. Le développement de ces pratiques
suscite déjà, chez les enseignants des contre- mesures : demandes d'avant-projets ou sujets
très contextualisés. Au Texas, une loi a été prise pour interdire ce type de commerce. À quand
les logiciels de détection des devoirs pré-rédigés ? (Voir K. Granier-Deferre, Dissertations à
vendre, in Le Monde, 7/8 Septembre 1997, p. 34.)

[15] En 1997, trois millions de compteS étaient gérés sur le réseau aux États-Unis. Fin 1998,
leur nombre dépassait les cinq millions. Selon une étude (effectuée en 1997 par le cabinet
Forester Research), plus de quatorze millions de comptes seront ouverts sur le réseau en
2002. Elle prévoit que les actifs gérés vont y être multipliés par 5. La société de placement
direct en Bourse par le Web, E*Trade, basée à Palo Alto, arrivait sur le marché français à la
fin 1998, accélérant l'ouverture de services similaires par des banques et des courtiers
traditionnels.

[16] E*Trade réalise, en association avec une banque, l'introduction on line de sociétés sur le
marché boursier. D'autres institutions s'apprêtent à offrir les mêmes services.

[17] Abréviation de MPEG 1 Audio Layer 3, MP3 est un standard de compression numérique
divisant par 12 la taille des fichiers sans perte trop sensible pour l'oreille.

[18 ]En 1998, le groupe de rap Public Enemy a été le premier à offrir gratuitement le
téléchargement de titres inédits, entamant ainsi une violente campagne contre sa propre
maison de disques. Sommé de rentrer dans le rang par les dirigeants du label, le groupe a
obtempéré non sans se réjouir d'avoir lu "la peur dans leurs yeux" et en ajoutant : "On sait que
c'est quelque chose qu'ils ne pourront plus arrêter." Propos rapportés par Matt Richtel, Internet
ouvre une brèche dans le monopole des maisons de disques, in Courrier International, ndeg.
425- 426 du 23/12/98, p. 46.

[19] Voir Yves Eudes, L'ère des cybertribunaux, in Le Monde, 29 et 30/09/96, p. 29, et Michel
Arseneault, Les justiciers du Web, in Le Monde, 28 et 29/06/98, p. 34.

[20] Déclaration publiée dans Libération, supplément multimédia, 6/06/97, p. II.

[21] Enseignante d'anglais et pionnière du premier lycée public totalement en ligne aux États-
Unis -la Florida High School d'Orlando-, L. Parrish, après avoir insisté sur la qualité humaine
de ses contacts électroniques avec ses élèves, ajoute néanmoins : "Mais une vraie classe me
manque beaucoup..." C. Lionet, Floride, lycée hors les murs, in Libération, supplément
multimédia, 14/11/1997, p. II.

[22] L'activité du C.N.E.D. semble aller dans ce sens. Voir Jacques Perriault, La
communication du savoir à distance, L'Harmattan, Paris, 1996.

[23] Magellan, moteur de recherche qui indexe plus de quatre millions de sites, en commente
cinquante mille seulement et décerne des étoiles. Seuls cinq pour cent d'entre eux ont reçu
quatre étoiles.

[24] Les "robots-chercheurs" -on le rappelle- sont des programmes qui vont rechercher des
informations en fonction de centres d'intérêts particuliers et les ramènent en direct ou dans
une boîte aux lettres. AltaVista -conçu par Digital- est devenu une référence incontournable.
Les guides de recherche, comme Yahoo!, proviennent d'une indexation humaine organisant le
contenu d'Internet dans de gigantesques structures de données. Certains robots, moins
universels, visent des objectifs plus sophistiqués. Les "agents" de Verity, par exemple, vous
préviennent que le vol que vous avez réservé est annulé, ceux de General Magic peuvent
effectuer directement une réservation sur un autre vol. Nombre de grandes entreprises de
Thomson à l'Aérospatiale, la Défense Nationale et la D.S.T. s'intéressent à ces robots
chercheurs pour l'espionnage industriel. Une place particulière doit être réservée à Taïga
(Traitement automatique de l'information géopolitique), développé pour la D.G.S.E., qui traite
l'information secrète. Son architecte, C. Krumeich en a tiré une version civile, Noemic,
capable de recherches sémantiques et qui prend en compte les concepts, les métaphores ou les
associations d'idées. Sur les robots chercheurs, voir notamment A. Rouble, Internet Reporter,
ndeg. 6.

[25] Digout4U exploite la méthode des "langages pivots" développée par Taïga. Plus
puissante que le simple enregistrement de mots clefs, cette méthode associe, aux termes de
l'interrogation initiale, un ensemble d'éléments contextuels (y compris la traduction anglaise)
qui élargit considérablement les champs de recherche. À la fin, le moteur évaluera les
informations récupérées sur le réseau en les rapprochant de la requête initiale. Voir E. Parody,
Digout : de l'ordre dans vos recherches, in Planète Internet, ndeg. 24, nov. 1997, pp. 80/81.

[26] Travelocity, l'une des principales entreprises américaines de vente sur Internet, a mis au
point un logiciel de recherche qui avertit l'usager, par courrier électronique, de toute variation
de prix supérieure à vingt-cinq dollars sur la destination choisie. Grâce à Expedia, le logiciel
spécialisé qui a permis à Microsoft de s'imposer dans ce secteur, on peut même visualiser un
schéma de l'avion avec les places disponibles. Guides, locations de voitures, réservations
d'hôtel sont les prolongements logiques de ces services, qui, encore minoritaires aujourd'hui,
suscitent un engouement croissant. Images des hôtels, vues des paysages environnants et
bandes sons sont en préparation.

[27] Aux États-Unis, Amazon.com -qui propose trois millions de titres sur le Net- s'est
imposée en deux ans comme l'une des premières success story du commerce électronique.
Barnes & Noble, la célèbre chaîne de librairies, offre un million et demi de titres. D'autres
distributeurs se sont spécialisés par genre (science-fiction, mode, etc.) Sur Dial-a-book, on
peut télécharger et lire gratuitement le sommaire et le premier chapitre, et commander ensuite
le livre qui sera expédié par la poste. En France, l'ABU (Association des Bibliophiles
Universels) a été fondée en avril 1993. Son ambition est de numériser et de rendre accessible
sur le réseau une sélection d'oeuvres du patrimoine littéraire francophone libres de droits, du
traité de Maastricht au Discours de la méthode de Descartes. Plus de cinq mille connexions
par mois, en 1997, viennent, légitimer l'intérêt de ce patient travail. L'ABU propose aussi aux
Internautes différents outils de recherches automatiques tels que des calculs d'occurrences
pour chaque ouvrage ou pour l'ensemble du corpus. Enfin, en octobre 1998, un grand éditeur
français, Le Seuil, doublait la distribution en librairie de deux livres par leur mise en ligne sur
Internet. L'éditeur électronique 00h00, en proposait la commande par téléchargement direct
ou l'impression à la demande relayée par un réseau d'imprimeurs disséminés sur la planète.

[28] On peut citer, parmi les plus répandus, Jungle équipant Yahoo! ou Jango disponible aussi
sur le moteur Excite.

[29] Le télescope de Bradford en Grande-Bretagne, comme celui de Skyview, accessible


depuis le site de la NASA, fonctionnent selon ces principes.

[30] Le logiciel, proposé par la firme Excalibur, indexe tous les mots d'un texte leur faisant
correspondre une signature binaire. Exploitant les principes associatifs des réseaux
neuronaux, il peut explorer une encyclopédie de 50 000 pages en dix secondes tout en tolérant
des erreurs. Il est déjà utilisé sur Internet par deux moteurs de recherche (Yahoo! et Infoseek)
pour identifier, selon les mêmes principes, l'énorme gisement d'images sur le Net et permettre
la recherche de documents. La R.A.I. italienne, par exemple, l'utilise pour ses besoins. Avec
un coucher de soleil comme image de départ, le logiciel proposera toutes les images proches
et celles dont les couleurs voisinent où qui comportent un disque lumineux.

[31] Voici, par exemple, comment B. Dousset, concepteur du logiciel d'analyse statistique
Tétralogie, le présente : "Tétralogie fouille Internet et opère des croisements de termes
scientifiques, d'organismes, de noms de personnes... pour en extraire l'information cachée.
Nous pouvons déceler les axes de recherche prometteurs, ceux où la concurrence est moins
forte, identifier les <<mandarins>> du domaine, ou au contraire les chefs de labo qui
émancipent leurs collaborateurs" (cité par C. Labbé et O. Rousseau, Internet veille sur les
entreprises, in Le Monde, sup. Multimédia, 3 et 4/11/1996, p. 32). Le logiciel peut détecter les
chercheurs qui ont fréquemment changé d'équipe, accumulant ainsi des savoir-faire variés. Il
démasque aussi les notoriétés factices obtenues par citations réciproques (les classements
obtenus par compilation automatique des noms cités dans les publications engendre
effectivement ce genre de comportement chez nombre de chercheurs américains).

[32] Des sites commerciaux américains proposent pour des sommes allant de cent à deux
cents dollars des enquêtes approfondies sur les individus. Exploitant de puissants moteurs de
recherches, se constituant de vastes fichiers acquis auprès d'institutions financières, par
exemple, ces services peuvent renseigner un employeur sur la véracité d'un C.V., vérifier les
diplômes mentionnés, les sanctions pénales reçues ou le bon remboursement des emprunts
contractés. Ils envisagent, d'ailleurs, de moissonner des gisements d'informations en Europe
pour permettre aux entreprises du Vieux Continent de contourner des barrières législatives
souvent beaucoup plus solides qu'outre-Atlantique. Sur les dangers de "l'autorégulation" à
l'américaine, voir Mathieu O' Neil, "Internet, ou la fin de la vie privée", in Le Monde
Diplomatique, septembre 1998, p. 23.

[33] Toute l'ingénierie des agents intelligents est mise à profit pour proposer l'installation sur
les ordinateurs familiaux, ou dans les entreprises, de logiciels paramétrables filtrant les accès,
qui aux sites à caractère sexuel, qui aux casinos virtuels, etc. Les forums de discussion, les
moteurs de recherche et les bases de données sont aussi contrôlés. Ces censorware
commencent à influencer le contenu du Web aux États-Unis, les sites commerciaux prenant
garde de ne pas figurer sur des listes rouges.

[34] Christian Huitema, Et Dieu créa l'Internet..., Eyrolles, Paris, 1996

[35] Conseil créé en 1983, l'I.A.B. avait la charge d'organiser le développement de


l'architecture technique d'Internet, mission à la fois technique (perfectionner les protocoles
techniques), prosélyte (convaincre les utilisateurs de se raccorder) et commerciales (trouver
les financements nécessaires).

[36] Op. cit., p. 80.

[37] Op. cit., p. 81.

[38] L'I.E.T.F. (pour Internet Engineering Task Force) est un organisme supervisé notamment
par l'I.A.B.

[39] Loc. cit.

[40] Op. cit., p. 82.

[41] Les standards sont des programmes qui assurent la gestion des réseaux incluant, par
exemple, le choix stratégique d'une méthode d'adressage adaptée à l'éventuelle croissance
exponentielle des abonnés.

[42] Ainsi en va-t-il pour le perfectionnement de la norme HTML (spécifications permettent


l'édition de documents multimédias comprenant la gestion des liens hypertextuels vers
d'autres sites). Il est douteux que la simple comparaison "rationnelle" des qualités des
différentes normes suffise à départager les concurrents. Ainsi, après s'être imposée en
distribuant gratuitement son navigateur (programme permettant de se déplacer dans Internet),
la firme Netscape se montre pugnace sur ce terrain stratégique de la définition des normes.
Cette firme engrange d'ailleurs l'essentiel de son chiffre d'affaires sur le marché des
navigateurs d'Intranet, réseaux fermés d'entreprises organisés selon les normes techniques
d'Internet. Même si elle a finalement publié le code source de son navigateur, favoriser
l'expansion d'Internet comme espace universel de communication gratuit n'est sans doute pas
son objectif ultime. Mais c'était l'unique moyen de résister à la puissance de Microsoft. Ce
faisant, Netscape reconnaît l'excellence et la robustesse des logiciels libres et en renforce la
logique.
[43] Tel roman interactif sur CD Rom, par exemple, propose un seul début et 80 déroulements
possibles.

[44] Ces considérations sont parfaitement résumées dans la conclusion que Pierre Lévy
apporte à Cyberculture : "La cyberculture incarne la forme horizontale, simultanée, purement
spatiale, de la transmission. Elle ne relie dans le temps que par surcroît. Sa principale
opération est de connecter dans l'espace et d'étendre les rhizomes du sens" (op. cit., p. 308).

[45] Yves Barel, La société du vide, Le Seuil, Paris, 1984.

[46] Howard Rheingold, Les communautés virtuelles, Addison-Wesley, Paris, 1995.

[47] Howard Rheingold, op.cit.

[48] 77 044 332 "je, I" contre 43 325 875 "tu, you", précisément, mais en un temps non
mentionné.

[49] Cette séparation est, bien entendu, à prendre comme un partage analytique et non
descriptif. Nombre d'activités laborieuses possèdent des dimensions imaginaires, et à l'inverse
le travail relationnel est aussi opératif.
Table des matières

Chapitre IV
La téléinformatique comme technologie intellectuelle
Quel profit pouvons-nous faire du concept de technologie intellectuelle pour apprécier les
enjeux du développement de la téléinformatique ? Cette question a partie liée avec deux
autres interrogations plus générales :

- Le travail symbolique repose-t-il principalement sur les déterminations matérielles des outils
qu'il mobilise ?

- Les technologies intellectuelles fondent-elles les dynamiques sociales ?

Notre ambition, face à ces questions complexes, est mesurée. Nous les aborderons dans la
perspective de développements ultérieurs concernant notamment les enjeux culturels de la
téléinformatique. Précisons que notre démarche n'est pas démonstrative. Si elle reprend
quelques problèmes fondamentaux, c'est plus dans l'intention de mieux faire comprendre au
lecteur les présupposés qui gouvernent nos analyses que pour en détailler les articulations.
Ceci nous offrira l'opportunité d'évaluer, plus largement les thèses de la nouvelle école
épistémologique sur la nature du travail scientifique dans ses relations aux autres sphères de
l'activité sociale (politique, notamment). Enfin, un commentaire des travaux de
Jacques Derrida à propos de l'archive clôturera ce chapitre : archive en général -modalité de
mémorisation collective- et archive "virtuelle" en particulier, laquelle est l'objet d'une
pénétrante interrogation sur le dépassement de l'opposition présence/absence, prolongeant
l'enquête du philosophe sur la spectralité.

A - Technologies intellectuelles, activité scientifique, dynamiques sociales

Les technologies intellectuelles, quelques principes

Les premiers usages de l'écriture avaient, on le sait, une vocation gestionnaire, calendaire ou
généalogique. Quelques millénaires après leur utilisation courante comme mémoire
additionnelle à l'oralité, Jack Goody[1] a pu y détecter l'émergence d'une raison graphique,
spatialisée, permanente et réflexive. On a, par ailleurs, maintes fois souligné en quoi l'écriture
et les opérations symboliques, notamment sur les figures et les nombres, ont conditionné la
naissance de la pensée réflexive, philosophique et scientifique mais aussi la formation des
premières cités-États[2]. Après quatre siècles, nous commençons à comprendre assez
clairement pourquoi une technologie bien matérielle comme l'imprimerie doit être qualifiée de
technologie intellectuelle. C'est- à- dire comment, en industrialisant la mémorisation de l'écrit,
elle a créé un nouvel espace intellectuel et fait naître des notions aussi inédites que celle
d'auteur individuel, d'authenticité, de datation et de catalogage[3]. Certains travaux vont
même jusqu'à faire reposer la stabilisation de la Renaissance sur l'invention de
l'imprimerie[4].
Plus que son contenu, cette méthodologie interroge l'activité symbolique à partir des
instruments concrets avec lesquels elle opère. Elle s'intéresse à la matérialité des truchements
et se demande en quoi leur constitution physique les prédestine à ouvrir de nouveaux champs
de connaissance ? Dans cette perspective, la philosophie ainsi que les mathématiques sont les
enfants de l'écriture, et la production industrielle par série est la descendante de la presse à
imprimer. Une longue lignée initiée notamment par Walter Benjamin et Marshall McLuhan a
développé, à rebours de la tradition philosophique réflexive, cette enquête sur l'efficacité
propre des supports et des moyens, déduisant les finalités à partir des déterminations
concrètes des instruments et de la manière dont les acteurs les enrôlent dans leurs projets.
Ainsi, l'invention de l'ordinateur mêle indissolublement une généalogie de recherches
théoriques sur l'automatisme et une exigence stratégique militaire, auxquels il faudrait ajouter
quantité d'autres déterminations comme les affrontements internes à l'équipe des inventeurs.

Prolongeant ces travaux, un courant de l'épistémologie contemporaine, dont Bruno Latour est
l'un des meilleurs représentants en France, porte son attention sur les procédures concrètes à
travers lesquelles le fait scientifique se construit, se maintient, et négocie sa reconnaissance.
Dans cette perspective, les techniques de prélèvements des faits en milieu naturel, leurs
transports, leurs traductions en inscription et les traitements concrets de ces inscriptions ainsi
extraites sont devenus le centre de l'étude de la production de la science. La notion de
"technologie intellectuelle" a ainsi été élevée au rang de principe ordonnateur de la pensée
scientifique ; laquelle est devenue ingénierie de conception et d'usage d'instruments de
prélèvements, de transports et de travail sur les données en milieu contrôlé, nommé
laboratoire. La portée essentielle du concept de "technologie intellectuelle" réside alors dans
la potentialisation de la pensée qu'elle autorise. Des jeux inédits sur les inscriptions permettent
d'augmenter les connaissances qu'elles rassemblent. Trouver les formes de cartographie
adéquates, les symbolisations à plus-value informationnelle, les modalités d'inscription
augmentant l'acquisition de connaissances : ceci constitue la visée des technologies
intellectuelles opérant toujours par une modélisation à gain cognitif.

Les inscriptions infographiques se révèlent particulièrement propices à ces jeux de


comparaisons et de modifications d'échelles. Leur mobilisation grâce à des programmes
automatiques, permet, en effet, de les recombiner selon une variété inégalée de paramètres.
Aujourd'hui, le numérique assure cette conversion entre quasiment tous les types
d'information (textes, sons, images, mouvements, etc.). Les simulations numériques opérant
sur des modèles -véritables théories objectivées- de devoir sans cesse revenir au laboratoire
pour faire des expériences. Ces variations virtuelles permettent d'augmenter plus facilement le
stock de connaissances acquises, en décuplant les informations préalablement déposées dans
les modèles.

Internet comme espace coopératif distribué

On a coutume de considérer que le réseau facilite et accélère la communication entre


chercheurs. D'où la tendance à le définir comme moyen de communication en oubliant que
toute transformation saillante dans les modalités de circulation des connaissances est porteuse,
à terme, de bouleversements dans leur élaboration. C'est ce qu'on peut une nouvelle fois
vérifier en examinant comment l'usage d'Internet conditionne le décryptage du génome
humain. Le généticien Jean-Louis Mandel rapporte qu'en octobre 1996, la revue Science a
publié la cartographie de seize mille gènes humains, réalisée par une équipe internationale.
L'article comptait trois pages et s'attachait à décrire les méthodes utilisées. La cartographie,
quant à elle, n'était accessible que sur Internet. Inscrites dans une symbolique complexe, ces
cartes ont un volume tel qu'elles sont impubliables. Seul un support informatique peut les
accueillir. Et la fonction du réseau ne se limite pas à stocker l'information dans une
gigantesque bibliothèque numérisée. Il permet, grâce à la mobilisation à distance de logiciels
spécialisés, d'organiser la recherche, l'identification et le classement d'un clone isolé par tel ou
tel chercheur. Celui-ci interroge, via le réseau, instantanément l'une des principales banques
de données. De puissants logiciels compareront son clone aux millions déjà déchiffrés depuis
des années et lui indiqueront que sa séquence est apparentée à tel gène, dont le code
d'identification s'affiche alors sur l'écran. En cliquant sur ce code, il obtiendra une description
détaillée dudit gène. Un lien le renverra, éventuellement, à une autre base de données qui
décrit les maladies liées à une anomalie du gène en question. Sur le Web, le nombre de
serveurs dédiés à l'information génétique se multiplie. Certains sites sont spécialisés sur tel ou
tel chromosome : le numéro 3 à San Antonio au Texas, le 9 à Londres. En France, afin de
faciliter des interrogations locales par des logiciels maison, l'Institut Pasteur ou des
laboratoires du Généthon dupliquent des grandes banques de données sur leurs propres
ordinateurs. Chaque nuit, des dizaines de millions d'octets transitent sur Internet afin de
mettre à jour ces banques. Le réseau devient une gigantesque bibliothèque en expansion
accueillant quotidiennement les millions de nouvelles lettres génétiques décryptées dans les
laboratoires du monde entier par des programmes de séquençage automatiques. La célèbre
banque Genbank voit doubler, chaque année, le nombre de séquences accueillies. En France,
G. Vaisseyx, l'un des directeurs d'Infobiogen estime qu'en l'an 2000, son centre devra
héberger un téraoctet (mille milliards de caractères) de données en ligne. Mais, ajoute-t-il, les
qualités des programmes permettant d'analyser et de corréler ces données feront la différence
entre les différentes banques mondiales. Tout ce travail serait doublement rendu impraticable
s'il devait s'accomplir sur support imprimé. Le volume phénoménal d'information rassemblé
rendrait sa manipulation physique impossible : il s'agit finalement d'obtenir la séquence totale
des trois milliards et demi de "bases" formant le message génétique de l'Homo sapiens
sapiens. La consultation de ces informations obligerait les chercheurs à se déplacer vers les
centres de stockages dont la mise à jour exigerait un temps de travail sidéral. De plus, les
activités basiques de recherche, comparaison, identification seraient tout bonnement
impossibles à exécuter sur de tels supports.

Dans ses analyses sur la mécanisation du travail de remémoration, André Leroi-Gourhan


rappelait qu'à la différence du fichier bibliographique -permettant déjà de recombiner des
informations indépendamment de leur inscription dans des livres- les fichiers électroniques
accédaient au statut de mémoires possédant leurs moyens propres de remémoration[5].
L'alliance de la programmatique et de la mise en réseau qualifie ici le média Internet. Celui-ci
assure bien l'intensification de cette fonction prothétique mémorielle, étendant les chaînes de
transfert et rapprochant comme jamais les acteurs engagés dans une même activité.

Internet devient même parfois une technologie inédite de production distribuée. Le système
d'exploitation Linux en est l'un des meilleurs exemples. Diffusé libre de tout droit sur Internet,
le code source de ce logiciel de base a été progressivement pris à bras le corps par des
centaines d'informaticiens de par le monde, qui n'ont eu de cesse que de le tester sous tous ses
aspects, d'en améliorer les performances et d'échanger, via le réseau, leurs résultats. Si bien
que ce programme est aujourd'hui moins gourmand en puissance et plus robuste que, par
exemple, les produits standards de Microsoft. Le tamisage méticuleux auquel a été soumis ce
logiciel surpasse le travail d'équipes d'ingénieurs appointés, certes qualifiés mais en nombre
limité et toujours soumis aux contraintes d'urgence.
Utilisé, juste retour des choses, par le quart des sites de la Toile, Linux, comme d'autres
logiciels libres[6], est profondément lié à Internet qui agit comme une force productive directe
provoquant et organisant l'association coopérative de centaines d'acteurs. Parfaite illustration
d'une "intelligence collective" chère à Pierre Lévy, cet exemple nous éclaire sur la
constitution du réseau en technologie intellectuelle originale.

Mais la cartographie du génome comme la coopération productive distribuée relèvent


d'activités techniques ou technologiques. Il faut observer, que, jusqu'à présent, il est difficile
de rapporter directement l'émergence de nouvelles théories scientifiques à l'usage de la
téléinformatique. Sans doute peut-on mettre l'accent, par exemple, sur le statut
épistémologique de l'expérimentation virtuelle comme nouvelle pratique scientifique, mais
rien ne ressemble encore aux liens fondamentaux des mathématiques à l'écriture ou des
sciences expérimentales à l'imprimerie. Autant les mutations technologiques sont, quant à
elles, bien évidentes, autant n'avons-nous peut-être pas encore assez de recul pour évaluer les
bouleversements épistémologiques à attendre de ces nouveaux canaux d'élaboration et de
diffusion des savoirs techno-scientifiques. Question à suivre...

L'idéal d'objectivité scientifique

L'idéal scientifique, c'est que la Science parle de manière anonyme, générique, et pas au nom
d'une personne physique. Comment ? En publiant non seulement ses résultats mais ses
protocoles, de telle manière que chacun puisse refaire l'expérience et se convaincre de la
validité des résultats. La science expérimentale est donc nécessairement publique et
"publicatrice", voire "publieuse" puisque c'est aujourd'hui comme jamais, la condition de la
légitimation du labeur scientifique. De manière iconoclaste -c'est ce qui épice le propos et
assure ses valeurs de vérité- Bruno Latour, et les courants qui étudient la production sociale
de la science, attirent notre attention sur le fait que "refaire l'expérience" est une proposition
abstraite. Pour la concrétiser, il faut disposer d'un laboratoire, pouvoir accéder aux banques de
données mondiales, bénéficier d'une ligne de crédits. Ne sauraient faire défaut, en outre, les
tours de main assurant la solidité des bricolages montés, mais aussi des carnets d'adresse bien
remplis listant les bonnes relations qui assureront la légitimité des projets expérimentaux.
Enfin, il est indispensable de convaincre des institutions pour débloquer les budgets ; bref, il
faut faire de la politique.

Au terme de l'empilement de ces conditions pratiques, on ne peut que se rendre à la


démonstration. Oui, la science est une activité sociale, traversée par la politique et orientant
les politiques possibles. Mais qu'en est-il de l'idéal d'objectivité ? Une protection, une digue
élevée garantissant le partage de la science et de la politique ? Faut-il, pour autant, considérer
la tentative d'objectivité comme une pure construction idéologique assurant la fiction de la
séparation science/politique ? Cette tentative, ne recèle-t-elle pas une puissance créatrice
incontestable tenant précisément aux contraintes protocolaires de réitération que, péniblement,
les scientifiques tentent d'assumer, même si ces règles de jeu ne peuvent être parfaitement
satisfaites[7] ?

La sociologie de la science et l'obsession du pouvoir

Les études sociales de la science mettent au coeur du processus d'élaboration des


connaissances scientifiques, les dispositifs pratiques, institutionnels et politiques par lesquels
le chercheur parvient à enrôler une matière première "naturelle" dans ses montages
expérimentaux. Ainsi pourra-t-il construire de solides réseaux de diffusion et réussir à
convaincre ses interlocuteurs de la pertinence des résultats obtenus. Cette démarche, et c'est
l'un de ses bénéfices incontestables, démontre le caractère profondément humain des sciences
et des techniques[8]. Elle fonde la possibilité d'une anthropologie des sciences. La notion de
chaînage humain/non humain (les non-humains sont des êtres "naturels", des instruments ou
des institutions) est cardinale pour définir la structure en réseaux des faits techno-
scientifiques. La "pensée" des chercheurs est ainsi constamment rapportée à ses conditions
matérielles d'exercice, indissolublement instrumentale et institutionnelle.

Bruno Latour, par exemple, dans son travail sur Pasteur, nous appelle à prendre avec la plus
grande méfiance le supposé "génie" de Pasteur[9]. Mais au terme de ces alliages humain/non
humain, c'est le chercheur, comme agent différencié de son environnement, qui disparaît.
"L'idée nouvelle" comme le "génie créateur" source d'une découverte constituent, dans cette
logique, un effet idéologique, reconstruit a posteriori. D'où l'accent mis sur l'idée que la
découverte résulte principalement d'agencements complexes où le hasard, les contacts avec
les collègues, le désir de convaincre et l'appétit de pouvoir jouent un rôle majeur. La notion
même de "chaînage humain/non-humain/humain" s'efface au profit d'une collusion asphyxiant
à la fois objet et sujet. Désormais, c'est le réseau associant les chaînages qui pense.

Dans cette appréhension du concept de "technologie intellectuelle", quasi structuraliste, on


pense la création, le surgissement ou l'émergence dans une perspective vitaliste -un esprit
collectif, agencé aux autres collectifs et à la machinerie socio-technique, crée "naturellement",
par production "buissonnante" comme la vie engendre l'inédit. Ou alors on l'envisage comme
réponse paranoïaque au désir de contrôle et de pouvoir. Le rapport de forces devient
prédominant. Il possède, de fait, plusieurs figures. Il réfère aux forces sociales que, par
exemple, Pasteur doit vaincre pour convaincre (littéralement : "vaincre ensemble") ainsi
qu'aux forces logistiques qu'il doit mobiliser pour établir la double circulation, du territoire
vers le laboratoire, et inversement. La tentative de domination fait signe aussi vers les forces
physiques qu'il doit contrôler pour assurer l'inaltérabilité du vaccin et imposer les protocoles
d'usages[10]. Elle concerne enfin, les forces humaines (collègues, hygiénistes alliés,
ministres, etc.) qu'il doit "enrôler" pour construire l'artefact "vaccin".

Mais en éclairant -contre l'abord spiritualiste et idéaliste- le versant matériel/politique du


travail scientifique, Bruno Latour ne tord-il pas le bâton exagérément en sens inverse ? La
science devient une activité purement mécanique d'asservissement à l'amélioration des
rapports de forces où l'intentionnalité du chercheur a totalement disparu[11]. L'encerclement
quasi militaire des concurrents, par le montage de "boîtes noires" indéformables et l'effort
pour circonvenir les centres de pouvoir tiennent lieu de motivations décisives des décisions
prises.

D'où vient le projet d'expérience qui recomposera l'horizon d'une discipline ? Du hasard, de
méthodes systématiques, exhaustives ? Le "coup de génie" -ou, plus modestement, une idée
organisatrice qui redistribue les acquis- ne se conçoit certes pas sans les techniques de
traitement des inscriptions, mais pas non plus sans le travail imaginaire, l'expérience de
pensée, l'anticipation créatrice d'ordre. Sans doute est-ce salutaire de sauver la "matérialité"
du travail scientifique et de mettre à jour les réseaux socio-techniques qui le rendent possible.
Mais pourquoi radicaliser ainsi le propos au point d'évacuer la subjectivité des chercheurs et
des équipes, leurs différences, leurs spécificités ? La suspension des chaînages, dans ce qu'on
appelle communément la "réflexion" personnelle, ne trouve, dans cette perspective, plus
aucun espace[12].
L'humain, toujours techniquement équipé, est un être pris dans le mouvement d'extériorisation
et d'intériorisation de la technique. Ce deuxième mouvement est délaissé dans la logique de la
"construction sociale de la science". Car l'intériorisation est un métabolisme mystérieux.
Qu'est ce qui pousse un chercheur, ou une équipe, à faire telle comparaison, à mélanger les
inscriptions de telle façon qu'il en résulte un gain cognitif décisif ? On peut se demander pour
quelles raisons la dimension imaginaire et personnelle de l'activité scientifique (projets
expérimentaux, vérification, importation de concepts, etc.) est-elle, à ce point, déniée ? La
liberté de mouvement interne du sujet, la possibilité d'abstraire, fut-ce pour imaginer de
nouveaux montages expérimentaux, ne recèle-t-elle pas d'une puissance heuristique
indispensable ? Ne suppose-t-elle pas de dégager en soi, fugitivement, un espace libre où
viennent se combiner des idées et des mouvements psychiques oubliant et commutant à la fois
les technologies intellectuelles ? L'occultation provisoire des déterminations socio-techniques,
l'isolement mental est une dimension, fugitive mais puissante, du surgissement du nouveau,
un moment privilégié dans la ronde sans fin des interactions qui assaillent, orientent et
déstabilisent l'activité de connaissance. La systématisation du concept de réseau vient, ici,
oblitérer la reconnaissance de l'espace subjectif. La mise en cause légitime des miracles d'une
"pensée" scientifique toute-puissante autorise-t-elle ce retournement ?

Symétriquement, en déniant ou en ignorant le caractère formellement rigide, délimité des


objets (êtres naturels prélevés, instruments, etc.) on imagine la dynamique interprétative
portée par un tourbillon permanent, mêlant sujet et objet. Fusionner objet et sujet, n'est-ce pas
refuser la différence des modalités de manifestation de l'un et de l'autre ?

Par ailleurs, et sous prétexte que les techno-sciences sont "civilisatrices ", on s'évite le souci
d'évaluer leurs usages, notamment selon des critères éthiques. Comment orienter un jugement
de valeur à propos de tel ou tel projet si l'on se contente de tenir le livre de comptes des
conflits d'intérêts et de pouvoir qu'il engendre ? S'il n'y a pas d'intentionnalité, ni d'intérêt
repérable dans leurs genèses et leurs appropriations, comment les apprécier ? Tout se vaut :
Hiroshima, les autoroutes, le fichage informatique aux côtés du traitement de texte et de
l'ingénierie écologique ?

La quête de l'atome relationnel

La nouvelle épistémologie s'apparente au positivisme sociologique : trouver la matière


première du lien social. On ne la recherche plus dans une activité fondamentale (le travail), ou
une forme originaire (la domination, par exemple) mais en construisant méticuleusement
l'écheveau des relations entre groupes humains, institutions et instruments techniques. Cette
quête pistant, de proche en proche, les mailles du réseau, et sa complexification croissante,
opère comme si chaque chaînon était indépendant des autres, aucune force générale, ne
pouvant, par principe, conditionner leur agencement. Or, le social est toujours déjà présent
dans la chaîne associant les humains et la technique. Le constructivisme associationniste
recherche, paradoxalement, le matériau social ultime et croit l'avoir trouvé dans la séquence
relationnelle élémentaire du réseau. C'est comme si on voulait définir le sens d'une phrase à
partir de celui des mots qui la compose. On sait qu'une telle entreprise est une aporie, qu'il
faut recourir à un ailleurs du langage, à l'expérience vécue en l'occurrence, pour asseoir la
signification. Quel est l'ailleurs de la chaîne humain/non- humain ? C'est l'ensemble des
rapports sociaux, que l'école des réseaux socio-techniques n'ignore pas d'ailleurs, mais qu'elle
tente de circonscrire en faisant comme s'il était théoriquement possible d'en démêler
l'écheveau. Symétriquement, on pourrait tout aussi bien montrer, dans une perspective
"fractale", que chaque séquence élémentaire condense les enjeux de l'ensemble des réseaux
qu'elle dessert. Question méthodologique complexe à laquelle nous n'apportons pas de
réponse élaborée. Mais il nous semble que l'associationnisme intégral ne contribue pas plus à
expliciter la complexité de ces jeux de renvois.

Les technologies intellectuelles fondent-elles les dynamiques sociales ?

La discussion sur les technologies intellectuelles ne se limite pas au champ de l'activité


scientifique. Très souvent, l'usage de ce concept est adossé à une conception générale du
dynamisme social qui fait jouer à l'activité symbolique (traitement des signes) un rôle central.
Or autant ces vues ont une vertu heuristique enrichissante dans l'aire épistémologique, autant
leur généralisation au fonctionnement social pose d'épineux problèmes. Nous nous limiterons
à résumer leurs lignes de forces, afin de poursuivre, ultérieurement, une réflexion sur les
enjeux culturels des technologies numériques. Si, de manière générale, les dynamiques
techniques sont cumulatives et engendrent, par conséquent, une compétition dans laquelle la
performance (rapport entre input et output) tranche en faveur des systèmes techniques les plus
récents, ce mouvement prend une dimension particulière avec les technologies intellectuelles.
Pourquoi ? Parce que, plus que toute autre technologie, ce ne sont pas des outils mais des
milieux. Sans doute cela est-il vrai pour toutes les techniques, mais cette caractérisation vaut
tout particulièrement les concernant. Elles instituent un nouveau milieu intellectuel et mental
(mental désigne des dispositions plus générales qu'intellectuelles, des mécanismes mixant des
schèmes opératoires et des orientations psychologiques, des "conceptions du monde"). Dès
lors, dans ce nouveau milieu, l'objectif n'est pas de résoudre à moindres frais d'anciens
problèmes, mais d'en énoncer de nouveaux, auxquels les équipements récents viendront offrir
leur efficacité. Par exemple, même s'il a été inventé pour cela, l'ordinateur ne se contente pas
de calculer plus vite. En effet, pour atteindre cet objectif opérationnel, un nouveau stade dans
l'histoire des automatismes a été franchi, stade que nous nommons quasi réflexif[13].

S'ouvrent alors de nouveaux champs à l'investigation scientifique, tels que les mathématiques
expérimentales ou la modélisation numérique de comportement d'objets. Poussant à l'extrême
cette logique, de nombreux courants estiment que la fonction socialement structurante des
technologies intellectuelles surpasse celle des technologies énergétiques/mécaniques. Dans la
mesure où ils conditionnent les formes de la mémoire sociale et constituent les technologies
de la connaissance, les systèmes symboliques et les technologies intellectuelles qui les mettent
en oeuvre seraient la source première de la dynamique des civilisations. Cette idée est le
présupposé explicite ou implicite, par exemple, des prosélytes d'Internet. Il n'est pas dans
notre intention d'analyser ici dans le détail ces hypothèses mais de rappeler que nombre
d'analyses contemporaines -sur le phénomène de mondialisation, spécialement[14]-
s'appuient, implicitement ou explicitement, sur cette prépondérance.

Ces analyses ont eu un effet décapant et ont nourri une réflexion innovante dans plus d'un
domaine. Elles suscitent, aujourd'hui un mouvement de balancier qui, à nouveau prend ses
distances à l'égard d'un abord purement empirique du fonctionnement des médias. À leur
encontre, le reproche (fondé nous semble-t-il) de positivisme affleure. Les techniques de
production, de gestion, et de transport des signes sont-elles les facteurs premiers qui rendent
compte de leurs significations comme de leurs fonctions sociales ? L'écriture hier, les réseaux
numériques aujourd'hui, ont-ils partout et à toute époque, les mêmes enjeux ? Dans quelle
mesure les systèmes socio-politiques qui les accueillent et les développent, ne les marquent-ils
pas aussi profondément ? Enfin, ne doit-on pas considérer que des technologies particulières
s'imposent parce qu'elles sont utilisées par certains centres de pouvoir dans les affrontements
qui les opposent à leurs concurrents ? L'exemple qui suit illustrera cette hypothèse.
La fondation théologique Golpayeni, l'une des plus conservatrices de Qom (la capitale
religieuse de l'Iran) s'est équipée de batteries d'ordinateurs, d'origine américaine[15]. Leurs
mémoires rassemblent plus de deux mille volumes relatifs au fiqr (droit musulman, chi'ite et
sunnite). Depuis 1995, le centre s'est abonné à Internet. Comment expliquer que Qom, qui a
réussi à faire interdire la réception satellitaire, de même que la communication téléphonique
mobile en Iran, se précipite sur l'informatique documentaire en réseau ? Les affrontements qui
opposent le "clergé politique" au haut clergé traditionnel sont à l'origine de cette initiative. Le
haut clergé risque, en effet, d'y perdre le monopole de l'interprétation des textes (ce qu'il
accomplissait avec peu de compétences, semble-t-il). On rappelle que la dimension juridique
dans l'islam (ce qui est autorisé ou non dans la vie sociale) comme dans d'autres religions
d'ailleurs, est centrale. L'exégèse assure donc un pouvoir irremplaçable. Si tout un chacun, via
les réseaux, peut accéder directement au corpus consignant le fiqr, ceux qui en ont le
monopole, c'est-à-dire en l'occurrence le haut clergé, voient leurs prérogatives vaciller. Un
chercheur iranien explique qu'en fait, les ordinateurs participent au dessein du régime
islamique qui est de prendre le pouvoir religieux aux grands ayatollahs. Khamenei, devenu à
l'époque président de la République, cherchait à mettre au pas le clergé chi'ite en
l'assujettissant à l'État. Et pour ce faire, il souhaitait affaiblir le contre-pouvoir religieux en
favorisant le clergé intermédiaire. L'objectif était de faire émerger de nouvelles instances
basées sur le moyen clergé et de concurrencer ainsi celles que contrôle le clergé traditionnel.
D'où la mise en place d'une machine de guerre pour substituer au "pouvoir des religieux
conventionnels" celui des "religieux politiques". L'enjeu est aussi très matériel : il s'agit de
faire rentrer dans les caisses de l'État les sommes considérables récoltées par le clergé. On
comprend aisément pourquoi l'ouverture à Internet est favorisée par le gouvernement.

Ces affrontements peuvent être interprétés de deux manières :

- une technologie intellectuelle (les banques de données accessibles par réseaux) est l'agent
essentiel d'une redistribution des rapports de force,

- une technologie intellectuelle est utilisée par l'un des camps pour asseoir son pouvoir.

Il serait assez imprudent, ici, de certifier la première hypothèse. Peut-être pourra-t-on lire dans
trente ans que les réseaux ont joué un rôle fondamental dans la laïcisation de l'État iranien.
D'ailleurs, rien n'oblige à choisir l'une de ces thèses contre l'autre. On peut parfaitement
considérer que l'usage de l'informatique documentaire recompose les rapports de force dans le
clergé parce que l'un des protagonistes prend le risque de faire jouer cette force. Après tout,
est-on sûr que cette initiative ne joue pas, finalement, contre ceux qui la mettent en oeuvre ?
Démocratiser l'accès aux textes consignant l'exégèse de l'Islam, cela n'engage-t-il pas, à terme,
un affaiblissement du pouvoir des intermédiaires en général ? Ceci n'implique pas,
mécaniquement, que le clergé politique creuse sa propre tombe, mais qu'il se contraint, à
terme, à devoir s'adapter à ce futur contexte. Par ailleurs, la mise en cause, par les
technologies numériques, des intermédiaires spécialisés est une question assez fondamentale.
C'est, en effet, l'un des caractères majeurs d'Internet dont nous avons déjà eu l'occasion
d'apprécier l'ampleur et la portée.

Conformation physique d'un média et efficacité symbolique

Les significations et fonctions d'un système symbolique sont-elles principalement déposées


dans sa constitution physique, dans les procédés de fabrication et de diffusion ? Tout en
maintenant la pertinence d'une telle interrogation sur les supports médiatiques et les réseaux
d'expansion, on peut aussi observer que la consistance matérielle d'un instrument, d'un média
n'est pas une donnée aussi évidente qu'il y paraît. Où commence et où finit la matérialité d'un
média ? Celle-ci n'est-elle pas aussi un enjeu de pouvoir et un effet culturel ? Ou, dit
autrement, doit-on refermer un système symbolique sur sa constitution matérielle,
indépendamment des fonctions sociales qu'il accomplit ?

Toute une tradition de la sociologie des techniques s'est attachée à l'étude du mouvement
inverse qui façonne les outils à travers leurs usages. Plutôt que de considérer la forme
concrète du média comme déterminant un usage, on privilégie alors la malléabilité des
instruments dont l'usage transforme le programme de fonctionnement. Et cette logique est
particulièrement sensible à notre époque où un nombre croissant d'objets et de dispositifs ne
contiennent plus en propre leurs fonctions, mais les font émerger dans une mise en réseau
avec d'autres systèmes. Le chaînage (chaîne du froid, chaîne audiovisuelle, chaîne
informatique) devient le mode privilégié d'existence d'objets déformables, pliables,
constitutivement paramétrables. L'ordinateur en est l'exemple type : système évolutif, dont on
ne peut prévoir toutes les fonctions, lesquelles s'inventent avec l'évolution du système lui-
même soumis à la pression des usages et des détournements. On entre dans un cercle vicieux.
Si la forme ne rend plus compte du projet, si l'objet ne détermine plus fidèlement son usage,
sur quoi fonder une analyse "médiologique", par exemple ? Signalons, sans approfondir, que
le concept de relation transductive, proposé par Gilbert Simondon (que reprend Bernard
Stiegler dans La technique et le temps[16]), définie comme relation qui constitue ses termes,
permet de lever l'aporie qui se présente dès que l'on renverse les causalités habituelles pour y
substituer une détermination par les conséquences[17].

La mise en cause du déterminisme technologique participe du même refus d'un simple


renversement de causalité entre le technique et le social. Cette objection dénie que les
dimensions symboliques soient ciselées par l'ordre technique. Elle plaide pour la prise en
compte d'une pluralité de facteurs dans l'émergence d'un système technique[18]. Dans cette
optique, le politique, par exemple, n'est pas le servant d'un système technique médiatique,
mais le façonne aussi. Face à ces vastes questions, contentons-nous d'une remarque générale.
Les analyses médiologiques, souvent brillantes et stimulantes, considèrent que les faits socio-
techniques possèdent une vocation automatique à se généraliser en conservant leur pureté. On
isole alors leurs caractéristiques techniques et on les transforme en principes d'organisation
sociale[19], alors que les mouvements d'extension des innovations sont incomparablement
plus complexes[20]. McLuhan inférait déjà, par exemple, des propriétés de l'électricité
-disponibilité, instantanéité, maillage a- centré du territoire- un modèle théorique de ville
décentralisée, ruralisée où l'on croît reconnaître l'inspiration des contempteurs comme celle
des adorateurs des réseaux numériques. Avec ce type de déduction, on ne comprend pas d'où
viennent les forces qui amplifient, comme jamais, l'urbanisation, sauf à les considérer comme
de purs archaïsmes.

À cette problématique, on peut opposer qu'il n'y a pas lieu de chercher des causes premières
-et encore moins unique- dans une dynamique d'émergence interne à des systèmes complexes
où logiques techniques, sociales et systèmes symboliques interfèrent. C'est au moins une
leçon épistémologique qu'on peut retenir du connexionnisme moderne qui a permis de
concevoir le phénomène d'émergence d'ordre comme produit de l'interaction coopérative
d'agents autonomes. Aucune théorie générale ne dispense de l'étude de configurations
historiques particulières et ce qui vaut pour l'imprimerie ne se déplace pas automatiquement à
la photographie ou à Internet. Nous verrons, en particulier, dans le dernier chapitre, qu'il est
discutable de postuler que les télé-technologies marquent culturellement nos sociétés de
manière univoque.

B - Réseaux, information, travail symbolique et travail "immatériel"

L'information est-elle immatérielle ?

Aujourd'hui, l'idée générale de la suprématie des systèmes symboliques se renforce d'une série
de partis pris qui se veulent de pures constatations telles que la croissance des transactions
dites "immatérielles", la part symbolique dans les flux d'échanges, l'assomption des
connaissances comme vecteur d'orientation décisif de nos sociétés. Or dans les réseaux
numériques, par exemple, tout passe évidemment par des systèmes de signes (textes,
graphiques, images, sons, liens hypermédias...). Ainsi la forme s'harmonise au contenu : le
réseau vu comme espace élargi d'échanges symboliques -le multimédia- accueille l'enveloppe
du lien social, épurée de ce qui résiste à un conditionnement numérique : la présence
corporelle. Le mouvement dès lors s'auto-entretient : "l'immatériel" abreuve les réseaux et
ceux-ci se gonflent en irriguant cette matière ductile à souhait, au point de sembler occuper
tout l'espace public (et privé). On passe de l'affirmation d'un lien entre les techniques de
déplacement matérielles (routes, fleuves,...) et de signes (écriture, imprimerie, télégraphe,...
réseaux numériques) à une inversion de priorité, le transport des signes devenant, lui seul,
stratégique. Or, une étude attentive montrerait une croissance conjointe des flux
informationnels sur les inforoutes et matériels sur les grandes voies du commerce mondial. Il
est vain de rechercher un supposé facteur "immatériel", déterminant dans l'organisation des
échanges (de signes et de choses). En revanche notre attention doit se concentrer sur les
mutations qui saisissent le transport des signes pour tenter de le rapprocher du transport des
choses, autre manière de décrire la tendance à l'augmentation de l'incarnation dans la présence
à distance.

On voudrait discuter ici plus en avant la notion d'immatérialité de l'information. Les réseaux
territoriaux classiques (routes, chemin de fer,...) qui assurent le transport des marchandises-
choses convoient indissolublement des agencements matériels et l'information qu'ils
emprisonnent. Expédier une machine, c'est envoyer l'information qu'elle encapsule dans ses
rouages, c'est adresser un programme d'usage. À ce stade, l'information ne se distingue pas de
la matière. En revanche, on se laisse souvent aller à affirmer que les réseaux informationnels
-séparant l'information d'une matière qui la contiendrait- convoient de l'information comme
pure immatérialité. On oublie alors la matérialité des réseaux eux-mêmes pour ne retenir que
l'encombrement matériel infime de l'information numérisée ou l'extrême rapidité de traitement
des flux électromagnétiques et photoniques. On élimine les chaînages qui traduisent et
conduisent les messages d'un point à un autre. Qu'est ce que la transmission d'une image sur le
Web, par exemple, si l'on fait abstraction de la numérisation comme technologie intellectuelle,
de l'ordinateur pour effectuer ces calculs et conduire les commutations sur le réseau, de la
ligne téléphonique pour la transporter, de l'institution France Télécom pour concevoir,
installer, vendre ce transport, et d'une quantité d'autres médiations dont la liste occuperait des
pages entières ?

Or l'information, comme la communication, se réalise comme rapport social grâce à la mise


en commun d'un élément tiers qui assure le lien. Relier ce qui est disjoint, c'est l'opération
symbolique en tant que telle. Cette conception matérialiste de la relation suppose un entre-
deux concrétisant l'union d'entités séparées, sans quoi le lien devient une opération totalement
mystérieuse. Métaphore chimique : la mise en commun d'électrons, dits "covalents", assure la
liaison entre atomes. Sans partage d'un même, pas de liaison. L'information, définie comme
différence produisant une autre différence (Bateson), suppose ce partage d'un même.
L'existence d'un milieu accueillant ce même conditionne, à chaque étape, la propagation de
différence. Le son émis qui atteint l'oreille déclenche des influx, alerte des circuits neuronaux,
provoque l'émergence du sens. Dans cette propagation, et surtout si l'on élargit l'éclairage aux
dispositifs de transport de l'information, tout est matériel jusqu'à la sémiose (l'émergence du
sens)[21] : l'image affichée sur l'écran, sa conversion numérique, son transport sur une ligne
du réseau, son affichage sur un autre écran, et là, par franchissement d'un saut, par
"sublimation", son interprétation par un sujet, c'est-à-dire le fait qu'il en soit affecté. L'objectif
devient alors, à ce stade, subjectif.

Il faut mettre fin à l'idéalisation de la communication et donc, par le même mouvement, de


l'information[22]. À l'analyse de la communication comme forme supposée pure, il convient
de substituer -comme le font de nombreux courants de recherche- l'examen des dispositifs de
production, transports, réception de l'information, indissolublement technique et sémantique
(donc affectif).

La supposée qualité immatérielle de l'information s'appuie aussi sur l'idée que l'information
véhicule l'événement et donc le remplace dans une certaine mesure. Mais si le message peut
représenter l'événement, s'il peut le déplacer jusqu'au cerveau des destinataires, c'est
uniquement grâce à l'existence de réseaux de diffusion déjà engagés dans l'émergence de
l'événement lui-même et qui construisent l'information afférente. La prise de la Bastille
annoncée aux Indiens d'Amérique n'aurait eu aucun effet. Je peux, sur Internet, informer tout
le monde que la Terre va être détruite dans vingt ans par une énorme collision avec un
astéroïde géant. Pour être cru, il faut d'une part que j'aie accès au média -et que celui-ci
fonctionne- et de l'autre que je dispose d'une confiance reposant sur une longue chaîne
d'accréditations préalables. Couper le message des réseaux potentiels de diffusions, et donc
d'un complexe de désirs, d'intérêts, de rapports de forces, relève d'une vue assez idéaliste.
L'appropriation de l'information ne relève pas d'une logique de l'usage (unicité, perte,
altération, dégradation) car ce n'est pas une chose. Mais sa diffusion n'est pas pour autant
"immatérielle", car sans les réseaux qui l'acheminent, l'information demeure une promesse en
attente de réalisation. Lorsqu'on couple l'information aux réseaux qui la produisent,
l'entretiennent, la conservent et la diffusent, on conçoit plus facilement que la nature relative
de l'information -non pas une chose mais un rapport social par l'intermédiaire de choses-
n'empêche nullement qu'elle soit le fruit d'un travail personnel et institutionnel
inséparablement matériel et subjectif.

L'affirmation de la suprématie de la connaissance dans les fonctionnements sociaux véhicule


souvent une conception purement transactionnelle de la connaissance, détachée de ses
rapports à l'action collective. Un réseau informatisé d'échanges de savoir, par exemple,
combine une transmission (proposition sur le réseau) et une offre d'action (transfert effectif
d'informations). Cette deuxième opération peut avoir lieu éventuellement sur le réseau s'il
s'agit d'apprentissage symbolique (étudier une langue, programmer dans un nouveau langage
informatique, etc.). Dans cet exemple, le media (réseau numérique) est approprié pour
convoyer à la fois l'information (l'offre de formation, la demande d'un apprentissage) et
l'action d'apprentissage. Lorsque cet apprentissage s'effectue sur une matière symbolique
(travail sur des signes), le réseau cumule donc les fonctions de communication et
d'expérimentation. Mais s'il s'agit d'apprendre la poterie, ou la soudure à l'arc, l'information,
même si elle se rapporte à l'action, s'en distingue nécessairement. De même, par exemple, s'il
s'agit de prendre des décisions politiques dans une communauté territoriale. Il n'y a pas
d'intelligence sans rapport entre transmission de connaissances et expérimentation en actes. Il
est entendu qu'un échange d'informations (formule par laquelle la cybernétique des années
quarante définit la communication[23]) est aussi une action, mais limitée au cadre formel du
canal qui héberge la transmission.

Information, subjectivité et permanence

Y aurait-il donc un "autre" de l'information ? Ce serait tout simplement la part de l'expérience


qui échappe à la formalisation, à la capture par un système de signes, ou plutôt qui ne se
confond pas avec cette capture : résistances dans l'affrontement à la matière, perceptions,
imprévisibilité des rapports sociaux, destin des subjectivités en relation dans des collectifs,
etc. Même si l'univers de l'échange formel d'informations à distance accueille une part
croissante de l'expérimentation collective, il ne la résume pas complètement. Il délaisse ce qui
appelle le rapport physique, la co-présence des corps (même si cette co-présence se redéfinit
aussi dans le développement de la présence à distance) ainsi que, aujourd'hui encore, de
nombreux secteurs industriels oeuvrant dans la transformation de la matière. Les segments qui
relient information et action s'inscrivent de plus en plus dans des réseaux, mais ils ne se
confondent pas avec cette inscription. La propension à projeter un doublage, par réseau
virtuel, de la vie sociale élimine la multi-dimensionalité de l'activité collective. Elle la réduit à
son versant informationnel et, bien souvent, détache ce versant du cadre pratique
(institutionnel, relationnel, affectif) sans lequel cette activité s'asphyxierait. Il faut tout un
système d'accompagnement relationnel plus ou moins direct (coup de téléphone,
téléconférence... ou visite) pour que la relation par réseau ne s'assèche pas.

Une autre conception de l'information est apparue, propulsée par le développement du


cyberespace. L'information serait, en tant que telle, une subjectivité en acte. Et ses
caractéristiques essentielles deviendraient la mutabilité, la malléabilité, l'obsolescence,
l'hybridation. Bref, sa valeur s'accroîtrait au fur et à mesure qu'elle se rapprocherait d'une
existence vivante[24]. Il y a une métaphysique de l'incorporation qui fait l'impasse sur les
modes d'existence de la subjectivité, comme si celle-ci pouvait transfuser avec l'objet créé et
éliminer la phase personnelle. Ce qui se déplace (ou qui déplace) c'est le média, pas le
médiateur. Dans cette logique, l'information joue contre ses supports, contre tout ce qui fixe,
retient, fige. Elle s'accomplirait dès lors qu'elle rejoindrait le mode d'être de l'affect. Message
et messager sont alors reliés sans rupture de continuité, dans une logique qui n'est pas sans
rappeler les réseaux pensants, tissés de chaînages humains/non humains, chers à
Bruno Latour. L'univers du cyberespace révélerait le stade suprême d'existence
déterritorialisée de l'information. Or nous verrons plus loin, que les questions de la
permanence, de la séquentialité, des limites, de la sélection et du contexte s'y posent toujours.

Finalement, on ne reconnaît pas l'immobilité, la permanence et la finitude formelle d'une


proposition (artistique, philosophique, littéraire aussi bien que d'un mécanisme technique)
comme source de puissance générative. Le passage où la vie humaine s'incarne dans
l'inorganique n'est alors qu'une dégradation. À dissoudre ce moment dans le flux ininterrompu
des échanges, à dénier son caractère spécifique de suspension du temps (l'objet comme
fixation temporelle) pour ne porter l'attention que sur les processus herméneutiques qui
progressivement écrivent, hors de l'objet, son avenir, on refuse à l'objet ou au message son
genre spécifique : finitude formelle et infinitude herméneutique. Mais la deuxième serait
mort-née sans la première. Par exemple, si le programme de jeu d'échecs (activité humaine
extériorisée, encapsulée dans un programme) invente une nouvelle dimension de ce jeu (de
nouvelles règles de compétition homme/machine, par exemple), c'est parce qu'il se matérialise
dans un système inorganique, extérieur, indépendant et qui peut être mobilisé à souhait, égal à
lui-même (ce qui ne peut être le cas pour un joueur humain). La multiplicité d'usages
potentiels du même objet, permet le développement de son destin. De même, l'infinité des
interprétations possibles du même message formel est à la source de l'intersubjectivité.

Le travail intellectuel est-il immatériel ?

En quoi le travail intellectuel fonderait-il la diffusion d'une supposée culture de l'immatériel,


et notamment du "travail immatériel" ? Affirmer le caractère instituant des instruments du
travail intellectuel nécessite d'éviter un malentendu : ceux-ci reposent sur des facteurs bien
matériels (stylet, papier, presse à imprimer, ordinateur, serveur de réseaux, etc.) et nécessitent
un labeur. Le travail sur les signes est bien, pour partie, un travail matériel, de même que tout
travail sur la matière est pour partie intellectuel. Seule la cible change : des signes à la place
d'objets pesants. La définition axiomatique de la production informationnelle se dérobe
toujours : une information doit s'inscrire sur une matière, sinon elle demeure pur acte de
pensée. Et symétriquement, la production industrielle d'objets pesants, indéformables
(automobiles, maisons, etc.) inclut toujours une dimension informationnelle. Cela dit, on doit
différencier, sous cet angle, un roman et une poutrelle d'acier, par exemple. Une fois qu'est
stabilisé un système de publication (pages, chapitres, sommaire, par exemple) en symbiose
avec des modalités collectives de diffusion et d'appropriation, la portée littéraire du roman ne
dépend pas mécaniquement du type de papier sur lequel il est imprimé. (Bien que la nature du
papier, la typographie, le type de reliure ne soient pas non plus des éléments à négliger dans
sa portée sémantique et dramatique. Mais admettons ici ce raccourci, discutable selon d'autres
critères). La démonstration pourrait être encore plus convaincante à propos de la musique
enregistrée (disque vinyle et CD). Une poutrelle, quant à elle, ne peut être appréhendée en
dehors de son matériau et de sa forme propre, lesquels sont coextensifs à son existence
comme poutrelle. Dans la production informationnelle, ce qui prime c'est le système de signes
et non le type de support. Cette -relative- distinction entre forme et sens ne vaut précisément
que pour les productions intellectuelles (textes, graphiques, images, hypermédias, etc.)[25].

La notion de travail "immatériel" trouve en revanche, une pertinence lorsqu'on la rapporte aux
segments purement relationnels du travail collectif, au travail communicationnel dans ses
dimensions interpersonnelles, non directement, médiatisé par des appareils techniques et
institutionnels. Nous sommes ici en présence de deux positions radicalement opposées. La
première, à la suite des travaux de l'école d'anthropologie sociale de la science, insiste sur
l'impossibilité de différencier, dans une activité productive, subjectivités humaines d'une part
et dispositifs techniques et cadres institutionnels, de l'autre. La deuxième position met
l'accent, en revanche, sur le contenu relationnel, affectif, subjectif de cette activité dans le
contexte du post-fordisme, sans toujours accorder la place qui lui revient aux réseaux socio-
techniques. On le verra, l'invocation des réseaux numériques et de l'informatisation vaut alors,
dans ce dernier contexte, assurance de l'immatérialité du travail et suprématie de la
connaissance comme force productive. Il nous semble, qu'effectivement, on doit faire sa place
à l'intersubjectivité dans le travail coopératif et ne pas le réduire à la mise en oeuvre de
procédures "matérielles", comme nous y conduit la logique des "réseaux pensants". Mais tout
en reconnaissant l'autonomie non réductible du travail relationnel on ne saurait l'isoler, ni
même peut-être l'appréhender, hors de son outillage pratique, c'est-à-dire techno-
institutionnel. Les conditions contemporaines de ce travail communicationnel exigent, sans
doute plus qu'auparavant, d'étudier simultanément ses versants techniquement médiatisés et
ses versants informels.
Travail en réseau et subjectivité productive

Le développement des réseaux est couramment rapporté au caractère stratégique du travail


intellectuel dans nos sociétés. De nombreux travaux ont défriché ces transformations en cours.
Mais revenons d'abord sur cette question : le travail intellectuel -dont une partie croissante
consiste en opérations sur les signes- peut-il être identifié à un travail "immatériel" ? On l'a
vu, le travail sur les signes[26] met en oeuvre des moyens, on ne peut plus matériels
(imprimés, téléphone, enregistrements, ordinateurs, réseaux numériques, etc.). Ceux qui
parlent de "travail immatériel" ne visent pas exactement cela. Ils désignent une activité de
type réflexif, relationnel et affectif : l'intelligence dans ces dimensions imaginatives,
créatrices, culturelles et relationnelles mise au service des nouvelles conditions productives
(réactivité, anticipation, capacités d'adaptation, etc.). Dans cette perspective, le travail vivant
serait devenu plus indépendant de la régulation fonctionnelle[27] déposée dans la machinerie
industrielle et mobiliserait, en revanche, plus nettement qu'auparavant des technologies
mentales, symboliques et des comportements communicationnels. Dans cette perspective, des
qualités proprement sociales, détenues en propre par les agents (intelligence des situations,
compétences cognitives, capacités relationnelles, imagination) rendraient compte de leur
productivité au sein d'organisations collectives à même de les faire fructifier[28] dans et en
dehors du temps de travail (si tant est que cette séparation soit toujours pertinente).

Par ailleurs, "l'immatérialisation" du travail est quasiment toujours rapportée à l'emploi


intensif de la téléinformatique[29]. S'effectuant toujours plus en mobilisant des technologies
intellectuelles numériques (traitement de texte, courrier électronique, logiciels de travail
collectif, etc.), il tend à se concrétiser à s'inscrire dans des formes que l'informatique peut
traiter, transporter, intensifier. Tout un pan de la communication informelle est traduit et
mémorisé. Les numéros téléphoniques des destinataires des appels sont enregistrés par les
autocommutateurs, le courrier électronique tend à se substituer aux conversations
téléphoniques et s'archive automatiquement, etc. D'où ce paradoxe : plus le travail intellectuel
devient stratégique, plus il se concrétise dans des dispositifs matériels et plus on l'appréhende
comme travail immatériel. Ce paradoxe n'est peut-être qu'apparent, car si l'on examine le
contenu de ce travail "communicationnel", on s'aperçoit qu'il suit une double logique de
formalisation et d'invention. Cette voie de formalisation, on la repère dans toutes les activités
(gestion, comptabilité, etc.) où des programmes informatiques viennent substituer, et souvent
contrôler, le travail humain. Mais, dans les pores de ce travail et à sa périphérie, s'inventent
des procédures communicationnelles inédites qui appellent, en permanence, des compléments
humains informels. (On retrouve, ici encore, le mouvement aperçu au chapitre I, qui relie
l'imitation imparfaite et l'invention cognitive).

Observer une tendance à formaliser le travail communicationnel n'implique ni que la


formalisation ne le capte totalement, ni que de nouvelles zones informelles n'apparaissent
parallèlement. D'où l'hypothèse selon laquelle la matérialisation du travail intellectuel -fruit de
sa technologisation- irait de pair avec le développement de procédures relationnelles
humaines d'ajustement, de négociation, de conviction ou de séduction, procédures effectuées
en proximité ou à distance, dans l'espace formel du travail (lieux et horaires) ou en dehors de
ce cadre.

Présence à distance, appartenance et relation de proximité

On a vu -en particulier au chapitre I- à quel point se raffinent les dispositifs gérant le travail
collectif et s'accroissent leurs capacités à exprimer les conditions sociales de la coopération.
Soulignons une nouvelle fois que la mise à distance contraint à formaliser une part des
relations sociales auparavant "naturelles" et que, parallèlement, elle invente de nouvelles
modalités communicationnelles. La coopération à distance offre donc un cadre inédit à l'étude
de l'intersubjectivité en situation d'éloignement. L'approche dite de "proxémique
virtuelle"[30] -notamment à propos des espaces collectifs de travail- offre un cadre stimulant
pour mieux observer comment le travail linguistique et relationnel se concrétise lorsqu'il
s'effectue, justement, à distance et par le truchement de réseaux numériques. Nous avons ici
en vue les travaux -tel que DIVE, déjà cité- qui mettent à profit l'ingénierie informatique pour
concrétiser (et inventer) des fonctions abstraites de présence. Cette approche déploie une série
de questions vives : comment se combinent les segments durs et les segments mous dans le
travail relationnel, comment s'établit la coopération, comment se métabolisent les dimensions
affectives dans le filtre des réseaux numériques ? La formalisation des transactions l'emporte-
t-elle sur la spontanéité et l'invention de protocoles relationnels inédits ? Porter une attention
particulière au fonctionnement des interfaces -dispositifs et logiciels- autour de la synthèse
des activités communicationnelles semble être aussi une direction prometteuse. Cette
abstraction des fonctions de présence risque-t-elle de jouer à l'encontre des dimensions
psychoaffectives ? Comment sont-elles contournées et complétées par des relations
traditionnelles (rencontres, séminaires, par exemple) ? Ces aspects rendent concrète la
mobilisation relationnelle et affective croissante qu'exige le travail intellectuel coopératif,
dans le contexte du travail en réseau.

Par ailleurs, ces questions relatives à l'univers du travail entrent en résonance avec des
interrogations plus générales concernant les rapports entre l'échange à distance d'une part et
l'engagement relationnel et institutionnel, de l'autre. À quoi s'engage-t-on par un acte de
communication à distance ? On sait que, en dehors même des situations à caractère
performatives, n'importe quel énoncé lancé dans une messagerie, même anonyme, engage
l'énonciateur. Mais à quoi ? Auto-évaluation, fonction miroir, observation des effets du
message sur les autres personnes connectées, les incidences sont d'une grande variété. Il est
donc difficile donc de qualifier, de manière générale, la nature de la rétroaction dans un
réseau. On peut néanmoins penser que cette communication est d'autant plus chargée d'enjeux
qu'elle est chevillée à une participation concrète, à une expérimentation collective des effets
de telle ou telle proposition. C'est la notion de degré d'appartenance qui est ici décisive. On
n'appartient pas de la même manière à un "groupe de discussion" et à un séminaire
professionnel permanent, par exemple. La notion de communauté virtuelle regroupe des
relations d'une grande hétérogénéité, telles que la rencontre fortuite et (cas extrême) unique, le
regroupement autour d'un centre d'intérêt (et donc le renouvellement régulier de l'échange), ou
encore le doublage d'une relation sociale classique par une télé-relation virtuelle (comme avec
le téléphone). Les relations entre le dire et le faire offrent, dans ce contexte, un nouvel
éclairage.

Quelles incidences, l'éventualité d'un contact de visu a-t-elle sur la communication à


distance ? Si l'échange se déroule dans un même cadre institutionnel, le déroulement et
l'intensité de la communication en seront redéfinis. De même la garantie de réédition de l'acte
de communication en modifie-t-il profondément la teneur. On devrait pouvoir construire une
graduation des intensités relationnelles, sur Internet et d'autres réseaux, allant des plus faibles
(contact aléatoire, par exemple) aux plus fortes (combinaison de rapports de proximité et
d'usage de réseaux locaux) en passant par toutes sortes d'engagements limités (participation à
des groupes de discussion, à des jeux en réseaux, etc.). Ces graduations ne se situent pas
totalement sur l'axe proximité/éloignement. La communication exclusivement par réseau peut
donner naissance à des appartenances fortes (idéal des "communautés virtuelles").
L'appartenance forte basée sur la proximité (professionnelle, éducative, associative, etc.) peut
se recouper avec la présence collective à distance (c'est le cas des mediaspaces installés dans
un même bâtiment). Mais il est encore difficile d'énoncer des principes généraux sur la
manière dont la communication collective à distance rejaillit sur le fonctionnement de
collectifs à fort degré d'appartenance, comment elle redistribue leurs activités cognitives et
relationnelles et influe sur leur productivité[31].

C - Archive virtuelle, archive spectrale

Pourquoi, dans la perspective d'une réflexion sur l'inscription, solliciter le livre de Jacques
Derrida, Mal d'Archive[32] ? Le texte de la conférence du philosophe "déconstructionniste"
représente une tentative inédite, dans l'horizon freudien, de mise en rapport de la
mémorisation vivante et des techniques "archivales" prolongeant, à l'extérieur, la fixation
mémorielle. Cette approche offre, de plus, l'occasion de poursuivre une réflexion sur la
"spectralité" à l'heure des spectres numériques modernes. Finalement, le livre fait apparaître
que l'archivage, dans ses rapports aux techniques archivales, est une condition de la "ré-
flexion" proprement dite, de la mise à distance, qu'elle est productrice d'un dialogue intérieur.
En cela, ajouterons-nous, elle s'oppose à l'accélération de la rotation des inscriptions, au culte
de l'éphémère, à la valorisation de la circulation au détriment de l'interprétation ; bref, elle
balance l'éloge du réseau par l'insistance sur le travail herméneutique local.

Archive, rétention vivante et consignation matérielle

Archiver, c'est "consigner", écrit Jacques Derrida, mettre en réserve en "rassemblant les
signes"[33]. Geste systémique, "coordonner en un seul corpus", mais aussi temporel
"synchronique", rendre accessible en un même lieu, donc en un même temps. Question
politique, dit Jacques Derrida. "Nul pouvoir politique sans contrôle de l'archive, sinon de la
mémoire"[34]. Et on pourrait ajouter, contrôle de la transmission de la mémoire, des schèmes
opératoires, produisant ainsi des modalités temporelles différenciées si tant est que chaque
type d'archive est dépositaire d'une temporalité spécifique : écriture (mise à distance de soi,
auto-dialogue, mémoire objectivée), imprimerie (multiplication des sources, objectivité,
justesse, comparaison), enregistrement (actualisation du passé), etc. L'archive ne se contente
pas de figer et de rendre disponible l'information ou l'histoire, elle les conditionne :
"L'archivation produit autant qu'elle enregistre l'événement"[35]. Toute la question de
l'archive se situe dans une tension entre la rétention vivante et l'inscription extérieure
permanente. Car tout système de signes, pour être consulté, doit pouvoir être atteint par une
énergie vivante. À l'heure d'Internet, de ses milliers de banques de données et de ses moteurs
de recherches, cet adage se vérifie, on ne peut plus clairement.

Freud, pour figurer le fonctionnement du psychisme, avait pensé à une machine-outil


d'écriture, un "bloc magique", modèle de l'appareil psychique qui enregistre et mémorise
(c'est-à-dire retient tout en étant capable de recevoir), inscrit des voies d'accès, en déguise
certaines et en efface d'autres permettant l'oubli et le refoulement. Jacques Derrida ne met pas
en opposition la machine d'inscription (machine à conserver des traces matérielles, prothèses
techno-mnémoniques : graphies, dessin, écriture, et, depuis l'imprimerie, outils de circulation
-index, tables, etc.- qui font partie de la mémoire objectivée) d'une part, et l'appareil
psychique, de l'autre : "Loin que la machine soit une pure absence de spontanéité, sa
ressemblance avec l'appareil psychique, son existence et sa nécessité témoignent de la
finitude ainsi suppléée de la spontanéité mnésique. La machine -et donc la représentation-
c'est la mort et la finitude dans le psychisme"[36]. D'où le déploiement d'une tentative de
relier mémorisation psychique et rétention prothétique, tout en respectant leur autonomie
respective.

L'archive virtuelle

Dans ce dessein d'une pensée conjointe de la rétention/traduction vivante avec l'inscription


extériorisée, il est remarquable que surgisse la thématique du virtuel accordée à celle de
l'inconscient. L'archive virtuelle apparaît comme archivage d'événements qui n'ont pas eu lieu
(mais qui auraient pu survenir) ou qui en sont restés au stade de l'intention. "Le moment sera
venu d'accepter un grand remuement dans notre archive conceptuelle, et d'y croiser une
<<logique de l'inconscient>> avec une pensée du virtuel qui ne soit plus limitée par
l'opposition philosophique traditionnelle de l'acte et de la puissance"[37]. Que veut dire
Jacques Derrida ? Logique de l'inconscient : ce qui s'enregistre mais dissimule les traces du
passage et rend ainsi certains contenus irrécupérables (comme des photographies dont on a
même oublié qu'on les a prises). Une logique qui accouple la mémorisation et l'oubli comme
condition de la mémoire (il faut trier, sélectionner, pour garder, sinon tout effacerait tout).
Logique de l'inconscient, dans le sens aussi où le passé s'archive comme futur virtuel, c'est-à-
dire comme événement qui peut (mais pas nécessairement) parvenir à s'exprimer
distinctement dans l'avenir.

Latéralement à ces considérations, ajoutons quelques observations à propos de l'obsession


accumulatrice propre à nos sociétés. L'automatisation intégrale du prélèvement des traces (et
non pas de la mémoire ou de l'archivage, qui lui exige un partage entre rétention et
délaissement) permise par l'informatique apparaît alors comme le symptôme de cette menace
qui pèse sur "l'avoir eu lieu" de l'événement. Tout conserver dans le détail : les indices d'un
appel téléphonique dans un autocommutateur d'hôtel, le paiement de carburant sur l'autoroute
à la seconde près. Ces gigantesques empilements de micro-actions nous protégeraient contre
l'incertitude de "l'avoir eu lieu". Ce qui mérite d'être conservé dépend toujours d'une
projection dans l'avenir, et, dans le doute, gardons tout. L'enregistrement automatique du
détail est le versant inquiet de la rotation accélérée de l'événement médiatique : accumulation
contre obsolescence. L'archivage (comme la mémorisation individuelle) conjoint l'acte de
conservation avec un programme de sélection, d'indexation, d'organisation. C'est pourquoi
Jacques Derrida associe toujours l'archive et la "technique archivale"[38]. Tout le contraire,
presque, de la consignation automatique. L'automatisation du prélèvement nous place dans
une situation ambiguë de délégation de la décision de conservation à des automates. Cette
décision instaure une "technique archivale" singulière consistant, en tendance, à ne pas trier.
Mais on voit bien l'aporie qui guette une propension à doubler la vie sociale par son
enregistrement permanent. La monstruosité des empilements qui en résulte oblige à
sélectionner, et la question des critères conserve, dans ce nouveau cadre sa pertinence
douloureuse[39].

Ainsi en va-t-il, aussi, de l'obsession patrimoniale qui transforme notre environnement en


conservatoire du quotidien[40]. Lutte sans fin, et perdue d'avance, non pas tellement contre le
flux temporel et l'oubli mais contre le tri, c'est-à-dire la mémorisation en tant que telle, si tant
est qu'archiver suppose de délaisser[41]. D'où la course-poursuite qui oblige à surplomber les
programmes de prélèvement, par des méta-programmes, indexant les précédents. Course-
poursuite vaine pour une raison essentielle qu'explicite Jacques Derrida. Il n'y a pas de
totalisation possible de l'archive, il n'y a pas, au sens fort, de méta-archive concevable.
L'archive est toujours performative. Découvrir ou commenter l'archive c'est s'y inscrire,
depuis le futur de ce qu'elle porte dès son installation comme archive, c'est l'augmenter, et lui
faire perdre "l'autorité absolue et méta-textuelle à laquelle elle pourrait prétendre"[42].
L'archive est donc interminable, toujours ouverte, toujours "à-venir" et depuis "l'à-venir".

Mais l'automatisation du prélèvement signe aussi la protection contre la vengeance du futur :


et si, finalement, on pouvait en avoir besoin ? La conservation est une préfiguration, elle
anticipe la permanence, la disponibilité supputée et l'utilité de l'archive : "La technique
archivale a commandé ce qui dans le passé instituait et constituait quoi que ce fût comme
anticipation de l'avenir"[43]. Et là, avec l'enregistrement systématique des traces, ce n'est pas
seulement la technique archivale qui projette ses opérations dans le futur, c'est "l'anticipation"
d'un retour du prochain futur vers le présent actuel qui motive d'enregistrer tous les sédiments
contemporains. Sédiments, que finalement, et collectivement, nous oublions mais dont
l'obsession de récolte nous rappelle l'angoissante (et épuisante) tentative de maîtrise qui anime
nos sociétés.

L'archive "spectrale"

Jacques Derrida, à la suite de Freud, insiste sur la part de réalité des spectres. Ceux-ci ne sont
pas de pures illusions, mais des "vérités du délire" issues d'un retour d'événements refoulés.
D'où le mécanisme de l'hallucination démonté par Freud : "la forme déformée...parvient à la
conscience... avec une force de conviction intensifiée par la compensation, et en restant
attachée au substitut déformé de la vérité refoulée"[44]. Jacques Derrida fait dériver cette
qualité opérative des spectres vers l'archive : "...la structure de l'archive est spectrale. Elle l'est
a priori : ni présente, ni absente <<en chair et en os>>, ni visible ni invisible..."[45]. On
pourrait dire comme les "Réalités Virtuelles", au sens de la signature programmatique d'une
réalité. (On emploie ici le terme programmatique -plutôt qu'informationnel- pour signifier
qu'il s'agit d'une réalité modélisée par et dans un programme, sous forme numérique).
"Réalités Virtuelles" s'ajustant sur le modèle des "spectres", de la "hantise", de ce que Freud
nomme "fantôme réel" pour désigner l'hallucination visuelle (l'archéologue, Hanold, parle
avec Gradiva, son "spectre de midi", laquelle est ensevelie depuis longtemps déjà).

La comparaison a, bien entendu, ses limites ; on ne saurait identifier une production


hallucinatoire interne avec une sollicitation perceptive déposée sur des supports externes
(écrans, casques, interfaces). Mais le lien vaut d'être testé dans une direction plus mobile. En
effet, si on suit une logique qui interprète les technologies de représentation comme des
tentatives d'objectivation de la vie psychique (la photographie comme parabole du souvenir de
l'instant, le cinéma comme matérialisation du rêve éveillé, etc.), la "Réalité Virtuelle" pourrait
être considérée comme une traduction objectivée des "spectres" et autres "revenants". On se
situe ici à la frontière entre les manifestations de la vie psychique (rêves, fantasmes éveillés,
imagination...) et les croyances magiques (réincarnation, ubiquité, dissociation corps/esprit,
etc.), espaces dans lesquels s'originent aussi les projets technologiques. Séparation de
l'apparence et du corps par le miroir, capture visuelle du passé par la photographie, transport
de la voix et de l'image à distance : les correspondances entre technologie et activité magique
sont indéniables. Et lorsque Merleau-Ponty qualifie la vision de délire ("voir c'est avoir à
distance", écrit-il dans L'oeil et l'esprit[46]) il actualise une perspective voisine, qui interprète
la perception comme une mise en forme instable du monde.

Bien sûr, alors que l'hallucination vise la satisfaction primitive des pulsions par reconstitution
imaginaire de l'objet manquant, les "Réalités Virtuelles" jouent la satisfaction expérimentale,
pratique (ce qui peut être aussi considéré comme un apaisement). Mais sans doute aussi, peut-
on les appréhender comme matérialisation, certes rigide et pesante, de la fantasmatique
ordinaire qui double notre présence au monde ; comme une concrétisation technique de cette
zone "fantomatique" virtuelle, intermédiaire entre réalité et imaginaire. La "Réalité Virtuelle",
comme concept général, constituerait alors la forme actuelle de la "spectralité" instrumentale.

[1] Voir en particulier, La raison graphique, éd. de Minuit, Paris, 1979.

[2] L'écriture, dont Jack Goody a montré qu'elle sert d'abord à conserver des inscriptions
gestionnaires (comptes, impôts, conscription, généalogie), naît dans et pour les premières
cités-État. Le village se transforme en ville dans le même mouvement où la mémoire sociale
qu'exige son gouvernement dépasse celle qu'un chef peut gérer avec son seul cerveau.

[3] Voir notamment Elisabeth L. Eisenstein, La révolution de l'imprimé, La Découverte, Paris,


1991. Ce livre est pour nous une référence exemplaire qui démontre comment une technologie
intellectuelle particulière -l'imprimerie-redéfinit l'exercice de la pensée.

[4] Voir l'ouvrage cité ci-dessus, pp. 139/180.

[5] André Leroi-Gourhan, La mémoire et les rythmes, Albin Michel, Paris, 1965. Voir plus
précisément le chapitre IX (La mémoire en expansion), pp. 63/76.

[6] On peut citer The Gimp (logiciel de manipulation d'images), Apache (adopté par la moitié
des sites pour distribuer les documents aux Internautes), Sendmail (gérant la commutation du
courrier électronique) ou encore Star Office (ensemble bureautique). Mais la liste s'allonge
chaque mois. Par ailleurs, on l'a vu précédemment, la stratégie de la firme Netscape livrant le
code source de son prochain navigateur pour échapper à l'étreinte de Microsoft s'inspire
directement de l'exemple de Linux : on ne saurait admettre plus explicitement la supériorité
des logiciels obtenus grâce à une telle méthodologie collective d'élaboration et de
perfectionnement.

[7] Henri Atlan, par exemple, dans son livre A tort et à raison (Le Seuil, Paris, 1986) avait
précisé l'intérêt des contraintes spécifiques au "jeu de langage" scientifique, notamment
pp. 226 et 228/230. La science n'est plus alors la connaissance d'une réalité ultime, mais
procède d'une interaction assumée entre le sujet connaissant et la réalité. On retrouve la
notion, chère à Francisco Varela, d'enaction, construction commune du milieu extérieur et de
l'activité humaine appareillée. Cette posture redonne une place spécifique à l'humain, à côté
des dispositifs techniques et des institutions, dans les processus de connaissance.

[8] Les sciences et les techniques sont : "fragiles, mêlées, rares, masquées, troubles, médiées,
intéressantes, civilisatrices", Bruno Latour, La clef de Berlin, La Découverte, Paris, 1993,
p. 11

[9] "Il y a en effet de quoi tomber à genoux d'admiration puisqu'on attribue à la <<pensée>>
d'un homme la transformation rapide et complète d'une société", Bruno Latour, Les
microbes : guerre et paix, éd. A. M. Métailié, Paris, 1984, p. 21.

[10] Sur ce dernier aspect, Bruno Latour, op. cit., p. 102/103.

[11] Dans L'innovation technique, et plus précisément dans la partie consacrée à la critique de
l'anthropologie des sciences, Patrice Flichy a parfaitement analysé cette dernière dimension :
"Une autre critique que l'on peut faire aux recherches de Callon et Latour est d'éliminer la
question de l'intentionnalité des acteurs, au profit d'une simple capacité tactique à saisir les
opportunités, à faire des coups, à <<resserrer les boulons>> du réseau", L'innovation
technique, La Découverte, Paris, 1995, p. 105.

[12] Dans le même ordre d'idées Régis Debray explique que "la pensée... cela n'existe pas.
Cette pompeuse abstraction désigne pour le médiologue l'ensemble matériel, techniquement
déterminé, des supports, rapports et moyens de transport qui lui assurent, pour chaque époque
son existence sociale" (Cours de médiologie générale, Gallimard, Paris, 1991, p. 17). Là aussi
"la pensée" est réduite à ses outils matériels d'exercice.

[13] La spécificité des programmes informatiques consiste à prendre en compte, à chaque


instant, l'état dans lequel se trouve la machine afin d'exécuter l'opération suivante prescrite.
Ce premier élément de réflexivité s'articule à un deuxième, propre à l'exécution du
programme. La prochaine instruction à exécuter n'est pas forcément celle qui suit dans la liste
du programme. En effet certaines instructions (dites de débranchement) ont pour effet exclusif
d'inscrire dans un registre spécialisé une adresse différente de celle qui suit la dernière dans
l'ordre séquentiel. Le programme, selon les changements d'états qu'il provoque dans la
machine, modifie lui-même l'ordre dans lequel il exécute ses différentes séquences. La notion
de programme quasi-réflexif trouve ici sa base matérielle. Rappelons que, dans ses recherches
fondatrices pour augmenter le niveau d'automatisme des calculateurs, John Von Neumann
avait explicitement rapproché l'architecture préconisée des futurs calculateurs, de la
réflexivité naturelle du cerveau humain. L'accès à un niveau supérieur d'automatisme ainsi
obtenu est fondé sur le fait que le programme doit être chargé dans la mémoire centrale de
l'ordinateur. Il en résulte que ses propres instructions peuvent être traitées comme des
données, ou, dit autrement, qu'un principe minimum de réflexivité -à mille lieux cependant
des propriétés du cerveau- a été introduit dans une machine. L'ordinateur rayonne sa
puissance à partir de cette qualité fondamentale.

[14] Il y a consensus pour considérer que la mondialisation, fille putative des


télécommunications, est un phénomène récent. Or, l'intégration des systèmes productifs, des
marchandises (informationnelles ou non), et des cultures à l'échelle mondiale est constitutive
de nos sociétés, et ceci, depuis la révolution industrielle au moins. Ce niveau d'intégration est
évidemment lié à l'expansion mondiale des logiques industrielles capitalistes d'où découlent
les principes de rationalisation mondiale (recherche des meilleures localisations
d'investissements), et de circulation planétaire des flux financiers, marchands et culturels.
Qu'il y ait accélération de ce processus, cela paraît indubitable et toutes les analyses de la
mondialisation soulignent le rôle majeur qu'y joue la téléinformatique (dans la financiarisation
des économies, spécialement). Mais on ne peut aborder la question de l'efficacité propre de la
téléinformatique dans la mondialisation en supposant qu'elle en serait la cause.

[15] Voir J.-P. Perrin, "Le virus informatique divise le clergé iranien", Libération, 21/12/95,
p. 12.

[16] Édité chez Galilée, Paris, 1994.

[17] La théorie de la connaissance proposée par Francisco Varela autour du concept


d'enaction, refusant la logique représentationnelle du cognitivisme, débouche sur le même
type de proposition d'une co-détermination de l'objet et du sujet de la connaissance.
L'enaction est définie comme "l'avènement conjoint d'un monde et d'un esprit à partir de
l'histoire des diverses actions qu'accomplit un être dans le monde". Francisco Varela, Evan
Thompson, Eleanor Rosh, L'inscription corporelle de l'esprit, Le Seuil, Paris, 1993, p. 35

[18] Dans L'innovation technique (op.cit), Patrice Flichy discute les principales théories de
l'innovation technologique et montre, de manière convaincante, l'impossibilité d'un modèle
unique (économique, technique, sociologique, culturel) qui rendrait compte de la multiplicité
des causalités à la source du processus innovateur.

[19] Exemple de déterminisme technologique : "le déclin de l'esclavage et le développement


du salariat, en Europe tout au moins, serait dû à l'invention du collier de cheval, qui permet à
l'animal de tirer des poids bien plus importants que ne le permettait le simple mors." Jean
Duvignaud, résumé par Lefebvre- Desnouettes, Le miroir, lieu et non-lieu du "moi", in
Alliages, n° 23, été 1995, p. 88.

[20] Par exemple, François Ascher explique : "La résurrection des villes au XII[e] siècle n'a
pas été le "résultat" de la renaissance routière mais plutôt sa cause, la renaissance urbaine
étant elle-même due selon G. Duby à celle des campagnes. De même... les innovations
routières au XVIII[e] siècle n'ont pas transformé le "système urbain" mais sont venues
"habiter l'ancien" et doter d'un contenu fonctionnel nouveau des distributions spatiales
anciennes", Dynamiques métropolitaines et enjeux socio-politiques, in Futur Antérieur, n° 29,
1995/3, L'Harmattan, Paris, p. 156.

[21] Que la sémiose comporte un substrat matériel (la circulation neuronale), on ne saurait le
contester. Mais ce niveau de description est inadéquat pour la définir. Vaste question sur la
nature de la subjectivité et le statut de l'esprit qu'on ne fait ici qu'effleurer.

[22] Ainsi la sociologie de la communication massmédiatique s'intéresse-t-elle de plus en plus


à la réception plutôt qu'à l'émission, la réception étant elle-même conçue comme une phase
d'un cycle global. C'est le même type de conversion qui a été réalisée dans l'analyse du
langage, laquelle s'est déplacée de la recherche de procédures logico-formelles, voire de la
mise au jour d'éventuels soubassements génétiques (Chomsky), à l'examen des actes de
langages socialement situés.

[23] Philippe Breton attire notre attention que le fait que pour Norbert Wiener et les premiers
cybernéticiens, il n'y a pas d'autre réalité que celle constituée par les relations entre les
phénomènes (Une histoire de l'informatique, La Découverte, Paris, 1987, pp. 129/134.)

[24] Ainsi Pierre Lévy écrit-il : "Le message est lui-même un agent affectif pour l'esprit de
celui qui l'interprète. Si le texte, le message ou l'oeuvre fonctionnent comme un esprit, c'est
qu'ils sont déjà lus, traduits, compris, importés, assimilés à une matière mentale et affective."
(Qu'est ce que le virtuel ? , La Découverte, Paris, 1995, p. 105). Si on ne peut qu'approuver
cette affirmation pour ce qui est du moment de l'interprétation, on peut aussi comprendre, en
revanche, que les qualités affectives, dans l'intériorisation du message, sont transférées au
message en tant que tel. L'émotion, par exemple, semble congelée dans le message, quasiment
l'une de ses propriétés ontologiques.

[25] La relation entre forme et essence dans la production artistique pose d'autres problèmes
que nous laissons, ici, de côté.
[26] La manipulation de symboles chère à Robert Reich (L'économie mondialisée, Dunod,
Paris, 1993).

[27] Philippe Zarafian écrit à ce sujet : "...la socialisation coopératrice est en train de basculer
d'une coopération réglée sur des bases fonctionnelles vers une communication intersubjective
pour des raisons propres à l'efficience contemporaine du travail coopératif." (Travail
industriel, socialisations et liberté, in Futur antérieur, Paradigmes du travail, n° 16, 1993/2,
p. 81.)

[28] Ainsi, pour qualifier le "travail immatériel", Christian Marazzi écrit-il : "Le nouveau
capital fixe, la nouvelle machine qui commande le travail vivant, qui fait produire l'ouvrier,
perd sa caractéristique traditionnelle d'instrument de travail physiquement individualisable et
situable, pour être tendanciellement toujours plus dans le travailleur même, dans son cerveau
et dans son âme." (La place des chaussettes, L'éclat, Paris, 1997, p. 107.)

[29] "Travail immatériel" devient parfois quasiment synonyme d'informatisation ou de


"transmissible par réseau". Toni Negri, par exemple, décrivant les difficultés de la gauche à
affronter la "nouvelle phase de l'organisation du travail et de la société" exprime ainsi
"l'évidence qui s'imposait" : "l'informatisation du social, l'automation dans les usines, le
travail diffus, l'hégémonie croissante du travail immatériel". Quelques lignes plus loin, il
rapproche directement "l'innovation technologique" dans la production des "phénomènes
d'immatérialisation du travail à grande échelle" (La première crise du post-fordisme, in Futur
antérieur, Paradigmes du travail, n° 16, 1993/2, p. 11).

[30] La "proxémique virtuelle" étudie la manière dont des acteurs situés dans des espaces
virtuels façonnent les relations spatiales, aussi bien entre eux qu'avec les dispositifs qui les
entourent. Au-delà de l'aspect strictement spatial, cette notion s'élargit à la construction,
notamment topographique, des relations sociales dans les environnements simulés.

[31] Un certain nombre de recherches en sociologie du travail et des organisations sont


engagées sur ces questions. C'est le cas notamment du programme de recherche international
"Territoire et Communication dans le Post-Fordisme" débuté en 1997 qui rassemble des
institutions universitaires brésiliennes et européennes (France, Italie et Allemagne). Elle
développe des projets dans trois directions :

" - Les nouvelles articulations territoriales de l'organisation industrielle,

- les dimensions productives de la communication, l'émergence du multimédia et les


nouvelles figures productives de l'industrie culturelle,

- les problématiques du design et de l'innovation face à la dématérialisation des processus


productifs" (Giuseppe Cocco, Lettre de présentation du projet de recherche, Rio de Janeiro,
1996).

[32] Jacques Derrida, Mal d'Archive, Galilée, Paris, 1995.

[33] Jacques Derrida, op. cit., p. 14.

[34] Jacques Derrida, op. cit., note 1 p. 15.


[35] Jacques Derrida, op. cit., p. 34.

[36] Jacques Derrida, op. cit., p. 30.

[37] Jacques Derrida, op. cit., p. 107.

[38] "... la dite technique archivale ne détermine plus, et ne l'aura jamais fait, le seul moment
de l'enregistrement conservateur, mais l'institution même de l'événement archivable",
Jacques Derrida, Op. cit., p. 36.

[39] La question du dépôt légal de l'audiovisuel pose des questions voisines. (Voir Francis
Denel, Les archives de radiotélévision, patrimoine et objet/sujet de recherche, in Rencontres
Médias 1, B.P.I., Centre G. Pompidou, Paris, 1997, pp. 107/123.) L'automatisation du
prélèvement s'y concrétise dans la perspective de l'analyse documentaire. L'INA expérimente
déjà des programmes de reconnaissance et d'indexation automatique de la parole pour
numériser les fonds sonores radiophoniques et télévisuels. Quant à l'indexation automatique
de l'image -beaucoup plus complexe encore-, certains aspects (repérage automatique de
changement de plans, d'occurrences de décors, par exemple) commencent à en être maîtrisés.

[40] La mise en patrimoine permanente, sans distance de temps, est l'un des problèmes
majeurs de l'art contemporain, comme des musées de même nom : difficultés d'une
critériologie et obsession patrimoniale s'y conjuguent, selon la passionnante thèse de Corinne
Welger-Barboza : "Le devenir documentaire du patrimoine artistique - Perméabilité du musée
aux technologies numériques", Université de Bourgogne, 1998.

[41] Internet offre, à cet égard, un exemple assez clair de mixage d'une obsession
accumulatrice (rassemblement de la mémoire mondiale en ligne, conservation automatique
des paramètres des connexions, des chemins empruntés, des adresses, etc.) avec une certaine
dévalorisation de la mémorisation (échanger puis oublier, rafraîchir l'information sans
conserver les anciennes versions, etc.).

[42] Jacques Derrida, Op. cit., p. 109.

[43] Jacques Derrida, op. cit., p. 36/37.

[44] Freud, Délire et rêves dans la <<Gradiva>> de Jensen, 1906-1907, Idées, NRF, p. 225,
cité par Derrida, op. cit., p. 137.

[45] Jacques Derrida, op. cit., p. 132.

[46] Maurice Merleau-Ponty, L'oeil et l'esprit, Gallimard, Folio, Paris, 1964, p. 27.
Table des matières

Chapitre V
Retour sur interactivité
L'interactivité est une catégorie propre à l'informatique des années quatre-vingt. Elle tentait de
désigner une forme de communication entre programmes et sujets humains au moment où les
concepteurs parvenaient à déposer dans les programmes des fragments d'autonomie
comportementale. Un bouillonnement dans l'invention de nouvelles d'interfaces dites
"intuitives" (souris, menus déroulants, etc.) allant de pair avec le développement de la micro-
informatique, campait le paysage. Alliée à l'individualisation des usages des ordinateurs cette
situation allait provoquer des bouleversements dans les schémas traditionnels de la
communication. En insérant un agent actif -le programme- entre l'usager et la machine, les
catégories classiques d'émetteur, de récepteur, de message et de canal de communication
entraient en mouvement et se bouclaient. Dans ce sens, l'interactivité est l'un des costumes
possibles du concept "d'autonomie intermédiaire" propre à l'automatisme informatique :
stabilité du moteur (le programme) et multiplicité des figures qu'il déploie et interprète. En
résultaient des scénographies de commerce inédites avec les ordinateurs, lesquelles ont permis
l'éclosion d'une grande variété d'activités sociales, des transactions bancaires à l'éducation, des
jeux à la bureautique. L'essor de ce qu'il est convenu d'appeler le "multimédia" a
considérablement accéléré et radicalisé ce mouvement. Aujourd'hui, l'interactivité est-elle un
concept toujours pertinent ? Et sous quelles conditions ?

Cette notion a mûri et ne se trouve plus couverte par la garantie de l'innovation


communicationnelle. Non pas qu'elle serait devenue inopérante, mais elle souffre d'un excès
d'usage lié à sa considérable extension pratique. Je suggère pourtant que nous ne rangions pas
l'interactivité dans la remise des concepts obsolètes. En effet, même si de nouveaux champs
de recherche sont apparus, renouvelant les formes de rapports homme/programme ("vie
artificielle", "agents intelligents", smarts technologies, par exemple, que nous évoquerons
plus avant) aucun concept n'est venu substituer son caractère général. Notre hypothèse sous-
jacente est donc que l'interactivité comme forme générale, revue et corrigée, est un concept
toujours productif. On en discutera sous trois éclairages.

On tentera, d'abord, de resserrer la définition de l'interactivité dans ses rapports à la simulation


de la présence humaine comprenant ses dimensions à la fois langagière et corporelle. Mais,
par ailleurs, de nouvelles propositions sont apparues autour de la notion de "programmes
génétiques". La notion d'interactivité s'accorde assez mal à ces nouveaux cadres narratifs ou
scénographiques. Elle n'y est pas non plus totalement étrangère. Ces considérations forment le
premier volet de ce chapitre. On y envisagera quelques réévaluations afin de renouveler le
concept.

Une deuxième partie s'attachera aux enjeux plus particulièrement éducatifs de l'interactivité.
On y prônera la nécessaire reconnaissance, au deux sens du mot, des logiques de la
communication numérique et de l'hypermédiation dans une perspective éducative. Au delà de
l'utilisation en tant que technologie éducative, on montrera pourquoi et comment devrait
s'imposer un objectif central consistant à favoriser le "devenir auteur" des générations
montantes (et des autres aussi, bien sûr). On décrira comment la culture de l'interactivité
-redistribuant les notions de message et de récepteur- favorise alors naturellement la
production d'applications interactives. On s'appuiera sur l'analyse des logiques propres au
multimédia qui transforment profondément déjà les postures lectorielles en les chargeant de
nouvelles dimensions éditoriales, renouvelant ainsi les séparations fondées sur la culture du
livre. D'où notre proposition d'un soutien systématique à un home multimédia personnel et
collectif, qui pourrait constituer l'objectif fondamental d'une politique éducative en harmonie
avec la culture de l'interaction numérique.

Enfin, une troisième partie concernera le récit interactif. Région plus délimitée, le récit
interactif délivre cependant de précieuses indications sur les spécificités du régime de la
communication interactive. Il contraint, en effet, à mettre à l'épreuve certaines épistémés
majeures de la narration classique telles que les rapports entre l'auteur et les personnages,
entre l'activité d'écriture et le récit produit, ou encore entre l'interprétation et l'organisation
matérielle du support. Mais de manière peut-être plus essentielle encore, le récit interactif
révèle qu'à travers les questions de la séquentialité du récit, des temporalités de sa réception,
de la présence du spect-acteur dans la narration ou de l'irruption d'un tiers -le programme-
dans la relation auteur/lecteur, ce sont toujours, on le verra, des théories fictionnelles de la vie
qui se tiennent en arrière plan. Alors que dans les récits linéaires ces théories s'expriment
surtout dans la matière narrative, ici elles se font jour, de surcroît, dans la scénographie de
l'interaction (design des interfaces, conception de la navigation hypermédiatique gouvernant
les trajectoires dans l'espace du récit, nature des programmes qui organisent la production
narrative et ancrent la posture du spect-acteur). Enfin, avant d'entrer dans le vif du sujet, il me
semble nécessaire de délimiter plus précisément la signification du néologisme proposé de
spect-acteur. Je précise que dans mon esprit, la notion d'acteur ne désigne pas ici les espaces
de liberté dont jouit l'interprète, au sens théâtral ou encore l'acteur dans une acception
sociologique (l'acteur social). Il renvoie directement à la notion d'acte, quasiment au sens
gestuel, par opposition à l'appréciation mentale. Et le trait d'union est essentiel, puisqu'il
accouple la fonction perceptive "spect" (regarder) à l'accomplissement de l'acte.

A - L'interactivité : quelques réévaluations

L'interactivité, une prétention à la maîtrise ?

Depuis assez longtemps, l'interactivité est critiquée comme illusion de réciprocité. La notion
d'interactivité est alors perçue comme incitation/valorisation de "l'activité" au détriment,
affirmait Jean-François Lyotard, par exemple, de la "passibilité". Ainsi écrivait-il : "On ne
demandait pas des "interventions" au regardeur quand on faisait de la peinture, on alléguait
une communauté. Ce qui est visé aujourd'hui... c'est au contraire, que celui qui reçoit ne
reçoive pas, c'est qu'il ne se laisse pas décontenancer, c'est son auto-constitution comme sujet
actif par rapport à ce qu'on lui adresse"[47]. Être "passible" de l'oeuvre d'art, c'est-à-dire y être
confronté comme membre d'une communauté, c'est, pour Jean-François Lyotard, une position
qui tranche radicalement avec l'interactivité, comme si la projection active dans une scène
avait obligatoirement comme corollaire une abdication de la sensibilité, un renoncement à une
exigence de confrontation et l'impossibilité d'une suspension du contrôle ("se laisser
décontenancer"). La dimension gestuelle de la posture interactive apparaît alors comme
synonyme de maîtrise. Rien pourtant ne permet de fonder l'antinomie gestuelle/suspension
possible de la signification. Des oeuvres "interactives" sont venues confirmer, par divers
éclairages, qu'elles pouvaient provoquer, tout comme les oeuvres classiques, "une catastrophe
des sens", selon l'expression imagée de Marc Le Bot[48]. (On pense, par exemple, à des
installations en Réalité Virtuelle comme Handsight d'Agnès Hegedüs, Place - A User's
Manual de Jeffrey Shaw, Ménagerie de Susan Amkraut et Michael Girard ou encore
Tunnel sous l'Atlantique de Maurice Benayoun, travaux dont il sera fait mention
ultérieurement). Et pourquoi ne pas imaginer, qu'à travers ces oeuvres et quelques autres, une
communauté "d'interactants" serait en train de se rassembler, "passibles" d'émotions
esthétiques en partie communes ?

La critique -voire le mépris- de Jean-François Lyotard rejoint, par certains aspects, un autre
genre de réfutation qui prétend souligner l'impuissance de l'interactivité à se faire l'écho de
l'infinie souplesse des comportements humains. On adresse alors un grief, implicite, à la
situation interactive, consistant à lui reprocher son incapacité à simuler pleinement les
relations vivantes. On lui refuse alors son statut d'entre-deux (ni rencontre directe avec une
subjectivité, ni programmation univoque) pour la reléguer -comme le fait Jean-François
Lyotard- dans le champ de la communication instrumentale, redevable de l'opérationalité
technique. C'est pourtant ce caractère d'entre-deux qu'il faut reconnaître et que je
revendiquerais comme posture spécifique passionnante. Il est vrai que, comme l'explique
Jean-Pierre Balpe, le récepteur est l'un des paramètres du modèle global organisant le système
interactif. Mais cette restriction vaut surtout pour le concepteur. Sur l'autre versant, le spect-
acteur se trouve dans une situation inédite d'ouverture limitée : contraint, mais mobile. Alors,
liberté en cage ? Ouverture illusoire, comme l'affirment ceux qui craignent le piège d'un
affranchissement surveillé (et qui font mine de reprocher à l'interactivité ses limites alors
qu'ils préfèrent, par habitude, les barrières traditionnelles qui enserrent les oeuvres
indéformables classiques) ? Je préfère retenir l'idée que interactivité apparaît comme une
nouvelle condition de la réception et l'interpréter comme l'indice d'un désir collectif
d'assouplissement des limites -nous y reviendrons- et ceci aussi bien du point de vue du
concepteur -qui vise une maîtrise en surplomb- que du récepteur. Ce désir est la condition
spectatorielle actuelle -ce qui ne dévalue pas ses anciennes formes- mais exige qu'on la
reconnaisse comme telle, pour le pire et le meilleur (qui nous intéresse principalement).

Simuler l'autre, est-ce une bonne approche ?

Épurons toute illusion quant à une possible simulation adéquate du sujet humain. Même si la
tentative de simulation de l'autre demeure une première ligne d'analyse valable, elle doit éviter
une dérive mimétique. "L'autre", dans la situation interactive, est un horizon, une référence
pas une présence susceptible d'être dupliquée à l'identique. Certains signes de sa présence sont
manifestes (réponse, compréhension partielle des énoncés, intelligence parcellaire de la
situation) mais pas l'intégralité de sa personne (réactivité, créativité, intentionnalité, etc.).
Dans une perspective complémentaire, on doit considérer que l'interactivité construit son
spect-acteur, de la même manière que le livre construit son lecteur et un public de lecteur.
L'interactivité matérialise alors des rapports au récit, par exemple, qui n'ont pas de référent
dans la confrontation avec d'autres supports (livre, film, bande dessinée, etc.).

Dès lors l'analyse de la confrontation interactive ne saurait se limiter aux références


empiriques (simuler les compétences langagières et comportementales humaines). Il faut
l'appréhender comme une catégorie de la communication, c'est-à-dire un mode singulier de
commerce entre des subjectivités et des supports obéissant à des contraintes particulières, dont
leur "programmaticité", au sens informatique du terme, est certainement la principale. D'où
l'analyse de la posture interactive comme relevant d'une double détermination. Moyennant
quelques rectifications, ce cadre d'analyse[49] m'apparaît valide. L'interactivité est alors
considérée à la fois comme auto-communication et comme méta-communication. Auto-
communication : message, histoire, récit, parcours qu'on adresse à soi-même où le programme
fonctionne comme un stimulateur de composition de rôle. Méta-communication : on actualise
les programmes conçus par d'autres pour se fabriquer ses propres programmes d'écriture, de
mise en scène d'espaces, de circulation dans les récits, de consultation de banques
d'informations, etc.

Interactivité "de commande" ou "simulation corporelle" ?

Dans cette perspective, l'articulation centrale qui organisait l'analyse de l'interactivité comme
"simulation de l'autre" séparait l'interactivité langagière (échanger du langage contre du
langage) de ce que j'ai appelé "l'interactivité de commande", désignant par là les situations où
le langage n'est pas le vecteur principal -ni même obligatoire- de l'interaction, comme dans les
visites de villes, de musées ou la plupart des jeux vidéos. Or, la notion "d'interactivité de
commande", si elle peut exprimer une assez grande variété de situations où l'interaction se
déroule à travers l'activation d'interfaces, de menus ou de zones sensibles sur l'écran, n'est pas
assez spécifique. Elle ne désigne pas avec une précision suffisante une grande diversité
d'applications où l'activité corporelle est, en tant que telle, directement l'objet de l'interaction.
Ne s'agit-il pas, en effet, dans nombre de cas, de restituer, dans le cadre d'un espace contrôlé
par programme, des activités corporelles telles qu'un déplacement dans l'espace, une épreuve
de pilotage d'engins, un combat de rue ou une compétition sportive ? La grande majorité des
jeux vidéos, les visites de villes ou de musées, les univers virtuels basés sur la communication
par avatars interposés, reposent sur de telles "simulations corporelles".

Cette notion doit, cependant, être maniée avec une certaine prudence. Simulation ne veut pas
dire reproduction à l'identique. En effet, la spécificité de ces cadres d'actions résulte de la
modélisation préalable des micro-mondes imaginés ainsi que de l'usage indispensable
d'interfaces adaptées. De cette double contrainte, il résulte que les activités corporelles sont
simplifiées, réinterprétées, déformées afin qu'elles puissent s'exprimer dans ces conditions.
Mais, elles sont aussi reconstruites, et éventuellement prolongées par des outils cognitifs
puissants, afin de tirer partie de la malléabilité des univers numériques fictionnels et de leurs
potentialités. Ouvrir une fenêtre sur l'écran pour prendre connaissance de la position des
adversaires, afficher les actions passées, visionner le panorama du champ de bataille, toutes
actions possibles dans ces univers. On rejoint ici la problématique de la présence du corps à
distance. (C'est, on le rappelle, le premier sens de "virtuel" : l'objet virtuel résulte d'une
modélisation numérique et matérialise un déplacement d'existence. L'autre sens, prolongeant
celui-ci, étant le déplacement de présence, via réseaux, de ce modèle élaboré). Le corps
propre est à la fois réduit et retravaillé par les interfaces spécifiques à chaque application
(joysticks manipulant jambes, bras, ou tête, capteurs de position de la main ou du corps pour
les jeux en Réalité Virtuelle, etc.).

Le corps est alors réduit à un ensemble de compétences limitées, à l'intérieur des cadres
d'actions simulés. Il est déplacé à distance par formalisation -c'est-à-dire simplification et
amputation- afin de se mouvoir dans les espaces virtuels mis en scène (ville, musée, terrain de
sport, etc.). Mais c'est un corps articulé à toute l'ingénierie des interfaces, lesquelles ordonnent
ses réactions. Le déplacement de la souris, le cliquage ou le maniement des commandes à
l'intérieur des scènes explorées apparaissent alors comme des mouvements corporels
esquissés et accomplis dans le système de contraintes propre aux diverses scénographies. On
pourrait évoquer les fameux "schèmes moteurs" situés à la frontière du corporel et du mental,
que Bergson invoque pour établir sa théorie de la perception. Ce serait ces "sensations
musculaires naissantes" qui régleraient notre présence dans ces univers, à la différence qu'il ne
s'agit plus là seulement de perception mais aussi d'action.

Un corps virtualisé face à des quasi-sujets

La place du corps dans les démarches d'apprentissage n'est certes pas un thème inédit, mais
les environnements interactifs ont renouvelé l'approche des échanges entre le corporel et
l'intellect. Avancées que le développement en cours d'interfaces à retour d'effort -tel que le
manche à balai rétroactif SideWinder de Microsoft décrit au chapitre I- ne manquera pas
encore de prolonger. On le sait, la principale caractéristique de l'image numérique actée, c'est
qu'elle est devenue sensorimotrice par l'effet de l'incorporation du geste, de l'action, dans sa
mise en mouvement par les spect-acteurs. C'est une image kinesthésique, une image bordée,
pratiquement, par une incarnation non strictement imaginaire (à la différence des autres
régimes iconiques : dessins, photographie, films).

Déjà Seymour Papert promouvant l'environnement LOGO dans une stricte filiation
piagétienne, érigeait les échanges corps/intellect en articulation centrale de la formation à une
posture d'épistémologue[50]. Les jeux d'aventure confrontent -par une voie symétrique-
l'exploration corporelle et la symbolisation. Aujourd'hui, la qualité graphique des espaces
tridimensionnels conçus dans ces jeux ainsi que le raffinement des interfaces augmentent le
réalisme des déplacements dans les situations de découvertes -quasiment corporelles- tout en
alimentant la sophistication des univers sémantiques à explorer et à ordonner.

L'interactivité s'exprime alors non pas dans un échange avec un programme fermé, mais dans
la construction d'un micro-monde par création de programmes (LOGO) ou à travers la
découverte des principes d'une quasi-vie artificielle (jeux d'aventure). Dans la philosophie
éducative bâtie autour de LOGO -construire ses connaissances dans des milieux favorables à
leur croissance- l'activité de programmation est un apprentissage au modelage de micro-
mondes. Il s'agit de programmer les comportements souhaités d'un automate graphique, dans
une démarche à la fois analytique (réduire le complexe au simple, l'inconnu au connu) et
synthétique (fabriquer du complexe avec des séquences simples, combiner des agents
procéduraux) pour que l'automate se comporte selon le projet anticipé. La méthode ?
S'identifier à la "tortue" afin d'imaginer, par exemple, une géométrie à partir de son propre
schéma corporel, c'est-à-dire selon son expérience singulière de l'espace. Démarche inductive
expérimentale, proprement phénoménologique, où le corps propre sert de milieu d'expérience
pour... en sortir ; c'est-à-dire abstraire des régularités générales par l'auto-construction des
connaissances en milieu favorable. Bâtir des programmes d'animation pour "apprendre à
apprendre" : c'est bien en invoquant la puissance virtuelle et interactive inégalée du milieu
informatique que Seymour Papert, ses collaborateurs et les équipes éducatives conquises par
cette démarche affirmaient l'actualité de la révolution éducative qu'ils appelaient de leurs
voeux.

Avec les jeux d'aventure -Myst ou Riven sont parmi les meilleurs exemples-, c'est l'inverse. Il
ne s'agit plus de programmer des automates, mais d'induire les règles de fonctionnement de
mondes inconnus à partir de leur fréquentation. Il faut imaginer des régularités dans ce qui
paraît mystérieux et insaisissable. Ainsi que le signale Jean-Pierre Balpe[51], les jeux
d'aventure sont des milieux propices à l'induction. Ils exigent de conceptualiser
progressivement les interactions avec les univers virtuels scénarisés et de contextualiser les
connaissances acquises (ce qui paraît anecdotique dans une phase du jeu peut se révéler
décisif dans une autre). Il s'agit bien, ici aussi, de devenir épistémologue, mais de manière
moins "scolaire", plus vivante : une analogie -très- simplifiée de la "vraie vie" où il n'y a pas
de différence entre agir, percevoir, comprendre les effets de nos actions et s'approprier le sens
des environnements qu'on modèle et qui nous modèlent. Ainsi en est-il, par exemple,
lorsqu'on découvre un pays étranger avec ses moeurs, ses coutumes, etc. : comprendre les
règles de fonctionnement est le résultat des interactions, pas son préalable.

Alors que LOGO met en jeu un corps intellectualisé (il s'agit de trouver les règles abstraites
permettant les déplacements corporels de la "tortue" afin d'accéder "naturellement" aux
démarches d'apprentissages inductives et déductives). Myst ou Riven, en revanche, font appel
à ce qu'on pourrait appeler un intellect corporéisé. Ces jeux font dériver les conjectures de
l'incubation psycho-corporelle dans un milieu virtuel fortement réaliste. C'est par une
immersion dans un monde aux formes visuelles et sonores particulièrement soignées et aux
interactions comportementales précisément construites, que s'élabore finalement le travail
"ethnologique". L'induction, la symbolisation des relations entre les acteurs humains et non-
humains sont bien entendu des activités intellectuelles, mais ici elles sont favorisées par une
présence corporelle virtuelle. Dans les deux cas (LOGO et les jeux d'aventure) la visée est
épistémologique, voire épistémophiliques : induire les règles implicites pour sémantiser
l'univers, faire des hypothèses et vérifier leur consistance. Qu'il s'agisse de vérifier la
pertinence de ses anticipations (LOGO), ou du plaisir de dénouer des intrigues (jeux
d'aventure), l'excitation de la découverte et la jubilation lièes à l'accroissement progressif des
espaces de libertés, sont de puissants moteurs cognitifs.

Dans les deux cas, il s'agit d'environnements qui incitent à une mise à distance de soi.
Anticiper -"programmer" veut bien dire étymologiquement "écrire à l'avance"- ou induire,
sont des formes différentes de distanciations, avec ce que cela comporte de résistances et de
vertiges. L'interaction avec des quasi-sujets (l'automaticité des programmes qui animent la
tortue LOGO ou la quasi-vie des mondes virtuels dans les jeux d'aventure) médiatisent
souvent ces situations déstabilisantes... à condition, bien sûr, qu'on se reconnaisse dans ces
aventures et qu'on s'y risque ; ce qui ne saurait être érigé, de manière normative, en point de
passage obligé vers les rivages de "l'épistémophilie".

Interactivité et interface

L'interface se définit comme un organe de communication entre l'homme et l'ordinateur. Or,


au cours de son histoire, l'informatique a constamment déplacé la frontière entre l'intérieur et
l'extérieur selon un mécanisme qui, schématiquement, incorpore sans cesse ce qui à l'étape
antérieure se situait à l'extérieur. Les couches actuelles (Windows, bureau Macintosh, etc.)
poursuivent le mouvement enclenché dès l'invention par Türing du premier langage
d'assemblage. Et ce mouvement ne se dément pas aujourd'hui. Par exemple, alors que le
langage de rédaction de pages Web, H.T.M.L. se popularise, de nouveaux langages en
surplomb assurent, de manière quasiment transparente à l'utilisateur, la création du code
H.T.M.L.

Avec le développement des progiciels, les programmes multimédias ont modifié, dans cette
même direction, la notion d'interface. D'organes externes permettant l'interaction
homme/ordinateur, elle est devenue outil de manipulation posé à la surface du programme, à
la fois moyen de sélection des commandes, instrument de navigation, organisation générale
des informations, symbolisation des univers délimités et prescription de comportements pour
l'interactant. On note, en effet, une tendance très nette à ce que l'interface, qu'on appelle
désormais "graphique", exprime directement les mondes qu'elle permet de découvrir. Par
exemple, s'agissant de l'exploration d'une photographie, le pointeur prend la forme d'un
viseur. Plus même, l'interface tend à disparaître comme fonction séparée et à s'intégrer aux
constituants de la scène. L'interface devient interne à l'événement ; plus de barre de menus en
haut de l'écran : ce sont les objets de la scène eux-mêmes qui deviennent sensibles. Cliquer
sur le bouton du poste, il émet de la musique, passer en roll over sur un tableau, il s'anime, sur
une fenêtre, elle s'ouvre, glisser sur le bord inférieur d'une page, elle se tourne. Les jeux vidéo
d'action excellent à éliminer toute enveloppe graphique et relient directement les organes de
commandes aux acteurs eux-mêmes. Comme dans le monde réel, les objets sont devenus
mobiles, déformables, actifs. La présence de l'interactant dans la représentation en est majorée
d'autant.

Outre ces fonctionnalités, l'interface définit un mode de fréquentation de l'univers façonné.


Elle précise la posture suggérée à destination de l'interactant et institue le cadre de référence
du monde proposé à l'exploration[52] : type de décryptage souhaité (fiction, reportage, jeux,
produit éducatif, etc.), connotations repérables, hiérarchies entre les personnages, etc.
L'interactant est alors appelé à adopter une disposition archéologique, questionnant la surface
qu'il sait gouverner l'accès aux mondes sous-jacents. Sur une palette de contraintes et
d'habitudes plus ou moins communes, chaque titre de CD-Rom, chaque site Internet, invente
ses interfaces graphiques et s'ingénie à proposer des modalités de circulation inédites. Pour le
spect-acteur il s'agit alors de s'approprier tout à la fois les significations et les codes pour les
enchaîner ; un peu comme s'il fallait reconstituer un livre à partir des lignes en vrac grâce à un
vague manuel propre à chaque volume. Le mode d'emploi devient un enjeu sémantique et
dramatique (d'où certaines résistances du grand public à s'approprier ces propositions[53]).

Désir et déception

Au fondement de l'image interactive gît le désir de faire reculer les limites imposées par
l'enregistrement, de sortir de la culture de l'audiovisuel. Désir d'un accroissement des espaces
de liberté, de voir reconnaître au spect-acteur ou au lect-acteur une présence dans les
scénographies. En prolongeant ce propos, on pourrait soutenir que l'image actée engendre une
forme d'iconoclasme par excès d'iconophilie. Il s'agirait de faire rendre à l'image plus que ce
qu'elle ne peut apparemment accorder. On ne se demande plus, alors, si l'image exprime ou
déforme son référent, mais où se situent ses limites, quelles investigations peuvent-elles s'y
développer ? Bref, non pas que montre-t-elle, mais que dissimule sa surface visible ?
"Derrière chaque caverne, une caverne plus profonde".

Mais aussi, promettant un parcours sans fin, les scénographies numériques approfondissent la
déception de buter sur des limites, découvrant que des frontières bornent toujours ces
parcours, leur origine comme leurs déroulements. Les programmes multimédias accroissent le
trouble de la finitude alors même que leur principe consiste à élargir le champ des possibles
(mille images actualisables à partir d'un modèle, des milliers de trajets envisageables dans une
scène). D'où l'anxiété induite par la recherche endiablée d'une augmentation des degrés de
libertés dans le déplacement interne aux corpus, qu'ils soient à caractère narratif ou consultatif
? Or, on le sait, toute liberté nouvelle secrète des angoisses et des défenses. Dans cette
perspective, la déception est peut être salutaire, jouant probablement comme une réassurance
face aux vertiges de l'affranchissement du parcours unique.

Un modèle à trois branches


La dichotomie interactivité langagière/interactivité de commande ne permet pas
d'appréhender l'une des dimensions possibles de cette relation. Ces deux branches -référant à
la simulation de l'humain dans ses dimensions langagières et comportementales- ignorent un
type d'interactivité qui ne se rapporte pas à l'activité humaine et qu'on pourrait qualifier
d'automatique. En effet, alors que les deux premières dimensions référent à l'interactant, la
troisième exploite les potentialités propres de certains programmes informatiques[54]. Les
programmes "génétiques" illustrent assez bien cette perspective. Tout en tenant compte des
interventions de l'interactant, ils calculent des trajectoires dans des univers selon des
programmes matérialisant les principes "vitaux" à l'oeuvre dans ces mondes installés et
réagissent selon les actions déjà entreprises. Une nouvelle série de jeux, dont "Créature" est
un premier exemple, encore assez sommaire, exploite cette nouvelle direction.

Le générateur littéraire de Jean-Pierre Balpe -sur lequel nous reviendrons- se rapproche de


cette voie, de même que le déplacement dans les images de certains mondes virtuels ou les
générateurs d'images illustrant les principes de la "vie artificielle". Ainsi l'installation de
Maurice Benayoun, Dieu est-il plat ?[55] peut être qualifiée d'interactive, mais en y incluant
l'activité propre du programme qui influe de manière déterminante sur les choix proposés. Le
spect-acteur, en manipulant une souris, avance dans un univers de briques qui se creuse au fur
et à mesure de sa progression. Tout changement de direction provoque la création d'un
nouveau couloir dans lequel il découvrira des représentations de Dieu. Les chemins ne sont
pas déterminés a priori, c'est la déambulation qui crée elle-même la topographie de
l'exploration. Le programme ne se contente pas de réagir aux actions de l'interactant, il
fabrique les choix de circulation selon les trajets déjà effectués.

Karl Sims, avec Genetic Images[56], s'inspire directement de la "vie artificielle". L'ordinateur
(un supercalculateur massivement parallèle de Thinking Machines) affiche une série de seize
images sur des écrans vidéo. Les visiteurs sélectionnent celles "qui seront amenées à survivre"
lesquelles, par combinaisons et mutations algorithmiques, produirons des "descendantes"
remplaçant les images éliminées. Le processus peut alors être réédité à l'infini. Karl Sims
qualifie l'installation "d'interactive" et écrit : "Ainsi, dans cette évolution artificielle, ce sont
les visiteurs qui déterminent interactivement <<l'aptitude>> des images à survivre"[57]. Il
s'agit de créer une vie "artificielle", c'est-à-dire qui se veut non intentionnelle (mais qui,
cependant, ne peut se passer de l'installation -nécessairement intentionnelle- d'un moteur non
intentionnel). On peut considérer que le visiteur collabore avec le programme pour déclencher
un processus évolutif, au sens darwinien du terme. Pour rendre compte de l'interactivité
comme forme de communication homme/machine, il est sans doute nécessaire de substituer à
un modèle binaire (interactivité langagière/corporelle), un modèle à trois branches incluant
cette dimension de composition automatique.

Une interactivité voilée

Avec les nouvelles générations d'objets "intelligents" évoqués au chapitre un (smart rooms ou
smart clothes, par exemple), se fait jour une autre modalité de la communication
homme/machine. Ces objets nous écoutent, nous scrutent, apprennent nos habitudes, et
finalement agissent avant même qu'on ne leur demande. Il s'agirait là d'une interactivité voilée
(du point de vue de l'interactant) ; non pas d'un commerce bilatéral mais d'une sorte de
capacité réflexe déposée dans des logiciels. Dépositaires d'une réactivité, d'un réglage
comportemental les "objets intelligents" s'ajustent à nos comportements et s'auto-définissent
dans un rapport adaptatif. À la notion d'interaction (entre un programme et un sujet humain),
ces programmes substituent un rapport docile, muet qui n'affirme explicitement son existence
qu'autant qu'il échoue à satisfaire nos besoins. On retrouve des séquences de dialogues
interactifs lors des phases d'initialisation (paramétrages) et d'échec (nouvelle programmation).
En dehors de ces moments, l'humain se sait épié et aidé par l'agent logiciel sans qu'il le
sollicite volontairement. Une communication implicite prend la place d'un échange
intentionnel explicite : une modalité d'une relation maître/esclave, car dans cette situation,
l'esclave n'est remarqué par le maître que s'il défaille.

B - Éloge des savoir-faire intermédiaires

ou le home multimédia, un enjeu politique

"Devenir auteur" tel devrait être la devise inscrite au fronton du multimédia à vocation
éducative. On le verra, il s'agirait là moins d'une interactivité avec des "contenus" déjà
constitués que d'une interactivité qui confronte à des logiciels-outils. On rappelle d'abord que
l'apprentissage de la lecture n'a de sens que conjointement à celui de l'écriture. Rien de moins
que transformer de jeunes enfants en auteurs, au sens plein du terme : devenir auteur -écrire-
et pour cela lire les textes des autres comme les siens. Conduire le passage à l'écriture, c'est,
on le sait, l'une des missions essentielles de l'éducation. La visée ne consiste pas seulement à
permettre l'expression écrite de la pensée, mais surtout à provoquer naturellement une mise à
distance de soi, afin qu'à travers cette extériorisation, dans cet écheveau de règles et de
contraintes, les apprentis-auteurs explorent, raffinent et finalement produisent, par ré-flexion,
leurs idées. Utopie démocratique, que les nouveaux systèmes symboliques numériques se
doivent de prolonger, s'il est vrai que l'interactivité dans le contexte de l'hypermédiation fait
émerger de nouvelles pratiques d'expression/réception (que, par exemple, les notions de
lectacture, ou de home multimédia présentées plus en avant, tentent de circonscrire).

L'interactivité est considérée ici comme espace techno- culturel singulier où commercent
auteurs et récepteurs par programmes-outils interposés. Radicalisant ce qu'annonçait déjà
l'écriture et l'imprimerie -l'utopie de la République des Lettres, où chacun est aussi bien
lecteur qu'écrivain- l'interactivité informatique nous plonge dans un milieu encore plus
favorable pour expérimenter des agencements inédits entre ces deux postures. Pour aller à
l'essentiel, je suggère de reconnaître et de consolider le statut intermédiaire entre ces positions
: ni lecture -qui laisse inchangé le texte lu- ni écriture, dont l'idéal consiste à demeurer
inaltérée ; notions qui n'ont de sens historique que relativement à des supports stables.
("Lecture" et "écriture" sont à considérer ici dans un sens élargi, proche de "réception" et
"production").

Mais avant de poursuivre cette réflexion, il me semble judicieux de situer trois types de
fréquentation des programmes multimédias interactifs dans leurs rapports à la
"réception/production", qui on le verra, possèdent tous leur légitimité propre, même si leurs
frontières sont mobiles :

- la création en tant qu'auteur, artiste ou professionnel, typique d'une activité à finalité


clairement éditoriale,

- symétriquement à la position d'auteur, la navigation dans des contenus stables (CD-Rom ou


sites Internet) où, me semble-t-il, la situation de lecture doit être différenciée de l'activité
d'écriture même si les supports numériques ouvrent à un concept de lectacture,
- enfin, la production de type home multimédia, stratégique, qui stabiliserait une production
intermédiaire entre réception et expression.

Nous concentrerons notre attention sur les deux dernières situations, si tant est que la première
ne souffre pas de remise en cause fondamentale, même si elle se confronte à la recherche de
langages inédits.

Vers une lectacture

La navigation interactive n'est pas une écriture. L'invitation à la navigation hypertextuelle se


conjugue pour nombre de commentateurs, avec effacement de la séparation entre lecture et
écriture. L'argumentation se construit en commençant par souligner que toute lecture est une
réécriture interne du texte lu. Lire un texte, le comprendre (étymologiquement, "prendre en
soi"), consiste effectivement à le réécrire intérieurement par une série d'aller retour entre
prédiction de ce qui va suivre et réajustement du sens de ce qui précède (comme pour
l'appropriation orale). Ayant affaibli la distinction entre lecture et écriture, on franchit un pas
de plus en tentant de faire fusionner l'auteur et le lecteur. Une forme de cette tentative consiste
à considérer, par exemple, que la navigation hypertextuelle -pour peu qu'elle puisse modifier
le graphe de circulation (ajouter des noeuds, renforcer des chemins)- deviendrait, de ce fait,
une écriture. C'est le point de vue, par exemple, de Pierre Lévy lorsque qu'il écrit : "Le
navigateur peut se faire auteur de façon plus profonde qu'en parcourant un réseau préétabli :
en participant à la structuration de l'hypertexte, en créant de nouveaux liens. Certains
systèmes enregistrent les chemins de lecture et renforcent... ou affaiblissent les liens en
fonction de la manière dont ils sont parcourus par la communauté des navigateurs"[58]. Mais,
même si le lecteur peut modifier des liens ou ajouter des noeuds, s'agit-il alors toujours
d'écriture ? Incontestablement, pour le lecteur suivant qui parcourra l'hypertexte transformé,
les significations du document seront, elles aussi, modifiées. Si certains chemins sont
soulignés, peut être sera-t-il enclin à les emprunter (ou à s'en détourner). De toute manière sa
circulation en sera remaniée.

Mais peut-on, pour autant parler, d'écriture ? Bien sûr, on peut arguer du fait que l'écriture ne
se confond pas avec la production sémantique (on peut noter des listes de mots ou de nombres
sans rechercher à transcrire la pensée, c'est même cela que visaient les premières inscriptions).
Mais comment éliminer, aujourd'hui, du champ de l'écriture la production d'idées,
d'arguments ou d'expressions d'états affectifs, surtout lorsqu'on vise des textes argumentatifs ?
Agencer différemment l'organisation physique d'un texte, n'est générateur de productions
sémantiques et de postures sensibles passionnantes, que si le dispositif de réagencement
devient lui-même la composante essentielle d'une oeuvre interrogeant ses différentes
instanciations possibles et bousculant les coutumes lectorielles. (Les jeux calligraphiques ou
typographiques intentionnels peuvent, eux aussi, ouvrir des champs d'expression sémantiques
et esthétiques originaux). Mais dans ce cas, et même si une instanciation suscite une
modification interprétative pour un futur lecteur, peut-on lui décerner le titre d'écriture ? À ce
compte n'importe quelle succession de mots tirés au sort et alignés sur une page (ou un écran)
peut déclencher une vague d'associations. Ce n'est pourtant ni un texte, ni un poème, juste un
exercice automatique ou un test projectif ; sauf si le dispositif de tirage est pensé en tant que
tel par l'auteur, et là c'est ce geste qui devient proprement une oeuvre (les Cent mille milliards
de poèmes de Queneau n'ont d'intérêt que par le dispositif imaginé pour les produire et non en
tant que contenus).

La lectacture, une activité en émergence


On détecte une tendance malheureuse à analyser les nouvelles postures et les productions
permises par la numérisation en les ramenant à des formes anciennes, serait-ce à travers des
négations trop rapidement posées (par exemple, le lecteur est devenu auteur). Oui, la lecture
hypertextuelle multiplie, augmente la lecture sur supports stables. Non, ce n'est pas, en soi,
une écriture. Même les notions de coauteur ou de co producteur paraissent trop imprécises
(elles réfèrent à la collaboration de plusieurs auteurs approximativement de même statut,
comme dans la production audiovisuelle, par exemple). On peut considérer que l'interactant
devient en quelque sorte l'interprète de l'hypertexte ou de l'hypermédia, au sens musical du
terme ; éventuellement un virtuose, mais pas le compositeur. En fait, on tirerait profit de la
définition de nouveaux concepts remplaçant celui d'écriture : balisage de chemins, production
d'agencements formels, marquage de circulations. Un concept de lectacture est probablement
à thématiser. On pourrait alors envisager que cette lectacture puisse agir dans une zone
intermédiaire entre la production et l'appropriation de sens, pôles que la lecture et l'écriture
tenaient jusqu'à présent, et dans une certaine mesure seulement, éloignés. Indubitablement
lecture et écriture, même sur supports stables, ne sauraient être isolées l'une de l'autre. Lire,
c'est réécrire pour soi le texte, et écrire, c'est enchaîner sur des lectures. Par ailleurs, ces deux
pôles s'agencent mutuellement dans des contextes toujours collectifs. Une lectacture permise
par des supports dynamiques augmenterait encore les proximités entre les deux pôles, sans
toutefois les condamner à fusionner. De multiples développements (indexation de textes,
mobilisation de moteurs ou guides de recherche, formalisation de chemins de navigations,
etc.) font plus ou moins signe dans cette direction. Mais la notion de lectacture n'est-elle pas
trop fortement connotée par celle de "lecture", rabattant exagérément le sens sur le langage
écrit, alors qu'avec l'hypermédiation prennent consistance les pratiques croisées
d'expression/réception iconiques, sonores et linguistiques ? Comment qualifier cet acte
d'expression/réception ? Spect-acture, hypermédiature ? Le guichet pour déposer les
néologismes est encore ouvert.

Le home multimédia, un enjeu politique

Ceux qui considèrent que la lecture hypermédia s'identifie à une écriture simplifient par trop
la question, mais surtout réduisent les pratiques d'expression/réception sur supports
numériques à celles qui se sont sédimentées dans la culture de l'imprimé. Or, il me semble que
par de nombreux canaux, l'alliance des technologies d'inscription numérique et d'usages
sociaux plus répandus qu'on ne le croit, dessinent d'autres perspectives, intermédiaires entre
consultations, conservations, citations, collages, émissions de liens et création originale de
contenus. Une offre logicielle grand public accompagne et fortifie cette alliance : boîtes à
outils de toute nature, progiciels de design d'hypermédias, logiciels de traitement d'image
fournis avec les appareils photographiques numériques et décalqués des outils professionnels
de type Photoshop, logiciels d'échantillonnage musicaux, de sampling etc. Des home studio
aux pratiques de copier/transforme/coller musicales (techno, house music)[59] en passant par
les mix des raves, le domaine musical offre un bon écho de ce qu'une réception/production
multimédia est en passe de généraliser : un home multimédia élargi aux agencements
conjoints des univers textuels, graphiques, iconiques et sonores dans le contexte de la
communication collective et de la documentation partiellement automatisée. Si on décrit
concrètement ce que signifie réaliser une home-page sur Internet ou un site collectif dans une
classe, par exemple, on découvrira une nappe graduée d'activités où la recherche
documentaire automatisée par moteurs et guides, la citation, l'emprunt non référencé, le
collage, la transformation de sources originales occupent une place considérable. L'usage de
robots chercheurs est, par ailleurs, une manière naturelle de se déplacer sur le réseau : la
mobilisation de tels automates devient une pratique de lecture/recherche "grand public". De
multiples propositions s'amorcent pour cartographier et exploiter les gisements de données
ainsi collectés[60], étendant ainsi des savoir-faire d'organisation de connaissances aujourd'hui
encore spécialisés. Sur ce terrain aussi, le passage à la "home" exploitation dynamique des
paysages d'informations est amorcé. Le développement de nouvelles normes d'édition de
documents appelées à succéder à H.T.M.L. -tel que X.M.L. (pour eXtensive Mark up
Language), méta-langage permettant d'adapter les langages de conception selon la nature des
sites- augmentera l'initiative des Internautes. Plus généralement, il s'agira non plus de
"consulter" des sites mais de transformer les pages reçues, de les recomposer et d'y ajouter des
informations personnelles.

L'évolution propre des langages du multimédia incite à prendre résolument l'orientation du


home multimédia. L'offre de logiciels-auteurs se renforce (maquettisme, traitement d'images
photographiques, gestion d'hyperdocuments, langages de conception de sites sur Internet, etc.)
rendant de plus en plus transparent aux utilisateurs l'usage d'outils élaborés[61] (même si, et
ce n'est pas contradictoire, parallèlement les versions professionnelles se complexifient).

Bien entendu, une part plus originale, personnelle, lieu de la créativité dans un sens plus
traditionnel, complète ces activités : établissement de chemins de navigation, design
d'interfaces graphiques, et... rédaction de textes où il se vérifie que les savoirs de la
lecture/écriture "classique" demeurent fondamentaux dans ces nouveaux espaces expressifs.
Et l'on voit bien que ces dernières compétences sont majorées au fur et à mesure qu'on évolue
vers les univers professionnels. Mais, dans une perspective d'éducation et d'apprentissage, les
premières strates documentaires, de sélection et d'agencements sont d'une richesse heuristique
considérable.

Dans ce sens -celui du home multimédia- l'école doit prendre en charge le devenir-auteur
multimédia des enfants, comme Célestin Freinet avait pris en charge leur devenir auteur à
travers la fabrication de journaux. Et si, hier, tout le monde n'était pas appelé à écrire dans un
journal et à l'imprimer, demain, en revanche tout le monde sera plus ou moins conduit à se
mouvoir dans le milieu de la téléinformatique. Et c'est bien ce que nombres d'expériences en
France et dans le monde indiquent, notamment avec l'usage renouvelé de la pédagogie de
projet autour d'Internet (réalisation coopérative de sites, par exemple, version moderne de
l'imprimerie à l'école).

Levons, ici, une éventuelle méprise. L'auteur-citoyen dans l'aire de la culture de l'écrit n'est
pas obligatoirement un auteur au sens académique du terme (journaliste, écrivain, homme de
lettres ou de sciences, etc.). De la même manière, l'auteur multimédia n'est pas appelé à
maîtriser les savoir-faire spécialisés qui demeureront l'apanage de professionnels. Mais à des
niveaux différenciés, chacun est conduit à utiliser des outils de complexités graduées pour des
usages eux aussi gradués. La mise au point, par la société Cryo, du langage SCOL est un bon
exemple d'usages échelonnés d'un même logiciel. Ce langage de conception d'espace
tridimensionnel et interactif sur Internet -véritable prodige technique permettant le design
personnel, d'espaces de communication- est proposé dans plusieurs versions de complexité et
de prix différents selon qu'il s'adresse au grand public ou à des professionnels. SCOL devrait
permettre aux Internautes de créer assez facilement leurs propres mondes virtuels en trois
dimensions et d'y déposer leur avatar en scannant une photo, par exemple. Toutes les
composantes des scènes conçues sont cliquables et peuvent renvoyer par liens à d'autres lieux,
afficher des sources documentaires ou lancer des applications. De même, dans sa version de
1998, Le deuxième monde distribue à ses "habitants" des outils simples pour configurer, en
trois dimensions, leur home page ainsi que leur domicile virtuel, limité dans la version
antérieure à un appartement type dont ils ne pouvaient que personnaliser la décoration. Là
encore, l'habileté et les motivations des usagers donneront forme à des réalisations de qualités
différenciées.

Tous les Internautes, par exemple, savent bien que l'usage du réseau met en oeuvre des
compétences variées passant du simple "surfing" (l'équivalent de la lecture classique) à la
maîtrise des téléchargements de logiciels et à l'exploitation de grandes masses d'informations
acquises grâce aux robots et autres guides de recherches, dont les langages de requêtes se font
sans cesse plus acérés et complexes. Les réglages et manipulations logiciels sur Internet
dérivent parfois même vers des savoir-faire quasi-experts (chargement d'applications en
V.R.M.L. -langage de conception interactif tridimensionnel- et autres plug'ins, réception de
chaînes multimédias en continu, etc.). On voit se multiplier sur le réseau des offres d'outils
"grand public" de création de sites proposant aux Internautes néophytes des formats préétablis
qu'il s'agit de paramétrer et d'illustrer grâce à des banques d'images libres de droits[62]. Il
suffit d'agencer ces textes, photos et liens hypermédias pour construire un site personnel sans
rien connaître à la programmation. Au terme de ces entrelacements, réception et production
multimédias s'enchaînent -sans se confondre-, comme se font écho aussi lecture et écriture et
se couplent fondamentalement les activités de réception et d'expression dans les
environnements mus par l'interactivité informatique[63]. Tendance fondamentale qui pousse à
accroître, parmi les usages du réseau, ceux qui tendent à la production d'hyperdocuments.

On dira, bien entendu, que nul n'est tenu de devenir rédacteur hypermédia et que la rédaction
de textes linéaires sur papier n'est pas condamnée à quitter l'horizon éducatif. C'est
aujourd'hui exact, mais cela risque demain de devenir un faux dilemme, dès lors que les
savoirs de l'écriture s'hybrideront à ceux de l'hypermédiation. L'usage documentaire dérivera
alors fréquemment vers la production multimédia. Nous ne supposons pas qu'au nom d'on ne
sait quelle injonction normative, des pratiques de simples consultation et navigation soient
appelées à devenir obsolètes ni que l'hypermédiation doive effacer les frontières entre les
activités triviales et expertes d'édition multimédia, mais nous imaginons toutes sortes de
strates, aujourd'hui déjà observables, entre ces deux positions[64]. Nous conjecturons que,
même si les frontières se déplacent avec l'évolution techno-culturelle, ces deux pôles et donc
aussi les zones intermédiaires maintiendront leurs spécificités. Ces zones médianes forment le
terrain fertile de projets individuels et collectifs formateurs, et surtout en harmonie techno-
culturelle avec le milieu du multimédia.

Cette perspective pourrait, de surcroît, donner un contenu concret à l'appel au décryptage des
images, objectif récurrent proclamé, ici et là, par tous ceux qu'inquiète une supposée
domination -à démontrer, par ailleurs- du règne iconique sur le scripturaire. La seule manière
de dégonfler la baudruche de la manipulation par les images consiste à faire de chacun des
manipulateurs -au sens premier du terme- d'hyper-images. Pour former des citoyens capables
de déjouer les prétendus pièges des images numériques, rien ne vaut tant que de développer
leur réception/production, c'est-à-dire leur mobilisation expressive. On s'apercevra alors que
l'hypermédiation fait apparaître en pleine lumière ce que savent tous les professionnels de
l'image, à savoir que toute image est bordée par du langage -souvent écrit- (de même que le
langage engendre des images). OEuvrant naturellement dans les savoirs croisés de l'écriture,
de l'icône et du son, l'hypermédiation est une propédeutique sémio-critique naturelle.

Ainsi se fait jour la nécessité d'une acclimatation raisonnée au milieu téléinformatique, tout à
la fois maniement d'un ensemble corrélé d'outils de réception et d'outils de production, même
si, à la différence des technologies de l'écriture, celles du multimédia évoluent rapidement, et
ne sont peut-être pas appelées à se stabiliser. En revanche, les compétences exigées et
développées à la fois par les outils de la "home production" enrichissent la problématique de
l'interactivité. Il s'agit ici de mobiliser une interactivité -propre aux logiciels- pour produire
des programmes multimédias eux-mêmes à fréquentation interactive, une interactivité au
carré, en somme. Faire fructifier les savoir-faire intermédiaires du multimédia est un enjeu
éducatif, bien sûr, mais plus fondamentalement politique, si l'on comprend que se construisent
ici les formes et les outils expressifs de la démocratie. Même sans démarche volontariste, les
pratiques du "home multimédia" se développeront nécessairement, mais plus lentement et
sans que soit mise en lumière leur valeur. Répétons-le, il est de la responsabilité de ceux qui
ont en charge les politiques éducatives de commencer par reconnaître, au sens fort du terme,
les pratiques du "home multimédia" comme condition actuelle de la citoyenneté ; et ensuite, il
leur appartient de les systématiser.

C - Récit interactif et moteur narratif

Le cadre narratif formel

Nous nous proposons, ici, d'analyser un genre d'application interactive particulier, le récit. On
le définira par l'alliage de deux composants (rappelant celles de l'hypermédia) qui définissent
le "cadre narratif formel". Les événements insécables forment le premier matériau. Constitués
par l'ensemble des segments inaltérables, des séquences moléculaires compactes, ils ne
peuvent être découpés par les actions de l'interactant : séquences sonores, images chaînées
dans un ordre toujours identique, textes composés, etc. Avec le graphe de navigation,
deuxième composant, on détermine les chemins possibles qui relient ces événements
moléculaires et que l'interactant actualise librement, dans le cadre préconçu des propositions
déposées dans les programmes qui gèrent l'interactivité.

Le cadre narratif formel, ensemble clos formé par ces deux constituants, représente le pôle
opposé à l'actualisation, c'est-à-dire au cheminement d'un sujet qui parcourt et s'approprie la
narration. Cette appropriation transforme le cadre narratif en moteur herméneutique individuel
ouvert, producteur de scènes imaginaires, générateur sémantique, déclencheur d'association
d'idées. Bref, on retrouve alors, dans cette activité d'interprétation, l'ordinaire de nos états
mentaux dans les situations toujours couplées de circulation, d'appropriation et
d'interprétation des récits, quel qu'en soit le support. (Roland Barthes, dans Le plaisir du
texte : "Bonheur de Proust : d'une lecture à l'autre, on ne saute jamais le même passage"). La
variété des supports, cela n'est pas, loin s'en faut, chose négligeable. Ici, à la différence des
supports formellement transparents (livre) ou à déroulement temporel fixe (film), se
concrétise une collaboration formelle du lecteur avec l'auteur, collaboration certes non
symétrique (l'activation d'un récit interactif, rappelons-le, ne saurait se confondre avec sa
conception). Soulignons que, dans les récits à cadre formel fixe, la coproduction est
uniquement de nature imaginaire, alors, qu'ici, elle porte sur la configuration même du récit
(l'enchaînement des scènes par exemple).

Si l'on suit ce schéma, nous serions confrontés à deux modalités de l'altérité dans la
scénographie interactive. La première, interne, exprimée par les codes d'interaction
(interruption, recherche d'ouverture telle que le cliquage exploratoire, réponse à une
proposition de débranchement) renvoie à l'auto-communication. C'est-à-dire à l'activité d'un
spect-acteur qui, dédoublé dans le récit, se prend comme sujet de questionnement. "L'auto-
communication", n'est-ce pas le contraire de l'altérité ? Oui, si on la conçoit comme une auto-
référence absolue. Ce dont il ne peut s'agir ici. Car se prendre comme sujet de questionnement
(vais-je ouvrir cette porte?) est toujours négocié en référence à une intentionnalité déjà
installée (celle du concepteur). Même dans ses dimensions de libre choix, cet arrière-fond se
manifeste. On pourrait dire que l'ouverture d'espace de libertés par le concepteur permet la
confrontation du spect-acteur avec lui-même. À cet instant, il s'agit donc d'un jeu à trois
personnages : le concepteur, le programme et le spect-acteur. Situation plus classique, le
deuxième type d'altérité, externe, manifeste la subjectivité du (des) concepteur, laquelle se
déploie dans l'ensemble du cadre narratif formel installé. Ce sont les donnés (matériaux et
modes de circulation) que l'interactant reçoit et qu'il ne peut négocier. On retrouve alors une
confrontation à deux partenaires principaux : l'auteur et le lecteur. Entre ces deux pôles (les
deux modalités d'altérité), la lectacture fait osciller liberté et contrainte, auto et méta-
communication, autonomie et dépendance.

L'inachèvement du roman et "l'ouverture" d'Umberto Eco

La manière dont Umberto Eco présente L'île du jour d'avant est symptomatique d'un
questionnement général, induit par ce qu'on pourrait appeler une subjectivité interactive. Il
n'est certes pas anodin, que ces propos soient tenus par l'auteur de L'oeuvre ouverte, où, de
manière prémonitoire -en 1964- certains matériaux pour apprécier la future interactivité
informatique étaient déjà rassemblés[65]. S'exprimant donc à propos de son roman, il souligne
que sa structure est bien celle d'un moteur de construction du récit qui fonctionne à l'intérieur
même de l'histoire. Une scénographie à trois acteurs principaux est installée. Le romancier,
marionnettiste muet, anime deux créatures romanesques : le narrateur, lequel est doublé, dans
le récit, par ce qu'Umberto Eco appelle "son protagoniste" ou "son personnage". Évoquant les
langages dans lesquels s'expriment ses deux créatures, le romancier en vient à dire, parlant du
protagoniste, que "son auteur utilise un langage plus neutre", échangeant ainsi leurs positions
respectives. Le sémiologue construit un mécanisme narratif qui semble lui échapper. "Cette
fois, je n'avais pas de plan global ni de final : j'ai inventé chapitre par chapitre, en laissant le
récit se faire tout seul"[66]. Le procédé, tel que l'écrivain le décrit, redouble ainsi la trame
interne du roman : "un roman que le narrateur n'arrive pas à construire et auquel collabore le
personnage"[67]. Dépassant la controverse récurrente entre le double et le faux, l'écrivain
revient sur l'absence de dénouement du roman. On ne s'étonne pas que le doute flotte une fois
le livre refermé ; roman inachevé, comme tout roman, au sens où le moteur narratif installé
continue à tourner dans l'esprit des lecteurs bien après que le livre est refermé[68], mais en
outre, ici, formellement inachevé, parce qu'aucune réponse ne vient dénouer l'intrigue.
Umberto Eco réédite, dans une certaine mesure, à l'intérieur d'un roman -et ce n'est pas le
premier à utiliser le procédé- ce que Woody Allen avait fait, au cinéma, dans La rose pourpre
du Caire.

"La rose pourpre du Caire" ou le récit séquentiel de l'interactivité

Le réalisateur new-yorkais avait, lui aussi, conçu un mécanisme interactif interne au récit
filmique. Son personnage principal, l'archéologue, était clivé entre sa fonction d'acteur
cinématographique et son rôle d'amoureux réel, et de ce fait ne cessait de franchir la barrière
physique de l'écran. D'où une mise en scène des paradoxes de l'ubiquité dans ses liens à
l'uchronie. Le réalisme nécessaire du film interdit qu'un personnage soit simultanément à
deux endroits, donc si l'acteur sort du film, il quitte son incarnation réelle et pratiquement, il
disparaît du tournage d'un autre film. La vie fictive, diégétique, se confond, potentiellement,
avec la vie réelle : on peut quitter le récit et s'incarner. Le film scénarise, dans un récit
séquentiel, l'interactivité (entre la spectatrice et l'acteur dans l'écran) et, de plus, pressent
l'accélération d'une ubiquité technologique que de multiples systèmes (télévirtualité,
communication par avatars interposés, etc.) incarnent aujourd'hui. Le moteur narratif du film
fonctionne à plein rendement tant que le conflit entre la fiction (continuer à faire l'acteur) et
l'incarnation (franchir l'écran pour retrouver la spectatrice) ne se dénoue pas. Le récit pourrait,
lui aussi, ne pas se terminer. Mais c'est un film, c'est-à-dire un spectacle dont la durée est
déposée une fois pour toute sur la pellicule. Même s'il figure l'interactivité mieux, sans doute,
que toutes les fictions interactives, il ne fait que la représenter et non la réaliser. Et le récit de
l'interactivité, tel que Woody Allen le scénarise, ne pourrait pas être traduit en récit interactif.
On y perdrait l'enchaînement temporel qui porte l'histoire, c'est-à-dire le génie propre du
metteur en scène. Cela n'implique pas qu'un autre type de talent fondé sur l'installation de
moteur narratif et de cadre scénographique appelant le spect-acteur à s'inscrire -cette fois-ci
formellement- dans le récit, soit d'avance disqualifié. Mais un tel talent obéit à d'autres
réquisits qu'un récit linéaire.

Trois modalités de circulation interactive dans les récits

On peut distinguer trois types d'interruptions dans la trame d'un récit. Les deux premiers sont
volontaires. Le troisième, masqué, s'exécute à l'insu de l'interactant. Dans le premier type
d'interruption, un choix explicite se présente entre plusieurs prolongements. Le récit
s'interrompt et on doit, par exemple, pénétrer dans le jardin des Plantes ou bien longer la
Seine.

Le deuxième type d'interruption exige l'exploration "aveugle" de la scène pour rechercher une
zone active. Si on clique sur un agenda dans la mallette ouverte -alors que rien ne signale que
cet objet est "actif"- les pages de l'agenda s'affichent. À nous de trouver la zone cliquable qui
nous fournira des indications plus précises sur l'emploi du temps du possesseur du calepin.

Enfin, à l'insu de l'interactant, le programme peut recueillir des indices comportementaux qui
infléchiront le déroulement futur du récit. (Le CD-Rom Sale temps est construit selon cette
dernière logique[69]). Si le spect-acteur a choisi de s'intéresser à Marguerite, une variable
augmentera le coefficient amoureux, passionnel, intuitif de son personnage et la suite de
l'histoire traduira ce marquage. Comme dans la vie, les décisions prises expriment la
subjectivité et conditionnent le déroulement ultérieur des événements. Mais la variable
comportementale -dans Sale temps ainsi que, jusqu'à présent, dans la quasi-totalité des récits
interactifs- est aveugle pour l'interactant[70]. Elle oriente les choix ultérieurs proposés sans
apparaître explicitement à ses yeux.

Suggérons que l'enregistrement de ces marquages successifs pourrait se concrétiser dans la


formation d'un "caractère". Il serait judicieux, dans certains cas, d'offrir à l'interactant l'accès à
ce miroir comportemental, afin qu'il puisse interpréter la chaîne des événements qu'il a
"vécus". Une sorte de méta-récit viendrait doubler le récit et gratifierait l'interactant d'une
trace signifiante de son passage dans le réseau narratif. Le risque existe qu'en l'absence de tels
renvois, l'histoire actualisée apparaisse incohérente, aléatoire ou anecdotique aux yeux de
l'interactant, c'est-à-dire qu'il ne puisse relier ce qui arrive à ses choix antérieurs. (L'anecdote,
lorsqu'elle influe de manière décisive sur le cours du récit, est une forme d'insignifiance qui
menace la narration interactive sous les espèces d'un destin opaque orientant le futur, de
manière totalement erratique). Mais, par ailleurs, si on retient l'idée d'une mémorisation
signifiante du passage dans le réseau narratif, comment éviter des typologies psychologiques
réductrices et comment rendre compte de la complexité des déterminations qui président à des
choix effectués ? La suggestion d'une trace signifiante qui s'inscrirait progressivement ne lève
évidemment pas, mécaniquement, ces écueils. Seule la sagacité des concepteurs peut les éviter
et donner alors consistance à une histoire démultipliée en autant de variantes fertiles que de
parcours singuliers.

La littérature générative

Les propositions de Jean-Pierre Balpe tentent d'échapper à une problématique restreinte de


l'interactivité. Plus question d'offrir au lecteur un espace de choix dans un réseau de chemins
déjà balisés, mais plutôt de lui proposer des textes produits par un générateur littéraire[71].
Jean-Pierre Balpe évite le "cadre narratif formel" en proposant le concept de "littérature
générative", particulièrement élaboré avec Le roman inachevé. "Le générateur fonctionne sur
trois articulations principales : d'une part, il génère des chapitres sur un thème, ce thème
pouvant concerner l'un ou l'autre des héros dont la présence est virtuelle dans l'ensemble de
l'oeuvre ou des textes non précisément attribués ; d'autre part, il génère des pages dans ces
chapitres, ces pages concernant les mêmes thèmes que ceux des chapitres mais traités de
façon différente ; enfin, le générateur construit des séquences, c'est-à-dire des articulations de
pages et de chapitres. Ce roman n'a ni début, ni fin... Le début est une page quelconque
générée à un moment T. Elle n'est peut-être pas la première lue... Pages, chapitres et
séquences sont toujours à lecture unique...puisque toute action du lecteur provoque la
génération de nouvelles pages, donc une modification des chapitres et une redéfinition des
séquences"[72]. Ce principe de production de texte interdit toute relecture (sauf à les
imprimer, ce qui pervertit le principe littéraire) car chaque lecture nouvelle supprime des
pages et les substitue par d'autres. Les pages étant elles-mêmes composées automatiquement
par le logiciel générateur -et non pas puisées dans une base de données déjà constituée- on ne
peut engendrer deux fois la même page.

Méta-écriture et méta-lecture : un couple logique

L'auto-génération littéraire altère radicalement l'idée de finitude du roman. Celui-ci est


doublement inachevé : sans début ni fin, mais aussi sans relecture possible (sauf à fixer, par
impression, les textes engendrés). Qu'est ce qui rassemble, néanmoins, les différentes lectures
accomplies par différents lecteurs ? C'est ce que Jean-Pierre Balpe nomme "le projet
romanesque" (et qu'on pourrait nommer "cadre narratif non formel") : "...les mots, les
concepts correspondent au monde que j'ai voulu créer. Ainsi, chaque lecteur lira une histoire
différente mais tous retrouveront ce monde"[73]. Jean-Pierre Balpe rejette l'interactivité en ce
qu'elle risquerait de gommer la frontière entre auteur et lecteur. La générativité immédiate des
textes est, en effet, un principe alternatif à l'interactivité qui suppose d'écrire à l'avance un
méta-récit, puissance de formation d'une multiplicité de récits selon les choix de l'interactant.

Avec le générateur textuel, le déclenchement d'une composition romanesque, bien qu'étranger


à l'interactivité, participe néanmoins d'une démarche où le lecteur provoque la formation du
récit. Non pas intentionnellement, bien sûr, et, à la limite, le texte pourrait s'engendrer sans
déclencheur humain ; mais pratiquement néanmoins, car dans le principe génératif, le lecteur
demeure à la fois le déclencheur indispensable et le destinataire explicitement souhaité. Le
lecteur, toujours averti de la disparition d'une intentionnalité directe, lira les émissions
textuelles comme des épreuves quasi anonymes avec pour seule ambition de détecter si la
cohérence narrative, fortement revendiquée par l'auteur, est bien au rendez-vous. Mais ira-t-il
au-delà de quelques pages dans un roman qu'il sait n'avoir pas de fin ? Une littérature de flux
qui s'afficherait, à la limite, sans lecteur si le programme pouvait se déclencher seul : est-ce
finalement la proposition ? Le désinvestissement du texte au profit d'un procédé génératif
opaque, n'est-ce pas une position quelque peu paradoxale, affirmant et niant simultanément
l'intérêt de la trame narrative ? Mais sans doute aussi le lecteur demeure-t-il un destinataire du
système génératif, et ceci pour trois raisons. En amont, le programme textuel s'inscrit dans des
horizons de sens déterminés, respectant, à l'opposé de la littérature purement aléatoire, de
fortes contraintes de consistance situationnelle : il s'agit bien de s'adresser à un lecteur
culturellement déterminé. Il s'ensuit que ce type de dispositif suscite ce qu'on pourrait appeler
une méta-lecture : rechercher dans les séries de rééditions, les principes fondateurs, tenter de
repérer les invariants (et qu'on puisse les identifier ou pas, peu importe), bref se bricoler, à
chaque reprise, une "théorie" du récit. C'est un retour de manivelle logique, finalement, qu'un
dispositif de méta- écriture (tel est bien le statut de la génération littéraire qui institue non pas
une histoire mais une puissance de fabrication d'histoires) suscite une posture de méta-lecture.
Enfin en aval, il est question, fondamentalement, d'inquiéter les habitudes littéraires du lecteur
en s'inscrivant, de manière originale, dans une filiation notoire (Mallarmé, dadaïsme,
surréalisme, Queneau, etc.).

Récit interactif et intensité dramatique

Dans la posture interactive classique, l'inscription du lectacteur fait problème. Comment se


projeter dans un récit qui n'est ni le mien, ni totalement celui d'un autre ? L'entre-deux dissout
l'intensité dramatique, car la composition du récit dans une histoire classique repose sur une
construction subjective, avec ce qu'elle possède d'indécision et d'ouverture, mais qui assure
une tension par l'incertitude de ce qui va advenir. L'indétermination de la suite, telle est bien
la marque que le récit nous échappe, sa lecture s'efforçant en permanence de le rattraper. Bref,
la lecture nous confronte à une altérité. Ces incomplétudes, déposées par l'auteur du roman
classique, contribuent à la dramaturgie romanesque. Comment, en revanche, être surpris par le
comportement d'un personnage, si c'est nous qui prescrivons sa conduite ? Jean- Pierre Balpe,
conscient des difficultés, évite, avec son générateur textuel, le moment du choix, qu'il qualifie,
dans le roman interactif classique, d'anecdotique[74]. Selon lui, la littérature classique, est de
nature "fractale", au sens où le choix d'un mot, d'une tournure syntaxique préfigure et
détermine l'ensemble de l'oeuvre. Chaque mot "contiendrait" l'intégralité du texte de la même
manière qu'un détail d'une fractale contient l'ensemble des formes dont il n'est qu'une infime
partie. Nombre d'écrivains, affirment, en effet, que chaque mot appelle nécessairement le
suivant et que chaque phrase détermine celle qui lui succède. Cette conception déterministe de
l'écriture pose problème en ce qu'elle pourrait faire penser que l'auteur détient totalement son
texte avant de l'écrire. Quelques autres, en revanche, tel Umberto Eco, on l'a vu, insistent sur
l'étrange alchimie qui transforme l'auteur en co-producteur du texte, en alliance -ou en
confrontation- avec la dynamique propre qu'il a installée. (En supposant que le texte linéaire
est toujours pleinement maîtrisé par son auteur, Jean-Pierre Balpe sélectionne une certaine
représentation de l'écriture et délaisse, peut-être, la dimension auto-générative de la
production littéraire classique).

Avec la littérature générative, le lecteur n'a plus à choisir entre des développements proposés
ou à cliquer sur tel ou tel mot. L'édition du texte s'enchaîne sans qu'aucune action explicite ne
soit exigée de la part du lecteur. Mais le choix, disparu du champ de l'intention, ne s'est-il pas
logé dans celui du mécanisme aveugle de composition du récit ? Le lecteur ne ressent-il pas
ce mécanisme génératif aveugle, comme un horizon opaque ? Peut-il lire cette composition en
lui affectant un sens alors que l'unicité de la production a disparu au profit d'une émission, en
partie aléatoire. Quel type d'altérité -et, incontestablement, elle existe- rencontre- t- il ? En
quoi consiste le monde que l'auteur a "voulu créer" ? Se réduit-il aux mots et concepts ? N'est-
il pas profondément lové dans le moteur informatique démiurge créé ? En effet l'ensemble des
contraintes relationnelles agissant sur les "acteurs" (mots, concepts, phrases) et décrivant les
scénarios licites reliant ses "acteurs" -ce en quoi consiste la programmation du générateur
littéraire- matérialise l'horizon romanesque de l'auteur. Même s'il n'y a pas présélection par
l'auteur d'un paysage d'arborescences, sa conception du monde romanesque légitime (ce que
peuvent faire ou ne pas faire les acteurs humains et non humains dans le roman) est
néanmoins décrite dans ces choix de contraintes relationnelles. Finalement entre le "cadre
narratif" de l'interactivité et le "projet romanesque" du roman poiëtique, la différence,
incontestable, est-elle fondamentale ?

Pourrait-on, par ailleurs, suggérer à Jean-Pierre Balpe d'offrir au lecteur une machine
générative symétrique -et non pas interactive- qui lui donnerait la possibilité de participer,
dans une certaine mesure, à la composition du roman et qui lui permettrait d'investir plus
fortement le texte ? D'ouvrir, en quelque sorte, des lucarnes dans la boîte noire, pour que le
lect-acteur oriente les scénographies relationnelles déposées. Cette situation de partenariat
-inégal- ne saurait laisser entendre que le lecteur deviendrait coauteur. Non, tout juste
interprète, puisque la machine de lecture envisagée devrait nécessairement être conçue par
l'auteur, auquel on demanderait de complexifier son dispositif, d'ouvrir un espace d'itération
en distribuant au lecteur une certaine autonomie dans le mode de production du texte (influer
sur les caractères, les lieux, les relations entre personnages, par exemple)[75]. Mais sans doute
s'agirait-il alors d'une autre forme de littérature, que celle revendiquée par Jean-Pierre Balpe
lequel s'attache à inventer une figure véritablement "ouverte" de production littéraire
échappant à la téléologie d'un récit orienté et construit pour sa fin.

Modalités narratives, théorie des catastrophes et théorie de la vie

Si la composition du récit n'est plus l'objet d'un choix de la part du lecteur, alors la facture de
la narration, son monde propre -ce qui relie entre elles toutes les générations de textes, leur
donne un air de famille et constitue le style propre du roman- peut alors échoir aux options de
détails (prendre un taxi plutôt qu'un autobus, lire un quotidien et non pas un magazine, bref
tout ce qui n'engage pas une détermination psychologique forte d'un personnage). Le film
d'Alain Resnais, Smoking, No smoking est, dans une autre perspective, une illustration de cette
recherche de bifurcations -au sens de la théorie des catastrophes- dans des comportements
quotidiens. Mais Smoking, No smoking admet comme présupposé que les trajectoires de nos
vies obéissent aux logiques des systèmes catastrophiques, leur sensibilité aux conditions
initiales devenant ici des choix de détails : smoking, no smoking. L'idée de bifurcation
contient la possibilité de la réversibilité : "et s'il ne fumait pas, et s'il ne s'était pas marié avec
elle, etc.". Les deux films de Resnais sont d'ailleurs construits sur des reprises de bifurcations.
Et c'est probablement, passé les premiers retours, la réédition permanente de ces itérations qui
surcharge le procédé, alors que la machinerie scénographique demeure prisonnière de ces
répétitions[76].

La perspective de Jean-Pierre Balpe est au fond assez différente : les modifications de détails
n'engagent pas des bifurcations irréversibles puisque l'auteur du logiciel textuel affirme la
primauté du projet romanesque, c'est-à-dire l'installation d'un univers sensible, d'un cadre
sémantique, sorte de matrice primitive où sont engendrés tous les récits. Resnais avait, lui
aussi, délimité son cadre narratif, au point même de faire jouer tous les personnages par les
deux mêmes acteurs. Mais les différentes vies du couple apparaissaient comme un pur effet du
hasard : pile je meurs, face, je vis encore quarante ans.

En revanche, dans la situation de construction générative de textes, ce ne sont pas les


modifications de détails qui altèrent cette matrice, puisqu'elle les précède dans la conception
du programme générateur. Mais comment concilier l'affirmation d'une imagination artificielle
déposée dans le générateur de textes qui reproduirait l'indétermination et les variations des
perceptions individuelles face aux mêmes sujets, d'une part, et la revendication de
l'installation d'un projet romanesque, de l'autre ? C'est sans doute cette difficile confrontation
qui passionne le génér- auteur. En effet, à propos des rééditions de passages identiques dans
des suites, à chaque fois originales parce que inclus dans des "univers mobiles", Jean-Pierre
Balpe propose l'analogie suivante : "Pour moi, c'est un peu l'image de la vie : vous connaissez
M.X, je le connais, mais on ne connaît pas la même chose de lui, et chaque lecture de M. X
dépend de la personne qui le lit, et toutes ces lectures dépendent du temps, du moment,
etc."[77]. La situation de lecture provoquée par ce programme qui produit ces rééditions de
fragments s'approcherait ainsi de l'indétermination propre à la vraie vie ; ce qui est la
problématique commune des créateurs de moteurs génératifs, les rapprochant par certains
aspects, des théories de la "vie artificielle".

Roman génératif et "vie artificielle"

La démarche générative s'apparente quasi explicitement à la logique de la vie artificielle. "Le


but -écrit Jean-Pierre Balpe- est d'arriver à terme à un échange suffisant de paramètres pour
que de nouveaux romans absolument originaux émergent de l'espace et vivent leur vie
autonome"[78]. On rappelle que, dans cet horizon de recherche, le concepteur de
l'environnement installe un univers peuplé d'acteurs, lesquels sont dotés de compétences
simples. Dans certaines conditions, ceux-ci coopèrent. Ils stabilisent alors parfois des
situations d'équilibre, voire résolvent des problèmes, et ceci de manière non téléologique.
Mais, outre ces visées éventuellement opérationnelles, ces expériences permettent d'observer
les dynamiques engendrées par les lois qui définissent ces univers, sans programmation
intentionnelle directe.

D'où la dénomination de "vie artificielle". Il ne s'agit pas d'intervenir pour orienter,


contraindre, compléter les processus biologiques, mais bien d'imiter le mouvement vital (ou
certains de ses aspects) par d'autres moyens que la biologie. Pour les tenants de cette
conception exploratoire, et non imitative, de la "vie artificielle", la discussion ne porte donc
plus sur les limites des modèles de simulation mais sur la possibilité d'expérimenter des
phénomènes quasi génétiques. On a perdu en chemin l'opérationalité et l'intentionnalité au
profit d'une attitude expérimentale, moins interventionniste, plus observatrice et accueillante à
l'inédit. Il ne s'agit même plus de cognition, au sens d'un projet d'appréhension et de
transformation, mais d'observation des conséquences du développement artificiel d'un
processus mimant la vie. Ce processus est le plus souvent basé sur l'interaction d'un nombre
important d'acteurs autonomes, d'agents à la fois indépendants et en interaction, sur le modèle
des insectes sociaux, par exemple. (Mais, dans une autre perspective plus "duplicatrice", peut-
on mimer la créativité intrinsèque du vivant par des moyens totalement synthétiques,
"computationnels" ? Que ces expériences parviennent à simuler la vie dans toutes ses
dimensions -notamment sexuelle, aléatoire et adaptative- est loin d'être évident, mais ceci est
une autre question[79]).

Pour situer la position du sujet humain dans le cadre de ces expériences, nul besoin d'invoquer
un processus aveugle, "sans sujet ni objet", cher aux structuralistes des années soixante.
L'expérimentateur, installant le dispositif, programmant les compétences des acteurs, institue,
de fait, la nature de leur collaboration future. Nulle obligation, non plus, de supposer une
capacité de prédiction de l'évolution du système ainsi engendré. Ni soumission à des
processus "objectifs" extra-humains (l'évolution, le langage, les structures invisibles de
l'action collective), ni position de contrôle opérationnel de l'évolution artificiellement
déclenchée, la "vie artificielle" offre, en regard de cet antagonisme classique, une position de
compromis intéressante. La suggestion consistant à déléguer au lecteur une influence sur le
générateur textuel matérialiserait ce compromis entre une "vie artificielle" du texte et ce que
l'interactivité véhicule d'intentionnalité, dans la conception classique du "cadre narratif
formel". Mais si, en revanche, c'est la vraie vie qui est recherchée comme modèle, pourquoi
doit-elle s'accommoder des cadres contraignants -le projet romanesque- que, légitimement,
Jean-Pierre Balpe revendique en tant qu'espace fictionnel ? Ce serait donc une vraie vie
supervisée ? Comme la nôtre, avec ses espaces d'ouverture et de contrainte ? Ou alors, ainsi
que Jean-Pierre Balpe le laisse plutôt entendre, une vie reflétée par la métaphore des théories
du chaos. Dans cette perspective, rappelons-le, le déterminisme n'est pas rejeté, il est
inconnaissable. Tout ce que nous faisons, jusqu'au geste le plus insignifiant, a des effets
ultérieurs mais nous ne pouvons savoir quand, où, ni lesquels. L'idée d'une continuité causale,
de trames principales ou de structures psychologiques n'a alors plus de sens, à l'image des
flots textuels produits sans relâche par le programme romanesque rassemblant les mêmes
personnages dans les mêmes lieux, avec les mêmes objets mais selon des occurrences et des
modalités relationnelles toujours inédites.

Nul étonnement à constater que ces conceptions de la vie forment l'arrière-plan de ces
différents mécanismes d'écriture, de ces théories fictionnelles[80]. Que je prenne ou pas le
stylo sur mon bureau, cela peut-il influer notablement sur la date de ma mort ? Jouons-nous
notre avenir dans les hasards de la vie quotidienne ? Exceptionnellement, peut-être. Mais ces
exceptions ne sont-elles pas métabolisées par quelques logiques assez fortes qui nous font
interpréter justement ces événements comme des exceptions. Comment rendre compte de ces
logiques, de ce qui est indéformable dans notre rapport au monde, de la manière dont nous
avons construit nos biographies avec les matériaux du bord ? Que penser des inclinaisons par
lesquelles nous avons inscrit nos trajets dans la multiplicité des possibilités théoriques, de
notre façon particulière de répéter les mêmes erreurs ? Sans même aller jusqu'à invoquer l'idée
d'un gouvernail inconscient, les vues convoyées par la littérature générative, ou de manière
différente par le film de Resnais, sont anti-psychologiques au sens banal du terme. Mais, sans
doute ne faut-il pas prendre à la lettre ces propositions. Explorant des espaces et des
constructions fictionnels, ces mécanismes d'écriture n'ont pas pour ambition de devenir des
traités de psychologie. Finalement, et c'est à mes yeux l'essentiel, il s'agit bien de faire passer
la littérature du stade de la représentation de la vie à celui de sa modélisation ; non plus
aménager une scène indéformable mais installer un micro-monde doté de lois
comportementales où les acteurs peuvent vivre leurs vies (et pas forcément celle que l'auteur a
envisagée pour eux, une fois pour toutes). Et, à la limite, le lecteur, s'il n'arrive pas au bon
moment, ne percevra pas l'essentiel de ce qui se trame entre les personnages. La littérature
générative s'inscrit dans une perspective démiurgique de jeux avec l'autonomie relative des
créatures engendrées par les moteurs. Comment être surpris par ce qu'on a façonné, sinon en
lui injectant des principes vitaux ? Mais sans que la créature puisse s'échapper (cadre
romanesque aidant) : d'où un jeu entre dépossession et maîtrise (et peut-être même maîtrise au
carré). Le roman génératif se trouve en harmonie avec un mouvement culturel profond qui
pousse les auteurs et artistes de l'univers numérique, (tout aussi bien que les game designers
des nouvelles générations de jeux vidéos[81]), à créer des oeuvres directement comme méta-
oeuvres, c'est-à-dire comme puissances de productions de familles, de tribus, de sociétés
d'oeuvres auto-matiques (littéralement : qui sont cause de leur propre mouvement).

Parallèlement, vue comme une trame symptomatique, la proposition générative alimente


l'affirmation d'une ouverture à l'aventure, dont on se plaît à penser qu'elle nous guette à tout
moment au coin de la rue, nous émancipant de l'inertie des habitudes prises. Sous cet angle
aussi, les travaux de Jean- Pierre Balpe (dispositifs générateurs et fragments produits) sont de
véritables oeuvres littéraires, par l'écart qu'ils manifestent avec la structure temporelle orientée
de la vie (le temps qui passe...) et par l'incitation qu'elles déploient à interroger la structure
apparemment linéaire de nos histoires et de leurs rétentions mémorielles. La réédition
inépuisable d'épisodes jetant les personnages dans des configurations scénaristiques toujours
originales sont un peu à l'image des "possibles" non actualisés, des développements
fantasmatiques jaillissant en variantes innombrables des moindres situations quotidiennes
ainsi que des libertés qu'on s'accorde pour "réécrire", sans fin, des versions de nos biographies
et de celles de nos proches.

[47] Jean-François Lyotard, L'inhumain, Galilée, Paris, 1988, pp. 127/128.

[48] Marc Le Bot invoquait -à l'encontre de l'art numérique relevant, selon lui, de l'idéologie
communicationnelle- cette dimension insensée propre aux oeuvres majeures. Voir, par
exemple, "L'art ne communique rien à personne" in Art et communication, éd. Osiris, Paris,
1986, pp. 141/144.

[49] Voir notre article, La simulation de l'autre, approche de l'interactivité informatique, in


Réseaux n°33, janvier 1989, CNET, Paris, pp. 73/109.

[50] Voir Seymour Papert, Le jaillissement de l'esprit - Ordinateur et apprentissage,


Flammarion, Paris, 1981.

[51] Intervention orale aux Rencontres de l'Association des Auteurs du Multimédia,


Strasbourg les 8/10 avril 1998.

[52] Ces aspects ont été développés par Patrick Delmas lors d'une communication orale au
séminaire du G.R.E.C., UFR des Sciences de l'Éducation, Université Paris XIII, 19 juin 1997.

[53] Frédéric Dajez a développé ces questions lors du "Salon de discussion multimédia de
Paris XIII", 18 mai 1998, Université Paris XIII.

[54] Lors d'un séminaire à l'I.R.C.A.M. sur "Interactivité et Simulation" (Centre Georges
Pompidou, 20/02/1988), Philippe Aigrain avait développé un point de vue voisin.

[55] Installation présentée à Artifices 3, Saint- Denis, novembre-décembre 1994.

[56] Genetic Images, installation présentée à la Revue virtuelle, Centre Georges Pompidou,
4/03/93.

[57] Karl Sims, Images génétiques, in Revue Virtuelle, Carnet 5, Centre Georges Pompidou,
mars 1993, p. 6.

[58] Pierre Lévy, Qu'est que le virtuel ?, La Découverte, Paris, 1995, p. 43.

[59] Dans son introduction au catalogue d'Imagina 98, Bernard Stiegler développe une
argumentation similaire balançant la puissance des industries mondiales du "broadcast
numérique" par le traitement local des images : la "house vidéo" qui devrait conduire à "un
changement profond de l'attitude comportementale du consommateur". (Actes d'Imagina 98,
INA, Bry sur Marne, 1998, p. 5). Voir aussi l'excellent commentaire que Pierre Lévy fait de la
musique techno dans Cyberculture, Odile Jacob, nov. 1997, pp. 168/172.

[60] Le logiciel Umap Web, conçu par la société Trivium, par exemple, cartographie les
proximités entre les thèmes consultés au fur et à mesure de la navigation dans des pages Web.
L'Internaute construit ainsi un paysage graphique de données, miroir explicite de ses
inclinations.

[61] Parmi les récentes annonces, et à titre d'exemple, nous relevons le logiciel ingénieux mis
au point par la société Realiz. Celui-ci produit une image tridimensionnelle à partir de
quelques photographies d'un même objet (meuble, visage ou monument). Visant dans un
premier temps des usages professionnels, cet outil démocratise incontestablement l'image 3D.
Ses concepteurs envisagent de l'associer aux logiciels de retouche livrés avec les appareils de
photographie numérique. Dans le même ordre d'idées, la société Virtools propose aux
designers de jeux vidéos un logiciel interactif 3D "temps réel" -Nemo- permettant de
s'affranchir de la programmation informatique. Avec Nemo, on peut animer directement et
interactivement, à l'écran, des scènes en attachant des comportements à des objets, lesquels
comportements peuvent être puisés et combinés dans une bibliothèque étendue. Bien sûr,
Nemo ne s'adresse pas au grand public, mais tout porte à croire que des versions simplifiées
permettront aux passionnés de fabriquer bientôt leurs propres jeux.

[62] De tels services existent depuis des années aux États-Unis. En France, la société
Multimania ainsi que le moteur de recherche Lycos proposent gratuitement ces instruments,
non sans lorgner sur la surface publicitaire ainsi créée par la multiplication des sites hébergés.
Ce qui, soi dit en passant, n'est pas du tout du goût des aficionados, lesquels ont réagi en
proposant un programme à intégrer aux pages Web, lequel bloque l'affichage des bandeaux
publicitaires.

[63] Par exemple, le CD-Rom Odyssey, conçu par la société Arkaos pour Jean- Michel Jarre,
offre aux utilisateurs un environnement pour "jouer" de l'ordinateur sur sa musique, comme
on joue d'un instrument. Les touches du clavier commandent l'affichage d'images que l'on
peut déformer en utilisant des effets spéciaux et dont on peut régler le rythme. Le logiciel
Xpose LT commercialisé par Arkaos permettra à ses acquéreurs de "jouer" leurs propres
images sur des musiques de leur choix

[64] On retrouve, sous certains aspects seulement, la querelle qui avait enflammé le milieu de
l'informatique éducative dans les années quatre-vingt, entre les partisans d'un large
enseignement des principes de la programmation (ce qu'assumait LOGO, notamment) et ceux
qui optaient pour les usages pédagogiques de l'informatique (E.A.O., simulation, etc.). Notre
option pour des "savoirs médians" ne recouvre pas exactement cette confrontation. Elle retient
le côté "productif" des premiers, tout en mettant l'accent sur la diffusion des outils
intermédiaires de création qui déplacent les savoirs requis, de l'informatique classique
(algorithmique, programmation) vers les langages applicatifs et les pratiques généralisées du
couper/coller/relier/créer.

[65] On se rappelle qu'Umberto Eco avait proposé le concept "d'oeuvre en mouvement" pour
caractériser des "oeuvres ouvertes" particulières. Toute oeuvre est ouverte, écrivait-il, car son
interprétation/perception suppose une collaboration "axiologique et théorétique". Mais les
"oeuvres en mouvement" invitent, en outre, à faire l'oeuvre avec l'auteur. Cette catégorie
visait des propositions fondées, dans les années soixante, sur des technologies opto-
mécaniques (travaux picturaux de B. Munari), électro-acoustiques (intervention à caractère
combinatoire dans l'audition des oeuvres musicales de Henri Pousseur) ou encore plus
directement sociales (Living Theater, agit-prop). Bien qu'à mon sens on ne puisse caractériser
ces oeuvres d'<<interactives>>, une appétence pour l'interaction s'exprimait déjà, du côté des
auteurs comme du public, appétence que l'interactivité informatique viendra naturellement
radicaliser dans la décennie suivante.

[66] Umberto Eco, interview dans Le Monde des livres, 16/02/1996, p. II.

[67] Umberto Eco, loc. cit.

[68] La littérature "classique" recèle, elle aussi, de somptueuses archéologies du récit


interactif. La revue La voix du regard a publié deux passionnants articles décryptant les
stratagèmes qui perturbent la linéarité de la narration chez Diderot, Balzac, ou Kundera
(inclusion du lecteur auquel on soumet une multiplicité d'interprétations d'une situation
donnée, énoncés d'une pluralité de lignes de poursuites possibles...). Voir Christèle Couleau,
"Balzac interactif ou la virtualisation du sens" et Jocelyn Maixent, "Diderot, Kundera et les
romans virtuels : le récit des mondes possibles", in La voix du regard - Aux frontières du
virtuel, n° 10, E.N.S. de Fontenay/Saint- Cloud, mars 1997.

[69] Les exemples qui suivent sont tirés du roman-photo interactif Sale temps, de Franck
Dufour, Jacky Chiffot et Gilles Armanetti, CD-Rom édité par Microfolies.

[70] La fiction -faiblement- interactive produite par Canal+, L'Affaire, est une sorte de
balbutiement de ce que pourrait être le marquage d'un caractère. Le public choisit, par votes
téléphoniques majoritaires, non pas le déroulement du récit, mais son "atmosphère". Chacun
des quatre actes possède quatre versions qui expriment quatre attitudes typiques face à la
corruption (le sujet de la fiction). Des durs -définis comme rejetant "le système pourri"- aux
individualistes mous considérant les infractions à la loi comme le fait d'individus malfaisants,
les quatre attitudes se traduisent par quatre scénarios, quatre éclairages subjectifs sur le même
scénario général.

[71] Dans le roman Prière de meurtres, la générativité se combine à une certaine interactivité.
Le lecteur choisit une période dans la durée linéaire du récit, mais le texte obtenu est à chaque
fois différent. Il s'agit là d'une interactivité quelque peu brouillée (et sans doute
volontairement), dans la mesure où les effets du choix ne sont pas, en tant que tels, signifiants.

[72] Jean-Pierre Balpe, Un roman inachevé, in Littérature n°96, Larousse, Paris, 1994,
pp. 50/51.

[73] Le nouveau roman sera interactif, interview parue dans Le Monde, 25 et 26 février 1996,
p. 29. Les propos de Jean-Pierre Balpe élargissent considérablement la notion d'interactivité
mentionnée dans le titre de l'article, si toutefois on définit l'interactivité par la circulation dans
un méta-récit déjà constitué. Mais le titre de l'article est un contresens commis par le
journaliste.

[74] Interview publiée dans Multimédia : l'écriture interactive, Dossiers de l'audiovisuel,


n°64, nov/déc 1995, p. 59.
[75] Avec le téléchargement prévu, via Internet, du générateur littéraire, il ne s'agira toujours
pas d'interactivité. Il sera cependant, intéressant d'observer ce que l'usage élargi du générateur
induira quant à l'évolution future de la proposition.

[76] Sur un plan strictement cinématographique, la bifurcation comme modèle du choix révèle
ses limites. En revanche, La rose pourpre du Caire présente un puissant modèle de
progression du récit : le personnage qui interagit avec la spectatrice du film augmente la
complexité du récit par rétroaction sur son cours. Bien plus qu'une simple bifurcation...

[77] Op. cit., p.58.

[78] Jean-Pierre Balpe, Fiche signalétique de Romans (Roman), dans le catalogue de


l'exposition Artifices 4, Langages en perspective, Saint-Denis, 1996, p. 73.

[79] L'obstacle principal pour une telle simulation "totale" résulte de la réduction
fonctionnaliste opérée par le programme de la vie artificielle "forte" qui identifie sa
représentation "computationnelle" à la dynamique de la vie, ignorant alors l'infinie complexité
de la matière vivante. Voir, par exemple, Philippe Goujon, "Les limites de la vie artificielle
<<forte>>", in Raison Présente "Autour du chaos", n° 115, éd. N.E.R., Paris, 1995,
pp. 71/100.

[80] Il ne s'agit pas forcément, pour les auteurs, de proposer des modèles réalistes, ni de
mettre obligatoirement en scène leurs "conceptions de monde". Les dimensions ludiques ou
expérimentales des rapports avec les moteurs narratifs forment une strate autonome, qu'on ne
saurait réduire à des motivations sous-jacentes, même si on peut aussi y lire, comme dans
toute fiction, certains tropismes dominants. Ici, l'animation automatique de micro-mondes
relationnels renforce souvent, en regard des fictions sur supports stables, ce jeu démiurgique.

[81] Une société d'acteurs virtuels avec lesquels il va falloir nouer des relations si on veut
atteindre un objectif : telle est la scénographie générale de ces jeux, combinant, là encore,
contrainte et liberté. Le joueur doit comprendre les logiques comportementales qui animent
ces agents : celui-ci deviendra-t-il un ennemi, puis-je faire de cet autre, un allié, etc. De plus,
la manière avec laquelle il les abordera les personnages influera sur leurs comportements. Le
joueur devient un ethnonologue ; il se branche sur un monde qui vit indépendamment de sa
présence, à charge pour lui d'infléchir dans un sens favorable les opportunités qui se
présentent. Comme dans la vraie vie ?
Table des matières

Chapitre VI
Commentaires sur l'image actée,
à partir de L'image-temps de Gilles Deleuze
L'univers des images numériques étend son emprise en accélérant le mouvement
d'autonomisation de l'image. Autonomisation veut dire ici, conquête progressive de l'espace
qui sépare l'image de l'objet, franchissement de degrés qui amenuisent les distinctions entre
les qualités de l'image (faible matérialité, mobilité, reproductibilité) et celles de l'objet
(consistance, opérationalité, unicité relative, propriétés physiques, indépendance). J'ai
fréquemment dénommé ces entités composites par le vocable image-objet en focalisant
l'analyse sur les modalités dites interactives de leur fréquentation, modalités dont j'ai tenté de
montrer qu'elles constituent leur essence[82]. Je souhaite y revenir, par un autre biais, en
tentant de spécifier le régime perceptif singulier qu'engagent et qu'expriment les
représentations contemporaines, que je propose de dénommer, images actées si on désigne
ainsi les images numériques appelées à être chaînées avec et par des actes[83].

L'image-temps [84]m'intéresse en ce qu'elle rencontre cette problématique des rapports image-


objet. Elle suscite mon attention pour d'autres raisons, connexes à celle-ci et peut-être plus
essentielles. Deleuze aborde le cinéma avec le souci d'en faire une théorie philosophique. "Le
cinéma lui-même est une nouvelle pratique des images et des signes, dont la philosophie doit
faire la théorie comme pratique conceptuelle"[85] et, de manière significative, la dernière
phrase du livre est un appel à "constituer les concepts du cinéma"[86]. Contribuer à faire
émerger les concepts propres de l'image actée, telle pourrait être la visée de cet essai. Dans
quelle mesure la démarche de Deleuze peut-elle nous aider à faire surgir ces concepts ? J'ai le
sentiment qu'oeuvre dans "L'image-temps" un mode de questionnement partiellement
transférable à l'univers des images actées. Une observation fondamentale fait pressentir
qu'une appropriation du dispositif analytique construit par Deleuze à propos du cinéma
pourrait être fructueuse dans cette perspective. En effet, le philosophe adosse fortement sa
construction aux travaux d'Henri Bergson. L'essentiel de l'appareillage conceptuel construit
dans les deux tomes consacrés au cinéma, prolonge et illustre la théorie bergsonienne de la
constitution du temps. Les concepts centraux d'<<image-mouvement>> et d'<<image-
temps>> sont élaborés à partir des notions de prolongement sensori-moteurs exprimés (ou
inhibés dans le cas de l'image-temps), notions qui fondent la théorie de la perception, de la
mémoire et donc du temps chez Bergson. Deleuze ira même jusqu'à évoquer "le bergsonisme
profond du cinéma en général"[87]. L'analyse bergsonienne de la perception dans ses rapports
à la temporalité prolonge les théories phénoménologiques du temps, encadrées par le travail
fondateur de Husserl et développées notamment, quant à la vision, par Maurice Merleau-
Ponty dans un sens qui préfigurait la Téléprésence technique actuelle[88]. Ces travaux sur les
rapports entre mémoire et perception offrent un cadre privilégié pour développer une théorie
des images actées virtuelles. C'est la raison pour laquelle, dans des travaux antérieurs[89],
j'avais déjà tenté d'exploiter ces conceptions de la vision pour analyser les nouveaux cadres de
vision/action engendrés par l'informatique. Cette direction s'éclaire si l'on admet que les
technologies de perception actualisent, à leur manière -c'est-à-dire sans les transcrire
mécaniquement- les mouvements latents à l'oeuvre dans la perception. Elles les traduisent, et
ce faisant, elles les transforment tout aussi bien, car la perception humaine est toujours
informée et infléchie par les technologies qui la baignent[90]. Dans cette perspective, j'avais
tenté de mettre à profit les conceptions bergsoniennes pour montrer comment le stade virtuel
de l'image réalise, après la photographie et le cinéma, les mouvements abstraits latents à
l'oeuvre dans la perception en général, et dans la perception visuelle, en particulier. Rappelons
que Bergson dans Matière et mémoire, s'appuie, pour une part importante, sur la
psychopathologie de l'aphasie, à la fois comme champ expérimental et comme validation de la
conceptualisation proposée. Celle-ci tente toujours de fonder ses interprétations en élucidant
les phénomènes perceptifs concrets, c'est-à-dire en abstrayant les concepts (tels que souvenir
pur et inscrit, conscience réfléchie...) des opérations corporelles et mentales, et surtout en les
forgeant dans une perspective descriptive et explicative. La mobilisation de ces analyses
s'agence assez bien avec le souci de saisir la perception dans ses dimensions aussi bien
expérimentales qu'abstraites. En synthétisant les perceptions "naturelles" et en inventant de
nouveaux dispositifs perceptifs, les laboratoires de la Téléprésence, poursuivent, d'une autre
manière, ce travail de "phénoménologie appliquée". Aussi, faudra-t-il montrer en quoi le
défrichage bergsonien est-il essentiel à cette entreprise.

Deleuze précise sa visée à la fin du livre. Non pas faire une théorie "sur" le cinéma, mais "sur
les concepts que le cinéma suscite et qui sont eux-mêmes en rapport avec d'autres concepts
correspondant à d'autres pratiques, la pratique des concepts en général n'ayant aucun privilège
sur les autres, pas plus qu'un objet n'en a sur les autres"[91]. Mettre en rapport les concepts du
cinéma avec d'autres concepts, que cache cette formule ? Il s'agit, en fait, de faire surgir les
concepts du cinéma dans un regard qui embrasse simultanément le cinéma et la vie, dans
toutes ses dimensions. Et Deleuze privilégie les dimensions proprement politiques. Il se sert
du cinéma comme d'un instrument d'observation qui révélerait l'état du monde et inversement,
il repère l'émergence des "concepts" du cinéma dans une mise en rapport avec ces autres
signes cliniques, qu'il appelle "autres concepts" (mais s'agit-il vraiment de concepts ou bien,
plutôt, de marques politiques saillantes caractérisant des périodes historiques). Les exemples
abondent : depuis la deuxième guerre, qui sépare le règne de l'image-mouvement de celui de
l'image-temps. De même peut-on invoquer la mutation des figures de l'automate, qui, du
dictateur omnipotent de Metropolis symbolisant la montée des régimes totalitaires dérive vers
l'automate cybernétique des sociétés de contrôle et de surveillance distribuée, comme celui de
2001. Est-il envisageable que les concepts de l'image actée puissent faire, aussi, office
d'analyseurs de l'état du monde contemporain ? Mon ambition, ici, est mesurée. La
proposition de "cristal présentiel", qui va suivre, est fondée, à l'évidence, sur le
développement massif de la présence à distance comme modalité d'organisation sociale. Mais
les enjeux proprement politiques d'une telle transformation me semblent encore difficiles à
thématiser. Mon intuition se limite à marquer, dans le contexte social de la téléinformatique,
quelques agencements typiques tels que la croissance des formes de vie commune mêlant l'ici
et l'ailleurs, ou bien, comme nous le verrons dans le chapitre suivant, la coexistence de
logiques temporelles hétérogènes dans l'espace public.

A - De Matière et mémoire au concept de cristal dans

L'image-temps

L'une des idées maîtresses du schéma bergsonien de la perception, exposé dans son ouvrage
Matière et mémoire[92], concerne la place et la fonction du corps. Ce schéma conditionne la
conception bergsonienne du souvenir, et par conséquent du temps. La perception n'y est plus
considérée comme centripète (de la perception à l'idée) mais centrifuge. Elle va de l'idée à la
perception, par projection extérieure d'une image activement conçue, analogue à l'objet et qui
vient épouser sa forme. La perception est une prédiction mobilisant la mémoire, prédiction qui
vient chercher dans l'épreuve réelle son ajustement à l'objet : voir, c'est revoir et prévoir. On
retrouve, par exemple, cette fonction primordiale du corps dans la compréhension auditive du
langage. L'audition de la parole met en branle un "schème moteur ", c'est-à-dire des
"sensations musculaires naissantes"[93]. Comprendre une langue nouvelle, par exemple, c'est
accorder ce schème moteur aux images acoustiques fournies par l'oreille : "coordonner les
tendances motrices de la voix aux impressions de l'oreille, ce serait perfectionner
l'accompagnement moteur"[94]. Cette notion de "schème moteur" éveillé par les "images"
extérieures, se situe à la frontière du corporel et du mental. Et les "saisissements musculaires"
provoqués par les images extérieures, assurent selon Bergson, la jointure entre ces instances.
La place centrale du corps est spécialement affirmée lorsqu'on apprend un mouvement
physique, un pas de danse par exemple. L'intellect et le corporel se font alors singulièrement
écho. La répétition intérieure du mouvement qu'on souhaite apprendre, permet de donner à
chaque mouvement élémentaire son autonomie et assure sa solidarité aux autres. Le
philosophe affirme que la répétition intérieure "a pour véritable effet de décomposer d'abord,
de recomposer ensuite, et de parler ainsi à l'intelligence du corps"[95].

Selon l'auteur de Matière et mémoire, on peut figurer le système de la reconnaissance


perceptive par une sorte de membrane, sensible sur ses deux faces. Les organes des sens
impriment, par devant, l'image d'un objet réel. Les centres d'images internes manifestent, par
derrière, l'influence d'un objet virtuel. Les schèmes virtuels offrent alors leurs mouvements à
la réception des impressions d'origines externes. On comprend ainsi parfaitement comment ce
qui se tient du côté de l'idée, de l'objet virtuel, modèle la représentation finale, et pourquoi
différentes cultures visuelles ont pu et peuvent exister, bien que la neurophysiologie de la
vision soit à peu près invariante depuis des dizaines de milliers d'années.

Dans la perception, le corps fabrique une "esquisse" de l'objet et pour donner chair à cette
esquisse, nous sollicitons nos souvenirs. Ceux-ci sont eux-mêmes inscrits dans notre corps
comme sensations. Et Bergson en distingue deux types : les souvenirs appris et les souvenirs
spontanés. Le souvenir spontané est d'emblée parfait, il s'inscrit et enregistre les éléments
constitutifs de notre existence avec leurs marquages spatio-temporels. Le souvenir appris par
répétition, en revanche, s'extériorise, tend à devenir indépendant, impersonnel et donc
toujours disponible ; comme un outil que l'on sait mobiliser. Des "souvenirs diminués" se
forment par extraction de ces épreuves rééditées. Ces souvenirs sont affaiblis en regard des
inscriptions spontanées précisément situées dans le temps et l'espace. Mais ils sont plus
mobiles. Leur abstraction les rend disponibles pour se mouler sur la perception présente.
Alors que l'image-souvenir spontanée est aussi fidèle que capricieuse, échappant à
l'application volontaire. De même dans la reconnaissance automatique (ou habituelle) : la
perception se prolonge en mouvements d'usages. Des schèmes sensori-moteurs se sont
accumulés que la vue de l'objet suffit à déclencher. Entre perception et sensation la continuité
est assurée. Ce qui préside à la reconnaissance attentive, en revanche, en diffère
considérablement, parce que la continuité entre perception et mouvements naissants est alors
brisée. On renonce à prolonger notre perception -explique Bergson- on fait retour à l'objet et
on en extrait quelques traits spécifiques. Et le philosophe dévoile le mouvement essentiel de
ce type de reconnaissance : "[...] toute perception attentive [...] suppose véritablement, au sens
étymologique du mot, une réflexion, c'est-à-dire la projection extérieure d'une image
activement créée, identique ou semblable à l'objet et qui vient se mouler sur ses
contours"[96].
La reconnaissance attentive prolonge le souvenir appris. "Nous en recréons le détail et la
couleur en y projetant des souvenirs plus ou moins lointains"[97]. Dans la perception
attentive, différents cercles de la mémoire enveloppent le premier circuit fermé qui tient en
tension "l'objet O lui-même avec l'image consécutive qui vient le couvrir"[98]. Les cercles
dérivées expriment des mouvements toujours plus vastes de productions intellectuelles. C'est
toute la mémoire qui pénètre dans ces circuits et c'est elle qui "réfléchit sur l'objet un nombre
croissant de choses suggérées, - tantôt les détails de l'objet lui-même, tantôt des détails
concomitants pouvant contribuer à l'éclaircir"[99]. À ces cercles de la mémoire correspondent
des "causes de profondeurs croissantes, situées derrière l'objet, et virtuellement données avec
l'objet lui-même"[100]. Aux plus hautes couches de la mémoire se rapportent des couches
plus profondes de la réalité. Ainsi se construit le schéma bergsonien de la perception attentive,
figuré par deux séries de cercles symétriques formant des circuits. Les cercles représentant la
dilatation progressive de la mémoire sont couplés aux cercles qui traduisent les détails
immédiats de l'objet et, ensuite, les systèmes dérivés de cet objet. Bergson s'intéressera tout
particulièrement au circuit le plus intérieur qui se forme lorsque les cercles de la mémoire se
rétrécissent, s'éloignent de leur charge personnelle et originale pour devenir mobiles et
abstraits. À ce moment "[...] le souvenir ainsi réduit s'enchâsse si bien dans la perception
présente qu'on ne saurait dire où la perception finit, où le souvenir commence"[101]. Alors,
ajoute Bergson, la mémoire perd sa mobilité fantaisiste et se règle sur le détail des
mouvements corporels[102]. Dans son travail sur le cinéma, Deleuze exploitera la
coalescence entre souvenir et perception dans une autre direction, celle où l'image cesse de se
prolonger en mouvement et cristallise dans une image bi-face, actuelle/virtuelle : l'image-
temps.

De l'image-mouvement à l'image-temps : le cristal

Exploitant l'héritage bergsonien dans sa tentative d'élaborer les concepts philosophiques du


cinéma, Deleuze définit l'image-mouvement comme chevillée aux enchaînements sensori-
moteurs. Perception, affection, action, telle est la chaîne caractéristique de l'image-
mouvement, quasiment considérée comme une image- action, (c'est-à-dire une image
inséparable de l'action qu'elle montre). L'image-temps, en revanche, apparaît, dans le cinéma
d'après-guerre, dès que les situations ne se prolongent plus en action. Les personnages sont
alors suspendus, interdits de réaction, confrontés à de "pures situations optiques et
sonores"[103], indifférents aux enjeux de la scène. Mais, ajoute Deleuze, ce qu'ils perdent en
réactions, ils le gagnent en "voyance", car coupés des prolongements actifs, ils absorbent
toutes les intensités affectives et les convertissent en capacités de voyance et non plus en
activités. Cette inhibition de la perception prolongée en action est au fondement de
l'émergence, dans le cinéma d'après-guerre, de l'image-temps, images purement optiques et
sonores, détachées des logiques immédiates de l'action. Elles font signe vers les "souvenirs
purs" bergsoniens abstraits, mobiles et disponibles qui coalisent perception et souvenir.

La rupture sensori-motrice d'une part et la problématique temporelle, de l'autre, sont au coeur


de l'analyse : "...l'image actuelle coupée de son prolongement moteur... composait de grands
circuits, elle entrait en communication avec ce qui pouvait apparaître comme des images-
souvenirs, des images-rêves, des images-mondes"[104]. Mais cette image "trouve son
véritable élément génétique quand l'image optique actuelle cristallise avec sa propre image
virtuelle, sur le petit circuit intérieur"[105]. Dans cette "image-cristal, il est impossible
d'assigner une place aux deux faces. Deleuze affirme que "l'indiscernabilité constitue une
illusion objective", "une présupposition réciproque"[106]. D'où aussi la réversibilité possible
entre actuel et virtuel, réversibilité que Deleuze voit surgir à l'état pur dans La dame de
Shanghaï et dont il fera une pierre de touche de son commentaire (sur lequel il reviendra dans
son dernier texte, "L'actuel et le virtuel"[107]) : "Le souvenir est l'image virtuelle
contemporaine de l'objet actuel, son double, son 'image en miroir'. Aussi, y a-t-il coalescence
et scission, entre l'objet actuel et son image virtuelle : l'image virtuelle ne cesse de devenir
actuelle, comme dans un miroir qui s'empare du personnage, l'engouffre, et ne lui laisse plus à
son tour qu'une virtualité, à la manière de La dame de Shanghaï. L'image virtuelle absorbe
toute l'actualité du personnage, en même temps que le personnage actuel n'est plus qu'une
virtualité. Cet échange perpétuel du virtuel et de l'actuel définit un cristal"[108].

Dans cette logique, image et objet sont d'abord rendus, en tendance, équivalents. Puis l'actuel
passe au virtuel et réciproquement. Le virtuel devient alors le complément naturel de l'actuel,
son autre face. Mais d'où vient cette attirance à sublimer l'actuel dans le virtuel, à "absorber"
le personnage dans son reflet spéculaire et à lui faire rejoindre ainsi son essence (laquelle
consiste à être double : actuelle et virtuelle) ? Trouble de l'échange, accroissement d'énergie
dans la forme virtuelle et postulat d'une plus grande mobilité du virtuel, ou encore désir de
faire se rejoindre la représentation et la réalité ? (On verra que la fusion tendancielle de
l'image et de l'objet définit l'image actée, dans un processus d'autonomisation où l'image
s'approprie progressivement les qualités de l'objet). Toutes ces hypothèses se tiennent, aux
deux sens du terme. Dans l'important commentaire de La dame de Shanghai, film considéré
par le philosophe disparu, et à de multiples reprises, comme un symbole du passage à
"l'image-temps", il s'agit bien d'opérations spéculaires dans lesquelles les images sont
strictement sous la dépendance ontologique de l'objet, même si dans la scène finale il nous est
évidemment impossible de distinguer laquelle est l'objet. Dans cette scène terminale du film
d'Orson Welles, l'accroissement d'énergie s'opère en deux stades. D'abord, par la prolifération
virale des images toutes rapportées à un objet unique. Puis par la mise en abîme qui en résulte
et l'impossibilité de distinguer la série d'images de l'objet qui lui donne naissance. On retrouve
un thème cher à Deleuze (développé en particulier dans Logique du sens[109]) : le simulacre
comme impossibilité de séparer le vrai du faux, l'actuel du virtuel. Le commentaire du film de
Welles est dominé par l'idée de "puissance du faux" : "En élevant le faux à la puissance de la
vie, la vie se libérait des apparences autant que de la vérité : ni vrai ni faux, alternative
indécidable, mais puissance du faux, volonté décisoire. C'est Welles qui, à partir de La dame
de Shanghaï, impose un seul et unique personnage, le faussaire"[110]. La "puissance du
faux", est une réponse à la démarche de l'homme véridique, qui "juge la vie comme une
maladie". "Par delà le bien et le mal" s'élance la puissance créatrice, vitale, l'augmentation de
mobilité, de mutabilité. Et Deleuze fait l'éloge de la capacité à se transformer, à ne pas se
recroqueviller dans une écorce, à s'hybrider à d'autres forces vitales[111]. Ces forces se
trouvent du côté de la cristallisation actuel/virtuel. Pourtant le dénouement tragique de
l'ultime scène aux miroirs remet en jeu une vérité, un fondement "réel" : la mort. Briser un à
un les miroirs, éteindre les apparences, reconquérir l'actualité, c'est se brûler les yeux dans la
mort. Le virtuel privé d'actuel devient un élément catastrophique, d'intensité insupportable.
N'oublions pas cependant que l'image spéculaire est dans un rapport de stricte
contemporanéité avec l'objet. Le déchaînement multiplicateur efface temporairement cette
dépendance. Supprimer un à un les exemplaires virtuels assure la durée de la scène finale,
mais le dénouement tragique contracte cette durée par l'effondrement réciproque des
adversaires.

Crise de la vérité

L'éloge des puissances du faux s'accompagne d'un joyeux constat de la relativité de toute
référence stabilisée. Le cinéma de Welles redécouvre le mouvement perspectiviste et la perte
de la notion de "centre". Michel Serres et ses considérations sur le XVIIe siècle, qualifié de
"siècle baroque", viennent à l'appui : "Y a-t-il un centre quelconque ou pas du tout ?" Et
Deleuze d'ajouter : "[...] la vérité traversait une crise définitive" et "tous les centres [...]
s'écroulaient"[112]. Le perspectivisme de Welles ne se définit plus alors "par la variation des
points de vue extérieurs sur un objet supposé invariable (l'idéal du vrai serait conservé)". Au
contraire, explique-t-il, avec Welles, le point de vue est constant mais intérieur aux objets, qui
se présentent comme "métamorphose d'une seule et même chose en devenir". D'où l'allusion à
la géométrie projective : l'oeil au sommet du cône donne des "projections", cercle, ellipses,
droites, etc. "L'objet n'étant plus à la limite que la connexion de ses propres
métamorphoses"[113]. Rejoignant des vues antérieures développées dans Logique du sens, où
le simulacre est défini non pas comme une copie dégradée mais comme ce qui interdit de
discerner la copie de l'original, Gilles Deleuze affirme : "Les perspectives ou projections, c'est
cela qui n'est ni vérité ni apparence"[114].

Mais faut-il opposer vérité et apparence ? Plutôt que de concevoir les projections multiples
comme ce qui altère l'idée d'une vérité unique, pourquoi ne pas considérer la vérité, elle-
même, comme multiple. Définir l'objet comme l'ensemble de ses projections tend à confondre
appréhension perceptive et manifestation objective. Si l'objet "unique" n'existait pas, ses
projections s'éteindraient aussi. Cette vision ne dépasse qu'en apparence le conflit entre
subjectivisme et matérialisme. Sans prolonger cette controverse récurrente... et complexe, je
ferai l'hypothèse que l'expérience des images actées, ne favorise que superficiellement le
relativisme. Offrir le réglage de l'observation et de l'activation du modèle au spect-acteur,
c'est dépasser, dans un sens, l'opposition entre dispersion des références et centralité de
l'espace d'observation. Définir l'objet par l'ensemble des perceptions qu'acquiert un
observateur situé à l'intérieur, c'est une conception qui assure à la fois la mutabilité de l'objet,
"son devenir" et sa définition perceptuelle. En déduire une crise définitive de la vérité est
discutable. La vérité ne se situe pas au pôle opposé à celui de l'apparence, c'est ce qui partage
l'apparence de l'essence (dans la formule cartésienne classique). Dans la sphère des images
actées, et de manière plus restrictive, dans celle des simulations réalistes, nous verrons plus en
avant qu'on peut considérer que la "vérité" fait dériver l'apparence du modèle. La vérité, ou
plutôt une vérité expérimentale et non axiomatique, s'exprime alors dans le passage au-delà de
l'apparence, ou plus précisément dans la synthèse de l'apparence à partir de la morphogenèse
de l'objet. De multiples travaux de modélisation physico-mathématiques concrétisent cette
exsudation de l'apparence à partir des modèles. Waves d'Alain Fournier[115] en est
certainement l'un des premiers exemples aussi parlant, qui offre la vision d'une plage en
images de synthèse obtenues par modélisation physique du mouvement de la houle animant
d'innombrables gouttes d'eau formant l'étendue maritime. De la conformation des fonds sous-
marins à la vitesse du vent, des phénomènes d'écrêtage de l'écume à l'amortissement des
ondulations, tout y est simulé pour recréer l'apparence visible d'une mer parcourue par des
vagues. La vérité visuelle, unique comme scène et multiple comme perspectives réglables,
surgit alors comme la preuve de la réussite de l'opération modélisatrice. Elle en devient un
bénéfice secondaire, un cadeau "de surcroît". Ce faisant, c'est le regard qui se redéfinit : non
plus appréciation d'une surface mais recherche des dimensions cachées, invisibles, d'une
scène. L'image devenant méta-image (image qui contient et explicite ses principes de
construction), le regard devient méta-regard (regard qui observe ses propres opérations pour
deviner ce que dissimule la surface visible et comment y accéder). L'idée de Godard selon
laquelle les meilleurs films de fiction sont les documentaires sur leur propre tournage
s'applique naturellement à l'univers de l'image actée puisque chaque scène contient
explicitement ses logiques scénographiques ; logiques que le spect-acteur doit découvrir et
pratiquer pour, de manière inédite, composer le voir avec le mouvoir. (Précisons que lorsqu'on
observe Waves par le truchement d'un film vidéo, ces dimensions méta-scopiques s'assèchent
et le regard se conforme alors à ses habitudes séculaires non-interventionnistes).

B - De L'image-temps aux concepts de l'image actée, versus de l'image virtuelle du miroir


à l'avatar virtuel

La ligne d'analyse de La dame de Shanghaï, distribuant les valeurs vie/mort sur le couple
virtuel/actuel s'harmonise parfaitement à l'opérateur instantané qu'est le miroir. On peut
d'ailleurs noter qu'outre le miroir, les métaphores techniques qu'utilise Deleuze relèvent très
souvent de milieux de type optique : cristal (et cristallisation comme mouvement de
développement du cristal), transparence (vitre, fenêtre, eau gelée)[116], eau vive (le flux
vital). Peut-on mobiliser ce couple virtuel /actuel en regard des dernières générations d'images
et spécialement des créatures virtuelles (modèles simulés, avatars, clones) ? Ce genre
d'images joue, quant à elle, sur une gamme de combinaisons dans le temps beaucoup plus
vaste que l'optique, parce qu'elle travaille les opérations temporelles de manière plus mobile
(contemporanéité, simultanéité, enregistrement, reprise actuelle de modèles sédimentés par
des expérimentations antérieures, mélanges d'animation actuelle et de modèles stockés
comme dans le clonage virtuel[117]).

L'optique géométrique ignore la temporalité. La référence de Deleuze à l'optique doit être


discutée plus finement, car il serait injuste de lui attribuer un usage naïf de l'optique physique.
Dans l'un de ses derniers articles publiés, Deleuze revenant sur le statut de l'image et de l'objet
virtuel, écrit : "Les images virtuelles ne sont pas plus séparables de l'objet actuel que celui-ci
de celles-là. Les images virtuelles réagissent donc sur l'actuel"[118]. Mais l'analogie[119]
avec les images virtuelles de l'optique -ou du numérique- est trompeuse. Lorsque Deleuze
parle d'images virtuelles, il s'agit plutôt de souvenirs et non pas d'images objectivées. Et
logiquement il rappelle avec insistance, tout au long de son livre, la découverte bergsonienne
concernant la temporalisation. "Dans tous les cas, la distinction du virtuel et de l'actuel
correspond à la scission la plus fondamentale du Temps... faire passer le présent et conserver
le passé"[120]. Toute son analyse de la virtualité repose en fait sur cette conception
temporelle. "Actuel" est évidemment un terme temporel et non pas spatial (et c'est toute la
portée des technologies de Téléprésence que de tendre à fusionner, aujourd'hui, ces deux
qualités). C'est pourquoi l'optique physique, spatiale par construction, n'inclut pas "l'actuel"
dans son vocabulaire et lui substitue les notions d'image et d'objet réels. De même l'objet dont
il est question chez Deleuze, c'est plus la perception actuelle qu'une entité matérielle
indépendante (l'objet inorganique, amorphe du sens commun). Ce concept d'<<objet>> nous
fait quitter l'ordre optique qui ne peut, tout au plus, que servir d'analogie pour appréhender la
perception. Et c'est bien ainsi que Deleuze le conçoit lorsqu'il énonce : "En termes
bergsoniens, l'objet réel se réfléchit dans une image en miroir comme dans l'objet virtuel qui,
de son côté et en même temps, enveloppe ou réfléchit le réel : il y a <<coalescence>> entre
les deux. Il y a formation d'une image biface, actuelle et virtuelle"[121]. Et il image le
processus : "C'est comme si une image en miroir, une photo, une carte postale s'animaient,
prenaient de l'indépendance et passaient dans l'actuel, quitte à ce que l'image actuelle revienne
dans le miroir, suivant un double mouvement de libération et de capture"[122].

Il semble que Deleuze nous invite lui-même à dépasser le stade du miroir. Son commentaire
conviendrait à merveille à La rose pourpre du Caire, film qui illustre parfaitement, dans
l'ancien moule de l'image enregistrée, le stade acté de l'image, propulsé par les technologies
numériques. Séparer l'image de son support pour la faire vivre, en complète autonomie, dans
une relation avec une spectatrice, voilà ce qui advient, on le sait, à l'acteur du film de
Woody Allen, dessinant ainsi une parabole de tous les mouvements qui affectent l'image
numérique aujourd'hui. Un autre exemple me vient à l'esprit de ce qu'on pourrait appeler, cette
fois, un miroir numérique. Il s'agit du dispositif Watch yourself, de Tim Binkley[123].

Cette installation rend compte à merveille du sens profond des images actées -dont on
rappelle qu'elles enchaînent pratiquement les visions aux actions- en révélant le dédoublement
spéculaire du regardeur qu'elles induisent. Véritable machine à transporter le spectateur, et à
le capturer, ce dispositif incorpore l'image du visiteur dans les ouvertures du tableau (fenêtres,
miroir, etc.). S'il doute de la réalité de ce voyage, une imprimante, inscrit sur le papier la trace
de sa visite furtive à la Vénus au miroir de Vélasquez en lui fournissant le témoignage
irréfutable de sa présence dans le tableau. L'effet est majoré par l'emprunt à des classiques de
l'art pictural qui avaient déjà exploré, à leur manière, la recomposition de l'espace perspectif :
multiplicité de scènes, incorporation de plans décalés, thème récurrent de la fenêtre présentant
l'ailleurs de l'image dans le cadre même du tableau. La présence du miroir dans le tableau
(comme dans les fameuses Ménines), fait apparaître ce que voient les personnages dans le
tableau, mais qui demeure caché pour le peintre. Ici, c'est, de manière ironique, le regard du
visiteur qui est piégé, affirmant ainsi un nouvel âge de l'image. Par là s'affirme une
propension à animer les récits de l'intérieur de la scène : pénétrer dans l'image, devenir acteur
du spectacle et spectateur de ses actes, regarder le tableau à partir de son intériorité. Comme
l'écrivait Merleau Ponty, "la vision est prise ou se fait au milieu des choses"[124].

L'image-objet, un ajustement sensori-moteur génétique

Deleuze : "L'écriture a pour seule fin la vie, à travers les combinaisons qu'elle tire. Le
contraire de la <<névrose>> où, précisément, la vie ne cesse pas d'être mutilée, abaissée,
personnalisée, mortifiée et l'écriture, de se prendre elle-même pour fin"[125]. Nietzsche vient
à l'appui : "Il semble parfois que l'artiste, et en particulier le philosophe, ne soit qu'un hasard
dans son siècle... À son apparition, la nature, qui ne saute jamais, fait un bond unique, et c'est
un bond de joie, car elle sent que pour la première fois elle est arrivée au but, là où elle
comprend qu'en jouant avec la vie et le devenir elle avait eu affaire à trop forte partie"[126].

Viser la vie et non la vie des signes (de l'écriture), faire coïncider la description et le paysage,
plus, révéler le paysage à lui-même grâce à sa description, voilà une critique cinglante de la
médiation. Mais dénier l'espace propre de la représentation, c'est une critique de l'opération
médiatrice symétrique à celle consistant à souligner son incapacité à décrire fidèlement la
réalité, à la doubler authentiquement. C'est l'espace créatif propre de la médiation qui est alors
dévalorisé. Il s'en suit que l'autonomie revendiquée de l'écriture ou de l'image ne vaut plus
pour elle-même, mais comme instrument mobilisé pour rejoindre la vraie vie. Ici, le paradoxe
consiste à rejoindre la vie par le truchement de son soi-disant autre (l'écriture, ou le film) tout
en affirmant la vanité et l'agressivité mortifère de ce "moyen". Or, s'il y a moyen, truchement,
outil, se compose un espace propre de vie qui ne saurait être appelé à fusionner avec un flux
vital supposé premier et essentiel, puisqu'alors, il en fait partie. C'est ce qui nous passionne
dans l'image actée, ce surgissement d'un milieu médian, ni pur objet, ni pure image et dont
l'artificialité ajoute de nouvelles dimensions à nos compositions perceptives. Cette méfiance à
l'égard d'une écriture qui viserait un espace propre d'existence est contradictoire à une
motivation que Deleuze exprime distinctement à de multiples reprises : fusionner la
représentation et la réalité pour donner naissance à un couple représentation/réalité qui
acquiert ainsi un surplus d'énergie, d'autonomie et qui le transforme en puissance quasi
vivante. Devenir toujours plus vivant, c'est-à-dire doter les images de qualités décalquées de
celles des objets, tel est bien le programme de l'ingénierie informatique, affirmation qu'il
faudrait compléter en ajoutant que ce programme va, parfois, jusqu'à les doter d'une quasi-vie
artificielle[127].

L'image-objet ou le virtuel dissocié de l'actuel

L'échange virtuel/actuel, ce serait la sortie de l'écran, et le retour futur. Plus généralement, on


peut faire jouer l'analogie avec cet échange virtuel/actuel afin de décrire le mouvement de
l'image- actée, mouvement considéré comme processus d'autonomisation croissante de
l'image. Ce qui fait discussion, c'est le mouvement symétrique (l'image actuelle doit revenir
dans le miroir pour remplacer l'image virtuelle qui s'est autonomisée) comme si une solidarité
devait être maintenue à tout prix entre image actuelle et virtuelle. La métaphore du miroir
incite à postuler une telle solidarité, tout comme la référence à toutes les techniques
d'enregistrement (photographie, cinéma) qui maintiennent, par construction, ce lien. Les
images-objets mues par la modélisation numérique peuvent, quant à elles, se dispenser d'une
telle exigence, à condition qu'on leur reconnaisse un niveau supérieur d'autonomie, une
certaine autosuffisance à coaliser l'actuel et le virtuel, à concrétiser une forme de cristal (bien
que le circuit court perception/souvenir se manifeste aussi, dans certains moments de
flottement, lorsqu'on négocie avec ces hybrides image-objets). Dans ce cas, l'ajustement des
mouvements sensori-moteurs et de la perception optico-sonore se réalise de lui-même. S'il
s'agit bien d'image-objets existants comme telles dans un processus d'usage, de coopération,
de conversation, alors cet ajustement est génétique. Il découle des liens structurels entre
image et action. Par exemple, le modèle de l'arbre que l'on fait croître par simulation contient,
par principe, les décisions préalables des agronomes qui ont élaboré ce modèle. Le faire
croître sur l'écran, c'est agir et actualiser ainsi le modèle qui va développer sa forme finale, le
faire fructifier, dessiner les ombres que ses branches projetteront au sol. Décrire ce processus
consiste à noter les enchaînements de gestes -réalisés grâce aux interfaces- et d'actes de
vision, les uns étant causes des autres.

En résumant à l'extrême, on peut caractériser l'image actée comme à la fois noématique et


haptique (de haptein, prendre, toucher en grec)[128]. (Noématique, car en suivant la
conception imaginée par Husserl, l'image actée est aussi soumise aux variations imaginaires
-à la corrélation- par lesquelles nous exerçons notre perception. Dans le cadre de l'expérience
de la "réduction phénoménologique" -la suspension, la mise entre parenthèse du monde
objectif- il s'agit bien de remonter de l'objet donné aux principes qui le constituent. En
radicalisant le propos, on dira que l'univers de l'image actée appelle naturellement la
"réduction phénoménologique").

L'image actée relève donc à la fois d'une saisie imaginaire, interprétative et d'une saisie
physique, interventionniste, par interfaces interposées : cette double détermination en
constitue la singularité en regard de toutes les autres formes d'images. On connaît la théorie
antique de la vision, celle du "rayon visuel" émis par l'oeil et qui va ausculter la réalité pour
ramener à la rétine des informations vivantes sur le monde ainsi touché (au sens propre)[129].
Répudié, à juste titre sur le plan scientifique, par l'optique physique, le "rayon visuel" s'est
finalement concrétisé dans nos interfaces modernes. Et c'est par elles que nous touchons et
transformons les images actées. Elles sont devenues le lien sensible, fonctionnant dans les
deux sens, entre la noèse-haptèse (le corps sensible de la phénoménologie : voyant parce que
se voyant voir, comme dirait Merleau-Ponty), d'une part et les figures numériques actives, de
l'autre.
On pourrait conclure qu'il ne s'agit là finalement que d'une image-mouvement, au sens de
Deleuze (image prolongée par des actions). Mais on peut tout aussi bien considérer que c'est
l'inverse qui se produit, l'action prolongeant l'image. En fait l'indécision qui en résulte laisse
entendre qu'il pourrait s'agir d'un cristal -pour reprendre l'expression de Deleuze- d'un
nouveau type, non plus coalescence de l'actuel et du virtuel, mais perception dans l'image
actuelle d'une incomplétude renvoyant à une image-souvenir lancée à la recherche de l'objet.
Objet qu'elle ne peut atteindre, car ce qu'elle vise n'est plus un objet réel mais un modèle
protéiforme. On dira que l'origine de ce cristal c'est ici le modèle mathématiques, non
totalement exprimable, qu'on ne peut appréhender par l'expérience et qui se tient en retrait,
invisible comme la source réelle/virtuelle du visible et de l'expérimentable. Invisible, mais
présent en surplomb et dont on "ressent" la présence à travers toutes ses actualisations,
comme une perception sublimée et indéterminée. Ce serait la course poursuite incessante
entre l'image actuelle et l'objet en retrait (le modèle) qui manifesterait ce cristal qu'on peut
nommer image-modèle.

Image-souvenir et Réalité Virtuelle

L'image sensori-motrice, telle que la définit Deleuze, s'incarnerait assez bien dans les
simulations interactives classiques (Conception Assistée par Ordinateur, jeux vidéo, etc.).
L'image se poursuit alors en mouvements, en actions mais demeure une image frontale, qui
sur l'écran, fait face à l'interactant. Les environnements virtuels, immergeant l'acteur,
traduiraient, eux partiellement, l'image-souvenir. Ces situations d'immersion engendrent, en
effet, une double perception. D'une part, l'écran étant brisé, la mobilité naturelle qui relie
vision, audition et action est restituée. Et de l'autre, le caractère "artificiel" -techniquement
produit- de l'univers est, simultanément, toujours perçu, ne serait-ce qu'à travers le rituel
inaugural de l'ajustement des interfaces (casques, gants, etc.), véritable sas de passage vers
l'immersion. Ces deux catégories de sensations agissent comme deux couches parallèles, pour
modeler la perception. Certains gestes et activités perceptives automatiques -pointant vers les
images-souvenirs indéfinies et mobilisables- qu'on accomplit quotidiennement sans y penser
sont ici accomplies avec la même facilité, d'autres réclament une pensée de l'usage des
interfaces, une application attentive. L'image-souvenir doublerait ainsi en surplomb l'image-
action. Les visions/auditions/préhensions d'objets dont les images flottent dans l'espace font
signe vers un univers onirique fait d'actes et de sensations mémorisés (image-souvenir) mais
qu'on mobilise pour identifier et animer ces objets-images (image-action).

C - Image-temps et image-présence : l'hypothèse du cristal "présentiel"

Le concept d'image-cristal est, rappelons-le, solidement articulé à la conception bergsonienne


du temps fondée sur le dédoublement qui, à chaque instant, fait passer le présent et conserve
le passé. Or la présence à distance est aussi un jeu avec le temps. Elle s'adosse à l'opération
temporelle qui définit le sentiment de présence : aller-retour entre évasion hors de soi,
perception de l'évasion, sensation du retour, laquelle provoque une nouvelle évasion
construite sur la perception du retour et tout ceci dans un mouvement perpétuel, une vague en
rouleau qui se déplace -et donc permet l'oubli- en s'enroulant sur elle-même. Les dispositifs de
transport canalisent ces mouvements en capturant à leur profit une part, et une part seulement,
de l'attention disponible. Une part seulement, car rien ne permet de supposer que, dans les
situations de transports (téléphone, communication par réseau, etc.), le sentiment de
présence/absence à soi se moule totalement sur le dispositif. Cela reviendrait à postuler
l'unicité phénoménale de la présence et par conséquent faire sienne une définition purement
spatiale de la présence. S'engager dans un déplacement partiel de présence, c'est hybrider les
vagabondages ordinaires du flux représentatif aux voyages outillés par les technologies. Le
canal que ces appareillages imposent à la perception complexifie donc les mouvements décrits
précédemment.

Le cristal "présentiel"

On se propose ici de faire jouer cette notion de cristal actuel/virtuel sur la thématique de la
présence à distance. Au miroir, cher à Deleuze, instrument d'extraction de l'apparence à partir
de la forme, reliant ainsi l'objet réel et son image virtuelle, on substitue l'appareillage de
téléportation (transport instantané des signes de la présence à distance, sur des avatars
virtuels, par exemple). Si le transport est physiquement instantané, la perception de
l'instantanéité est, quant à elle, construite. Cette perception se constitue dans les circuits
reliant l'action et la réponse, le départ et le retour. On définirait le cristal présentiel comme le
plus petit circuit reliant présence et départ, la sensation que notre image se glisse dans les
formes d'un avatar constitué par les moyens de l'informatique, qu'elle se déplace avec lui,
dans un réseau par exemple, et ne nous appartient plus totalement. Ce plus petit écart entre
l'ici et l'ailleurs serait ce cristal où actuel résonnerait avec ici et virtuel avec ailleurs. Lorsque
l'ici télescope l'ailleurs, comme dans les Téléprésences virtuelles où un exo-squelette situé
dans l'espace interplanétaire double un opérateur à terre, le cristal présentiel s'illumine. La
présence physique est dédoublée en présence actuelle (corporelle?) et image-objet de soi, que
nous avons nommé spect- agent, doté d'une vie propre, et non pas reflet passif. Concrétisant,
pour la première fois, une forme d'ubiquité réelle, ces expériences ouvrent au dédoublement
spatial, non plus seulement audiovisuel mais proprioceptif. Cette auto-perception s'opère à
distance de soi-même, sur un autre soi-même, le spect-agent. Se percevoir percevant, telle est
l'originalité de ces déplacements, déplacement d'espaces plutôt que déplacement dans
l'espace.

En regard du sujet humain réel, le spect-agent réalise une augmentation motrice aussi bien
que cognitive (déplacement par la vue ou la voix, perception des flux aérodynamiques simulés
s'écoulant autour d'une navette spatiale modélisée). Immergé dans l'univers virtuel, l'opérateur
se voit sous la forme d'une silhouette doublant ses mouvements. Il éprouve à même son corps,
par exemple, les effets d'un déplacement dans les lignes de flux de l'écoulement
aérodynamique.

Avec le retour d'effort du virtuel sur le réel, la composition chimique des rapports
action/perception musculaire/interprétation se modifie. Les sensations physiques sont perçues
de manière corporelle, mais grâce à la médiation visuelle d'un spect-agent, image de soi à
distance. Comme si le spect-agent percevait et nous transmettait instantanément cette
perception : dédoublement réel de présence. Le cristal temporel deviendrait ici le plus petit
circuit de déplacement de présence, la plus faible perception d'un écart de soi à soi, écart
manifesté dans et par un dispositif de transport. D'où un dédoublement présentiel dans la
problématique de la dissociation du temps (faire passer le présent, conserver le passé). Ici le
passé ne passe pas, il est "rafraîchi". Le "souvenir pur" bergsonien devient le modèle
comportemental de la scène. Altération des objets, forme de présence du sujet, espace
d'interaction sont organisés par des modèles abstraits, invisibles, impalpables, qui se tiennent
en retrait, forment l'espace des possibles et constituent la source des images actées.

L'exemple matriciel de cette situation cristalline serait la vision d'une image de soi dans une
situation de Téléprésence virtuelle : partie de son propre corps qu'on aperçoit dans le casque
de réalité virtuelle lorsqu'on baisse la tête, silhouette de soi découpée selon la forme du
costume-capteur qu'on a revêtu et qu'on découvre sur une surface réfléchissante ou encore
reflet de soi-même surajouté à l'image virtuelle dans certains dispositifs en cours
d'expérimentation.

Cristal actuel/virtuel, transport et cristal "présentiel"

"Le présent c'est l'image actuelle, et son passé contemporain, c'est l'image virtuelle, l'image en
miroir. Selon Bergson, la <<paramnésie>> (illusion de déjà-vu, déjà-vécu) ne fait que rendre
sensible cette évidence : il y a un souvenir du présent, contemporain du présent lui-même,
aussi bien accolé qu'un rôle à l'acteur"[130]. Ce souvenir dédouble en permanence la
perception actuelle et le souvenir immédiat virtuel (passé immédiatement accolé à la
perception actuelle). On pourrait proposer une analogie -un peu forcée, peut-être- entre le
mouvement qui relie les images-souvenirs aux images purement virtuelles qui "n'ont pas cessé
de se conserver le long du temps",[131] d'une part, et celui qui enchaîne, par l'intervention
humaine, la série d'images numériques avec leur modèle abstrait, non totalement visible parce
qu'incluant toutes ses actualisations possibles, de l'autre.

Le dispositif de transport est aussi essentiel au cristal présentiel (mais peut-être pas suffisant,
nous le verrons) que le dispositif cinématographique et ses "images optiques et sonores pures"
l'est au cristal temporel de Deleuze. Avec les images numériques interactives, il s'agit
d'image-présence et non plus d'image-mouvement ou d'image-temps. L'image-présence se
prolonge en actions, mais pas de manière figurée comme au cinéma où seuls agissent les
personnages incarnés sur l'écran. Là, c'est nous-mêmes qui prolongeons la perception en
action et l'action en perception, non plus dans un circuit (perception/action ou actuel/virtuel
pour l'image-temps) mais dans un cycle (action/interprétation/perception/action). Si certains
films rendent manifeste le cristal temporel, certaines situations privilégiées de transports
concrétisent le cristal présentiel. (J'ai en vue, ici, des environnements qui interprètent, sur un
plan esthétique, ces déplacements de présence, telles que certaines oeuvres en Réalité
Virtuelle, comme Ménagerie, dont il sera question plus loin). Les cercles concentriques qui
joignent les niveaux croissants de virtualité aux profondeurs croissantes de l'objet (Bergson)
s'expriment alors sur un mode non plus seulement temporel mais aussi spatial : déplacement
dans l'espace et par conséquent dans le temps.

Deleuze attire, par ailleurs, notre attention sur le fait que l'échec de la reconnaissance attentive
est souvent plus riche que son succès[132]. En effet lorsque cette reconnaissance ne parvient
pas à rejoindre l'image-souvenir, "le prolongement sensori-moteur reste suspendu". Elle rallie
des éléments virtuels, "sentiments de déjà-vu", de passé non situé, une réminiscence (on ne
sait si l'événement s'est réellement déroulé, si on l'a rêvé ou encore si on l'a déjà imaginé).
C'est un souvenir, mais on ne sait de quoi. Plutôt que l'image-souvenir ou la reconnaissance
attentive, les troubles et les échecs de la reconnaissance constituent "le plus juste corrélat de
l'image optique-sonore"[133]. Cet échec coupe les amarres de la reconnaissance et la rend
mobile, disponible pour toutes sortes de voyages reliés à une grande variété d'autres souvenirs
virtuels. Cette augmentation de liberté, désir et projet constamment revendiqués par Deleuze,
peut-on en trouver trace dans l'image actée ? Dans cette perspective, c'est la reconnaissance
temporelle qui échoue à se maintenir distinctement. Cet événement s'est-il déroulé avant ou
après celui-ci ? Ou en même temps ? La série temporelle peine à se dévider. Le souvenir d'un
enchaînement précis se trouble et va rejoindre les autres impressions détachées de leur
contexte.

Paradoxe, ubiquité, compossibilité


À propos de la crise de la vérité dans ses rapports au temps et donc aux bifurcations
irréversibles du passé, Deleuze se réfère à Leibniz et à sa notion de "compossibilité". Demain,
la bataille peut avoir, ou ne pas avoir, lieu. Le philosophe allemand affirme que les deux
possibilités peuvent se concrétiser simultanément, mais pas dans le même monde. Ces deux
mondes -dans l'un la bataille a lieu et dans l'autre, non- sont possibles, mais pas
"compossibles". Deleuze propose d'aller au delà de cette distinction des deux mondes et écrit :
"Car rien ne nous empêchera d'affirmer que les incompossibles appartiennent au même
monde"[134]. Et d'appeler Borges à son secours : "Vous arrivez chez moi, mais dans l'un des
passés possibles, vous êtes mon ennemi, dans un autre, mon ami..."[135] ou de rappeler, dans
une note, le Théodicée, de Leibniz, et ses "futurs contingents" prenant forme d'une "pyramide
de cristal" où "dans un appartement, Sextus ne va pas à Rome et cultive son jardin à Corinthe,
dans un autre, il devient roi en Thrace..."[136].

Les récits actés prolongent le genre. Dans certains exercices de narration interactive, ils font
coexister plusieurs récits, indépendants, contradictoires, ou parallèles. Mais avec une
différence de taille. Les bifurcations qui spécifient les différentes versions -on décide de
continuer la promenade sur les quais de la Seine plutôt que de pénétrer dans le jardin des
Plantes- ne sont plus compossibles, puisqu'elles deviennent alternatives. On pourra, bien sûr,
rééditer le choix et rentrer cette fois-ci dans le jardin. Mais c'est une autre expérience, et non
pas, simultanément, la même. À moins d'en appeler à une autre conception du récit où celui-ci
devient la somme de toutes les itérations effectuées cumulant des expériences actualisées dans
les cheminements suivis et totalisant les transports mentaux ainsi provoqués. Si on postule
une telle définition du récit interactif -qui ne fait que prolonger une définition classique du
récit textuel ou filmique, comme cumul des affects provoqués par sa perception[137]- alors il
réintègre la pluralité des déroulements possibles comme formant l'unité de sa composition.
Mais la perte d'énergie en regard des évocations à la Borges, est incontestable. La force
corruptrice du sens commun contenue dans la proposition de Borges provenait précisément de
la linéarité du texte, laquelle soulignait le paradoxe de l'ubiquité.

Avec le récit interactif, le paradoxe est dissout par le principe même du dispositif. On l'attend
d'emblée ; il est inscrit dans le fonctionnement du récit. Lequel met en jeu une autre forme de
transport interne. La "compossibilité" des versions du récit est une ubiquité du sens. Plusieurs
développements d'un même germe, pour certains contradictoires entre eux, inscrivent des
déplacements d'existence. On peut préférer suivre la fille sur les quais de la Seine, mais aussi,
au même moment souhaiter rencontrer le détective devant la grande serre du jardin des
Plantes. Le moment de la décision inclut alors une réédition future possible de ce choix dans
une reprise du récit. Le déroulement de l'action qui résulte d'une décision contient son autre,
comme une séquence imaginée qui, telle une ombre, s'accouple à la séquence observée.
L'existence spectrale dans cette autre séquence possible, celle qu'on a refusée, manifeste un
déplacement de présence qui double et affecte la perception de la séquence préférée. Si bien
que le récit se densifie de ces bifurcations non suivies qui, à terme, constituent un récit
fantôme et, à la limite, prennent la forme de ces souvenirs dont on ne sait s'ils réfèrent à des
événements réels, rêvés ou imaginés, rappelant l'indiscernabilité souvent éprouvée dans la
psychanalyse, entre souvenir et reconstitution imaginaire. On pourrait dire qu'alors le temps se
fractionne, non seulement il conserve le passé et fait passer le présent, mais de plus, surcharge
le présent d'un passé spectral "compossible".

L'adjonction de l'action à l'image sonore


Le passage du film muet au film sonore on le sait, a bouleversé le cinéma. L'adjonction
actuelle du geste à l'image de même que la mise en interaction du récit ne présentent-elles pas
quelque analogie avec cette première amplification perceptive dont a été sujet le cinéma ? à
propos de la sonorisation du cinéma, Gilles Deleuze insiste d'abord sur la naturalité de l'image
purifiée de la présence langagière. "Ce que le parlant semblait perdre, c'était la langue
universelle, et la toute-puissance du montage"[138] et : "L'image muette est composée de
l'image vue, et de l'intertitre qui est lu (seconde fonction de l'oeil)". D'où l'idée que l'intertitre
langagier exprime une loi alors que l'image visuelle sauvegarde le naturel, renvoie à "une
nature physique innocente, à une vie immédiate qui n'a pas besoin de langage..."[139]. (On
retrouve le thème "vital" récurrent, de même que, indirectement, la tendance à établir le
primat de la vie sur la médiation -langagière, dans ce cas- allant jusqu'à désavouer l'espace
propre de celle-ci). L'image muette peut "nous faire voir... le cri des révoltés"[140]. L'image
sonore, dit-il, nous fait sentir l'action. L'image actée, ajouterons-nous, nous met en présence,
d'une virtualité. Elle nous confronte à d'autres occurrences pouvant toujours doubler celle qui
a été choisie. Elle révèle les dimensions abstraites de la perception, dans un mouvement
paradoxal. Agir dans l'image, c'est à la fois très (trop ?) manifeste (on agit vraiment), mais
aussi terriblement incertain, car l'action dans l'image nous fait affronter le non visible. L'écran
-au sens littéral d'un masque- support de l'image actée opacifie toujours une réalité sous-
jacente. Certes cette opacité est trouée à certains endroits, là où précisément un cliquage, par
exemple, permet d'enchaîner sur d'autres scènes. Une réalité s'annonce qui ne dévoile jamais
totalement ses prolongements, présentant et occultant simultanément les relations cachées
entre les différentes phases du récit. Aura-t-on suivi le vol d'oiseaux qui s'enfuient, qu'on se
demandera toujours ce qu'ils sont devenus après qu'ils auront disparu de notre champ de
vision ? Gilles Deleuze écrit : "Le son n'a pas d'image", le cinéma ne le "représente" pas, il le
"restitue"[141]. Mais le son provient du centre de l'image visuelle. Malgré toutes les tentatives
pour s'en approcher, l'émission sonore n'est pas entendue dans les conditions naturelles, car
elle n'est pas spatialisée. (Remarquons que, prolongeant la stéréophonie, ou le sound
surrounded, la Réalité Virtuelle est la seule technique qui peut réellement spatialiser le son en
le diffusant selon les mouvements relatifs des sources sonores virtuelles et du spect-acteur).

Avec le cinéma parlant, le sonore est entendu comme "une nouvelle dimension de l'image
visuelle..."[142]. Il transforme l'image visuelle, "il fait voir en elle quelque chose qui
n'apparaissait pas librement dans le muet". Il s'en suit que l'image visuelle, dégagée de cette
naturalité première se met à exprimer les "interactions humaines"[143]. Elle devient une
sociologie interactionniste, ou plutôt précise Deleuze, c'est l'interactionnisme qui devient un
cinéma parlant. D'où l'importance et la récurrence des thèmes de la rumeur (qui passe entre les
personnages et les constitue, plus qu'ils ne la propagent eux-mêmes) et de la conversation,
objet non identifié qui porte les acteurs là où elle les entraîne plus qu'ils ne l'alimentent.

Avec l'image actée, l'interactionnisme devient une condition matérielle d'existence du média,
comme l'image projetée ou le son diffusé pour le cinéma. Que peut-on en conjecturer ? Par
exemple -en reconduisant ce que Deleuze dit de la sonorisation de l'image- que l'action sur
l'image est perçue comme une nouvelle dimension de l'image. Laquelle ? Si la sonorisation
intègre à l'image "une nouvelle composante de l'image", l'action sur l'image exprime le
mouvement interne aux composantes de la scène, leur vie propre. C'est donc un nouveau
régime de perception de l'image qui s'instaure incluant la capacité à deviner quels sont, à
chaque instant, les éléments qui peuvent être affectés par notre présence dans la scène. Une
vision chirurgicale se construit, non pas seulement au sens de la perception d'une profondeur
de champ (ce qu'assurait déjà la perspective). Elle ne se réduit pas, non plus, au percement de
la surface, ce qu'autorise le multifenêtrage ainsi que toutes les formes d'affichage mixant la
vision de la surface et de l'intérieur des objets ; opérations que la Conception Assistée par
Ordinateur, et bien d'autres formes d'imagerie numérique nous ont déjà habitués à décrypter.
Elle s'épanouit comme prévision des mouvements légaux et illégaux dans la scène. L'oeil au
bout de la main caresse la surface à la recherche du moindre frémissement révélant une cavité,
sonde les zones prometteuses, espère (et craint peut-être aussi) une révélation. La poursuite
des zones activables dans les mises en scène d'images actées (des jeux vidéo aux oeuvres de
l'art numérique) manifeste la présence muette d'êtres invisibles mais actifs : pouvons-nous
faire croître l'arbre, dissimuler le héros derrière ce mur, serons-nous assaillis au coin de la rue
si nous poursuivons ce chemin ?

Cette quête s'exprime dans toute sa plénitude avec les premières expériences visuelles de
communautés virtuelles et dans certaines recherches sur les déplacements virtuels dans les
univers coopératifs de travail. À ce moment-là, c'est l'interaction sociale, elle-même qui
devient une composante de l'image (déjà sonore, colorée, interactive) dès qu'elle met en scène
les relations entre les avatars présents dans l'univers virtuel. Cette interaction est guidée par
les sujets réels qui règlent les mouvements de leurs avatars. Mais elle est aussi prise en charge
par des règles comportementales internes gouvernées par des programmes automatiques. Dans
l'expérience de Téléprésence virtuelle collective DIVE, ces programmes assurent, par
exemple, on l'a remarqué, la visualisation automatique de relations telles que l'affinité entre
avatars et objets ou entre avatars eux-mêmes. L'attention sélective et toutes les opérations qui
objectivent des mouvements subjectifs d'ordinaire latents sont graphiquement et
dynamiquement inscrites, allant jusqu'à représenter visuellement des graduations d'intensités
relationnelles[144].

Sur les "nouvelles images"

Dans la continuité de l'analyse des nouvelles figures de l'automate, Gilles Deleuze aborde les
"nouvelles images" (électroniques et numériques). Il pose, concernant les images
électroniques, une question lumineuse, appelant de ses voeux une "autre volonté d'art"[145],
spécifique à cet univers. Que cet art puisse se développer de manière autonome ou en
prolongeant des aspects inédits de l'image-temps, la question, pour lui, demeure ouverte. Le
philosophe a-t-il en vue, les images numériques actées lorsqu'il évoque le statut des images
électroniques ? Ou n'a-t-il pas plutôt en ligne de mire les images vidéos. Nous penchons pour
cette dernière hypothèse. Son champ de vision privilégie, en effet, le cadre formel de l'image
(organisation de l'espace, perte du privilège de la verticalité, autonomie du visuel et du
sonore, transformation de l'écran en surface opaque où l'information remplace la Nature). Il ne
s'en écarte que pour prendre en compte la matérialité de la surface d'inscription, l'écran
opaque, dans une voie suivie parallèlement par nombre d'artistes vidéastes. Malgré une
ouverture finale plus riche, il n'envisage pas la nécessité de faire prendre aux concepts propres
aux "nouvelles images" une distance non seulement spatiale mais aussi axiomatique. Ne plus
les définir comme images mais comme intermédiaires entre image et objet, ne lui apparaît pas
distinctement. Sauf dans cette formule, invitant à dépasser "l'inefficacité" dangereuse de
l'information (sa toute-puissance fondée sur sa nullité) en posant la question "godardienne" :
"quelle est sa source, et quel est le destinataire ? "[146]. À ce moment, l'espace de l'image
s'ouvre, il devient processus, et contient à la fois sa genèse et sa fin. Entre les deux,
l'interactant, celui qui perçoit et agit l'image, se voit reconnaître une place. C'est dans cette
voie qu'une analyse fructueuse des "nouvelles images" peut être poursuivie. Rappelons que
c'est encore Godard qui posait la question décisive, selon lui, du cinéma : où commencer et où
finir un plan ? Question à laquelle l'image actée apporte, par construction, pour le pire et le
meilleur, une réponse : en déléguant le choix de poursuivre, où d'interrompre, à l'interactant.
Certes, on pourra toujours invoquer la scénarisation préalable de cette possibilité par le
concepteur de la scène. Il n'en demeure pas moins que cette poursuite est toujours
potentiellement, et non pas effectivement, envisageable. Vérifier cette effectivité est devenu la
condition spect-actorielle.

"Psychomécanique" de l'image actée

Lorsque le philosophe tente de définir, sur un plan sémiotique, le cinéma comme "système des
images et des signes prélinguistiques"[147], il le rapporte à "ses vertus automatiques ou
psychomécaniques"[148]. D'où l'idée suivante : le cinéma est un automate spirituel, qu'on doit
considérer comme psychomécanique. Et son analyse rencontre les automates, non pas
accidentellement mais essentiellement. Je renforce le marquage, car une fois de plus une
épistémé s'articule sur une évocation d'une série précise de films, des films à automates, tels
que Le testament du docteur Mabuse, ou Métropolis. L'automatisme y est "devenu art
spirituel"[149]. Mais que signifie psychomécanique ? Que le cinéma est lui-même un
automate technique qui déroule mécaniquement la pellicule et que l'enregistrement est une
opération automatique ? Sans doute, mais plus essentiellement, psychomécanique renvoie au
cinéma comme "automate spirituel", voire psychologique, qui penserait à notre place et la
référence à L'homme ordinaire du cinéma de Jean- Louis Schefer est explicite.

Comment, alors, qualifier le régime de l'image actée ? Elle brise assez violemment ce
mouvement de l'automatisme psychologique. Ou plutôt, elle l'inverse. C'est la scénographie
qui se charge d'automatisme et c'est l'image qui devient active, dépositaire d'un savoir sur son
monde. Alors que l'interactant entre, lui, en confrontation avec ce monde et doit trouver sa
place par une série d'essais, d'échecs et d'ajustements. On passe de l'automate psychologique à
l'automate réflexif (comme le sont les programmes informatiques), incluant une spécificité
humaine d'imprévisibilité, certes encore balbutiante mais néanmoins palpable. Quelle serait la
psychomécanique propre à l'image actée ? Elle s'établirait dans les liens entre action effective
sur l'image, perception de cette action effective et prolongement sensori-moteur naissant. Ces
prolongements ne sont pas effectifs de la même manière qu'avec des objets de première
réalité. Ils naissent dans un espace intermédiaire, mi-imaginaire, mi-réel (réel, au sens de la
constatation de l'effet des actes sur l'image). L'automaticité passe dans l'image actée, qui
contient ses propres principes génétiques qu'elle négocie avec le sujet qui l'agit, dans une
coopération et non plus simplement une interprétation.

Les limites de l'analogie avec le cinéma

Pour faire émerger la notion d'image-cristal, par exemple, Deleuze sollicite, simultanément,
plusieurs plans. Celui du circuit actuel/virtuel (ou présent/passé ou encore
perception/souvenir), plan de l'instrument théorique, et celui de la description de certains
films ou scènes, requis comme traductions/exemples des mouvements théoriques. Dans La
règle du jeu de Renoir, par exemple, le philosophe fait sourdre le concept du film lui-même et
l'utilise ensuite pour y entrer à nouveau : "... quelque chose sortira du cristal, un nouveau Réel
en ressortira par-delà l'actuel et le virtuel. Tout se passe comme si le circuit servait à essayer
des rôles jusqu'à ce qu'on ait trouvé le bon, avec lequel on fuit pour entrer dans une réalité
décantée"[150]. Thématique de l'expérimentation des rôles, qui nous porte à sortir du théâtre
et entrer "dans la vie". L'indiscernabilité actuel/virtuel est exploitée ici pour recoller fiction et
vraie vie. Dans la même logique surgit le thème de la fuite, de la "fêlure" du cristal par
laquelle on "s'épanouit librement", c'est-à-dire où l'on se libère du corset des représentations,
de la finitude de la fiction, du ligotage du récit. L'analyse du récit filmique sert alors de
vérification, de validation d'une thèse -et d'un désir- qui court, rappelons-le, tout au long du
livre : le récit doit rejoindre la vie dans une indistinction libératrice. Parallèlement, des genres
cinématographiques sont sollicités pour indiquer le passage à l'ère de l'image-temps. Ainsi,
par exemple, pour illustrer la nature du cinéma d'après guerre, les images-mouvements sont
rapportées aux automates d'horlogerie ou aux moteurs, d'où la référence à Walter Benjamin,
lequel, rappelle-t-on, établit une correspondance entre la reproduction automatique
(photographique et cinématographique) et l'automatisation des masses dans l'hitlérisme[151].
Le passage à la deuxième phase du cinéma, celle de "l'image-temps", s'exprime dans
l'émergence (et Deleuze cite aussi bien Alphaville de Godard que 2001 de Kubrick), d'une
"nouvelle race" d'automates, informatiques et cybernétiques, automates de régulation, de
traitement, diluant le pouvoir dans des réseaux que des décideurs régulent au lieu de le faire
converger vers un chef suprême[152]. Le recours aux états affectifs, sentimentaux (violence,
pessimisme, flux vital) s'ajoute aux autres couches pour étayer l'analyse.

L'exportation, hors du champ cinématographique, des travaux de Deleuze -ou d'autres


discours sur des formes stabilisées comme la littérature- est problématique. Deleuze traite du
cinéma, pas de l'enregistrement visuel du mouvement ou des films en général, catégorie dans
laquelle il faudrait ajouter les films documentaires, scientifiques, didactiques ainsi que la
télévision, la vidéo, etc. Le cinéma n'en est qu'une région, celle où l'on ne dissimule pas qu'on
raconte des histoires. (Cette affirmation suscite, bien entendu, quantité de questions.
Précisons, pour faire court, que c'est la forme séquentielle qui engendre, par construction, la
narrativité du cinéma). à la différence de Gilles Deleuze avec le cinéma, nous nous trouvons,
avec l'image actée dans une situation expérimentale où le vocabulaire et la syntaxe se
cherchent encore. Non pas qu'il n'existe des oeuvres sur lesquelles étayer une analyse des
concepts de l'image actée et de son rapport à la culture contemporaine, mais ces oeuvres sont
encore rares et embryonnaires. Certaines indiquent assez clairement des directions, mais ne
permettent pas de répondre clairement à la question : par quel genre d'histoires et de
scénographies peuvent-elles nous affecter ?

Indications pour une théorie de "l'image actée"

D'où les obstacles qui se dressent si l'on veut mobiliser les concepts deleuziens dans l'univers
des images actées. La difficulté consiste à devoir faire abstraction de la fonction narrative, de
ce que les images transmettent comme récit et dont Deleuze fait un abondamment usage dans
son analyse des opérations proprement cinématographiques. L'image-temps naît, on l'a vu,
dans de multiples descriptions, narrations de scènes de films, où les contenus sont métabolisés
et viennent étayer les concepts. Un exemple : "la narration cristalline" opposée à celle de
l'image-mouvement, nommée "organique"[153]. Dans la narration "cristalline", on le rappelle,
les situations optiques et sonores pures ont fait place à des situations sensori-motrices. Les
personnages sont essentiellement "voyants", leur mouvement "peut tendre à zéro", les
anomalies du mouvement deviennent essentielles. Et Deleuze étaye son analyse en renvoyant
à une opération proprement cinématographique. Le plan fixe est redécouvert, tout comme les
faux raccords (Dreyer)[154]. Autre exemple : référant à Resnais ou Ozu, il montre comment
le temps apparaît directement dans "les pointes de présent désactualisées"[155] en s'appuyant
sur la tendance à la disparition du montage au profit du plan-séquence. On pourrait facilement
poursuivre la liste des allers-retours entre "concepts" et films particuliers.

Avec l'image actée, cette possibilité de renvoi aux procédés narratifs (montage, coupe, plan
fixe) disparaît, car la continuité narrative elle-même s'est évanouie, tout au moins dans sa
forme séquentielle. Quels seraient les équivalents du montage, de la coupe ou du plan fixe ?
C'est dans la scénographie de l'expérience interactée qu'on doit les rechercher. La visibilité de
l'image se révèle dans le rapport entre les mouvements propres du programme (les
événements naturels, qui arrivent d'eux-mêmes) et les perturbations possibles fondées sur la
présence d'un spect-acteur, telles que la survenance d'une question qui lui est adressée,
l'apparition d'un acteur dans la scène, le changement d'échelle d'un élément ou l'accélération
de l'action. La collaboration entre le programme et le spect-acteur dans la construction du
récit peut révéler ce genre de distorsions, de telle manière que le temps soit suspendu, comme,
par exemple, dans la recherche d'un élément de la scène dont l'activation va permettre de
rompre l'immobilité présente. Les interfaces, notamment en programmant les mouvements
corporels, supportent ces messages muets qui conditionnent les enchaînements de l'aventure
exploratoire. La conception de l'espace d'interaction participe aussi de ces mouvements
temporels, par exemple lorsque s'ajustent des espaces libres de navigation avec des
contraintes prescrites par le programme.

Quelles seraient donc les outils appropriés à l'analyse des cadres perceptifs et affectifs propres
aux modèles numériques actés ? Où trouver l'équivalent du miroir, et des actes proprement
cinématographiques tels que le montage ou le cadrage ? On fera l'hypothèse que c'est la forme
même de ces images-objets qui concrétise le jeu de poursuite entre action, perception et
souvenir. Une forme pure de cristal, délivrée du souci narratif, ou indépendante de ce souci,
une forme image pure qui tendrait à rejoindre celle qui apparaît dans l'espace magique, les
fantasmes, le rêve, une forme dotée de pouvoirs, d'un pouvoir de principe, sans concrétisation
particulière, sans préoccupation d'utilité, de fonctionnalité, uniquement intéressée à son
opérativité génétique. Génétique, parce que l'image numérique actée est construite à partir
d'un principe d'opérativité. Plus que d'un "devenir" objet de l'image -formule qui pourrait
convenir aux images enregistrées, par exemple- il s'agit d'un être objet de l'image. Au-delà
d'une indistinction image-objet, l'image et objet coexistent, non pas alternativement, mais
simultanément (ce qui ne veut pas dire forcément pacifiquement).

Tous ces antagonismes et ces désajustements (au sens où la coexistence de l'image et de


l'objet est un aussi une désarticulation) font parfois émerger, des zones d'intemporalité,
résonnant, peut-être, avec la présentation directe du temps évoquée par Deleuze. Une
proposition artistique, qui me servira de conclusion, illustre assez bien cette hypothèse.

"Ménagerie" ou l'ubiquité conquise

L'irruption dans l'image, moteur profond de multiples réalisations et signification essentielle


du régime actuel des représentations, trouve sa pleine mesure avec la Réalité Virtuelle.
Ménagerie[156] de Susan Amkraut et Michael Girard en est l'une des démonstrations
artistiques parmi les plus convaincantes. On devrait la retenir comme un véritable morceau
d'anthologie, l'un des témoignages de la naissance de l'art virtuel (de la même manière que
l'entrée dans la gare de La Ciotat a pu symboliser l'origine de l'expérience
cinématographique). Cette oeuvre, pour la première fois peut-être, exprime et fait partager
l'expérience d'une ubiquité réelle. Voici comment les auteurs présentent ainsi leur oeuvre :

"[...] En avançant ou en courant à des vitesses différentes, les animaux à quatre pattes
réagissent à un champ gravitationnel simulé. Instinctivement, ils peuvent prévoir des prises
sur le terrain, donnant ainsi l'impression d'être en équilibre dynamique. Des algorithmes de
vol et de regroupement sont utilisés pour les modèles de flux des animaux en groupe. Tous les
animaux gardent cependant un degré d'autonomie. Ils modifient leur déplacement selon
l'environnement et évitent d'entrer en collision entre eux ou avec l'utilisateur de
l'environnement virtuel"[157]. Dès qu'on plonge son regard dans l'espace virtuel en collant
nos yeux sur les lunettes du système BOOM[158], une curieuse impression de flottement nous
saisit. L'espace est ténébreux, l'horizontalité est à peine marquée par la ligne d'horizon et le
spectacte commence. Des chiens l'un après l'autre, des oiseaux en groupe font leur entrée en
scène à travers des portes, venant de l'arrière-monde virtuel. Cavalcade volatile, étrange ballet
aérien qui mène ces animaux vers d'autres portes par lesquelles ils disparaissent. Bientôt
d'autres les remplacent. Mais l'interface de réalité virtuelle va nous projeter dans le spectacle.
Sitôt esquissé un déplacement dans l'espace, on s'aperçoit que les animaux ressentent cette
intrusion et s'écartent, s'enfuient ou accélèrent leur course. La dimension sonore accentue
l'effet de présence. Les émissions sonores émanent de sources spatialisées, synchronisées
selon les mouvements relatifs de l'observateur et des personnages de l'environnement virtuel.

Notre existence dans leur univers n'est plus fictive, organisée par des mouvements
psychologiques projectifs et imaginaires, comme au cinéma. Elle devient aussi pragmatique,
s'exprimant par la perception des effets concrets de nos propres déplacements. Mais surtout
s'inaugure ici un dédoublement de présence absolument inédit. On est simultanément et
effectivement présent dans la scène et hors de la scène, spect-acteur et non pas témoin,
transporté corporellement par le truchement des actions effectuées : zoom, panorama,
inclinaison, modifications d'angles d'observations avec à chaque fois la perception des
incidences de ces gestes. L'extrême simplicité de la scénographie et le minimalisme figuratif
favorisent puissamment cet effet de déplacement spatio-temporel. La perception d'une quasi-
vie installée dans la scène, à la fois indépendante et sensible aux perturbations que provoque
notre présence, densifie encore l'ubiquité. Cette pluri-présence spatiale se traduit par un
trouble temporel qu'on peut rapprocher de la présentation directe du temps, d'une situation où
l'image virtuelle s'ajustant aux mouvements sensori-moteurs (c'est là une différence notable
avec "l'image cristal" cinématographique, fondée, elle, sur leur dissociation) déstabilise
d'autant plus les repères temporels : le départ vers l'environnement simulé et le retour au corps
du spect-acteur ne rime plus avec avant et après. Le souvenir immédiat du présent coagule
avec le présent lui-même parce que ce présent à la forme d'une expérience corporelle. La
durée de l'expérience (activer une interface n'est jamais un acte instantané) disparaît dans la
perception continue de ses effets. Allers et retours permanents, le franchissement continuel de
la barrière représentative du spectacte annule la distance qui sépare la perception présente du
souvenir. Fondu dans l'enchaînement de l'un avec l'autre, le temps -dont on se rappelle que
Bergson affirmait que sa formule consistait à se dédoubler pour faire passer le présent et
conserver le passé- ne conserve qu'un passé provisoire, toujours en passe d'être remplacé par
d'autres investigations pratiques. L'expérience de l'image actée, à la différence de l'expérience
cinématographique, consomme naturellement la durée parce qu'elle entrelace la vision et
l'action. Elle rend plus improbable l'oubli de soi caractéristique de toute présence dans un
récit. Si bien que, lorsque cet oubli survient, et c'est surtout affaire de sensibilité et
d'intelligence scénographique -comme dans Ménagerie- il cristallise d'autant plus fortement le
trouble présentiel ; Deleuze dirait peut-être l'échec de la reconnaissance. Le plus petit circuit
temporel joignant départ et retour se relie alors avec le plus grand dédoublement entre
présence corporelle externe et présence virtuelle interne au spectacte. Ce dédoublement
devient alors une co-présence et non pas une présence alternative extérieur/intérieur. On se
situe aux deux pôles simultanément, et, à ce moment, la dissociation impossible nous
confronte au sentiment de suspension du temps.

[82] Je renvoie à des ouvrages déjà publiés tels que Les chemins du virtuel, Centre
Georges Pompidou, Flammarion, Paris, 1989 ou "Sous les vagues, la plage" in Paysages
virtuels, Dis-Voir, Paris, 1988.
[83] On différencie ainsi l'image actée à la fois des images de synthèse calculées et affichées
sur support stable (papier, film, etc.), et des images enregistrées, numérisées et traitées à des
fins scientifiques ou esthétiques.

[84] L'image-temps, Les Éditions de Minuit, 1985.

[85] Gilles Deleuze, op. cit., p. 366.

[86] Gilles Deleuze, loc. cit.

[87] Gilles Deleuze, L'image-mouvement, Les Éditions de Minuit, Paris, 1983, p. 278.

[88] Maurice Merleau-Ponty, particulièrement dans L'oeil et l'esprit, mais aussi dans Le
visible et l'invisible, invente un cadre d'interprétation de la vision à la fois comme interaction
des perceptions (et notamment avec le toucher) mais aussi comme présence à distance. Ainsi
nous conseille-t-il de "prendre à la lettre ce que nous enseigne la vision : que par elle nous
touchons le soleil, les étoiles" (Maurice Merleau-Ponty, L'oeil et l'esprit, Gallimard, Paris,
1964, pp. 70/71). Et aussi : "la peinture réveille...un délire qui est la vision elle-même,
puisque voir c'est avoir à distance" (op. cit., p. 26/27). On comprend pourquoi j'ai placé ces
citations en exergue de ce livre.

[89] Voir "Virtualités réelles : une phénoménologie appliquée", in Chimères, n°16, été 1992,
pp. 35/46.

[90] Ce lien fondamental entre technologie et perception, -et plus précisément cet effet retour
des technologie sur la perception- est à la source des travaux les plus stimulants de
Walter Benjamin puis de Marshall McLuhan, qui, les premiers, ont montré que les
technologies ne sont pas simplement des instruments de production mais qu'elles façonnent
nos sens.

[91] Gilles Deleuze, L'image-temps, op. cit., p. 365.

[92] Henri Bergson, Matière et mémoire, P.U.F., 1985.

[93] Henri Bergson, op. cit., p. 121.

[94] Henri Bergson, loc. cit.

[95] Henri Bergson, Op. cit., p. 122.

[96] Henri Bergson, op. cit., p. 112.

[97] Henri Bergson, op. cit., p. 117.

[98] Henri Bergson, op. cit., p. 114.

[99] Henri Bergson, op. cit., p. 115.

[100] Henri Bergson, op. cit., p. 115.


[101] Henri Bergson, op. cit., p. 116.

[102] L'expérience corporelle, actuelle et sédimentée, est à la source du schéma bergsonien,


non seulement de la perception mais aussi de l'imagination. Rappelons, par exemple, le rejet,
pour ce philosophe, aussi bien de l'idée d'une autonomie absolue de l'esprit, comme de celle
qui consiste à faire "des processus imaginatifs autant d'effets mécaniques de la perception
présente " ou symétriquement, de "l'hypothèse d'un cerveau où pourraient se déposer,
sommeiller et se réveiller des états intellectuels" ( Henri Bergson, op. cit. p. 117).

[103] Gilles Deleuze, L'image-temps, op. cit., p. 356.

[104] Gilles Deleuze, L'image-temps, op. cit., p. 93.

[105] Gilles Deleuze, L'image-temps, op. cit.,, p. 93.

[106] Gilles Deleuze, L'image-temps, op. cit., p. 94.

[107] Gilles Deleuze, L'actuel et le virtuel in Dialogues, Champs, Flammarion, Paris, 1996

[108] Gilles Deleuze, L'actuel et le virtuel, op. cit., p. 183/184.

[109] Gilles Deleuze, Logique du sens, Les Éditions de minuit, Paris, 1969.

[110] Gilles Deleuze, op. cit., p. 189.

[111] Voir pp. 179/186.

[112] Gilles Deleuze, op. cit., p. 187.

[113] Gilles Deleuze, loc. cit.

[114] Gilles Deleuze, op. cit., p. 188.

[115] Voir "Sous les vagues, la plage" in Paysages virtuels, op. cit.

[116]Voir les descriptions p. 116, par exemple.

[117] Pour une discussion sur les modalités de mixage des images analogiques et numériques
et sur les régimes temporels inédits qui en découlent, voir notre article "Images hybrides :
virtualité et indicialité", in Image & média, sous la direction de Bernard Darras, MEI n°7,
L'Harmattan, Paris, 1998.

[118] Gilles Deleuze, L'actuel et le virtuel, in Dialogues, Champs, Flammarion, Paris 1996,
p. 180.

[119] La note 5, p. 184 fait allusion aux notions d'objet et d'image virtuels de l'optique.
Remarquons cependant, que dans l'optique géométrique, les notions d'objet et d'image sont
définies en fonction de la perception visuelle humaine : là où les rayons convergent se trouve
l'objet et il est réel si cette convergence se produit devant le miroir, virtuel derrière. Les
concepts fondamentaux sont "réel" et "virtuel" (et non pas actuel et virtuel).
[120] Gilles Deleuze, L'actuel et le virtuel, in Dialogues, Champs, Flammarion, Paris 1996,
p. 184.

[121] Gilles Deleuze, L'image-mouvement, Éd. de Minuit, Paris, 1983, p. 92/93.

[122] Gilles Deleuze, loc. cit.

[123] Cette réalisation a été présentée au festival Vidéoformes à Clermont-Ferrand en 1994.

[124] L'oeil et l'esprit, op. cit., p. 19.

[125] Gilles Deleuze, Claire Parnet, Dialogues, Champs, Flammarion, Paris 1996, p. 12.

[126] Nietzsche, Schopenhauer éducateur, cité par Gilles Deleuze, loc. cit.

[127] Les exemples abondent d'oeuvres dont la formule consiste à installer des cadres
scénographiques où des créatures du calcul, mues par des programmes génétiques,
développent, avec la coopération des spect-actants, des formes de "vie artificielle". Certes ces
oeuvres explorent le plus souvent la situation morphogénétique elle-même sans être dupes de
leur production. Mais les commentaires qui les accompagnent ne souligne que rarement cette
différence. On rappelle des exemples déjà cités, tels que la littérature génétique de Jean-
Pierre Balpe ou dans le domaine de l'image calculée, les productions morphogénétiques de
Karl Sims simulant "l'évolution darwinienne" de strates générationnelles d'images
(installation présentée à la Revue virtuelle, Centre Georges Pompidou en mars 1993).

[128] J'emprunte cette double caractérisation (noématique et haptique) à Jean Clément, qui
l'applique aux hypertextes, dans une perspective assez similaire.

[129] Voir l'indispensable livre de Gérard Simon sur la question : Le regard, l'être et
l'apparence dans l'Optique de l'Antiquité, Le Seuil, Paris, 1988.

[130] Gilles Deleuze, op. cit., p. 106.

[131] Gilles Deleuze, op. cit., p. 107.

[132] Gilles Deleuze, op. cit., p. 75.

[133] Gilles Deleuze, loc. cit.

[134] Gilles Deleuze, op. cit., p. 171.

[135] Gilles Deleuze, loc. cit. (Borges, Fictions, <<Le jardin aux sentiers qui bifurquent>>,
Gallimard, p. 130)

[136] Gilles Deleuze, op. cit., p. 171, note 5.

[137] Dans la littérature "classique" aussi, ces perturbations de la linéarité sont fréquentes. Je
renvoie aux deux articles déjà cités au chapitre V de Christèle Couleau, "Balzac interactif ou
la virtualisation du sens" et de Jocelyn Maixent, "Diderot, Kundera et les romans virtuels : le
récit des mondes possibles" in La voix du regard - Aux frontières du virtuel, n° 10, E.N.S. de
Fontenay/Saint-Cloud, mars 1997.

[138] Gilles Deleuze, op. cit., p. 292.

[139] Gilles Deleuze, loc. cit.

[140] Gilles Deleuze, op. cit., p. 293.

[141] Voir la note 5 p. 294, sur Balazs.

[142] Gilles Deleuze, op. cit., p. 294.

[143] Gilles Deleuze, loc. cit.

[144] Nous avons décrit le projet DIVE au Chapitre I en mettant en perspective des horizons
inédits qu'il ouvre. Le risque existe, bien sur, d'un surcodage conventionnel des
comportements de nos avatars virtuels. Mais ce risque n'est pas congénital. Ce qui nous
intéresse ici, ce n'est pas l'appréciation des qualités esthétiques ou dramatiques des
scénographies d'images actées aujourd'hui proposées (jeux vidéo, récits interactifs, visite de
musée par CD-Rom, circulation dans les sites du Web). Ce que nous visons c'est l'élaboration
des concepts appropriés pour les apprécier.

[145] Gilles Deleuze, op. cit., p. 347.

[146] Gilles Deleuze, op. cit., p. 353.

[147] Gilles Deleuze, op. cit., p. 343. Dans cette partie finale du livre, il affirme que le cinéma
n'est pas une langue, ni universelle, ni primitive, ni même un langage, mais qu'il "met à jour
une matière intelligible, qui est comme un présupposé, une condition...à travers lequel le
langage construit ses propres <<objets>>", p. 342.

[148] Gilles Deleuze, op. cit., p. 343.

[149] Gilles Deleuze, op. cit., p. 344.

[150] Gilles Deleuze, op. cit., p. 114.

[151] Gilles Deleuze, op. cit., p. 345.

[152] Gilles Deleuze, op. cit., p. 346.

[153] Gilles Deleuze, op. cit., p. 163.

[154] Deleuze mentionne aussi, à propos de L'année dernière à Marienbad, le commentaire


de Sylvette Baudrot : le film "est entièrement composé de faux raccords..." note 2, p. 168

[155] Gilles Deleuze, op. cit., p. 170.


[156] OEuvre en Réalité Virtuelle présentée notamment à la Revue Virtuelle, Centre Georges
Pompidou, décembre 1992.

[157] Revue Virtuelle, Carnet n°4, Centre Georges Pompidou, 1992.

[158] Le dispositif BOOM (pour Binocular Omni-Orientation Monitor) a été mis au point par
la société américaine Fake Space Labs. Il se présente comme une paire de jumelles offrant
une vision stéréoscopique interactive dans des environnements générés par ordinateur grâce à
une optique grand angle et deux petits écrans cathodiques couplés dans les viseurs. Des
manettes et des boutons permettent d'orienter le point de vue, d'effectuer des zooms et des
panoramas.
Table des matières

Chapitre VII
Les paradoxes de la téléinformatique
Une société de l'immatérialité et de la vitesse : cette apparente constatation m'apparaît être une
hypothèse discutable. Ce chapitre montrera en quoi. La réflexion proposée se donne pour
objectif d'examiner les incidences culturelles des technologies intellectuelles actuelles basées
sur la programmatique (disponibilité et diffusion de programmes informatiques) et la
Téléprésence, que nous regroupons sous le vocable de téléinformatique. Dans cette voie, nous
nous confrontons à la notion même de culture, dont toute tentative de définition met en abîme
les concepts qu'elle mobilise. Nous nous en tiendrons donc au sens commun qui considère la
culture comme l'ensemble des connaissances, croyances, représentations et pratiques qui
structurent "l'être ensemble" d'une société. Nous espérons que la suite du propos contribuera à
poursuivre une définition de la culture dans ses rapports aux télé- technologies.

Si l'on considère que l'effet majeur d'une technologie intellectuelle inédite est d'instituer,
d'ouvrir une nouvelle manière d'accomplir certaines activités et de résoudre des problèmes,
alors on comprend que son extension est une conquête, une colonisation mentale, à la
différence près qu'il ne saurait y avoir de décolonisation. Il n'y a pas de possibilité de "dés-
alphabétisation" ni de "dé-numérisation". Affirmer l'universalisme des télé- technologies
procède précisément de cette observation. Précisons qu'il s'agit là d'un tout autre débat que
celui qui concerne le caractère occidental de la raison, ou l'unicité de la logique. Avec les
technologies intellectuelles, nous ne nous confrontons pas à une matière formelle ou
axiomatique, mais à des pratiques culturelles collectives, à l'incubation de paradigmes, à
l'intériorisation d'horizons qui façonnent notre être au monde. Si nous nous arrêtions à cette
affirmation, nous renforcerions la doctrine de l'efficacité culturelle unilatérale (c'est-à-dire se
déployant sans contradictions) des technologies intellectuelles en général et, aujourd'hui, de la
téléinformatique en particulier. Nous tenterons de montrer, a contrario, que ce postulat
d'efficacité unilatérale doit être discuté.

On trouve, par exemple, dans l'ethnométhodologie une approche qui tranche avec les logiques
techno-centristes. Elle insiste, en effet, sur la manière dont les acteurs plient le matériel
cognitif qui leur est offert à leurs jeux d'intérêts, à leurs mythes, à leur monde affectif et
construisent ainsi leur éco-système culturel et technique. Cette thèse a souvent été invoquée,
par exemple, à propos de la télévision pour rendre compte des multiples modalités à travers
lesquelles des récits identiques sont interprétés par des cultures locales. Une étude a montré,
par exemple, comment la réception du même feuilleton, Dallas, dans plusieurs pays du Tiers-
monde, se moule selon des filtres locaux. La nocivité ou la bienfaisance des différents
personnages s'apprécient différemment selon les structures familiales dominantes[159]. (Mais
la télévision est- elle, à proprement parler, une technologie intellectuelle) ? Pour
l'ethnométhodologie, la question du caractère structurant des technologies intellectuelles ne se
pose pas ; on dira, par méthode. Focalisant son attention sur la manière dont les acteurs
construisent socialement leur réalité, elle ne peut -ni ne veut- présupposer la manifestation
"d'universaux", et notamment technologiques. Mais c'est justement cette éviction, "par
méthode", de la question de l'universalisme technique qui résout le problème avant de l'avoir
posé.

Mais revenons à la téléinformatique. Principale technologie intellectuelle contemporaine, elle


transcenderait les cultures, non pas parce qu'elle serait porteuse d'une rationalité supérieure,
celle du calcul, mais parce qu'elle diffuse un milieu indissolublement matériel et intellectuel
dans lequel se construisent à la fois les questions et les réponses. On en déduit donc une
transformation directe des cadres perceptif et cognitif, transformation qui s'imprimerait
unilatéralement sur les visions du monde et dans les rapports sociaux. On s'accorde ainsi à
considérer que la diffusion du livre imprimé engendre une culture de l'organisation
hiérarchique, de la spatialisation planaire, du repérage, du résumé ; culture qui se fonde sur
des programmes de mémorisation tels que catalogage, méta-mémorisation par la réalisation
d'index, de fichiers documentaires. De même la diffusion de l'hypermédiation, de la
programmatique (organisation des activités sociales par programmes informatiques) inscrirait,
toujours selon la thèse énoncée, des conceptions du monde univoques sous les auspices de
discours convenus annonçant la catastrophe d'un temps mondial, l'assomption de la vitesse, la
victoire du "temps réel" ou, à l'inverse, la suprématie du savoir comme nouvel espace
anthropologique laissant entrevoir la fin de toute transcendance sous les horizons radieux d'un
cyber-communisme. (On aura reconnu les positions diamétralement opposées de Paul Virilio
et de Pierre Lévy).

Les propositions qui tendent à nous persuader que nous sommes entrés dans une culture de
l'immatériel, de la vitesse et de l'instantanéité abondent. Elles nous assurent à la fois de
l'efficacité majeure des technologies intellectuelles dans le paysage culturel et de sa
propension à s'imposer comme logique transcendant les diversités culturelles. Elles en
appellent à des sentiments partagés qui reposent sur un jeu de renvois entre des évidences
incontestables et leur surévaluation. Que la visée "dromologique" (logique de l'accélération,
pour reprendre le néologisme de Paul Virilio) orientent nombre d'activités relationnelles,
productives, logistiques, éducatives, etc., cela, bien sûr, ne saurait être négligé. Mais que ces
observations soient érigées en quasi-théorèmes qui régleraient le devenir de notre monde,
relève plus d'une certitude de principe -ou au mieux de hâtives généralisations- que
d'observations soucieuses de la pluralité des logiques en cours.

La plupart des pensées du changement provoqué par la téléinformatique ne font que rééditer,
en les prolongeant mécaniquement, les effets des bouleversements technologiques antérieurs.
On découvre que l'auteur individuel est un sous-produit de la culture du livre. Qu'à cela ne
tienne, on annonce que la culture du réseau provoquera sa disparition. L'idée selon laquelle
l'écriture et le livre organisent une temporalité de la différance (au sens où Jacques Derrida a
constitué ce concept) fait désormais partie de notre héritage culturel. On affirme donc que les
réseaux numériques y substituent le règne du temps réel. Ainsi procède la mécanique quasi
mystique du bouleversement culturel adossée au constat de l'accélération techno-scientifique.
Nous souhaitons inquiéter ces considérations qui semblent faire consensus et attirer l'attention
sur la difficulté de déduire des technologies intellectuelles contemporaines, un modèle
culturel univoque.

Nous creusons l'hypothèse qu'avec ces technologies, se diffuse non pas une culture, ou des
logiques culturelles, mais une méta-culture avec des incidences contradictoires enclenchant
des dynamiques moins lisibles qu'il n'y paraît de prime abord. Tisser le nouveau avec, et non
pas contre, l'ancien, faire resurgir au coeur des conjectures actuelles d'anciens principes qu'on
a pu croire obsolètes, telle est l'observation commune qui réunit les différents parcours
proposés. Bref, par-delà la problématique des résistances, suivre les contradictions
constitutives des nouveaux paysages culturels en émergence. Nous tenterons de faire
apparaître ces incidences contradictoires, manifestant une distorsion de la problématique des
effets culturels, et cela selon six interrogations principales :

- Les réseaux : une disparition de l'inscription territoriale ?

- Internet : l'évanouissement des intermédiaires dans l'espace public ?

- Le contexte de l'hypermédiation : une éclipse de la séquentialité ?

- La retraite de l'auteur ?

- La représentation de l'espace : réglage individuel des trajets et nouvelle formule panoptique,

- Le régime temporel des télé-technologies : accélération et ralentissement.

A - Réseaux et présence à distance : une disparition de l'inscription territoriale ?

Le transport de la présence à distance -l'un des principaux paradigmes qui justement orientent
les cultures contemporaines et pour lesquels l'informatique crée simultanément l'offre et les
moyens de la satisfaire- interroge le rapport au territoire. Toutes les cultures modernes sont, à
des titres divers, imprégnées de cette tendance technique universelle fondamentale, même si
les déclinaisons locales prolifèrent. L'informatique, on l'a vu, a radicalisé cette tentative,
comme jamais aucun autre projet ne l'avait fait auparavant. (Les premières expériences de
calcul à distance précèdent même l'invention, stricto sensu, de l'ordinateur).

Rappelons d'abord quelques attendus déjà discutés. On doit considérer le mouvement


d'augmentation tendancielle du coefficient charnel dans le transport de la présence comme
relevant de technologies intellectuelles, car il opère essentiellement sur et par des signes. Le
transfert de la présence opère bien entendu sur cette matière sémiotique : lettres acheminées,
voie télé-portée, image télé- transmise, corps modélisés et transférés dans la téléprésence
contemporaine. La génération actuelle de réseaux (perfectionnement d'Internet dans la voie de
la réalité virtuelle, dialogue par avatar corporéisé, etc.) concrétise cette orientation
fondamentale. Or l'appréciation de ce mouvement tend à considérer que le transfert des signes
de la présence équivaut -ou équivaudra dans de brefs délais, avec les réseaux larges bandes et
autres perfectionnements à venir- à la duplication de la présence, niant par là même
l'opération de transport qui deviendrait ainsi totalement transparente aux acteurs. D'où l'idée
que la localisation géographique, la territorialisation tendrait à devenir archaïque sous les feux
croisés de la mondialisation et de l'efficacité croissante des télé-technologies.

Lorsqu'on examine les premiers effets des réseaux comme Internet, on en déduit que la
croissance du transport de la présence se traduit par une déterritorialisation conçue comme
mise entre parenthèses du territoire, voire comme sa négation. Une attention plus mobile
permet de faire l'hypothèse que, loin de dissoudre l'importance de la localisation, les réseaux
ne font que l'accroître. Par exemple, les communautés qui voient leurs liens les plus affectés
par Internet sont des collectifs de proximité territoriale. Les communautés scientifiques,
thématiques par nature, étaient déjà reliées par d'autres canaux (documents postés, courrier,
colloques, etc.). En revanche, on peut faire l'hypothèse, vérifiée par quelques
observations[160] que des collectifs territoriaux trouvent dans Internet un moyen de renforcer
leurs liens, d'augmenter l'intensité et la fréquence de leurs rencontres de visu. À travers une
localisation dans l'espace informationnel, on renforce donc souvent, et paradoxalement,
l'importance de la localisation géographique.

Par ailleurs, signalons à nouveau, qu'à Paris, les entreprises du Web se regroupent aujourd'hui
dans le même quartier -le Sentier- et que les activités boursières, éminemment
consommatrices de réseaux, se localisent géographiquement, sur toute la planète, dans les
quartiers d'affaires des grandes villes. Faire de la présence à distance son métier exige et
engendre des communautés fondées sur la proximité géographique ; et ceci, plus que toute
autre activité, peut-être. Le développement des systèmes cartographiques informatisés, du
repérage spatial et de la communication mobile permettent de conforter ces premières
hypothèses.

Systèmes d'Information Géographique et spatialisation de l'information

Les Systèmes d'Information Géographique (S.I.G.) participent d'une recomposition du rapport


au territoire. De la carte de France, plein écran, aux villes de Caen, Auxerre ou Avallon,
l'exploration s'accomplit sans discontinuité, par concentration et agrandissement de la zone
choisie. Mais, outre la fonction de visualisation territoriale, l'exploration géographique ajoute
une présentation de données thématiques, souvent à caractère commercial (connaître les
ventes de journaux rues par rues, savoir où habitent les plus fidèles clients d'un supermarché,
par exemple). Ces systèmes couplés à des capteurs de trafic[161], ou à des dispositifs de
localisation de véhicules par satellites géostationnaires (comme le fameux G.P.S.) permettent
d'organiser et de visualiser l'évolution temporelle d'une situation : planifier l'intervention des
Canadairs lors d'incendies, traiter les demandes d'itinéraires, ceci en attendant la
généralisation des calculs individualisés d'itinéraires à bord des véhicules. Bref, les Systèmes
d'Information Géographique sont "géostratégiques". Ils croisent l'information cartographique
avec l'analyse de données stratégiques (économiques, militaires, écologiques, etc.). C'est
précisément l'intensification de l'alliage entre la topographie traditionnelle, matérialisée par la
carte et le traitement d'information abstraites non spatiales (économiques, sociologiques,
historiques) qui est remarquable. N'oublions pas que la carte traditionnelle concentre déjà en
une seule figure, une pluralité de couches sémantiques permettant de commuter les
cheminements du regard, d'acquérir une plus-value informationnelle, de faire travailler
l'inscription pour qu'elle exsude plus de connaissances que celles qui y ont été déposées[162].

Le succès remporté par ces systèmes de spatialisation informatique des informations


s'explique non seulement par la possibilité de mobiliser dans une seule surface de vastes
corpus cartographiques, mais surtout par leur capacité à automatiser cette extraction du
surplus informationnel en multipliant les strates d'images d'un territoire, en comparant par le
calcul les différents parcours ou en fournissant au consultant des outils paramétrables
d'interrogation.

Dès lors, on pourrait penser que le territoire a été colonisé par l'univers informationnel, qu'il
se manifesterait, donc, comme simple substrat, nourriture de base alimentant l'espace
informationnel qui tendrait à l'oblitérer. Plutôt que de suivre cette voie -celle du recouvrement
du territoire par la carte- il me semble plus intéressant de mettre l'accent sur la
reterritorialisation des informations, d'interpréter la croissance des S.I.G. comme l'indice
d'une force qui pousse vers la spatialisation de l'information (et tout particulièrement pour la
consultation d'informations qui n'ont pas d'attaches spécifiques avec le territoire, comme
certaines données commerciales apparaissant visuellement sous forme de zones colorées). De
cette inscription territoriale, on espère qu'elle ajoute quelque chose aux informations produites
: la saisie d'un détail moléculaire significatif, la manifestation de causes dissimulées que la
vision spatiale révélerait, la perception directe des grandes tendances qui orientent un paysage
de données.

Mais au fait, quels types d'informations ne se prêtent-elles pas à une vision spatiale ? Assez
peu échappent à cette injonction territoriale notamment dans les domaines commerciaux,
militaires, médiatiques, logistiques en général. Où a lieu un événement ? La réponse est
rarement indifférente. Mais ce qu'ajoute ce type de vision, c'est la puissance de traitement
informatique : par exemple, dans quelles rues habitent les lecteurs d'un journal, à bas salaires
et qui achètent leur quotidien tôt le matin ?

L'exploitation numérique de la carte ne relève plus seulement de la spatialisation de


l'information (un cercle étendu pour une grande ville, un trait large et bicolore pour une
autoroute). Radicalisant les calculs analogiques qu'autorisaient déjà les cartes imprimées
(repérer l'importance de la proximité du littoral dans la répartition mondiale des grandes
villes, par exemple), les S.I.G. composent directement des paysages informationnels à
plusieurs dimensions. Le regard n'accomplit plus, comme sur les cartes traditionnelles,
l'équivalent d'un cheminement réel, il déchiffre ces paysages et découvre un hybride
territoire/espace informationnel abstrait. L'activité scopique et la saisie de l'espace se trouvent
redéfinies par ces appareillages. Nous en proposerons quelques enjeux ultérieurement, car, ici,
c'est la question de la localisation qui nous retient.

La cartographie du territoire réel et la localisation géographique se combinent à l'abstraction


du traitement informationnel. Le territoire n'a donc pas disparu sous la poussée des réseaux
informationnels. La localisation ne perd pas sa puissance. Elle s'exprime aujourd'hui à travers
le traitement synthétique informatisé qui devient un organe de saisie et d'organisation
géostratégique, une forme de relevés topo-informationnels, un révélateur carto-sémantique.

Mobilité et localisation

Le développement de la communication mobile a pris le relais des simulateurs de


présence...ou d'absence que sont les répondeurs/enregistreurs téléphoniques, lesquels luttent
déjà contre la coupure temporelle du flux communicationnel[163]. À l'heure des
constellations satellitaires ceinturant la planète, pouvoir joindre quelqu'un en tout lieu et à tout
moment augmente paradoxalement, sous un autre angle, l'assignation territoriale. D'ailleurs,
les appels commencent, presque toujours, par une identification spatiale : "Je me trouve au
Luxembourg, et..." Les premières études effectuées sur les technologies mobiles mettent
l'accent sur le renforcement du contrôle spatial qu'elles induisent, notamment dans l'univers
professionnel. Ces recherches raffinent la notion de localisation, dépassant l'opposition
présent/absent. Ainsi dans son étude sur les technologies mobiles, Dominique Carré insiste
sur deux figures de la mobilité : l'ubiquité et l'omniprésence : "Alors que l'ubiquité met
l'accent sur la coïncidence entre déplacement et communication (l'utilisateur communique
pendant son déplacement, précision ajoutée), l'omniprésence au contraire occulte le
déplacement et permet au télé-communicant de continuer ses activités communicantes quand
il est dans d'autres lieux que son travail habituel"[164].

"Ubiquité" n'est pas synonyme de mobilité, mais désigne au sens strict, le partage simultané
de plusieurs lieux. C'est par assimilation de la continuité temporelle du lien communicationnel
à une pluri-localisation instantanée, qu'on peut parler d'ubiquité à propos de la communication
mobile. Ce qui en dit long sur l'insistance avec laquelle l'affiliation au réseau persiste à situer,
non plus dans un espace strictement territorial, mais dans un hybride territoire/réseau
communicationnel. Par ailleurs, même si "l'omniprésence" permet de s'affranchir de la
localisation unique, on peut considérer qu'elle accroche les lieux de labeur aux épaules du
travailleur nomade, multipliant ainsi les localisations possibles. Tout en pointant une
incontestable relativisation de la localisation spatiale, ces notions d'ubiquité et d'omniprésence
signalent, en creux, la persistance d'une préoccupation territoriale.

Le préfixe "télé" (à distance) indiquerait une liaison paradoxale -téléphonique, télé-textuelle,


télévisuelle- où l'importance de la situation spatiale est majorée parce qu'elle est niée, comme
ces victoires qui, une fois remportées, permettent aux vainqueurs de s'approprier les valeurs
des vaincus. L'affiliation au réseau vaut localisation dans un espace à la fois non
géographique et territorial. Les systèmes de positionnement satellitaire (tel G.P.S.) le
montrent bien, qui s'émancipent de la géographie physique tout en assurant la localisation.
Cependant, avec l'affichage de la localisation, la carte géographique reprend ses droits,
combinant ainsi espace physique et espace informationnel. En ce sens, le réseau surplombe le
territoire sans l'assujettir.

Entre proximité et éloignement

Le réseau ne dissoudrait donc pas la notion de lieu, mais il la retravaillerait en mêlant uni-
présence physique et pluri-présence médiatisée. D'ailleurs une description fine des rapports
entre l'ici et l'ailleurs ne devrait que rarement opposer présence et absence. Elle mériterait
d'être attentive aux multiples strates qui jalonnent les liens entre participants à un même
réseau : échange épistolaire entre chercheurs partageant les mêmes locaux, entre Internautes
se rencontrant épisodiquement, préparation d'une réunion par télé-relations, etc.
Jacques Perriault, dans son étude sur la formation à distance, le montre bien. À propos des
dispositifs de formation actuels qui intègrent les nouvelles techniques de communication, il
écrit : "Contrairement à ce qui a été fait dans le passé, ces systèmes n'opposent plus présence
et distance, mais intègrent les deux. Tout se passe comme si un processus d'hybridation était
en train de se développer"[165]. Le spécialiste de l'enseignement à distance souligne, à
plusieurs reprises et notamment à propos des réseaux d'échanges de savoir, l'importance des
formules mixtes associant communications à distance et rencontres collectives[166]. Les
étudiants, en présence d'un tuteur, utilisent, en groupe, les techniques de communications
telles que messageries, fax, téléphone pour se former à leur usage sur des études de cas. La
communication à distance est ainsi préparée et ponctuée par des exercices collectifs en
proximité. Il s'agit là d'un des nombreux exemples où présence et télé-relation se
combinent[167]. De même, l'expérimentation des mediaspaces (espace de travail commun
entre des collectifs à distance, mobilisant éditeurs partagés, visiophonie, équipements vidéos
des locaux, notamment) concerne tout autant des équipes séparées par l'Atlantique[168] que
des communautés de travail occupant les bureaux d'un même laboratoire, par exemple. Dans
un cas comme dans l'autre il s'agit bien d'effacer les séparations pour créer un espace collectif
unique muni, bien sûr, de fonctions séparatrices réglables (protection, disponibilité, etc.). La
tentative de rapprocher le lointain s'étend à la réorganisation du proche dans le même
mouvement qui a rendu évident l'usage local de la communication à distance (courrier interne,
réseau téléphonique et messagerie locaux, etc.).

La notion de glocalisation a justement été forgée pour désigner l'usage local d'un média
"global". Elle rend compte d'un des multiples agencements possibles entre le partage de l'ici-
et- maintenant et la pure télé-relation. Plus radicalement encore et aux antipodes du "village
global", le concept de "ville numérique" tend à désigner un moteur de recherche sur Internet
repérant les prestataires de services situés à proximité géographique du demandeur (syndicats
d'initiative, mairies, commerces, presse locale, météo locale, trafic local, etc.)[169].

La terminologie utilisée sur Internet (site, salle, salon...) n'a sans doute pas qu'une valeur
métaphorique. Elle indique que le marquage de la nature de l'espace désigné (public, privé,
intime) demeure une condition sociale de repérage des acteurs engagés dans l'échange à
distance. Au terme de ces mixages, ce sont les concepts de proximité, de localisation, de
territoire qui sont redéfinis, et non annihilés, par les nouvelles mises en relation du proche et
du lointain. La présence cesserait totalement d'être territoriale si le transfert à distance
devenait duplication de la présence et si la proximité pouvait, de ce fait, se jouer totalement
des confrontations corporelles. On en est bien loin.

B - Internet : l'évanouissement des intermédiaires dans l'espace public ?

L'une des sources où Internet puise son dynamisme est, nous l'avons déjà mentionné dans le
chapitre consacré à l'auto-médiation sur Internet, le désir d'une communication transparente
où les acteurs maîtrisent à la fois l'information et le média qui la fait circuler. Un exemple
parmi cent autres : présentant le site Parthénia, dans une émission de télévision[170], Mgr
Gaillot explique ce qu'il apprécie dans Internet:"[...] c'est le réseau horizontal qui se tisse, sans
passer par les pouvoirs, sans passer par les hiérarchies". Faire de chaque acteur aussi bien un
récepteur qu'un émetteur : en ce sens le réseau des réseaux est bien une réaction au principe
des massmedia. Il témoigne, dès sa prise main par les chercheurs américains dans les années
soixante-dix, d'une volonté de se rendre "maître et possesseur" d'un appareil
communicationnel, contre l'état et ses tendances naturelles à l'inquisition, aussi bien qu'en
opposition aux entreprises et institutions qui souhaitent privatiser la communication sociale.
Tisser le réseau par coopération, progressivement à partir des acteurs, en faire une
construction collective, organiser sa croissance, toutes ces dispositions, rappelons-le affirment
un modèle institutionnel ascendant, immanent ayant pour finalité son auto-développement.
"La connectivité est sa propre récompense" affirme A. Rutkowski, directeur exécutif de
l'Internet Society en 1995[171]. Connecter entre eux tous les ordinateurs du monde apparaît
comme un projet social où se dessine la figure d'une transparence informationnelle, d'une
communication immanente supprimant les intermédiaires spécialisés (éditeurs, groupe de
presse, institution de l'audiovisuel).

Cependant, dans la sphère de la communication interindividuelle et collective, on constate


déjà l'émergence de procédures qui expriment les normes relationnelles élaborées par les
collectifs sur le réseau. Citons l'établissement de protocoles spécifiques de participation à des
groupes de discussion (tel que, pour les novices, l'obligation de consulter les Frequently
Asked Questions), le rôle dévolu aux animateurs de ces groupes, ou encore les codes de
comportements (comme la fameuse netétiquette, code de bonne conduite sur le réseau), etc.
Rappelons les observations déjà mentionnées dans le chapitre III : ces contraintes sociales
témoignent du surgissement de fonctions médiatrices suscitées par l'usage du réseau alors
même qu'il s'agissait d'en affaiblir les pressions.

Par ailleurs, et plus fondamentalement, l'objectif de suppression des intermédiaires se


transforme, de par son propre mouvement, en création d'une nouvelle couche de mécanismes
médiateurs automatisant la médiation. Le caractère auto-gouverné (cybernétique[172], au sens
littéral "d'auto-commandement", ce qui n'est plus vraiment son sens usuel) de cette médiation,
centré sur l'Internaute, résonne avec la valorisation de l'individualisme dans la sphère
communicationnelle. En témoigne la vogue des logiciels de personnalisation de l'information.
(Nommés aussi Webcasting, ces logiciels recueillent les thématiques sélectionnées par
l'abonné, recherchent les informations et les assemblent en de véritables journaux
parfaitement individualisés).

La croissance explosive du réseau (des milliers de banques de données, de revues, de


journaux accessibles) a progressivement rendu impossible le projet initial d'une information
transparente et d'une communication im-médiate. L'extension des fonds documentaires, le
nombre d'ordinateurs connectés et les facultés de navigations hypermédiatiques ont rendu
encore plus nettement incontournables les questions de l'aisance de la recherche, de
l'évaluation, et de la pertinence de l'information. L'accès direct s'est estompé au profit
d'agencements plus complexes. Des instruments extérieurs -transcendants ?- s'interposent
désormais entre l'Internaute et l'immense marée informationnelle en crue permanente, afin
d'assurer la recherche et l'évaluation des informations acquises. Les robots-chercheurs
symbolisent nettement, on l'a vu, l'apparition d'une médiation automatisée, tirant profit des
caractéristiques de l'informatique pour, en position de survol, sonder les milliers de sites, de
banques de données et en extraire les denrées recherchées. Cette auto-médiation a induit, dans
un mouvement itératif naturel, la mise en service de méta-robots qui sélectionnent les robots
les plus adaptés à prendre en charge une requête. L'auto-médiation -déjà contenue en germe
dans les pratiques de consultations de corpus imprimés (index, fichiers documentaires, etc.)-
représente, certes, un rapport social qui se distingue nettement des formes professionnelles
classiques de la médiation (éditeur, presse,...). Mais elle dénature le projet d'une relation
directe, limpide avec des corpus d'informations. On peut d'ailleurs penser que la disponibilité
de ces instruments va accroître l'importance des idées directrices qui forment l'horizon de sens
de toute recherche d'informations, et ceci à l'encontre de ce que suggère la métaphore du surf
souverain et opportuniste sur l'océan informationnel.

Qu'il s'agisse donc de la sphère interpersonnelle (bilatérale et de groupe) ou bien de la


communication automatisée, la fonction médiatrice se renouvelle plus qu'elle ne disparaît,
tout en s'inscrivant dans le cadre général d'une visée à l'élargissement des espaces d'autonomie
individuels et collectifs. Si le projet initial consistait à promouvoir une relation directe de tous
avec tous, ce qui se profile institue à nouveau, autour de l'auto-médiation, une fonction
séparatrice singulière et prometteuse.

C - L'univers de l'hypermédiation : une éclipse de la séquentialité ?

On définira, ici, la séquentialité (ou la linéarité) comme une structure d'appropriation fondée
sur la succession d'expression orales ou écrites, de figures, de sons, d'images contraintes par
un support. Ces expressions relèvent d'une spatialisation (comme dans l'écriture alphabétique
basée sur la ligne ou l'imprimé organisé en pages numérotées) ou d'une linéarité temporelle
comme dans le flux cinématographique, radiophonique ou télévisuel... et dans le langage, ce
qui n'est pas le moindre des enjeux. La séquentialité s'oppose à la présentation parallèle d'un
ensemble d'informations telle que la page d'un quotidien -contenant simultanément plusieurs
articles de poids éditorial équivalent ou inégal- en donne un premier exemple et les
conversations d'une réception mondaine, un autre. Séquentialité rime avec ordre univoque,
continuité, linéarité, accès par exploration systématique du support (comme sur une bande
vidéo) et s'oppose à parallélisme, simultanéité, accès direct (comme sur un disque
numérique).
Cette structure séquentielle serait, à première vue, bousculée par l'hypermédiation (parcours
chaîné de d'informations sur le Web par hyperliens, consultation interactive de CD-Rom, etc.).
Nous souhaitons montrer que la structure linéaire n'est peut-être pas si obsolète qu'on le dit
souvent et que les modalités de fréquentation des corpus numérisés soulignent assez
distinctement les qualités qu'elle véhicule, surtout lorsque ces qualités se combinent à la
puissance des outils de recherche issus de l'informatique documentaire. On en déduira que les
formes contemporaines d'organisation et de présentation des connaissances, décuplant la
puissance des dispositifs de circulation dans les corpus, se doivent d'articuler -et non
d'éliminer- les mérites propres de la séquentialité avec ceux de l'hypermédiation.

Nous envisagerons cette question sur trois axes :

- la circulation hypermédiatique,

- l'inscription de la pensée dans ses rapports avec l'ingénierie numérique,

- la réception des récits interactifs.

Séquentialité, circulation hypermédiatique et décontextualisation

Les gains cognitifs liés à l'exposition hypertextuelle de connaissances sont fréquemment


rapportés à l'économie de contextualisation qu'elle permettrait. L'écriture hypertextuelle
effacerait l'obligation de contextualiser l'information présentée parce que ce contexte serait
toujours déjà présent dans les liens mobilisables. La mise en ligne par les réseaux numériques
de la connaissance produite (banques et bases de données, édition électronique de revues
scientifiques, de journaux, sites d'information de toute nature, etc.) réaliserait l'idéal
encyclopédique d'une totalisation de la connaissance passée, augmentée d'une actualisation
quasi instantanée. Nombre d'analyses contemporaines[173] insistent sur la décontextualisation
ainsi obtenue par omniprésence du contexte qui ne requerrait plus une délimitation ferme
entre un énoncé et les références qui lui sont connexes. La continuité référentielle découlerait
des liens hypermédiatiques reliant chaque item à tous les autres sur la "toile".

Mais quel intérêt présente une activation continue des multiples liens qui rapprochent des
thématiques dont les rapports, au bout de trois ou quatre générations de sélection de liens,
deviennent opaques ? Suivre tous les liens est, bien sûr, impossible. Finalement, le lecteur
pondérera les chemins suivis, retrouvant la nécessaire sélection, plus ou moins volontaire, qui
est à la base de toute construction cognitive. L'idée d'une décontextualisation totalement
explicitée et que l'on pourrait s'approprier complètement rabat la question du contexte sur la
pure matérialité de son inscription. Elle ignore le volet subjectif, intentionnel et non
intentionnel, de toute circulation dans un ensemble de connaissance.

Bernard Stiegler aborde, lui aussi, la question de la contextualisation, mais à partir des médias
fondés sur le flux instantané : "Les objets temporels industriels (les produits des industries de
programmes : radio et télévision principalement) dans la simultanéité et la mondialité de leur
réception, tendent à suspendre toute contextualité. L'industrialisation de la mémoire accomplit
la décontextualisation généralisée"[174]. Ses analyses procèdent par comparaison avec des
problèmes similaires engendrés par la pratique de l'écriture. On sait que la décontextualisation
provoquée par l'écriture entraîne une recontextualisation des interprétations par la lecture.
Cette structure en deux temps, différant le moment de la réception, est bouleversée par
l'instantanéité des télécommunications modernes. Mais doit-on dénier, pour autant, toute
composante herméneutique à la réception des flux médiatiques sous prétexte que le
destinataire ne peut plier le déroulement temporel du flux à son interprétation ? Négligeant le
fait que toute réception, y compris celle d'une émission de télévision opère aussi par tri,
pondération, rétention sélective, Bernard Stiegler a tendance à projeter la délocalisation de
l'émission sur le destinataire ("...une rythmique quasi-intégralement délocalisée, provenant,
par les réseaux de télécommunications, d'un ailleurs anonyme, satellitaire, sans ici ni
maintenant..."[175]) comme si la réception n'était pas aussi une activité dans laquelle est
impliquée le tout de l'histoire d'un sujet et des communautés qui le constituent. Et surtout, le
contexte actuel de la crise de confiance, dont on s'est déjà expliqué, majore fortement cette
activité, oeuvrant à l'encontre d'un couplage mécanique du récepteur avec l'industrie
télévisuelle normalisée. À la figure du grand tout, totalement et librement offert des prosélytes
du réseau, Bernard Stiegler oppose, dans le champ de la télévision, celle du grand "autre",
tyrannique et prescripteur. Bien sûr, il laisse entendre, à raison, que les "idiotextes" en cours
d'émergence (textes, hypertextes, hypermédias conçus et décryptés selon des situations
singulières, locales) possèdent une dynamique relocalisante, recontextualisante, hétérogène à
celle des produits de la culture de flux. On suivra ici Bernard Stiegler, en considérant que la
réception de la connaissance hypermédiatique -qui consiste à métaboliser le traitement de
l'information pour en s'en fabriquer de nouvelles connaissances- relève d'un nouveau régime
de construction de la croyance, marqué par l'expérimentabilité, et dont nous avons tenté
précédemment de situer les enjeux. La numérisation hypermédiatique peut, formellement,
contester la linéarité d'un récit, d'une explication, d'une circulation dans un ensemble
d'informations. Mais la circulation hypermédiatique par liens associatifs va probablement
renforcer le caractère stratégique de l'énonciation séquentielle, parce que le choix d'une
succession, l'élection d'un chemin unique enchaînant des idées et constituant une
démonstration, va revêtir un caractère "luxueux", en rapport avec l'affirmation d'un regard,
d'un point de vue, qui donne sens à la multitude des propositions qu'offre un hypermédia,
selon toutes les combinaisons possibles[176].

Ces affirmations reposent sur l'un des enseignements à forte teneur heuristique issus de la
problématique des technologies intellectuelles. Leur capacité à augmenter des connaissances
ne procède jamais par une libération des contraintes qui président à leur inscription. Bien au
contraire, c'est dans un travail contraint indexé sur ces inscriptions que gît leur vertu
d'accroissement cognitif. C'est parce que Mendeleïev classe spatialement les éléments
chimiques selon deux critères, et deux seulement, qu'il peut prévoir l'existence d'éléments non
encore découverts. La force des contraintes, la concision de l'expression est dans un rapport
direct avec la puissance d'élucidation obtenue. La séquentialité, sous cet angle, est une figure
imposée, expressive en tant que telle. Ce texte, par exemple, pourrait fort bien être présenté
sous forme d'ensembles d'énoncés reliés par des liens hypertextuels. L'effort du rédacteur s'en
serait trouvé notablement allégé. Il n'est pas sûr, en revanche, que le lecteur y gagnerait en
compréhension des idées développées et de leur articulation. Les écrire les unes après les
autres -et l'ordre adopté n'est jamais le seul possible- transcrit un choix d'enchaînement ainsi
que des pondérations qui expriment le sens, pour l'auteur comme pour le destinataire, des
propos présentés. Pour le lecteur, s'affranchir de ces contraintes de séquentialité au profit
d'une circulation/vagabondage dans des ensembles corrélés d'informations n'est pas une
garantie d'augmentation cognitive, si tant est que l'intérêt d'une recherche dépend de la
consistance des orientations qui y préside.

La tentation permanente que représente la possibilité d'activer des liens hypertextuels,


obligent d'ailleurs les concepteurs de sites à imaginer des procédés destinés à capter le
consultant afin qu'il ne quitte pas le site en cliquant sur la première zone colorée venue. La
parade consiste, par exemple, à supprimer la possibilité de cliquer immédiatement sur un lien
et à hiérarchiser les liens en ne donnant que les adresses électroniques non cliquables de
certains sites jugés d'intérêts secondaires. Le zapping hypermédiatique est une affection que
les producteurs de sites doivent combattre comme leurs homologues à la télévision.

Il est vrai qu'une lecture est aussi une recherche et que les orientations qui guident cette
recherche peuvent, bien sûr, être modifiées par les cheminements empruntés. Mais, pour
conserver leur productivité intellectuelle, ces orientations doivent, sinon préexister
formellement, du moins procéder d'une interrogation préalable et se construire dans
l'exploration. Sinon une lecture devient un vagabondage sans principe. Chaque passage dans
un site se réduit à une commutation vers un autre et "surfer" dans des sites et des banques de
données devient assez rapidement compulsif ou ennuyeux.

Une cartographie intensive des chemins de navigation

Afin d'offrir des outils intellectuels synthétisant les explorations de grands corpus de
connaissances, de nombreuses recherches portent sur la visualisation tridimensionnelle de
"paysages de données". À Montréal, des chercheurs ont mis au point une interface qui, par
"copier/coller" permet d'associer à une requête, une portion du graphe de circulation dans des
sites Web, afin de la renouveler automatiquement. Au Medialab du M.I.T. à Boston, c'est une
interface de visualisation du Web en réalité virtuelle qui est étudiée. WW Movie Map présente
des informations organisées sous forme de "paysages de données" : Galaxy of News pour la
presse, Financial View Point pour la finance, Geo Space pour la géographie. Toujours dans le
Massachusetts, mais à l'Institut de la visualisation et de la recherche sur la perception de
l'Université Lowell, R. Pickett développe des programmes d'appréhension sensorielle de
grands gisements de données, qu'il invite à parcourir en utilisant à la fois l'ouïe, la vue et le
toucher (grâce à des interfaces à retour d'efforts qui permettent de ressentir physiquement des
objets virtuels)[177]. L'idée centrale est d'appliquer à de grandes quantités d'informations
brutes des procédures qui les organisent pour elles-mêmes et de constituer ainsi
automatiquement des systèmes d'interprétation qui préparent la reconnaissance et l'exploration
humaine. Exploitant des capacités humaines, telles que celles qui nous permettent de
reconnaître facilement une personne, ces chercheurs préconisent de transformer, par exemple,
des ensembles de données en visages afin qu'on puisse facilement les identifier et les
regrouper en familles. D'autres recherches, relatives au séquençage du génome, visent à
traduire en musiques spécifiques certaines séquences d'images d'acides aminés. Le système
CAVE, développé à l'Université de l'Illinois, affiche, dans un environnement de réalité
virtuelle, des images de données avec lesquelles on peut interagir.

D'autres outils, de facture plus simple, expriment aussi avantageusement la richesse de ces
médias. Se fait jour, en particulier, la nécessité de cataloguer les liens en précisant leur degré
d'intérêt et surtout la nature de l'association dont ils sont porteurs. Un site -ou une
information- peut, en effet être associé à un autre selon une multitude de relations (caractère
exemplaire ou au contraire généralisation, connexité faible ou forte, etc.). Celui qui consulte
ces informations gagnerait à se voir préciser le type d'associativité mobilisé. Certains langages
hypertextuels le permettent, notamment par l'ouverture de fenêtres associées au lien. Il serait
très productif aussi -en conception de sites comme en navigation- de pouvoir graduer
l'intensité du lien reliant une connaissance à une autre, une image à une autre, etc. L'objectif
consiste à faire sentir, dans le graphe ou la carte d'un ensemble hypermédia, les chemins
structurants, les colonnes vertébrales essentielles. On devrait pouvoir tester différents
systèmes de catalogage des liens hypertextuels. Des cartographies d'ensembles d'informations
feraient alors apparaître, non pas des items massivement interconnectés, mais des autoroutes,
des nationales et des chemins vicinaux reflétant la vision subjective des concepteurs. Ces
possibilités commencent à se concrétiser sur le Web[178].

Par de multiples canaux, la séquentialité qu'on a cru pouvoir chasser par la porte fait retour
par la fenêtre. L'inscription des chemins suivis de site en site par la mobilisation de liens
hypermédiatiques, en est un témoignage. La "traçabilité", ainsi que l'on nomme cette
mémorisation, reconduit une forme de séquentialité sécrétée au coeur même de
l'hypermédiation, puisqu'elle manifeste l'intérêt reconnu à conserver une trace de passage dans
le foisonnement des sites parcourus. Bien entendu, à la différence d'autres supports (pages
numérotées de livre ou bande vidéo, par exemple), cette linéarité est éminemment subjective,
puisqu'elle inscrit la succession des choix propres à un parcours et disparaîtra ensuite, sauf
action volontaire visant à la conserver. Ce marquage automatique ne sera vraiment exploité
que si une orientation directrice préalable fonde le cheminement. Sinon, la trace inscrite
n'aura d'autre fonction que de témoigner du papillonnage effectué. La vogue récente des
"anneaux" -groupements thématiques par affinité de sites dans lesquels on passe
nécessairement d'un site à son successeur dans la chaîne bouclée[179]- est sans doute aussi à
verser au dossier de la résurgence de la linéarité.

De la même manière, l'intérêt d'une ligne directrice se fait particulièrement jour dans le cadre
des consultations "savantes" sur Internet. S'y exprime le désir de pouvoir bénéficier d'une
visite commentée par un spécialiste, des sites qu'il a sélectionnés, décrits, hiérarchisés et dont
il a précisé les relations avec la thématique centrale. Prolongement de la bibliographie
commentée, ce type de site devient, pour certains domaines, d'une urgente nécessité. On
découvre, à nouveau, dans le contexte de l'hypermédiation, la pertinence d'un méta-parcours
séquentiel. Apparaissent, ainsi, de nouveaux alliages entre linéarité et hypermédiation qui
renforceront probablement les deux qualités, sans substituer la deuxième à la première.
Fondamentalement il s'agit de résumer, de compacter, d'exprimer les structures organisatrices
d'un champ de connaissances dans un schéma qu'on peut saisir par le regard. En effet, il ne
faudrait pas penser cette question de la linéarité de manière régressive, en la rabattant, par
nostalgie, sur la culture de l'imprimé, transformant celle-ci en horizon indépassable. Bien
qu'épousant en apparence l'écoulement fléché de la temporalité, la linéarité n'est en rien
"naturelle", comme en témoigne l'intense parallélisme de nos activités mentales, y compris
intellectuelles. Et c'est précisément cette "artificialité" qui doit être exploitée comme
contrainte heuristique. La question de la séquentialité est intimement liée à celle de la
causalité : "après" sous-entend souvent "par conséquence". Le caractère fondamental de la
linéarité tient au rapport entre la structure temporellement fléchée de notre perception et la
malléabilité temporelle de nos mises en scène mentales individuelles et collectives. Sous cet
angle, la linéarité est une force de rappel, trop souvent ignorée dans l'enthousiasme
hypermédiatique actuel. Comme contrainte, elle assure une tension productive entre ces deux
structures. Si l'on prétend l'ignorer, cette tension disparaît et sa productivité avec elle.

La carte, par exemple, est, apparemment, l'autre du guidage linéaire. Elle se consulte par
saisie globale, parallèle, simultanée. Mais exploiter une carte, c'est aussi se construire des
chemins, pratiquer des enchaînements de cause à effet, y compris si cette exploration s'opère à
travers une saisie multi-sensorielle et s'ouvre à une multiplicité de séquences linéaires. Les
outils cognitifs qui offrent des traductions cartographiques intensives par traitements
automatiques répondent, à leur manière, aux exigences de causalités locales et générales tout
en respectant la pluralité des inférences possibles.
Dans le domaine de la recherche documentaire sur de vastes corpus, Alain Lelu assure qu'on
ne saurait se contenter d'interfaces de navigation définie une fois pour toutes, comme sur les
CD- Roms, et qu'il sera donc indispensable "que l'utilisateur final puisse maîtriser l'appel aux
diverses ressources, qu'il pourra paramétrer à sa guise ; il en ira ainsi de l'appel à des outils
d'indexation automatique ou assistés, de la possibilité de sélectionner certains sous-ensembles
de documents et de termes en fonction de divers critères..."[180]. Il insiste tout
particulièrement sur le fait que la navigation à travers des corpus textuels étendus exige de
cartographier ceux-ci en offrant à la fois une vue d'ensemble ainsi que des cartes locales.

Les outils d'analyse automatiques mis au point dans ce cadre (indexation et génération de
mots-clés, cartographie) ont ceci d'original qu'ils appellent une intervention ultérieure de
l'utilisateur pour éliminer ou filtrer certains résultats ou encore ajouter facilement des
documents sans remettre en cause l'analyse déjà effectuée. Le mode de navigation est ainsi
réglé par l'utilisateur qui peut combiner requêtes booléennes classiques, calculs statistiques de
proximité, calcul de cartographie sémantique selon les requêtes composées, etc. ; bref, un
véritable arsenal d'outils d'ergonomie cognitive, destinés à compacter le corpus documentaire
selon plusieurs modèles possibles.

Une inscription directe, non-langagière, de la pensée ?

L'utilisation des outils intellectuels contemporains (modélisation numérique, cartographie


dynamique, expertise assistée par ordinateur, etc.) nourrit l'espoir d'une représentation des
situations et de la résolution de problèmes qui nous émanciperaient des contraintes propres à
la séquentialité. Pierre Lévy, par exemple, théorise des propositions qui exploiteraient ces
modalités cognitives. Ainsi souhaite-t-il éviter la littéralisation et la rationalisation des
problèmes en leur substituant un décalque charnel de l'univers concerné qui le modéliserait
automatiquement, sans devoir l'interpréter[181]. Par la suite, il écrira : "Le problème de
l'intelligence collective est de découvrir ou d'inventer un au-delà de l'écriture, un au-delà du
langage tel que le traitement de l'information soit partout distribué et partout
coordonné..."[182].

D'où le projet d'une transmission infra-langagière transcendant les cultures nées de l'écriture
et promettant un paradis communicationnel sans codes ni règles. Marshall McLuhan traçait
déjà, à partir des caractéristiques de l'électricité, des perspectives similaires : "La technologie
électrique n'a pas besoin de mots, pas plus que l'ordinateur numérique n'a besoin de nombres.
L'électricité ouvre la voie à une extension du processus même de la conscience, à une échelle
mondiale, et sans verbalisation aucune..."[183].

Pourtant l'organisation et la présentation de connaissances dans des environnements


multimédias nécessitent bel et bien l'appropriation d'ensemble de savoirs syntaxiques dont on
peut citer quelques linéaments : nouvelle grammaire des hyperdocuments (comme les
langages de programmation H.T.M.L. ou V.R.M.L. sur Internet), engrammation de
spatialisations à plusieurs dimensions, et surtout pratique des programmes quasi réflexifs. Le
projet d'un saut par-dessus la phase langagière, scripturale de la pensée (quel que soit le degré
de spécialisation de l'écriture), pour accéder à une phase idéographique post-langagière
prétendant dépasser l'obstacle alphabético-centriste grâce aux possibilités ouvertes par
l'automatisation de la gestion des inscriptions numériques, méconnaît la nature de la pensée.
En effet, celle-ci se forme grâce aux pressions qu'elle subit pour s'extérioriser, s'écrire ou...
s'hypertextualiser. Viser le sens indépendamment de sa transcription, c'est pointer vers une
idéalité intangible[184]. Les cadres actuels d'élaboration, de stockage et de transmission de la
pensée ne semblent nullement délivrés des pesanteurs de l'extériorisation dont les phases
orales ou scripturaires traduisent des violences spécifiques... et productrices. Les technologies
intellectuelles contemporaines initient d'autres types de violences, métabolisant sans les renier
celles des phases antérieures, contraintes à tisser du sens avec et contre l'instantanéité, avec et
contre la simultanéité, avec et contre l'hypertextualité. Et l'on pourrait ajouter : contre et avec
la linéarité.

Linéarité et réception des récits interactifs

L'interactivité transforme le spectateur en spect-acteur et autorise l'intervention sur le


déroulement des récits. Certes, la subjectivité des concepteurs s'exprime dans les cadres
narratifs interactifs. Mais elle s'exprime plus difficilement que dans les formes séquentielles-
si l'on conçoit que chacun des multiples parcours doit être porteur de significations ou
d'émotions particulières- et plus indirectement, si le spect-acteur doit appréhender les qualités
singulières des moteurs narratifs à la source des différentes propositions qu'il actualise. Mais
la narration interactive n'a pas fait disparaître le récit séquentiel de l'horizon de nos désirs, et
ceci pour des raisons fondamentales qui tiennent à ce que le récit séquentiel, explicitant les
choix subjectifs d'un montage textuel ou cinématographique arrêté, manifeste clairement une
intentionnalité, une altérité constituée. C'est pour cette raison que la forme narrative linéaire
ne s'effondrera pas sous la pression de l'hypermédiation, même si elle en accueille l'influence.
Elle exprime le désir qu'on nous raconte des histoires et non pas qu'on se les raconte soi-
même en enchaînant des libres choix agencés par des machines narratives.

La culture hypertextuelle, ou hypermédiatique, ne dépasse pas l'ère alphabétique, elle la


radicalise. De la même manière que, sous l'angle de la conservation, la culture du livre ne
dépasse pas celle de l'écriture, mais la radicalise en réalisant les promesses qu'elle ne faisait
que murmurer (le voeu d'une inscription définitive, voeu que seule la multiplication à
l'identique de l'imprimé viendra exaucer).

D - La retraite de l'auteur et l'amour des génériques

La culture des réseaux rend-elle obsolète le statut de l'auteur individuel ? On sait que la notion
d'auteur individuel et le souci de l'attribution personnelle des oeuvres (écrites ou picturales)
prennent leur essor à l'ère de l'imprimerie[185]. On a vu comment, élargissant cette démarche,
des courants de l'épistémologie contemporaine ont mis en lumière l'importance de la
mobilisation de réseaux sociaux dans l'élaboration des connaissances nouvelles (l'étude, par
Bruno Latour, de la découverte du vaccin par Pasteur est un modèle du genre). On rappelle,
que dans cette perspective, l'auteur, le découvreur devient un noeud singulier par lequel
passent des groupes sociaux ; il se réduit à une interface entre des réseaux, au mieux un agent
capable de potentialiser la rencontre de lignages hétérogènes. Réactualisant une forme de
pensée structuraliste (le locuteur prête ses lèvres au langage, ici l'inventeur prête son cerveau
et ses instruments aux réseaux socio-techniques), ces courants s'en séparent cependant dans la
mesure où ils n'ont pas recours à des structures universelles qui "surdétermineraient" les
acteurs. Dans la "sociologie de la science", l'idée des grandes Idées fait place à l'étude des
bricolages astucieux et des manipulations rusées qui permettent de contrôler et d'enrôler
d'autres réseaux d'acteurs. L'acteur lui-même perd son individualité anthropologique. Il
devient un élément composite, un alliage humain/non-humain mêlant des personnes, des
stratégies de prélèvements sur la "nature" et des systèmes techniques.
Une vue superficielle pourrait laisser croire, qu'à travers les réseaux, l'auteur singulier
disparaît au profit d'agencements collectifs qui seraient devenus la seule source productrice
des connaissances[186]. Nous avons déjà discuté la validité de cette assertion. Qu'il faille
prendre la mesure du caractère culturellement et techniquement distribué de toute création
(artistique, scientifique, etc.), on ne le contestera évidemment pas. En revanche, doit-on tenir
pour argent comptant l'idée que les télé-technologies annihilent le sujet créateur sous sa forme
personnelle ? Ces vues -qui font signe (de manière nostalgique ?) vers l'époque classique où
l'auteur, vu comme sujet individuel, n'a pas d'espace propre- font de la création un processus
d'émergence absolument collectif.

À l'ère des réseaux et de la complexification des alliages numériques façonnant notre outillage
intellectuel, le sujet individuel me semble devenir, a contrario, un point de passage
stratégique, plus nettement même qu'à l'époque de l'imprimerie triomphante ou de
l'audiovisuel conquérant. La profusion des sources de production d'informations et la
densification -hypermédiatique, notamment- des relations entre ces corpus majore
l'importance du moment de la synthèse individuelle, du jugement subjectif personnel, de la
production d'idées réorganisatrices originales. Que ce moment soit pris et produit dans un
chaînage techno-culturel, on l'accordera sans peine. Que les maillages actuels des réseaux
densifient ces chaînages comme jamais auparavant et qu'ils mobilisent l'automaticité des
programmes informatiques à un degré inédit, on ne saurait trop le souligner. Mais
diagnostiquer, pour autant, la disparition de l'auteur, c'est aller bien vite en besogne.

Il n'est que de constater à quel point notre époque est amoureuse des génériques -et en
particulier dans le multimédia- pour s'en convaincre. Dans le moindre CD-Rom, dès qu'un site
sur le Web semble relever de la création artistique, personne ne doit être oublié (comme dans
l'audiovisuel). L'importance croissante de la signature des articles scientifiques -de la
hiérarchie des signatures, plus exactement- ainsi que le développement des logiques
citationnelles (comptage du nombre de citations faites à un auteur dans les publications d'un
domaine) abondent dans le même sens. (Certains logiciels sur Internet s'attachent même à
débusquer les renvois systématiques d'ascenseurs pour éviter que des légitimités s'établissent
sur le dénombrement automatique des références). Parallèlement à la systématisation de la
coopération productive, plutôt qu'un évanouissement, c'est bien une hypertrophie de la
signature qui se propage. Le contexte de l'hypermédiation devrait plutôt inciter à penser un
concept d'auteur en collectif (et non d'auteur collectif) qui dépasse la dénégation de
l'individualité au profit d'un renforcement parallèle des deux pôles.

E - Panoptisme et réglage individuel des trajets

Corrélativement à l'expansion des technologies de l'image, nos représentations de l'espace


sont en mutation. De nouvelles formules de visibilité se découvrent, mues par de puissants
mouvements inséparablement culturels et techniques qui, par exemple, transforment la
cartographie, valorisent le réglage des échelles de vision et confèrent un nouveau statut au
détail. S'y expriment aussi des confrontations originales entre individualisation et
collectivisation du regard. Comment interpréter ces figures visuelles, non plus sous l'angle des
rapports entre territoire et inscription, mais comme représentation de l'espace ? S'agit-il d'une
abdication de tout dessein panoptique par prolifération des vues ? À moins que l'on y décèle
une revanche d'un panoptisme d'auto-contrôle, sous les auspices d'une dissolution de toute
expérience collective au profit d'une perception purement individuelle de l'espace. Après avoir
décrit quelques propositions particulièrement exemplaires des nouvelles scènes spatiales en
construction, nous montrerons que, sur ce terrain aussi, des régimes inédits combinent unicité
collective et définition subjective individuelle des représentations spatiales. On verra donc
comment la fragmentation et l'individualisation autorisent le maintien d'un nouveau genre de
point de vue panoptique global.

Échelles de vision et libres ballades urbaines

Face à un écran géant, on tient la terre entière sous sa main, grâce à une manette de
commande. La planète numérisée offre chacun de ses continents à une descente (aux enfers ?)
par un zoom continu (ou presque, car les cartes qui correspondent aux différents niveaux de
vision se raccordent avec un certain temps de latence). Le dispositif T-Vision[187] se
rapproche progressivement d'une carte régionale, puis locale, enfin d'une vue aérienne (issue
d'images satellitaires mapées sur ces cartes), dans laquelle on pénètre jusqu'à apercevoir des
détails tels que des immeubles, des carrefours et des rues. Les Systèmes d'Informations
Géographiques mettent en oeuvre les mêmes procédés. Par zooms ou agrandissements d'une
rue, d'un quartier, d'une ville, on circule, en continuité, du plan local à la carte de France.

Comme dans le film Les puissances de dix, la plongée dans l'image ressemble plus à un
survol, depuis l'espace, et à un atterrissage qu'à la saisie d'un panorama. L'effet de simulation
réside ici dans l'irréalité d'un franchissement accéléré des échelles de vision, depuis
l'observation à partir d'un satellite jusqu'à la focalisation rapprochée. Il ne s'agit pas seulement
de l'hétérogénéité des échelles. À cela, les dispositifs optiques nous avaient déjà habitué. Ici,
en revanche, le lissage est continu entre ce que le regard humain peut saisir (une rue, une
place) et ce qui exige un artifice technique (voir simultanément la rue et le plan de la ville ou
contempler la terre depuis l'espace, par exemple). L'élision de la frontière entre ces deux types
de saisie dessine un espace lisse et partout disponible, ouvert à tous les trajets visuels, à
l'image de la métaphore de la "toile", enserrant le globe dans ses mailles en constante
densification. Une fois que toutes les données cartographiques et topographiques terrestres
seront réunies et stockées dans la mémoire de la machine -ce qui est loin d'être le cas- le
mythe panoptique sera-t-il réalisé ?

Le CD-Rom "Paris"[188] poursuit, à l'échelle d'une ville le même type de projet. Ici, on se
ballade dans Paris ; sorte de flânerie urbaine sur écran, avec des fonctions de déplacement et
de vision assez évoluées, prenant comme modèle la libre déambulation dans un espace urbain.
Cette déambulation est assistée par les fonctions propres au visionnage numérique
(déplacement sur plan, signalétique surimprimée par des flèches, fenêtres d'informations sur
les sites, monuments, etc.). Face au plan de la ville, le promeneur choisit son point de départ :
le pont Neuf, par exemple. À chaque carrefour, le flâneur peut choisir sa direction. Rotation
d'un tour sur soi-même pour découvrir le panorama, zoom avant dans la direction indiquée par
une flèche, la visite se poursuit selon ses inclinations. D'où la promesse de cette réalisation :
un déplacement, par zoom, en un infini plan-séquence qui nous amènerait, à partir d'un site,
en tous points de l'espace visible.

Mais est-il possible de s'engouffrer dans une ruelle entr'aperçue au détour d'une promenade,
ou d'entrer dans l'échoppe, là juste à droite ? Fameux désir de transcrire l'infinie profondeur
de la réalité dans un média nécessairement fini. Car les capacités de stockage limitées du CD-
Rom ne permettent pas d'emmagasiner toutes les rues de Paris. Et la génération des DVD-
Rom, reculant les limites, ne parviendra pas plus à capturer toutes les cours d'immeubles avec
leurs recoins, tous les escaliers et tous les intérieurs d'appartements. Un système mondial
omniprésent de Webcams, d'une densité aussi serrée qu'on voudra n'y suffirait pas plus. On
comprend qu'il ne s'agit pas là d'une limitation de l'espace- mémoire des supports ni de la
quantité d'équipements de transmission télécommandés nécessaire, mais de l'impossibilité
constitutive d'envisager l'explosion fractale des curiosités potentielles : curiosités qui se
révèlent, non pas en tant que projets préalables à l'exploration, mais dans son cours même.
Faire reculer sans cesse les contraintes qui enserrent nos déplacements, augmenter sans répit
nos latitudes exploratoires, nourrit parallèlement notre insatisfaction face à des promesses qui,
se voulant approcher la vraie vie, nous font miroiter toujours plus de libertés. La frustration en
est d'autant plus vive ; ce faisant, elle devient un moteur pour relancer une quête que l'on sait
sans fin.

"Place" ou l'intérieur et l'extérieur en court-circuit

Avec Place-A User's Manual[189], l'artiste Jeffrey Shaw renouvelle, avec les moyens de
l'imagerie interactive, le genre "diorama" et imagine ainsi une nouvelle formule panoptique.
Placé sur une plate-forme, au centre d'un cylindre, le visiteur manipule une caméra-interface
qui fait tourner la plate-forme motorisée. Sa rotation délimite une portion de l'écran circulaire,
toujours en face de lui. L'image projetée représente une série de cylindres (une dizaine en
tout) sur lesquels des panoramas (numérisés à partir de photographies prises avec de très
grands angles), eux-mêmes circulaires, sont affichés[190]. La caméra-interface permet de
contrôler le déplacement, deux boutons commandant les zooms dans les panoramas. Arrivé
très près du cylindre, une rupture se produit et on se retrouve à l'intérieur du panorama
circulaire, découvrant le paysage sur la surface englobante du cylindre devenu enceinte. Mais
en arrière-fond, derrière le paysage affiché, se dessinent les autres cylindres aperçus
précédemment. Un autre zoom et l'on franchit à nouveau la surface pour retrouver le paysage
panoramique initial des cylindres.

L'exploration librement interactive de l'univers virtuel englobant prend la forme d'un


franchissement permanent de la frontière entre intérieur et extérieur des cylindres. La scène
cylindrique princeps (celle d'où le visiteur déclenche l'exploration), qu'on pourrait nommer le
lieu réel de la visite, se redouble dans la forme cylindrique des lieux visités. Lesquels sont
parcourus, selon notre choix, par leur surface externe ou interne. Vision d'un espace paradoxal
où l'intérieur contient l'extérieur et où l'extérieur s'affiche à l'intérieur. Cet espace courbe se
dérobe au contrôle panoramique (indissolublement visuel et moteur), non pas dans le point de
fuite de l'espace perspectiviste, mais parce que les notions de proximité et d'éloignement, de
successions hiérarchisées de plans, d'avant et d'après sont confondues, inversées, mises en
abîme dans ce qui n'est plus une visite mais une circulation où chaque paysage contient tous
les autres, à l'infini. Mixte de labyrinthe (où l'on revient sur ses pas sans s'en apercevoir), de
figure paradoxale à la Escher, l'exploration rappelle la circulation hypermédiatique sans fin,
où les chemins liant des sites sont parcourus plusieurs fois à partir de sites différents, si bien
que naît le sentiment de découvrir à l'infini de nouveaux paysages d'un même lieu, dans une
même enceinte. Une forme fractale -la partie contient bien le tout- mais selon un schéma qui
se reproduit à l'identique (alors que dans une fractale pure, les générations de formes sont de
même complexité mais toutes différentes). Finitude des composants spatiaux et multiplicité
des trajectoires, l'oeuvre de Jeffrey Shaw -parfaite réunion de monades leibniziennes- est
homogène à l'espace de la circulation hypermédiatique dans les réseaux.

"18 h 39" ou le panoptisme en surplomb

Le CD-Rom "18h39" propose de consulter "un instant photographique" présenté sous forme
d'un quadrillage en seize pavés, chacun d'eux se prêtant à des avancées possibles sur quatre
niveaux de profondeurs[191]. Le spect-acteur s'aperçoit très vite que le photogramme de
départ est, en réalité, plus un sommaire multimédia qu'une surface opaque. Un sommaire et un
instrument d'exploration tout à la fois, puisque que la photographie centrale contient les
moyens de sa propre dissection. Le viseur photographique (ou celui de l'arme de précision)
sert de pointeur et on peut, en effet, découvrir et actionner, à l'intérieur de l'image, des
instruments de visionnage (dénommés "machine de vision" tels que panoramas, visionneuse
de diapositive, séquences vidéo, plans de situation, cartes, etc.). La photographie apparaît
alors comme une lucarne dont il est possible de déplacer les limites : repousser les bords,
changer de point de vue pour découvrir ce qui se cache derrière un personnage ou un meuble,
faire fonctionner un objet. Les limites temporelles sont, elles aussi, mobiles puisque certaines
informations glanées au cours de l'exploration (films vidéo, par exemple) présentent des
événements antérieurs.

Le regardeur acquiert des indices relatifs aux événements qui ont abouti à la vue de départ :
séquences vidéo, analyse spectrale d'objets, sonogrammes d'un tir de fusil, fiches
signalétiques d'objets, analyse d'empreintes digitales, par exemple. Cumulant tous les formes
d'archives (fiches documentaires, photographies, vidéos, simulation d'objets), l'explorateur
raccorde certaines bribes et établit des chaînes associatives reliant événements, objets et
personnages. Fouille archéologique, enquête policière, criminologie scientifique, les genres se
mêlent pour tenter de comprendre ce qui s'est passé à 18 h 39 (1839 est, rappelons-le, l'année
où la photographie fut inventée). Il n'y a pas de trame narrative, mais on s'aperçoit que des
indices appartiennent à des familles de faits. D'où l'idée qu'une histoire se tient en arrière plan,
laquelle orienterait la succession des signes mis à jour. Mais cette histoire n'existe pas. On
peut -on ne manque pas de- s'en fabriquer une. (Même si ce n'est pas son objectif, cette
proposition résout de manière astucieuse, la contradiction entre narration et interactivité. Pas
d'histoire, mais des matériaux, des trames, des associations pour s'en fabriquer autant qu'on
veut. Toutes sont valides et consistantes puisque c'est nous qui les imaginons, avec leurs
incongruités éventuelles, et qu'aucune n'a été conçue en particulier. C'est, en creux, tout
l'intérêt de la réalisation : montrer qu'un moteur narratif fonctionne toujours en nous). La
scénographie d'ensemble combine astucieusement des plongées qu'on peut croire infinies dans
des détails avec un retour régulier à l'image initiale. Si bien que le sentiment d'une réalité de
complexité insondable, provoqué, en particulier, par la multiplication des niveaux d'analyses,
ce sentiment est tempéré par le rappel constant à une représentation centrale. La grille
matricielle en fil de fer, appliquée sur cette image symbolise assez bien l'alliance entre
l'autonomie de chacune de ses parties d'une part, et le maintien d'un certain contrôle
panoptique global, de l'autre. Mais, bien sûr, il s'agit là d'un panoptisme original qui nous
confirme qu'une image dissimule autant qu'elle révèle.

Un panoptisme distribué

Nous avons volontairement choisi des champs d'activités hétérogènes (oeuvres artistiques et
outils d'informations logistiques) pour questionner le statut de l'espace tel que les technologies
numériques le modèlent et le présentent. Mais comment comprendre ces diverses propositions
? Quel cadre d'analyse permet d'en révéler les mouvements princeps ? On se souvient que
Foucault symbolisait la société de surveillance par le panoptisme. Lequel supposait un centre
unique de vision, lieu du pouvoir. Ici, le "tout visible" cher au projet panoptique est remplacé
par une autre formule, le tout réglable, pénétrable, mais grâce aux décisions du regardeur. Et,
surtout le centre panoptique est potentiellement démultiplié puisqu'il se confond avec la
disponibilité du dispositif. Il est vrai que T-Vision reste un prototype nullement appelé à
s'installer dans nos foyers. Mais d'autres équipements, notamment de guidage routier,
s'apprêtent, eux, à offrir largement leurs services. Ètudiés selon les mêmes principes, ils
permettent, outre la localisation dynamique, de régler les échelles de vision.

En revanche, l'unicité de l'espace -que symbolisaient les cartes imprimées - n'est plus une
donnée évidente. Elle devient un horizon abstrait : la même Terre, la même ville mais qui se
déforme selon les inclinations de chacun. Les trajets sont multiples, subjectifs, seul leur
champ d'opération est maintenu commun (le globe, Paris ou une zone géographique). Au tout
visible, à partir d'un lieu unique et surplombant, fait place un panoptisme collectif, truffé
d'instruments de navigation à l'image de la possible commande par tout un chacun, via
Internet, d'une photographie satellitaire de n'importe quel point du globe avec une précision
digne des services de renseignements militaires[192]. Le panoptisme moderne est distribué.
Ce n'est plus l'oeil du maître qui en est le siège, chacun peut s'y exercer. Mais, différence
fondamentale, en sachant qu'une portion seule de l'espace lui est visible ; celle, finie,
correspondant à ses trajets.

On pourrait, à première vue, affirmer que le nouveau panoptisme qui s'invente illustre
parfaitement l'omniprésence du réglage individuel des parcours. Mais alors pourquoi
continuer à parler de "panoptisme" et ne pas y substituer la diffraction individuelle de
l'observation ? Une telle interprétation ne rendrait pas compte d'un phénomène essentiel :
l'obsession d'une saisie commune de l'espace, de son rassemblement dans une même vue
techniquement organisée. L'interprétation orwellienne (le contrôle absolu par un regard
anonyme et omniprésent), tout comme la perspective strictement individualiste,
monadologique, ne semblent pas rendre compte des scénographies spatiales qui s'installent
dans nos modernes fenêtres.

Les Webcams[193] sur Internet, sortes de viseurs démultipliés par lesquels chacun peut voir
ce qu'un autre a décidé de lui montrer, relèvent d'une exposition généralisée. Mais ces
lucarnes ouvertes à qui veut bien s'y glisser délivrent une vue fragmentée de l'espace. Et
l'exhibitionniste, même s'il autorise la manipulation, par l'Internaute, de la caméra, conserve le
contrôle des champs de vision. La multiplication des Webcams fait signe vers une couverture
instantanée complète des vues possibles sur la planète, une improbable saisie de toutes les
images du monde où chacun met son regard à la disposition de tous. Cet exercice "d'omni-
diffusion", est le pendant visuel de la conversation multipolaire, éclatée qui s'alimente sans
cesse sur le réseau. "Vu sans savoir qui voit" (et non plus seulement "voir sans être vu")
pourrait en résumer le fonctionnement ; idéal d'un panoptisme réparti en autant de volontés
assurant la diffusion d'un morceau infime du grand puzzle non-totalisable.

Paul Virilio, dans son article "OEil pour oeil, ou le krach des images"[194], interprète
unilatéralement le développement des Webcams dans une perspective de contrôle généralisée.
Les Webcams deviendraient "des régies vidéo des comportements", "postes de contrôle de la
perception du monde". Le panoptisme est logiquement sollicité dans une version inquisitrice
classique, avec le "marché du regard" ouvrant au "panoptique de télésurveillance généralisée".
Mais ce diagnostic présuppose qu'un oeil unique est en position sommitale pour totaliser
toutes les observations (et symétriquement qu'un corps unique produit toutes les exhibitions).
Or c'est bien à l'opposé du rassemblement des points de vues qu'oeuvre la diffraction des télé-
regards par Webcams interposés. Et si l'on osait une prédiction socio-technique, il faudrait
postuler l'émergence d'une industrie du rassemblement des images de Webcams, aujourd'hui
indépendantes, à l'aide de puissants robots- chercheurs visuels organisant l'affichage gradué
des visions du local, au régional puis au mondial, avec toutes sortes de focalisations spatiales,
thématiques, etc. La dialectique diffraction/réunion -autre manière de nommer la question du
mode de collectivisation de l'expérience sociale- n'a probablement pas fini de nous étonner

L'oeuvre de Jeffrey Shaw (Place) manifeste, elle aussi, l'impossibilité d'un point de vue
unique dès lors qu'aucune position ne permet une véritable vision panoptique, impliquant le
contrôle d'un espace devenu réversible. Sous les espèces de la fusion de l'intérieur et de
l'extérieur, là aussi, l'obsession de la clôture de l'espace est évidente. Bien qu'on y voyage
librement et indéfiniment, on ne sort pas du paysage. Tous les lieux de la Terre rassemblés
dans une même base de données et liés continûment les uns aux autres, tous les sites d'une
ville accessibles par les mêmes procédures, tous les réseaux fonctionnels d'une commune
mémorisés sur un même support : comment ne pas y déceler la marque d'une inquiétude, celle
d'une fuite des repères communs ? Mais aussi une réponse assez forte à cette inquiétude, sous
la forme d'un compromis ingénieux maintenant le cadre collectif tout en organisant la
dispersion des saisies et des trajets.

F - Le régime temporel des télé-technologies : ralentir la communication

Lorsqu'on diagnostique, comme Paul Virilio, l'assomption de l'instantanéité (l'arrivée


précédant le départ) comme forme dominante régissant les espaces public et privé, n'érige-t-
on pas trop rapidement -c'est le cas de le dire- la vitesse en ordonnateur de civilisation ? Ne
néglige-t-on pas une composante essentielle de la programmatique, poussant, malgré
l'accélération de l'acte communicationnel lui-même, à ralentir le régime social de la
communication.

L'usage du concept de "temps réel" révèle, tout particulièrement, les doutes qu'on peut avoir
sur ces diagnostics. Mûri, au cours des années cinquante dans les arcanes du M.I.T., à travers
les recherches militaires d'automatisation de la couverture radar du territoire américain (le
fameux programme SAGE), la notion de "temps réel" s'est socialisée dans l'univers de
l'informatique des années soixante-dix lorsque la mise en oeuvre des programmes est devenue
"conversationnelle". Cette désignation qualifie des applications (machines et logiciels) dont le
temps de traitement est compatible avec le phénomène à contrôler (quelques secondes pour
une billetterie automatique, quelques millièmes de secondes pour des dispositifs de sécurité
dans les transports, par exemple). En caractérisant le régime temporel contemporain par ce
concept de "temps réel", on identifie la quasi-instantanéité du calcul informatique avec les
conditions d'usage des programmes. Or, si le traitement interne s'effectue bien en "temps
réel", le traitement externe -qu'on nomme aussi interaction- épouse une toute autre logique,
celle de la temporalité humaine de saisie, de questionnement, parfois de doute, de décision et
finalement d'action.

On fait trop souvent un usage décalé du concept de "temps réel". En fait, il exprime
parfaitement le régime des télécommunications dès lors que la réception coïncide avec
l'émission. Dans la communication de flux (radio, télévision), l'adéquation est parfaite. Sur un
plan temporel -et non sémiotique ou affectif- la réception épouse l'écoulement linéaire de
l'émission. (On pourrait d'ailleurs faire remonter la notion de temps réel au processus
"indiciel" de la prise d'empreinte, avec la capture photographique de l'apparence, dès que les
temps d'exposition eurent été réduits à la commutation de l'objectif). Avec l'installation
massive des procédures informatiques, le régime temporel dominant s'infléchit à nouveau en
redécouvrant des modalités de différance, d'espacement, d'attention propre au traitement de
l'information, modalités qui exigent une durée et non pas une simple affiliation à un flux.
Mise en oeuvre de logiciels de traitement de texte, exploration interactive de CD-Rom,
activation de jeux vidéo, navigation sur Internet, pour ne citer que quelques activités phares
de l'ère du traitement de l'information : toutes pratiques qui nécessitent une série de choix, de
réglages, de manipulation d'interfaces. Ces fréquentations se déroulent dans une durée qui
n'est plus programmée par un flux indépendant des acteurs, mais qui dépend du jeu de
l'interaction.

L'automatisation (dont Gilbert Simondon nous a appris qu'elle ne simplifie pas les processus
auxquels elle s'applique mais les complexifie) accélère le traitement de l'information mais
ralentit son appropriation. La formalisation des savoirs dans des logiciels spécialisés a pour
conséquence d'augmenter la longueur et la difficulté de leur mise en oeuvre. Du traitement de
texte à l'usage d'un photocopieur, tout le monde a pu se convaincre que le perfectionnement
des versions -rimant avec automatisation grandissante- était dangereusement chronophage.
Survivance de la logique de l'enregistrement et parfaite expression de la télédiffusion (de
textes, de sons et d'images), l'instantanéité ne caractérise plus le paradigme temporel qui
émerge à l'ère du traitement de l'information et des connaissances. La toute-puissance du
"temps réel", la prédominance de l'immédiateté s'altèrent progressivement au profit de
régimes qui renouent, par certains aspects, avec ceux de la lecture/écriture et des logiques
éditoriales : temps différé, variabilité des durées, ajournement des effets immédiats d'une
diffusion de programmes dont il appartient à chacun d'actualiser les règles.

Nous avons proposé de nommer "présentielle" cette confrontation locale, par opposition à la
culture du "temps réel" fondée sur une sollicitation -jamais totalement réalisée- d'absence à
soi exprimée dans une invitation projective. Par opposition, aussi, à la lecture où les
dimensions de "présence" dans le récit sont quasi-exclusivement interprétatives, imaginaires
(si on fait abstraction du rapport mécanique, automatique à la conformation matérielle du livre
ou d'autres supports imprimés). Avec la posture interactive, on l'a vu, le transport imaginaire
s'articule plus nettement avec les dimensions corporelles (enchaînements de gestes, de vision,
d'audition propres à l'exercice de l'interaction). Dans l'univers des récits interactifs, par
exemple, les transports obligent le spect-acteur à se prendre comme objet de questionnement,
l'assignent au choix, à la décision, où encore à l'exploration de l'écran, tout ceci ordonné par
un moteur narratif organisant la pluralité des parcours possibles. Cette confrontation fait
alterner les phases d'adhésion/pénétration dans le récit, et de décrochage -recherche aveugle
par cliquages exploratoires- ou de prise de décision dans une série explicite d'enchaînements
possibles. Toutes ces postures provoquent une interpellation beaucoup plus nette qu'avec le
récit audiovisuel et donnent une vigueur nouvelle à la durée locale.

Instantanéité, réactivité et programmation : une temporalité mise sous pression

Nous n'ignorons pas qu'un pan entier des usages de la programmatique vise à augmenter la
réactivité (c'est-à-dire la vitesse de réaction) des acteurs et des systèmes engagés dans les
mêmes activités (automatisation industrielle, organisation des entreprises en réseau,
interconnexion mondiale des places boursières, etc.). Faut-il en conclure que dans la sphère
productive et commerciale la recherche de l'instantanéité orienterait fondamentalement les
restructurations en cours, alors qu'elle déclinerait dans l'espace public organisé par les
médias ? C'est une hypothèse plausible.

Une autre approche permet de rendre compte de cette apparente disjonction de formes
temporelles dans ces champs sociaux. Tout en reconnaissant la spécificité des régimes de
durée propres aux sphères médiatiques et productives, elle offre l'avantage de ne pas les
opposer. En effet, si on prend un peu de recul face à la scène de l'instantanéité telle que les
opérateurs tétanisés sur les marchés financiers nous en offrent un spectacle exemplaire, on
découvre une organisation temporelle où le moment de la décision, de l'action est préparé par
un gigantesque compactage temporel, que l'on nomme habituellement "programme
automatique". Le nez collé sur les transactions boursières déclenchées automatiquement par
un Program trading basé sur l'analyse instantanée des différences de cotations entre les
Bourses de New-York et Chicago, et nous voilà prêt à signer toutes les thèses sur la
prédominance de l'immédiateté. Ce faisant, on néglige peut-être l'essentiel : le temps passé à
réaliser et à tester les programmes d'interventions automatiques, véritables réserves, sous
pression, de données, de calculs et de raisonnements formalisés, qu'un diagnostic adéquat
libère dans une fulgurance. La précession programmatique, dont chacun imagine la quantité
d'hommes-années qu'elle rassemble, est la condition du déchaînement instantané. (Un
programme aussi couramment utilisé que Word représente environ deux cents hommes-
années de travail).

Paul Virilio avait déjà attiré notre attention sur ces mécanismes à propos des stratégies
militaires de la dissuasion. La planification de la machine militaire précède le déclenchement
des opérations et le moment stratégique se déplace de l'actualité du champ de bataille vers
l'antériorité de la programmation militaro-économique des systèmes automatiques qui, en
assumant l'engagement, disqualifient les capacités humaines de décision. On le sait, tout le
régime politico-militaire de "l'équilibre de la terreur" a reposé sur ces déplacements de
primauté.

On peut discuter cette vision d'une guerre d'automates pré-programmés (les plus récentes
doctrines militaires américaines semblent, en revanche, redonner une place importante à
l'initiative sur le terrain). Mais elle recèle incontestablement une part importante de vérité, que
l'automatisation de l'observation géographique, du déroulement des missions aériennes et du
dépouillement de l'information acquise confirme. De même, croît le caractère stratégique de la
maîtrise des communications. Le vocabulaire législatif suit la même logique d'accumulation
lorsque les parlements votent régulièrement des lois de "programmation militaire" à cinq, dix,
voire vingt ans.

Les mêmes principes sont à l'oeuvre dans toutes les activités fondées sur la réactivité quasi
instantanée des systèmes ou des organisations : commutations automatiques dans les réseaux
de télécommunications, programmes d'investissement boursier, intégration industrielle des
fonctions de conception, de production, de marketing, de commercialisation, ou encore
dispositifs de sécurité industrielle[195]. Ainsi voit-on émerger une temporalité dissociée où la
rapidité de la décision-action est en rapport avec l'immensité du temps passé à la préparer.

Le "temps réel", lorsqu'il se matérialise dans l'action -à la différence du régime ralenti de la


communication sociale dont nous avons fait état précédemment- déclenche une sorte de court-
circuit où l'énergie accumulée se décharge en contractant à l'extrême la durée de l'opération.
L'une des résultantes de ce processus est l'augmentation des durées d'étude et de conception
(dix ans ou plus pour les programmes militaires, vingt ou trente ans pour les institutions
japonaises de programmation économiques, par exemple). Ces durées considérables, allant de
pair avec la rationalisation de l'activité des véritables usines intellectuelles techno-
scientifiques assurant ce travail, mettent en réserve une temporalité sous pression. Le
fonctionnement de cette programmation sous pression, c'est-à-dire la prise de décision et
l'action détend -au sens de la détente d'un volume gazeux- le système et réalise la
capitalisation temporelle préalablement accumulée. On pourrait, ici aussi, parler d'un
ralentissement de la "communication" sous l'effet de l'augmentation de la charge de travail
que représente la programmation de systèmes à complexité croissante.

Temps réel et temps différé en confrontation

La réévaluation que nous proposons n'implique pas que l'instantanéité soit appelée à
disparaître de notre horizon et soit systématiquement remplacée par l'épaisseur temporelle
d'un traitement. Loin de nous, l'idée que le modèle de l'émission/réception immédiate soit
balayé par les formes programmatiques émergentes. Ce modèle est puissamment installé dans
notre paysage et il ne s'évanouira pas dans un avenir prévisible. En revanche, il ne recèle plus
la puissance irradiante qu'il possédait à l'ère de la télédiffusion triomphante. Aujourd'hui, sa
capacité à organiser la structure temporelle de l'espace public, tout en demeurant notable, n'en
est pas moins déclinante. Et cela n'est pas sans rapport, on l'a vu, avec la crise de confiance
qui affecte les massmedia et la croissance corrélative des principes d'expérimentabilité qui en
prennent la relève. Notre espace public voit émerger, sur les réseaux notamment, des formules
de mixité des régimes temporels du "temps réel" et du "temps différé". Internet, par exemple,
fait coexister plusieurs régimes temporels. Le réseau peut accueillir l'émission de flux
radiophonique ou télévisuel. Avec la conversation écrite -lorsque les partenaires sont
connectés simultanément -il héberge une semi-instantanéité (semi-instantanéité, car l'écriture
télé-textuelle s'opère en deux temps : rédaction puis validation). Et enfin, il abrite une
temporalité du traitement différé s'étageant des formes classiques de lecture aux circulations
hypermédiatiques les plus raffinées. (On pourrait affiner les distinctions en analysant plus
précisément, par exemple, la temporalité différée propre à l'usage des robots chercheurs,
temporalité qui procède de la logique de l'accumulation/décharge, que nous avons mise à jour
plus haut, à propos de la programmation militaire ou industrielle).

Ce passage en revue rapide des régimes temporels du réseau mondial ne constitue pas encore
une typologie organisée. Des formules d'hybridation absolument inédites, hétérogènes à la
séparation "temps réel"/"temps différé", font, en effet, leur apparition. Des applications sont
aujourd'hui proposées qui mixent l'intervention instantanée convoyée par réseau, avec des
traitements locaux sur supports opto-numériques (CD-Rom, aujourd'hui en attendant le DVD
et autres "galettes" démultipliant les volumes d'informations stockées). Le Deuxième
monde[196] illustre parfaitement ce type de mixage. L'expérience débute par l'auto-
composition d'un avatar : choix d'un visage, d'un costume, éventuellement d'un appartement,
modelage des espaces, installation des ameublements... Elle se poursuit par la libre
déambulation dans le centre de Paris, modélisé en trois dimensions de manière étonnamment
réaliste. On y rencontre d'autres avatars connectés au même moment sur Internet. Les fichiers
transmis ne contiennent qu'une information limitée décrivant leur aspect physique et leur
position géographique. L'ordinateur qui réceptionne ces fichiers se charge de construire
l'image affichée sur l'écran puisque le CD-Rom local contient déjà tous les matériaux
nécessaires à cette reconstruction (formes de visages, costumes, lieux visités, etc.). Ici, le
"temps réel" ne se juxtapose pas au traitement différé, il s'y mélange. L'expérience d'une
interaction allie, en effet, la confrontation avec une présence instantanée, convoyée par le
réseau avec un travail sédentaire, momentanément isolé. La mixité des sources
événementielles sous-tend une dialectique entre processus pré-programmé local et événement
inattendu sur le réseau. L'univers maîtrisé de la scénographie interactive locale s'expose à
l'irruption intempestive des spect- - agents branchés au même moment sur le site d'Internet.

On pourrait comparer cette temporalité à un modèle simplifié de notre existence quotidienne


faite d'alternances (ou de combinaisons) de moments d'ouverture au monde et d'isolement.
Mais dans ces univers, on gouverne, plus systématiquement que dans la vie ordinaire, sa
présentation publique (choix de visage, de costume, etc.) et l'on sélectionne sa disponibilité à
l'interpellation (la possibilité de ne pas répondre est facilitée par la décorporéisation de
l'avatar tiers). L'idée se fait jour d'une temporalité trouée, où à tout moment la durée d'une
exploration peut basculer dans l'instantanéité d'une confrontation avec un spect-agent éloigné.
À l'inverse, l'immédiateté d'une présence lointaine peut se figer et chuter vers l'exploration
sédentaire.

Hypermédiation et réception de flux sur Internet

Nous avons déjà évoqué, dans une autre partie de ce travail, l'apparition de chaînes
multimédias distribuées sur Internet (Webcasting), en soulignant la rupture qui s'ensuit avec le
mode de réception habituel de la télévision. Ainsi, par un accord, conclu en juillet 1997,
DirectTV (leader américain de la diffusion numérique par satellite) et Microsoft ont annoncé
la mise sur le marché d'un ordinateur-récepteur mariant la réception télévisuelle et la
navigation sur le Web. Par exemple, en visionnant un film, le télénaute pourra rechercher les
biographies des acteurs ou des indications sur son tournage. Dans une perspective voisine, une
firme américaine met au point un projet de "CD-Rom infini" contenant mille cassettes vidéo,
actualisé en permanence, et dans lequel l'abonné peut faire son marché.

Avec le Webcasting, l'usager sélectionne des thèmes qui alimentent des moteurs de recherches
lesquels lui ramèneront une information préalablement triée et parfois même évaluée[197].
Prolongeant cette forme d'usage, les push technologies inaugurent une nouvelle forme
médiatique, transformant l'écran de l'ordinateur en récepteur de chaînes multimédias
thématiques (météo, sports, finances, etc.). Outre la diffusion de chaînes, ces logiciels
permettent, par exemple, la mise à jour directe de logiciels sur les disques durs des abonnés au
service. Mariant l'instantanéité de la télévision avec la navigation multimédia, ces techniques
combinent les outils de recherches (type moteurs) avec le téléchargement en continu
d'informations. Mais ce faisant, le Webcasting redistribue les polarités temporelles en
bousculant l'opposition classique entre l'instantanéité propre à la culture de flux et la
temporisation de l'hypermédiation. Ces alliages temporels sont d'ailleurs loin d'être figés.
L'apparition de nouvelles normes d'édition de documents appelées à succéder à H.T.M.L.
[198], rendront encore plus complexe la consultation des sites. L'utilisateur pourra, par
exemple, modifier la composition des pages qu'il reçoit, les dynamiser, y ajouter des
informations personnelles et s'y déplacer de manière intuitive[199]. Instantanéité de la
réception, rapidité de la navigation et temps de réglage de la composition personnelle se
combineront d'autant plus.

Alors que les flux de l'émission de la radio et de la télévision se diffractent dans leur mise en
ligne, la diffusion électronique de l'écrit est sujette à un mouvement inverse. Dans le on line
l'écrit connaît une mise un mouvement qui le rapproche, dans certains contextes, de
l'information audiovisuelle. La version électronique du Wall Street Journal est réactualisée
quatre à six fois par jour. Et il ne s'agit pas seulement des cours de la Bourse, une part
significative des articles sont réécrits au fil de l'actualité. "Le Web, ce n'est pas la télévision,
ce n'est pas le journal, c'est entre les deux" affirme M. Garcia, l'un des spécialistes mondiaux
du design des journaux électroniques. Ici, la permanence de l'écrit s'allie à son
rafraîchissement instantané. L'horizontalité de la page imprimée se moule dans le flux de la
diffusion temporelle. Mais rien n'est consolidé en la matière et les premiers enseignements de
la presse électronique ne permettent pas d'affirmer avec certitude que le renouvellement des
informations séduira plus les lecteurs que, par exemple, la recherche "motorisée" dans des
banques de données. Autre témoignage des mixages en cours entre les logiques éditoriales
(stock) et de consultations en ligne (flux) : l'abonnement à des services spécialisés
téléchargeant à date fixe, l'intégralité d'un site afin de permettre une consultation locale hors
connexion[200].

Plus généralement, ces propositions techniques seront-elles favorablement accueillies, et sous


quelles formes ? Tout est ouvert. Nous ne prédisons pas le succès automatique de ces
formules qui se confrontent à de solides ancrages, notamment en matière de réception
télévisuelle[201]. Mais, quels qu'en soient les modalités, les rythmes et l'ampleur, nous
constatons qu'un virage est pris, lequel redistribue les rapports spécifiques entre réception et
navigation, virage qui confirme que les structures temporelles émergentes ne sauraient
opposer séquentialité et hypermédiation, ou instantanéité et temporisation, mais plutôt les
assembler en les insérant dans des configurations qui font coexister (pacifiquement ?) leurs
régimes spécifiques.

[159] Voir la revue Réseaux, Dallas et les séries télévisées, n° 12, CNET, 1985, et notamment
l'article de J. Bianchi, Dallas, Les feuilletons et la télévision populaire, pp. 21/28.

[160] Howard Rheingold, dans son livre, Les communautés virtuelles, (Addison- Wesley,
Paris, 1995) véritable hymne à la vie virtuelle, multiplie les exemples où l'usage des réseaux
consolide, voire même engendre, des collectifs locaux. Howard Rheingold mentionne
notamment le rôle social du réseau WELL (pour Whole Earth Electronic Link), village virtuel
en vogue dès les années 87, fréquenté essentiellement par des Internautes habitant autour de la
baie de San Francisco.

[161] Depuis septembre 1997, deux services de guidages -Carminat Infotrafic et Skipper
développés respectivement par Renault et Europe Grolier- sont commercialisés. Dans sa
version complète, Carminat intègre un récepteur G.P.S. localisant le véhicule. Collectant, en
temps réel, toutes les informations sur le trafic (et la disponibilité des parkings), il propose un
trajet optimisé et calcule sa durée.

[162] Que la carte puisse être lue comme une préfiguration de l'hypermédiation, voilà
d'ailleurs la pénétrante suggestion de Françoise Agez dans son article, "La carte comme
modèle des hypermédias", in Catalogue d'Artifices 4, Ville de Saint-Denis, 1996, pp. 54/59.

[163] Voir l'intéressant article de Pierre Alain Mercier, Dopo ze bip... Quelques observations
sur les usages du répondeur téléphonique, in Réseaux, n° 82/83, mars/juin 1997, CNET. Il y
montre, en particulier, que les fonctions de protection (simuler l'absence) et de filtrage des
répondeurs sont progressivement devenues essentielles.

[164] Dominique Carré, Les technologies mobiles, quels enjeux ?, AFETT/EUROCADRES,


Lab. SIC Université Paris-Nord, fév. 1997, p. 9.

[165] Jacques Perriault, La communication du savoir à distance, L'Harmattan, Paris, 1996,


p. 78.

[166] "Les institutions de formation à distance connaissent aujourd'hui, on l'a vu, une
demande de regroupement de plus en plus forte " (Jacques Perriault, op. cit., p. 227).
[167] Certains usages d'Internet illustrent aussi, d'une autre manière, ces mixages de relations
à distances et de déplacements géographiques. Un industriel des pellicules photos propose,
depuis 1997, d'accéder par Internet au fichier de la pellicule envoyée au laboratoire pour
développement. L'utilisateur peut accéder, via Internet, aux vignettes composant sa pellicule,
les retravailler sur son ordinateur, corriger les dominantes de couleurs, les cadrages ou
assembler plusieurs images. Une nouvelle connexion, et il renvoie les images modifiées qui
corrigeront automatiquement les fichiers haute définition détenus par le laboratoire. Il lui
restera à aller chercher les tirages papiers dans son quartier... en attendant, bien sûr, la haute
définition à domicile.

[168] Le mediaspace d'Euro PARC en Angleterre couplé à celui de Xerox PARC à Palo- Alto
en Californie, organise aussi les relations locales des chercheurs anglais.

[169] Voir Bernard Prince, Les paradoxes de l'Internet, in Terminal, n°74, L'Harmattan, Paris,
été-automne 1997, pp. 89/96.

[170] La révolution Internet, sur Arte, le 19/11/96.

[171] Cité par Christian Huitema, Et Dieu créa l'Internet..., Eyrolles, Paris, 1996, p. 34.

[172] On pourrait postuler que la "cyberelation" combinant présence à distance et


modélisation numérique (travail, formation, jeux, etc.) définit en tant que tel l'idéal intangible
d'un rapport social totalement auto-gouverné, absolument immanent.

[173] Pierre Lévy est l'un de ceux qui ont thématisé, d'une manière radicale, cette idée de gain
cognitif par disparition d'une concrétisation du contexte. Ainsi écrit-il : "La structure en
collecticiel permet en effet de faire une fantastique économie d'écriture. En effet les tenants et
aboutissants d'un énoncé n'ont plus à être explicités par du discours puisqu'ils sont impliqués
dans des liens hypertextuels. Le contexte et les références sont toujours déjà là..."
L'intelligence collective, La Découverte, Paris, 1994, p. 98.

[174] Bernard Stiegler, La technique et le temps - La désorientation, Galilée, Paris, 1996,


p. 276.

[175] Op. cit., p. 277

[176] L'écriture multimédia recherche toujours un équilibre -variable selon les genres et les
auteurs- entre libre exploration et axes directeurs structurants.

[177] Sur ces questions voir Sally Jane Norman, L'empire des sens, in Le Monde de
l'éducation, avril 1997, p. 46.

[178] Le logiciel Umap Web, déjà cité au chapitre V, édite au fur et à mesure de la
consultation de pages Web, des cartes répertoriant les proximités entre thèmes ou concepts, à
partir des sélections effectuées par l'utilisateur. Les zones contenant des mots principaux y
apparaissent grossies.

[179] La circulation dans un "anneau" est une alternative au surfing ainsi qu'à l'usage souvent
imprécis des moteurs de recherche. Ici, tous les sites concernent le même sujet. Un simple clic
suffit pour passer immédiatement au site suivant (et ainsi de suite jusqu'à revenir au départ),
supprimant ainsi les temps d'attente inévitables lors de l'activation des liens classiques. On
estimait, en septembre 1998, à plus de 700 000 le nombre de sites fédérés en près de 50 000
"anneaux".

[180] Alain Lelu, Interfaçages automatiques d'hypertextes, in Rencontres Médias 1, B.P.I.,


Centre Georges Pompidou, 1997, p. 125.

[181] "L'exposition des connaissances perdra le caractère unidimensionnel. Ce ne seront plus


seulement les mots, au fil du discours, qui donneront sa densité au savoir, mais des
interactions de toutes natures entre des mots et des énoncés figurés, animés, relationnels, etc.
Les interactions elles-mêmes ne seront pas seulement logiques (implication, causalité,
hiérarchies de classes et de sous-classes, etc.) mais topologiques". Pierre Lévy,
Métamorphoses de l'écriture, in Communication et lien social, Éd. Descartes et Cie et Cité des
Sciences, Paris, 1992, p. 99. D'autres analyses suivent la même inspiration, jouant le spatial
contre le linéaire, alors que ces deux dimensions ne sont pas de même ordre. Ainsi Philippe
Quéau affirme : "Les mondes virtuels permettent de fait d'exprimer des idées abstraites d'une
manière entièrement nouvelle, en utilisant des configurations spatiales d'objets concrets ou de
symboles imaginaires [....]", Le Virtuel, Champ Vallon/INA, Seyssel, 1993, p. 99.

[182] Pierre Lévy, L'intelligence collective, La Découverte, Paris, 1994, p. 15

[183] Marshall McLuhan, Pour comprendre les média, Le Seuil, Paris, 1968, p. 102.

[184] Pour une critique plus détaillée de ces hypothèses, voir notre article, Nouvelles
technologies intellectuelles, pensée et langage, in Terminal n°68, Paris, L'Harmattan,
pp. 69/80.

[185] Elisabeth L Eisenstein, dans La révolution de l'imprimé dans l'Europe des premiers
temps modernes, (La Découverte, Paris, 1991) montre que la notion d'auteur est typiquement
typographique. Elle cite notamment saint Bonaventure, lequel nous rappelle, qu'à l'ère du
manuscrit, il y a au moins quatre manières de faire des livres : le scribe qui copie, le
compilateur qui croise différents écrits, le commentateur qui ajoute des explications, et enfin
l'auteur qui cite d'autres textes (voir p. 109). "Les nouvelles formes d'attribution de la qualité
d'auteur et les droits de la propriété littéraire sapèrent les idées anciennes d'autorité collective
non seulement en matière de composition des livres bibliques mais aussi de textes
philosophiques, scientifiques et juridiques" p. 110.

[186] Yves Maignien, dans son article,"La bibliothèque de Michel Foucault" sur le projet de
"Poste de Lecture Assistée par Ordinateur " à la BNF (in Rencontres Médias 1, BPI, Centre
Georges Pompidou, Paris 1997, pp. 83/105) convoque à nouveau l'antienne foucaldienne de la
disparition de l'auteur-sujet au profit de l'auteur-actualisateur de "nappes discursives".
L'activité bibliologique privilégie par nature la "transdiscursivité" où l'émergence de
convergences, d'épistémés traverse les auteurs plus qu'elle ne les suscite. Mais le regard
archival, intensifié par l'informatique documentaire, n'est pas le seul possible. Érigé en vérité
ultime d'un texte particulier, il ignore, par constitution, les dimensions subjectives singulières
qu'il exprime, privilégiant, non sans légitimité, la tectonique des flux discursifs. (Question
structurellement identique à celle du regard unilatéralement socio-technique porté par la
nouvelle anthropologie des sciences sur l'activité scientifique). Substituer "l'ordre du
discours" à l'irruption intempestive d'une pensée réorganisatrice relève d'un parti pris peu
explicité. Foucault se réduit-il à la "nappe discursive" structuraliste ?
[187] T-Vision a été installé dans l'exposition Voyages virtuels, 4/8 octobre 1995 à Paris.

[188] Ce CD-Rom est édité par Hazan et 3e Vague.

[189] L'installation a été montée à Artifices 4, Saint-Denis, novembre 1996.

[190] Voir le commentaire kabalistique qu'apporte Pierre Lévy, sur la scénographie,


homogène au symbolisme de l'arbre séphirotique de la tradition mystique juive (Cyberculture,
Odile Jacob/Conseil de l'Europe, Paris, 1997, pp. 82/83).

[191] Réalisation de Serge Bilous, Fabien Lagny et Bruno Piacenza, Flammarion "Art &
Essais", Paris, 1997.

[192] On peut désormais mobiliser de chez soi, via Internet, le satellite Earlybird I, lancé
depuis décembre 1997 par une société américaine. Moyennant quelques centaines de dollars,
on obtiendra une photographie d'une précision de l'ordre de 3 mètres (les prochains
succcesseurs d'Earlybird promettent de descendre à 1 mètre). Le monopole militaire du
renseignement spatial est ainsi brisé.

[193] Une Webcam diffuse en permanence l'image d'une scène (carrefour, intérieur privé, etc)
sur un site Internet. Par exemple, le tournage, à Franconville, du film La Patinoire s'est
accompagné de la création d'un site, où l'on pouvait consulter le scénario in extenso mais aussi
la feuille de service quotidienne, et à intervalle régulier, les images des trois Webcams
installées. Le son, en revanche, a été coupé pour préserver l'intimité des rapports entre le
réalisateur et les acteurs. L'expérience a été rééditée sur le tournage de Regarde mon père, ma
mère, film de Charlotte de Turckheim. Une nouvelle forme de promotion ?

[194] Article paru dans Le Monde diplomatique, mars 1998, pp. 26/27.

[195] Par exemple, la sécurité du métro VAL est assurée par un logiciel comportant quelque
dix mille lignes de codes dans les équipements au sol et cinq mille dans la rame.

[196] Laissons son promoteur Philippe Ulrich, co-fondateur de Cryo Interactive, présenter le
projet : "Le CD-Rom, qui proposera une connexion à Internet, contiendra un Paris
contemporain entièrement redessiné... Une fois connectés, les abonnés pourront se promener
de l'île de la Cité à Notre-Dame, des Champs- Elysées aux quais en passant par la place de
Grève. Évoluer dans Paris, dialoguer, visiter les monuments, aller dans les cabarets de jazz ou
au cinéma..." Le visiteur compose son apparence grâce à une bibliothèque de formes : visage,
peau, yeux, cheveux, costumes. Il séjourne dans un appartement conforme à son style.
L'obsession du doublage va jusqu'à imaginer une monnaie, une circulation financière, la
perception d'aide sociale voire une Constitution et des codes de comportement moraux. Il est
même envisagé de pouvoir faire "naître" un enfant qui sera incarné par un nouvel avatar.
Tenant à la fois du jeu vidéo, du jeu de rôle, de la messagerie visuelle et de l'agora, ce
"deuxième monde" est appelé à se perfectionner constamment. On pourra emprunter des sas
pour déambuler dans d'autres métropoles (Berlin, New York...). (Interview au supplément
multimédia de Libération, 24 mai 1996, p. I ). Seul Canal + continue le Deuxième monde.
Cryo a préféré prendre son autonomie et s'attache plutôt, sur ce terrain, à diffuser SCOL (voir
note 41).
[197] Fishwrap, par exemple, mis au point au M.I.T. à Boston, est l'un des logiciels de
personnalisation les plus perfectionné. Il permet à l'utilisateur de sélectionner des rubriques
composant son journal (politique nationale, théâtre, basket-ball, etc.). Le serveur actualise
constamment sa base documentaire à partir de quotidiens californiens et des dépêches
d'Associated Press. On peut, à tout moment, afficher la dernière édition du journal, en
perpétuelle transformation, car continuellement rafraîchi par de nouvelles informations et
nettoyé des nouvelles obsolètes. Par ailleurs, un système de vote, article par article, est à la
source de la production d'un journal unique reflétant les goûts majoritaires des lecteurs. Enfin,
le logiciel détecte l'ordre dans lequel l'abonné lit les articles et affichera donc, par exemple,
dans la rubrique culture, les concerts avant les films et les critiques de livres.

[198] Ces langages déclineront la norme X.M.L. (eXtensible Mark up Language), définie
comme métalangage. Elle permettra aux concepteurs de pages de définir leurs propres
langages de programmation selon qu'ils mettent en ligne des partitions musicales, des plans
industriels, des représentations spatiales de molécules ou des parchemins antiques. (Voir
Michel Alberganti, L'introduction de nouvelles normes enrichit le contenu d'Internet, in Le
Monde, 14/10/97, p. 29).

[199] Le logiciel SCOL, par exemple, développé par la société Cryo devrait permettre aux
Internautes de créer assez facilement leurs propres mondes virtuels en 3D et d' y déposer leur
avatar en scannant une photo, par exemple. Toutes les composantes des scènes conçues sont
cliquables et peuvent renvoyer par liens à d'autres lieux, afficher des sources documentaires
ou lancer des applications. Voir Yves Eudes, Scol, une multitude de mondes indépendants...,
in Le Monde, supplément multimédia, 1 et 2/03/1998, p. 34.

[200] Par exemple, le magazine Les enfants du Web à destination des 8-12 ans, est téléchargé
automatiquement chaque mois, moyennant un abonnement, avec une panoplie de fonctions
connexes : contrôle des sites reliés, limitation de la durée de connexion...

[201] À l'inverse, on a vu comment une innovation, apparemment mineure, telle que la


télécommande a profondément, et rapidement, bouleversé la réception de la télévision.
Table des matières

Conclusion
Une culture de la relativité élargie s'annonce. Une autre localisation est provoquée par la
déterritorialisation. La suppression des intermédiaires engendre l'apparition de mécanismes
médiateurs. On redécouvre la puissance de la linéarité grâce à la luxuriance de
l'hypermédiation. Le réglage individuel des prises de vues donne naissance à une formule
panoptique inédite. Le ralentissement de la communication est l'autre face de l'augmentation
des vitesses de computation. Et on pourrait allonger la liste des paradoxes repérables dans
l'horizon des technologies numériques[202]. De tels effets paradoxaux pouvaient déjà être
décelés avec les technologies intellectuelles classiques. (L'originalité, l'unicité de l'oeuvre
écrite, par exemple, est un effet de la multiplication à l'identique des imprimés et non pas son
origine). Il n'y a pas lieu de s'étonner que de tels processus soient aussi à l'oeuvre aujourd'hui.

Qu'il s'agisse de la suppression des intermédiaires dans l'espace public, du statut du récit dans
le contexte de l'hypermédiation, de la saisie de l'espace, du régime temporel propre à la
programmatique, les incidences culturelles des technologies numériques sont donc souvent
paradoxales, voire contradictoires. Peut-on identifier des principes généraux qui permettraient
d'appréhender le statut du nouveau milieu qu'érige la téléinformatique ? Quelques conjectures
peuvent être, en effet, formulées. Nouveau milieu ne signifie pas effacement des anciens, mais
reprise, redéfinition. On fait ici l'hypothèse que les nouvelles technologies intellectuelles ont
une efficacité paradoxale qui consiste, non pas à redéfinir l'ancien par négation, mais par
relativisation généralisée : relativisation de l'espace par la mise en proximité, relativisation de
la temporalité par l'obsolescence de la vectorisation passé/présent/futur au profit d'une
temporalité de la simulation, u-chronique, locale, expérimentale, ou encore relativisation du
récit unique par l'injection du destinataire dans le moteur narratif, etc.

Les télé-technologies revivifient les anciennes formes de présence, de durée, de récit, à


l'ombre et en résonance avec les mutations évoquées précédemment. Il ne s'agit pas là de
survivances, d'archaïsmes, de résistances (toutes réactions qui se manifestent par ailleurs).
L'exemple des communautés virtuelles est, à cet égard, emblématique. Elles inaugurent, en
effet, un nouveau rapport au territoire à travers -et non pas contre ou indifféremment à-
l'expérience d'un réseau trans-territorial. (La notion de glocalisation -qui, dans l'univers des
médias désigne, on le rappelle, l'usage local d'un média global- résume assez bien ces rapports
d'ajustement, de co-définition du local et du global). La relativisation se traduit notamment
par des formes inédites de coexistence entre récentes et anciennes modalités. Une forme de
saisie unifiée de l'espace, par exemple, se fraye une voie à travers le maquis complexe des
réglages individuels. La temporalité du "direct" -le temps réel- côtoie celle du temps différé
au coeur des applications les plus récentes qui allient l'usage local et le recours aux réseaux
informatiques. Les processus de mixages temporels se complexifient, de ce fait, sans qu'on
puisse pressentir une forme dominante qui révélerait la formule chimiquement pure de la
temporalité des télé-technologiques.

Si, dans ces exemples, relativisation est synonyme de passage en position surplombante et
d'inclusion des différences, cela n'épuise pas les significations potentielles de ce processus. Il
ne faut pas exclure, par principe, l'apparition de contradictions fortes telles que, dans le
cyberespace les oppositions frontales entre principes commerciaux et logiques d'espace
public, entre propriété intellectuelle et domaine public ou encore entre intégration, refus et
détournement des propositions d'innovation. L'hypothèse de la relativisation généralisée ne
s'identifie donc pas à celle de l'obtention de consensus. Elle ne prétend pas, non plus, livrer la
formule ultime des enjeux de la programmatique, mais décrire l'un de ses mouvements
majeurs.

De l'indétermination des télé-technologies

On sait que toute culture est une méta-culture en ce que les contenus élaborés ne peuvent
s'abstraire des chaînes matérielles, matrices méta-culturelles par lesquelles ils se créent, se
conservent, se modifient et se transmettent. Mais ces rapports entre matrices et contenus ne
sont pas mécaniques. À propos de l'écriture, par exemple, nombre d'études portant sur les
conséquences intellectuelles de l'inscription du langage ménagent une zone d'indétermination
bien éloignée de toutes les tentations réductionnistes. Ainsi, Jack Goody, interrogeant, dans
La raison graphique, les incidences de l'écriture sur les processus cognitifs, notait
immédiatement dans une parenthèse : "quoique à mon avis la nouvelle technique fournisse
seulement des outils sans pour autant déterminer les résultats"[203]. L'ethnologue nous
prévient donc d'un usage du concept de technologie intellectuelle qui déduirait, directement,
les fruits du travail intellectuel à partir de ses équipements : pratique coutumière, qui relève
d'une démarche réflexe, déduisant sans ambages, une forme culturelle à partir d'un système
technique.

C'est le travers auquel prête le flanc, par exemple, Jacques Derrida, pourtant en général
attentif à ces dangers, lorsqu'il fait l'hypothèse que "...dans le passé la psychanalyse (pas plus
que tant d'autres choses) n'aurait pas été ce qu'elle fut si le E mail, par exemple, avait
existé"[204]. Et Derrida d'insister sur les "raisons historiques et non accidentelles" qui ont
relié l'institution psychanalytique à la forme courrier manuscrit, à sa vitesse de circulation
dans l'Europe d'avant-guerre ; "rien n'est jamais indépendant de ce délai"[205]. Parle-t-on des
dimensions "pratiques", "théoriques" de la psychanalyse, ou de la construction de ses
institutions ? Autant, la technologie "courrier manuscrit" conditionne le fonctionnement de
l'institution, autant n'interfère- t- elle pas directement dans les cures, dont la technologie est
basée sur la parole, ni même peut-être, principalement, dans l'édification théorique
freudienne. S'il est vrai que les "délais" conditionnent l'échange épistolaire, il resterait à
montrer comment précisément, l'instantanéité de ces transferts aurait modifié, quant à sa
nature, l'émergence de la pratique et de la théorie psychanalytique. Rien n'est évident en la
matière et, que l'on sache, à l'heure d'Internet, les "technologies" des cures ne se distinguent
pas fondamentalement de celles élaborées dans la Vienne d'avant guerre, même si le
fonctionnement des écoles`psychanalytiques, les conditions de production des livres, l'accès
aux corpus sont touchés par la téléinformatique. Jacques Derrida souligne, à juste titre,
quelques lignes plus loin, que le développement du courrier électronique "ne peut pas ne pas
s'accompagner de transformations juridiques donc politiques"[206] de l'espace public. Mais la
psychanalyse ne s'insère pas directement dans cet espace, elle fait même de cet écart
tendanciel l'un de ses fondements. Demeure l'idée générale et invérifiable que si le passé avait
été différent, alors la psychanalyse l'aurait, sans doute, aussi été.

L'appréhension de la sphère des "outils", des méthodes devrait respecter une certaine
autonomie qui interdit d'en inférer directement des formes de pensée. Qui n'a jamais éprouvé
un malaise, par exemple, lorsque l'on tente de dessiner les traits saillants de la "culture
informatique" et que l'on répond : culture du calcul, de la combinatoire, de la formalisation.
Le même malaise nous saisit quand on essaie de caractériser une pensée propre aux réseaux
en suggérant des notions telles que décontextualisation, collectivisation, perte de la
séquentialité. Ces propositions méritent un examen plus soucieux de la préservation d'une
certaine autonomie des processus cognitifs et des champs disciplinaires dans leur rapport aux
technologies qu'ils mobilisent. Et aujourd'hui, cette autonomie relative serait -c'est notre
hypothèse- majorée, et non amoindrie, par l'ingénierie informatisée de la connaissance.

Surplomber sans dominer

Nous conjecturons que la culture programmatique et hypermédiatique accroît les traits méta-
culturels de nos cultures et augmente leur réflexivité[207]. En effet, l'ingénierie informatique
consiste essentiellement en la diffusion de machine de production de micro-mondes. Cette
ingénierie s'apparente à une méta-machine, dont la mise en oeuvre produit d'autres machines
d'écriture, de création d'univers, de déplacements dans des récits, de déplacements de
présence. Une certaine unification procédurale se concrétiserait alors à travers une
diversification des pratiques. Pour faire image, on dira que les modes de repérage s'unifient
sous les logiques de la délocalisation, de la numérisation et de la programmatique, mais que
cette homogénéisation des méthodes engendre, plus qu'avec les anciennes technologies
intellectuelles (imprimerie, massmédia, télévision) une multiplicité d'accomplissements
singuliers ainsi que des affirmations identitaires différenciées. On sait qu'au XVIe siècle, des
langues vernaculaires se sont conservées et parfois même créées, grâce à l'essor de
l'imprimerie (laquelle, il est vrai, provoquera aussi une déperdition des langues littéraires non
imprimées). La malléabilité de la téléinformatique pourrait, paradoxalement, consolider des
cultures locales, tout en les faisant passer par l'orbite de la programmatique et de la
Téléprésence. Ceci n'empêche pas que naissent des collectifs déterritorialisés, effets propres
de la tendance à l'augmentation de la présence à distance. Mais ces collectifs ne sont que
rarement totalement émancipés de leurs attaches territoriales.

De même que toute formalisation procédurale engendre un ajustement par négociation entre
les acteurs, ajustement indispensable pour injecter de la souplesse dans des mécanismes
formalistes risquant de devenir, sinon, trop rigides, de même la diffusion mondiale de la
programmatique et de la Téléprésence n'est pas mécaniquement homogénéisante. Elle secrète
une diversification qui est son double. Tout comme le bricolage est le fils de
l'algorithmisation et non une survivance anachronique, la différenciation est la fille de la
mondialisation télé-technologique.

Dans Transmettre, Régis Debray développe une analyse voisine, en pointant l'hétérogénéité
des temporalités propres aux "aires de civilisation" et aux logiques techniques[208]. Peut-être
a-t-il raison de dissocier ainsi l'héritage culturel, fruit d'une transmission symbolique, de la
réception de la technique obéissant à la logique de la communication (bien que cette
perspective risque d'engager une pensée de la technique dissociée de l'univers culturel : "deux
régions de l'être irréductibles l'une à l'autre"[209] où l'on retrouve les fameuses dichotomies
éthique/technique, relativisme culturel/universalisme technique, convergence
technique/divergence ethnique).

L'idée à laquelle nous tentons de donner forme ne contredit pas formellement cette conception
de l'hétérogénéité des temps techniques et culturels. Elle insiste, en revanche, sur les
distorsions culturelles internes à l'aire technique, et plus précisément à l'aire télé-
technologique. Il n'est peut-être pas indispensable de requérir un pôle intemporel de
l'existence humaine (le relativisme de la culture, de l'art, de la morale) pour contrebalancer un
supposé universalisme technique réglé par la performativité. Si on oppose la mondialisation
des objets et des signes à "une tribalisation des sujets et des valeurs"[210], point n'est besoin
de localiser la tribalisation à l'extérieur de la sphère technique. On peut discerner, en son sein
même, les mouvements qu'on repère d'ordinaire dans sa périphérie culturelle :
vitesse/ralentissement, déterritorialisation/localisation, etc. Notre culture, comme les
précédentes, se définit par un couplage entre l'équipement techno-intellectuel hérité et les
nouvelles propositions émergentes. Si l'on retient l'hypothèse de la longue durée chère à
Bernard Miège[211], on conjecturera que ce couplage est un processus ni linéaire, ni
uniforme. Aujourd'hui, l'alliance de la programmatique et des réseaux convoyant la présence
à distance aboutit à une configuration inédite. La diffusion mondiale accélérée de méta-
conception du monde fondée sur ces environnements socio-techniques provoque finalement
une crise de la problématique des effets culturels des technologies. Comme si le niveau
d'efficience atteint par l'intensification cognitive avait pour résultat d'injecter les anciennes
modalités intellectuelles (temps différé de la lecture/écriture, notamment) et formes de
rapports sociaux (échange en face à face, présence corporelle) au coeur des espaces cognitifs,
sensibles et relationnels actuels. On a coutume d'affirmer que la photographie n'a pas détruit
le dessin à la main, mais qu'elle a contraint les peintres à redéfinir l'acte de vision (et aussi le
mouvement), donc la peinture elle-même qui s'est dès lors attachée à rendre visible l'invisible
(ce qui, par effet retour, a influencé la vision ordinaire). On s'accorde à considérer que l'image
de synthèse ne se substituera pas aux techniques d'enregistrement, mais que l'enregistrement
tend à devenir numérique.

Dans ces effets en retour d'une technologie nouvelle sur celles qui la précèdent on sauvegarde
la coexistence des deux formes, tout en reconnaissant les contraintes inédites qui pèsent sur la
première. Notre hypothèse concernant l'incidence des technologies intellectuelles
contemporaines ne se limite pas à noter ces effets de réinterprétation. Elle affirme que ces
agencements n'oblitèrent pas les anciennes organisations cognitives mais les revivifient dans
de nouveaux costumes. Il est vrai, par exemple, qu'une séquence de lecture d'un texte -ou
d'une vidéo- dans un hypermédia reconduit la linéarité de la lecture d'un imprimé. Mais cela
n'autorise pas à confondre un hypermédia avec un livre et à oublier sa puissance organisatrice.
Ce module linéaire s'accouplera, en effet, à des débranchements volontaires bouleversant la
structure ordonnée du livre. Ce faisant une vie nouvelle s'ouvre à la linéarité. Cet exemple
montre comment, dans les nouveaux contextes installés par la téléinformatique, non
seulement se manifestent, mais se renforcent certains traits (séquentialité, durée, différance)
propres aux technologies classiques (écriture, imprimerie, photographie, etc.).

J'ai le sentiment que la téléinformatique crée un milieu favorable à un désajustement entre


traits culturels hérités et émergents. Et je parle bien de traits culturels (la linéarité, la saisie
panoptique, l'accélération, etc.) et non de cultures concrètes (occidentale ou chinoise, par
exemple). Je poursuis l'idée -ou peut-être est-ce elle qui me poursuit- que la notion d'effet
culturel des technologies numériques serait en crise, non pas parce qu'elles n'en auraient pas,
mais parce que ces effets ne font pas système. La souplesse, la malléabilité des technologies
du virtuel accueillent, par exemple, les anciennes logiques symboliques beaucoup plus
respectueusement que la tradition écrite n'a accueilli la tradition orale ou que l'imprimerie n'a
abrité le manuscrit. Mais accueil ne signifie pas duplication. En schématisant le propos on
pourrait affirmer qu'aujourd'hui quatre phénomènes coexistent :

- la translation apparemment inerte (comme ce qui s'est produit entre le CD et le disque vinyle
et qui relève de la traduction/réinterprétation puisque la musique enregistrée coule maintenant
dans le lit du fleuve numérique et nourrit donc le multimédia, on le voit en particulier sur
Internet),
- le renforcement de certains traits antérieurs dans les nouveaux contextes : le numérique
redonne vigueur au temps différé de la lecture/écriture, la vitesse de la communication sociale
décroît, l'exigence de linéarité se renforce,

- l'apparition de traits inédits : des outils automatiques ouvrent à de nouvelles pratiques de


recherches, ou comme on l'a vu, se déploie une percolation de la réception et de la production,
par exemple dans ce que j'ai appelé le "home multimédia",

- et enfin, l'hybridation des traits inédits avec les anciens, tels que les alliages entre linéarité et
hypermédiation.

Qui, de l'apparition des traits inédits ou du renforcement des caractéristiques traditionnelles,


l'emporte ? Cette question n'a probablement pas de sens. L'hypothèse est plutôt que la
singularité de la situation réside dans le couplage, l'hybridation de ces deux mouvements.
D'où l'idée de relativisation généralisée, conjecture plus mobile qu'une supposée révolution de
nos conditions expressives et cognitives.

Loin de tout fixisme, cette perspective ne saurait se confondre avec on ne sait trop quel
paradoxe circulaire dans lequel les nouvelles conditions équivaudraient aux anciennes.
Renforcer certains caractères temporels hérités d'anciennes technologies provoque de
nouveaux agencements dans les environnements cognitifs et sensibles actuels. Ce sont donc
des alliages inédits qui s'instaurent, par exemple, entre linéarité et hypermédiation,
fragmentation et unicité de la perception spatiale, instantanéité et différemment, séquence de
flux insécable et libre navigation. En fait, ces observations -à propos de la temporalité, de la
linéarité et de l'hypermédiation, du panoptisme et de l'individualisation de la saisie, etc.-
conduisent à penser un concept de position surplombante sans domination, où les logiques de
la téléinformatique envelopperaient celles de l'oralité, de l'écriture, de l'imprimerie, de
l'enregistrement et des télécommunications sans les assujettir. Suivre ces chevauchements et
rebroussements, en façonner une cartographie est un jalon indispensable pour comprendre les
mouvements complexes qui animent notre techno-culture ; c'est aussi une aventure
intellectuelle passionnante.

Pour suivre

Traiter de la Téléprésence, comme de toute question à caractère général, tend à la faire passer,
du statut de sujet d'investigation, à celui d'instrument d'observation. Ausculter notre société à
l'aide de cet outil engendre mécaniquement une opération de sélection et un effet de loupe.
Entendons-nous bien. Il ne s'agit pas de tempérer l'importance de la tendance culturelle à la
présence à distance, par on ne sait trop quel mouvement de balancier. Mais d'articuler plus
finement cette tendance aux autres processus à l'oeuvre. Par exemple, nous avons maintes fois
insisté sur la méfiance nécessaire face aux affirmations unilatérales pronostiquant une
substitution des conditions habituelles de "l'être ensemble" par la Téléprésence. Mais
certaines hypothèses et observations fragmentaires relevées dansce mémoire gagneraient à
faire l'objet d'études de terrain plus systématiques afin de mieux comprendre comment les
relations de proximité interagissent avec les nouveaux rapports à distance : enseignement,
travail coopératif, etc. De même, dans le domaine politique, de nombreuses questions à peine
effleurées restent à approfondir. Il faudra, en particulier, comprendre quelles peuvent être les
incidences de la situation de "multi-présence" -être à la fois ici et partiellement ailleurs- sur
les formes d'exercice du pouvoir fondées, jusqu'à présent, sur la séparation physique des
représentants et des représentés.
Approfondir les enjeux de la Téléprésence, affiner les outils méthodologiques proposés ; bref,
vérifier ou infirmer des conjectures, ce travail appelle prolongements. Les commentaires qui
précèdent ne forment, en réalité, une conclusion de ce livre que parce qu'elles surgissent,
chronologiquement, à la fin de sa rédaction. Il serait quelque peu artificiel de leur faire jouer
un rôle de clôture logique, au sens où elles en délivreraient la signification condensée.
Enregistrons-les donc comme une incitation à poursuivre l'enquête.

Le rédacteur de ce livre ne peut d'ailleurs dissimuler sa frustration à encapsuler son propos


dans un imprimé clos -facilités du traitement de texte aidant- alors que le champ de
l'hypermédiation s'enrichit sans cesse de nouvelles problématiques et réalisations obligeant à
repenser certaines conclusions et à ouvrir de nouveaux chantiers interprétatifs. Mais il n'a pas
le sentiment, non plus, qu'une publication en flux sur le réseau constituerait une solution
parfaitement satisfaisante : il faut savoir terminer un livre pour comprendre, plus tard, quels
en sont les points faibles, et renouveler alors les approches.

[202] Par exemple, le mouvement de virtualisation basé sur la modélisation numérique


pouvait laisser croire qu'il signait le triomphe de l'abstraction ainsi que la primauté de la
vision. Mais la Réalité Virtuelle a injecté le corps au centre du couplage homme/machine pour
donner forme à un genre de déplacement de présence incomparablement plus charnel et
engagé que les anciens dispositifs de simulation. De même, la radicalisation de la simulation
va de pair avec une concrétisation croissante dans l'élaboration des modèles (qui engage, il est
vrai, des relations assez inédites entre actualité, réalité et présence), concrétisation qui ne se
confond évidemment pas avec l'ancienne matière physique de l'expérimentation traditionnelle,
mais qui ne relève pas non plus d'un univers éthéré et de pures abstractions logiques.

[203] Jack Goody, La Raison graphique, Les Éditions de Minuit, Paris, 1979, p. 143. Jack
Goody est souvent cité, à juste titre, comme l'auteur de travaux majeurs sur l'invention de
l'écriture comme technologie intellectuelle.

[204 ]Jacques Derrida, Mal d'Archive, Galilée, Paris, 1995, p. 34.

[205] Jacques Derrida, op. cit., p. 35.

[206 ]Jacques Derrida, loc. cit.

[207]Dans son livre Les conséquences de la modernité (L'Harmattan, Paris, 1994),


Anthony Giddens considère même que cette réflexivité croissante constitue l'un des traits
dominants de notre époque (voir en particulier pp. 43/60), l'autre grand fondement de la
modernité étant la dé-localisation. Il y montre, par exemple, comment les effets de
connaissance des sciences sociales, tout particulièrement, sont immédiatement réinvestis dans
les pratiques sociales, les transformant immédiatement. L'objet et le sujet de la connaissance
se conditionnant mutuellement, l'idée d'un savoir stable apparaît comme dénuée de
fondement. D'où la subversion de l'idée de "raison". Tout en reconnaissant l'acuité de son
analyse, on pourrait se demander si Anthony Giddens n'accorde pas une trop grande
importance à la conscience que se forment les acteurs des motivations de leurs
comportements. La manière dont les discours d'expertise informent les pratiques qu'ils visent,
par exemple, leur reprise par les acteurs sociaux, peuvent-elles masquer des conflits profonds
d'intérêts lesquels se frayent toujours une voie pour polariser les terrains de confrontation ?
Bref, ne tend-il pas à confondre exagérément perception, discours et pratiques ? Cela étant,
l'attention portée à la réflexivité met incontestablement en lumière un phénomène majeur qui
qualifie profondément les principes de fonctionnement de l'Occident.

[208] "Un système technique traduit les cohérences qui se tissent, pour chaque époque
donnée, entre ses différents appareillages - et en tous les points de l'espace ; un système
culturel assure, pour un lieu donné et un seul, les cohérences qui se tissent entre les époques et
les générations". Régis Debray, Transmettre, Odile Jacob, Paris, 1997, p. 83.

[209] Régis Debray, loc. cit.

[210 ]Régis Debray, op. cit., pp. 99/100.

[211] Sur cette question de la temporalité propre aux techniques de communication, Bernard
Miège suggère de prendre en compte la question de la "longue durée". Il attire, en effet notre
attention sur la nécessité de ne pas céder à l'idéologie de l'explosion -qui se donne libre cours
dans la quasi-totalité des analyses- pour envisager les transformations d'usages mais aussi de
façonnages des objets communicationnels sur une longue période, par définition inaccessible
à notre regard actuel. Ainsi écrit-il : "...Les usages sociaux des techniques connaissent
rarement de brutales modifications, tout simplement parce qu'ils restent en "correspondance"
avec l'évolution des pratiques sociales, et pour le cas qui nous intéresse présentement, avec les
formes prises par la médiation sociale. Ainsi, une fois encore s'impose à nous l'intérêt d'une
approche par le temps long qui seul peut nous permettre d'inscrire les changements observés
dans le cadre de mouvements de la société repérables." Bernard Miège, La société conquise
par la communication, Tome II : La communication entre l'industrie et l'espace public, Presse
Universitaire de Grenoble, 1997, p. 167.
Table des matières

Index

Les numéros renvoient aux pages de l'édition papier.

Agez, Françoise, 244 (note)


Agret, R., 74
Aigrain, Philippe, 181 (note)
Alberganti, Michel, 46 (note), 277 (note)
Allen, Woody, 47, 194, 195, 219
Alphonsi, Philippe, 74
Amanpour, Christiane, 69
Amkraut, Susan, 174, 237
André, A., 103 (note)
Apollinaire, Guillaume, 22, 24
Arendt, Hannah, 72
Armanetti, Gilles, 196 (note)
Arseneault, Michel, 114 (note)
Ascher, François, 154 (note)
Atlan, Henri, 145 (note)
Aumont, Jacques, 52 (note)

Balazs, Béla, 229 (note)


Balladur, Édouard, 68
Balpe, Jean-Pierre, 45 (note), 174, 178, 182, 197, 198, 199, 200, 201, 202, 203, 205,
221 (note)
Balzac, Honoré de, 194 (note), 228 (note)
Barboza, Pierre, 97 (note)
Barel, Yves, 60 (note), 135
Barlow, J.P., 81 (note)
Barnu, Franck, 34 (note)
Barthes, Roland, 95, 96, 192
Bateson, Gregory, 156
Baudrot, Sylvette, 235 (note)
Beaudoin-Jafon, Michel, 29, 30n
Benayoun, Maurice, 174, 182
Benjamin, Walter, 17, 141, 209 (note)
Bergeron, F., 135
Bergson, Henri, 17, 25 (note), 208, 209, 210 (note), 211, 212, 213 (note), 225, 238
Bianchi, J., 239 (note)
Bilous, Serge, 266 (note)
Binkley, Tim, 219
Blair, Tony, 120
Boissier, Jean-Louis, 49 (note)
Borges Jorge Luis, 227, 228
Bougnoux, Daniel, 89, 94
Brauman, Rony, 72
Bret, Michel, 38
Breton, André, 58, 59
Breton, Philippe, 61, 158 (note)
Briançon, P., 82 (note)
Brun, Jean, 20, 21, 22 (note), 23, 24 (note)
Bullimore, 71

Cadoz, Claude, 38, 39


Callon, Michel, 147 (note)
Carré, Dominique, 246
Castro, Fidel, 67
Charron, Jean-Marie, 127
Chartier, Roger, 62
Chiffot, Jacky(note)
Clark, Dave, 130
Clément, Jean, 222 (note)
Clinton Bill, 81, 110, 120 (note)
Cocco, Giuseppe, 165 (note)
Cookson, Clive, 55 (note)
Couchot, Edmond, 38
Couleau, Christèle, 194 (note), 228 (note)

Dajez, Fédéric, 180 (note)


Darras, Bernard, 38 (note), 70 (note), 218 (note)
Debord, Guy, 61
Debray, Régis, 57, 58, 60, 62, 64, 65, 70, 91 (note), 148 (note), 283, 284 (note)
de Certeau, Michel, 136
de Gournay, Chantal, 47, 50
Deleuze, Gilles 12, 17, 25 (note), 58, 60, 207, 208, 209, 213, 214, 215, 216, 217, 218, 219,
220, 222, 223, 224, 226, 227, 229, 230, 231, 232 (note), 233 (note), 234, 235, 236, 238
Delmas, Patrick, 180 (note)
Denel, Francis, 168 (note)
Derrida, Jacques, 57, 96, 97, 98, 139, 165, 166, 167, 168, 169, 241, 281, 282
Descartes, René, 119 (note)
de Turckheim, Charlotte, 269 (note)
Diderot, Denis, 194 (note), 228 (note)
Dousset, B., 121 (note)
Dreyer, Carl, 235
Drudge, Matt, 110 (note)
Duby, Georges, 154 (note)
Dufour, Franck, 196 (note)
Duplat, Bernard, 34
Duvignaud, Jean, 154 (note)

Eco, Umberto, 193, 194, 199


Eichmann, Adolf, 72
Eisenstein, Elisabeth L, 19 (note), 140 (note), 261 (note)
Escher, Maurice Cornelis, 266
Eudes, Yves, 76 (note), 82 (note), 84 (note), 114 (note), 277 (note)

Fallen, Lennart E., 41, 42 (note)


Feiner, Steven, 31 (note)
Flichy, Patrice, 147 (note), 153 (note)
Foucault, Michel, 262 (note), 268
Fournier, Alain, 216
Freinet, Célestin, 189
Freud, Sigmund, 59 (note), 166, 169

Gaillot, Jacques, 249


Garcia, M., 278
Giddens, Anthony, 282 (note)
Girard, Michael, 174, 237
Giussi, B., 108
Godard, Jean-Luc, 217, 232, 234
Goody, Jack, 140, 281
Goujon, Philippe, 203 (note)
Granier-Deferre, K., 111 (note)
Guillaume, Marc, 52

Habermas, Jürgen, 131


Hegedüs, Agnes, 38, 174
Hudrisier, Henri, 63
Hulten, Eric, 33
Huitema, Christian, 130, 131, 249 (note)
Husserl, Edmund, 208, 222

Ishii, H., 30 (note)

J
Jarre, Jean-Michel, 190 (note)
Jörg, Cristoph, 74
Joubert, Isaac 19 (note)
Juppé, Alain, 68

Kasparov, Gary, 106 (note)


Khamenei, 151
King, David, 68 (note)
Klein, Mélanie, 13 (note)
Kubrick, Stanley, 234
Krumeich, C., 117 (note)
Kundera, Milan, 194n, 228 (note)

Labbé, C., 121 (note)


Lagny, Fabien, 266 (note)
Lanoue, A., 115
Latour, Bruno, 141, 145, 146, 147 (note), 159
Laufer, Roger, 66
Le Bot, Marc, 174
Leblanc, Gérard, 75
Lefebvre-Desnouettes, 154 (note)
Leibniz, Gottfried Wilhelm, 227
Lelu, Alain, 258
Leroy-Gourhan, André, 53, 143
Lévy, Pierre, 105, 134 (note), 144, 158 (note), 185, 187 (note), 241, 252 (note), 259, 265
(note)
Lévinas, Emmanuel, 96
Lewinsky, Monica, 110
Lionet, C., 115 (note)
Lumière, Louis, 67
Lyotard, Jean-François, 173, 174

Maignien, Yves, 262 (note)


Maixent, Jocelyn, 194 (note), 228 (note)
Malaval, Catherine, 74 (note)
Malesherbes, Chrétien 19 (note)
Mallarmé, Stéphane, 199
Mandel, Jean-Louis, 142
Mannoni, Octave, 52 (note)
Marazzi, Christian, 44 (note), 162 (note)
Marin, Louis, 50
Matisson, Jean-Marie, 110
McLuhan, Marshall, 16, 17, 140, 154, 209 (note), 259
Méliès, Georges, 67
Mendeleïev, Dimitri Ivanovitch, 254
Mercier, Pierrre Alain, 246 (note)
Merleau-Ponty, Maurice, 17, 170, 208, 220, 222
Miège, Bernard, 51, 284
Missika, Jean-Louis, 91 (note)
Munari, B., 193 (note)

Negri, Toni, 162 (note)


Nietzsche, Friedrich, 220
Nonogaki, Hajime, 44 (note)
Norman, Sally Jane, 255 (note)

O' Neil, Mathieu, 127 (note)


Oury, Jean, 13 (note)
Ozu Yasujiro, 235

Papert, Seymour, 177


Papon, Maurice, 110
Parnet, Claire, 220 (note)
Parody, E., 118 (note)
Parrish, L., 115 (note)
Pasteur, Louis, 146, 147, 261
Peirce, Charles S., 59, 96
Pentland, Alex, 32
Perriault, Jacques, 115 (note), 247
Perrin, J.-P., 151 (note)
Piacenza, Bruno, 266 (note)
Pickett, R., 255
Platon, 22, 52
Poguszer, Franck, 85 (note)
Pousseur, Henri, 193 (note)
Prince, Bernard, 248
Proust, Marcel, 96, 192

Quéau, Philippe, 259 (note)


Queneau, Raymond, 186, 199

Regaya, Kamel, 52 (note)


Reich, Robert, 161 (note)
Renoir, Jean, 233
Resnais, Alain, 201, 204, 235
Rheingold, Howard, 135, 243 (note)
Richtel, Matt, 112 (note)
Rosenberg, Howard, 69
Rosh, Eleanor, 153 (note)
Roskis, Edgar, 67 (note)
Rouble, A., 117 (note)
Rousseau, O., 121 (note)
Rutkowski, A., 249

Sabatier, P., 81 (note)


Saint Bonaventure, 261 (note)
Saint-Pol-Roux, 22, 23
Sarraute, Nathalie, 84
Schefer, Jean-Louis, 233
Schneidermann, Daniel, 67, 68 (note)
Schopenhauer, Arthur, 220 (note)
Ségura, Jean, 36 (note), 72 (note)
Serres, Michel, 215
Shaw, Jeffrey, 174, 265, 266, 269
Simeray, Alain, 108
Simon, Gérard, 222 (note)
Simondon, Gilbert, 153, 271
Simpson, O.J., 82, 87
Sims, Karl, 182, 221 (note)
Sivan, Egyal, 72
Soulages, Jean-Claude, 75
Stiegler, Bernard, 54 (note), 84, 95, 96, 97, 98 (note), 153, 187 (note), 253

Tchernia Pierre, 68 (note)


Thompson, Evan, 153 (note)
Titien, 24
Türing, Alan, 179

Ulrich, Philippe, 275 (note)

Vaisseyx, G., 143


Valéry, Paul, 21, 23, 24
Varela, Francisco, 145 (note), 153 (note)
Vélasquez, 219
Virilio, Paul, 241, 269, 270, 273
Von Neumann, John, 150 (note)

Welger-Barboza, Corinne, 168 (note)


Welles, Orson, 214, 215, 216
Wiener, Norbert, 23, 24, 25, 26, 55, 103, 158 (note)
Wolton, Dominique, 61, 127

Yoshida Alsuya, 44 (note)

Zarafian, Philippe, 44 (note), 161 (note)


Zinn-Justin, Jean, 109 (note)
Table des matières

BIBLIOGRAPHIE

Avertissement :

Comme tout classement, cette répartition bibliographique pose de délicats problèmes de


frontières que le lecteur pourra déplacer selon ses propres inclinations taxinomiques.

Enjeux culturels et politiques des technologies d'information et de communication

BALPE Jean-Pierre, Hyperdocuments, hypertextes, hypermédias, Eyrolles, Paris, 1990.


BOUGNOUX Daniel, La communication par la bande, La Découverte, Paris, 1993.
BRETON Philippe et PROULX Serge, L'explosion de la communication, La Découverte,
Paris, 1996.
CASTELS Manuel, La société en réseau, Fayard, Paris, 1998.
DEBRAY Régis, L'état séducteur, Gallimard, Paris, 1993.
DEBRAY Régis, Transmettre, Odile Jacob, Paris, 1997. FLICHY Patrice, Une histoire de la
communication moderne, La Découverte, Paris, 1991. GIDDENS Anthony, Les conséquences
de la modernité, L'Harmattan, Paris, 1994.
GUILLAUME Marc (sous la direction de), Où vont les autoroutes de l'information, Descartes
& Cie, Paris, 1997.
HUITEMA Christian, Et Dieu créa l'Internet..., Eyrolles, Paris, 1996.
LAUFER Roger & SCAVETTA Domenico, Texte, Hypertexte, Hypermédias, PUF, Paris,
1992. LEFÉBURE Antoine, GARçON François, Interférences, deux siècles de
communication à distance, MNT/CNAM/AIHTI, Paris 1985. LÉVY Pierre, Cyberculture,
Odile Jacob/Conseil de l'Europe, Paris, 1997.
LÉVY Pierre, L'intelligence collective, La Découverte, Paris, 1994.
LÉVY Pierre, Qu'est-ce que le virtuel ?, La Découverte, Paris, 1997.
McLUHAN Marshall, Pour comprendre les média Le Seuil, Paris, 1968. MARAZZI
Christian, La place des chaussettes, L'Éclat, Paris, 1997
MARCOVITCH Emmanuel, L'Amérique numérique, Le Métafort, Aubervilliers, 1997.
MATTELART Armand, L'invention de la communication, La Découverte, Paris, 1994.
MATTELART Armand, La communication-Monde, La Découverte, Paris, 1992.
MIÈGE Bernard, La société conquise par la communication, Tome 2 : La communication
entre l'industrie et l'espace public, Presse Universitaire de Grenoble, 1997.
MONGIN Olivier, Vers la troisième ville ?, Hachette, Paris, 1995. MUSSO Pierre,
Télécommunications et philosophie des réseaux, PUF, Paris, 1997. NEGROPONTE Nicholas,
L'homme numérique, Laffont, Paris, 1995.
PERRIAULT Jacques, La communication du savoir à distance, L'Harmattan, Paris, 1996.
POSTMAN Neil, Se distraire à en mourir, Flammarion, Paris, 1994.
REICH B. Robert, L'économie mondialisée, Dunod, Paris, 1993.
RHEINGOLD Howard, Les communautés virtuelles, Addison- Wesley, Paris, 1995.
ROSNAY Joël de, L'homme symbiotique, Le Seuil, Paris, 1995.
SERRES Michel, Les messages à distance, Fides, Paris 1995.
VIRILIO Paul, Cybermonde, la politique du pire, Textuel, Paris, 1996.
VIRILIO Paul, L'art du moteur, Galilée, Paris, 1993. WELGER-BARBOZA Corinne, Le
devenir documentaire du patrimoine artistique - Perméabilité du musée aux technologies
numériques, thèse de doctorat, Université de Bourgogne, 1998. WIENER Norbert,
Cybernétique et société, coll. 10-18, Paris,1962.
WOLTON Dominique, Éloge du grand public, Flammarion, Paris, 1990.
ZARAFIAN Philippe, La nouvelle productivité, Paris, L'Harmattan, 1991.

Ouvrages collectifs

Revue Terminal, Spécial Internet, ndeg. 71/72, L'Harmattan, Paris, 1996.


Pour penser la Technique, Alliage, ndeg.20/21, automne-hiver 1994.

Ouvrages sur l'image

ARNHEIM Rudolph, La pensée visuelle, Flammarion, Paris, 1976. AUMONT Jacques, L'oeil
interminable, Séguier, 1989. BARBOZA Pierre, Du photographique au numérique - La
parenthèse indicielle dans l'histoire des images, L'Harmattan, Paris, 1996.
BARBOZA Pierre, Les nouvelles images, Somogy - Cité des Sciences et de l'Industrie, Paris,
1997.
BARTHES Roland, La chambre claire, Les Cahiers du cinéma/Gallimard/Le Seuil, Paris,
1980.
BELLOUR Raymond, L'entre-Images, La Différence, Paris, 1990.
BELLOUR Raymond, DAVID Catherine, VAN ASSCHE Christine, Passages de l'image,
Centre Georges Pompidou, Paris, 1990.
BESANçON Alain, L'image interdite, Fayard, Paris, 1994.
CADOZ Claude, Les réalités virtuelles, Flammarion, Paris, 1994.
COUCHOT Edmond, Images, de l'optique au numérique, Hermès, Paris, 1988.
COUCHOT Edmond, La technologie dans l'art, Jacqueline Chambon, Nîmes, 1998.
DAMISCH Hubert, L'origine de la perspective, Champs- Flammarion, Paris, 1993.
DANEY Serge, Devant la recrudescence des vols de sacs à main, Aléa, Lyon, 1991.
DEBRAY Régis, Vie et mort de l'image, une histoire du regard en Occident, Gallimard, Paris,
1992. DELEUZE Gilles, L'image-temps, Les Éditions de Minuit, 1985.
DELEUZE Gilles, L'image-mouvement, Les Éditions de Minuit, Paris, 1983. DERRIDA
Jacques, STIEGLER Bernard, échographie de la télévision, Galilée, Paris, 1996.
JULLIER Laurent, L'écran post-moderne, L'Harmattan, Paris, 1997.
KING David The Commissar Vanishes, Metropolitan Books, New- York, 1997.
MARIN Louis, De la représentation, Gallimard-Le Seuil, Paris, 1994. MERLEAU-PONTY
Maurice, L'oeil et l'esprit, Gallimard, Folio, Paris, 1964. MONDZAIN Marie-José, Image,
icône, économie, Seuil, Paris, 1996.
QUÉAU Philippe, Virtuels, vertus et vertiges, Champ Vallon/INA, Paris, 1993.
SAUVAGEOT Anne, Voirs et savoirs, PUF, Paris, 1994.
SIMON Gérard, Le regard, l'être et l'apparence dans l'Optique de l'Antiquité, Le Seuil, Paris,
1988.
WEISSBERG Jean-Louis (et al.), Paysages virtuels, Dis-Voir, Paris, 1988. WEISSBERG
Jean-Louis (sous la direction de), Les chemins du virtuel, Centre Georges Pompidou,
Flammarion, Paris, 1989.

Ouvrages collectifs
Destins de l'image, Nouvelle revue de psychanalyse, ndeg. 44, Gallimard, Paris, automne
1991.
Nouvelles technologies - Un art sans modèle ?, sous la direction de Norbert HILLAIRE et
Michel JAFRENNOU, Art Press spécial, ndeg.12, 1991.
Vers une nouvelle pensée visuelle, Réseaux, ndeg.61, CNET, sept. 1993.
Icône Image et Image & média sous la direction de Bernard DARRAS, MEI ndeg.6 et ndeg.7,
L'Harmattan, Paris, 1997. Images numériques - L'aventure du regard (sous la direction de
Odile BLIN et Jacques SAUVAGEOT), École régionale des Beaux- arts de Rennes, Rennes,
1997. Le déplacement virtuel de Lascaux (sous la direction de Jean- Louis WEISSBERG),
Fédération des oeuvres laïques de la Dordogne, Périgueux, 1994`.

Histoire et philosophie de la technique

BENJAMIN Walter, L'oeuvre d'art à l'ère de sa reproductibilité technique, in Essais 1935-


1940, Denoël Gonthier, Paris, 1983.
BRETON Philippe, Une histoire de l'informatique, La Découverte, Paris, 1987. DEBRAY
Régis, Cours de médiologie générale, Gallimard, Paris, 1991. EISENSTEIN Élisabeth, La
révolution de l'imprimé dans l'Europe des premiers temps modernes, La Découverte, Paris,
1991. FLICHY Patrice, L'innovation technique, La Découverte, Paris, 1995. GILLE Bertrand,
Histoire des techniques, Gallimard, Paris, 1978.
GOODY Jack, La raison graphique, Les Éditions. de Minuit, Paris, 1979. GOODY Jack, La
logique de l'écriture, Armand Collin, Paris, 1986.
LATOUR Bruno, La clef de Berlin, La Découverte, Paris, 1993.
LATOUR Bruno, Les microbes : guerre et paix, A. M. Métailié, Paris, 1984.
LEROY-GOURHAN André, Le geste et la parole, tome I : Technique et langage ; tome II La
mémoire et les rythmes, Albin Michel, Paris, 1965.
LEROY-GOURHAN André, L'homme et la matière, Albin Michel, 1973.
LÉVY Pierre, Les technologies de l'intelligence, La Découverte, Paris, 1990.
LÉVY Pierre, L'idéographie dynamique, Le concept moderne/Éditions, Genève, 1991.
PRADES Jacques, La technoscience, L'Harmattan, Paris, 1992.
SIMONDON Gilbert, Du mode d'existence des objets techniques, Aubier-Montaigne, Paris,
1969.
STIEGLER Bernard, La technique et le temps, Galilée, Paris, Tome 1, 1994 et tome 2,1996.
WOOLGAR Steve, LATOUR Bruno, La vie de laboratoire, La Découverte, Paris, 1988.

Philosophie - Épistémologie

ATLAN Henri, A tort et à raison, Le Seuil, Paris, 1986.


BAREL Yves, La société du vide, Le Seuil, Paris, 1984. BERGSON Henri, Matière et
mémoire, PUF, 1985. BRETON André, Manifeste du surréalisme, Folio-Gallimard, 1985.
BRETON André, Qu'est-ce que le surréalisme ?, Actual/Le temps qu'il fait, Paris/Cognac,
1986.
COHEN - TANNOUDJI Gilles (sous la direction de), Virtualité et réalité dans les sciences,
Frontières, Gif sur Yvette, 1995.
COULON Alain, L'ethnométhodologie, PUF, Paris, 1987.
DELEDALLE Gérard, Théorie et pratique du signe : introduction à la sémiotique de Charles
S. Peirce, Payot, Paris, 1979.
DELEUZE Gilles, Logique du sens, Les Éditions de minuit, Paris, 1969.
DELEUZE Gilles, PARNET Claire, Dialogues, Champs, Flammarion, Paris, 1996
DERRIDA Jacques, L'écriture et la différence, Le Seuil, Paris, 1967.
DERRIDA Jacques, Spectres de Marx, Galilée, Paris, 1993.
DERRIDA Jacques, Mal d'Archive, Galilée, Paris, 1995.[]
LATOUR Bruno, Nous n'avons jamais été modernes, Paris, La Découverte, 1991.
LYOTARD Jean-François, L'inhumain, Galilée, Paris, 1988. MERLEAU-PONTY Maurice,
Le visible et l'invisible, Gallimard, Paris, 1964.
PEIRCE Charles S., Écrits sur le signe, Le Seuil, Paris, 1978. VARELA Francisco, Connaître
: les sciences cognitives, Le Seuil, Paris, 1989.
VARELA Francisco, THOMPSON Evan, ROSH Eleanor, L'inscription corporelle de l'esprit,
Le Seuil, Paris, 1993.

Articles cités

Image, recherches sur les interfaces, Réalité Virtuelle

BARNU Franck, Programmer le virtuel, in La Recherche, Mai 1994.


BEAUDOIN-LAFON Michel, Les habits neufs du travail en équipe, Collecticiels et
médiaspace au service de la communication formelle et informelle, in L'ordinateur au doigt et
à l'oeil, Spécial La Recherche, ndeg. 285, mars 1996.
BOISSIER Jean-Louis, Bambous : pour que poussent les images, in Les chemins du virtuel,
Centre Georges Pompidou- Flammarion, Paris, 1989.
FAHLEN Lennart E., DIVE, Actes d'Imagina 1994, INA.
MACKAY Wendy E., Réalité augmentée : le meilleur des deux mondes, in L'ordinateur au
doigt et à l'oeil, Spécial La Recherche, ndeg. 285, mars 1996.
PENTLAND Alex, Smart rooms, smart clothes, in Actes d'Imagina, Monaco, 21 au 23 fév.
1996.
SÉGURA Jean, La panoplie du virtuel, in La recherche, mai 1994, ndeg. 265.
VANDEGINSTE Pierre, Réinventer l'interface ? Ils l'ont fait, Dossier in SVM MAC, avril
1994, ndeg. 50.
YOSHIDA Atsuya et NONOGAKI Hajime, Habitat, in Actes d'Imagina 1994.

Communication, enjeux des technologies intellectuelles

AGEZ Françoise, La carte comme modèle des hypermédias, in Catalogue d'Artifices 4, Ville
de Saint-Denis, 1996.
ASCHER François, Dynamiques métropolitaines et enjeux socio-politiques, in Futur
Antérieur, ndeg. 29, 1995/3, L'Harmattan, Paris.
BALPE Jean-Pierre, Un roman inachevé, in Littérature ndeg.96, Larousse, Paris, décembre
1994.
BIANCHI Jean, Dallas, les feuilletons et la télévision populaire, in Réseaux ndeg. 12, Dallas
et les séries télévisées, CNET, 1985.
BOUGNOUX Daniel, Bis ! ou l'action spectrale, in Les Cahiers de médiologie, ndeg.1,
Gallimard, Paris.
CARRÉ Dominique, Les technologies mobiles, quels enjeux, AFETT-EUROCADRES, Lab.
SIC Université Paris-Nord, fév. 1997.
CHARTIER Roger, Médiologie, sociologie des textes et histoire du livre, in Le Débat, ndeg.
85, mai - août 1995, Gallimard, Paris.
COULEAU Christèle, Balzac interactif ou la virtualisation du sens, in La voix du regard -
Aux frontières du virtuel, ndeg. 10, E.N.S. de Fontenay/Saint- Cloud, mars 1997.
de GOURNAY Chantal, Le deuil de l'image, in Réseaux ndeg. 61, L'Harmattan, 1993.
DEBRAY Régis, à propos du spectacle, in Le Débat, ndeg. 85, Gallimard, Paris. DELEUZE
Gilles, L'actuel et le virtuel in DELEUZE Gilles, PARNET Claire, Dialogues, Champs -
Flammarion, Paris, 1996. DENEL Francis, Les archives de radiotélévision, patrimoine et
objet/sujet de recherche, in Rencontres Médias 1, B.P.I., Centre Georges Pompidou, Paris,
1997,
GOUJON Philippe, Les limites de la vie artificielle "forte", in Raison Présente "Autour du
chaos", ndeg. 115, N.E.R., Paris, 1995.
LAUFER Roger, Mort ou résurrection de la médiologie ?, in Le Débat, ndeg. 85.
LE BOT Marc, L'art ne communique rien à personne" in Art et communication, Osiris, Paris,
1986.
LEBLANC Gérard, Happy ending, in Esprit 1, janvier 1993.
LELU Alain, Interfaçages automatiques d'hypertextes, in Rencontres Médias 1, B.P.I. (sous la
direction de Jean- Pierre BALPE), Centre Georges Pompidou, 1997.
LÉVY Pierre, Métamorphoses de l'écriture, in Communication et lien social, Éd. Descartes et
Cie et Cité des Sciences, Paris, 1992
MAIGNIEN Yannick, La bibliothèque de Michel Foucault, in Rencontres Médias 1, BPI
(sous la direction de Jean-Pierre BALPE), Centre Georges Pompidou, Paris 1997.
MAIXENT Jocelyn, Diderot, Kundera et les romans virtuels : le récit des mondes possibles,
in La voix du regard - Aux frontières du virtuel, ndeg. 10, E.N.S. de Fontenay/Saint- Cloud,
mars 1997.
MERCIER Pierre Alain, Dopo ze bip... Quelques observations sur les usages du répondeur
téléphonique, in Réseaux, ndeg. 82/83, mars/juin 1997, CNET. NEGRI Toni, La première
crise du postfordisme, in Futur antérieur, Paradigmes du travail, ndeg. 16, 1993/2. NORMAN
Sally Jane, L'empire des sens, in Le Monde de l'éducation, avril 1997.
PRINCE Bernard, Les paradoxes de l'Internet, in Terminal, ndeg.74, L'Harmattan, Paris, été-
automne 1997. REGAYA Kamel, Du cinéma à la télévision : quel régime perceptif ? in
Télévisions - La vérité à construire, L'Harmattan, Paris, 1995. ROSKIS Edgar, in Le Monde
diplomatique, Mascarades (décembre 1996), Mensonges du cinéma (novembre 1997) et La
deuxième vie de l'image (avril 1998).
SIMS Karl, Images génétiques, in Revue Virtuelle, Carnet 5, Centre Georges Pompidou, mars
1993.
VIRILIO Paul, OEil pour oeil, ou le krach des images, in Le Monde diplomatique, mars 1998.
WEISSBERG Jean-Louis, La simulation de l'autre, approche de l'interactivité informatique,
in Réseaux ndeg.33, janvier 1989, CNET, Paris.
WEISSBERG Jean-Louis, Virtualités réelles : une phénoménologie appliquée, in Chimères,
ndeg.16, été 1992.
WEISSBERG Jean-Louis, Nouvelles technologies intellectuelles, pensée et langage, in
Terminal ndeg.68, Paris, L'Harmattan, été 1995.
WEISSBERG Jean-Louis, L'augmentation tendancielle du taux de présence à distance, in
Terminal, ndeg. 69, automne 95, Paris, L'Harmattan.
WEISSBERG Jean-Louis, Internet, un récit utopique, in B.P.I. en Actes (sous la direction de
Jean-Pierre BALPE), Actes de l'Observatoire des lectures hypermédias, Centre Georges
Pompidou, Paris, 1997.
WEISSBERG Jean-Louis, Images hybrides : virtualité et indicialité, in MEI, ndeg.7,
L'Harmattan, Paris, 1998.
ZARAFIAN Philippe, Travail industriel, socialisations et liberté, in Futur antérieur,
Paradigmes du travail, ndeg. 16, 1993/2.
ZINN-JUSTIN Jean, L'influence des nouveaux outils informatiques sur la publication des
travaux en physique, in Terminal, ndeg.71/72, 1996.

Revues et ouvrages généraux


- Les carnets de la Revue Virtuelle, Centre Georges Pompidou, 1992/1995. - La Querelle du
spectacle, Les Cahiers de médiologie ndeg.1, Gallimard, Paris, 1996. - Pourquoi des
médiologues ?, Les Cahiers de médiologie ndeg.6, Gallimard, Paris, 1998.
- Enseignement, formation et nouvelles technologies, Dossiers de l'audiovisuel, ndeg.75, La
documentation française/INA, sept/oct 1997.
- Apprendre à distance, hors-série du Monde de l'éducation, sept. 1998.
- Patrimoine et multimédia, Acte du colloque des 23/25 octobre 1996 à la B.N.F., La
Documentation française, Paris, 1997.

Produits, oeuvres et installations multimédias cités

ALMANETTI Gilles, CHIFFOT Jacquy, DUFOUR Frank, "Sale temps", Drame interactif,
CD-Rom édité par Microfolies, 1997.
AMKRAUT Susan et GIRARD Michael, Ménagerie, OEuvre en Réalité Virtuelle présentée
notamment à La Revue Virtuelle, Centre Georges Pompidou, Décembre 1992.
BALPE Jean-Pierre, Un roman inachevé, Roman génératif présenté à la "Revue parlée",
Centre Georges Pompidou, 1996.
BENAYOUN Maurice, Dieu est-il plat ?, Installation présentée à Artifices 3, St Denis,
novembre-décembre 1994.
BILOUS Serge, LAGNY Fabien, PIACENZA Bruno, 18h39, CD-Rom, Flammarion "Art &
Essais", Paris, 1997. BINKLEY Timothy, Watch yourself, installation présentée au Festival
"Vidéoformes" à Clermont-Ferrand en 1994. COUCHOT Edmond et BRET Michel, La
plume et le pissenlit, installation d'image de synthèse interactive, présentée à l'Espace
Landowski, Boulogne-Billancourt, décembre 1998.
HEGEDÜS Agnes, Handsight, installation en Réalité Virtuelle réalisée au Zentrum für Kunst
und Medien de Karlsruhe (Allemagne) et présentée à Artifices 3, Saint - Denis, décembre
1994.
SHAW Jeffrey, Place-A User's Manual installation présentée à Artifices 4, Saint - Denis,
novembre 1996.
SIMS Karl, Genetic Images, installation présentée à la "Revue virtuelle" au Centre Georges
Pompidou, 4 mars 1993.
Croisades, CD-Rom, Index+, 1997.
T-Vision, installation présentée à l'exposition "Voyages virtuels II", 4/8 oct. 1995, Paris.
Paris, CD-Rom, Hazan et 3e Vague, 1995. Le deuxième monde, CD-Rom et site Internet,
Canal+, Paris, 1997.

Vous aimerez peut-être aussi