Académique Documents
Professionnel Documents
Culture Documents
PRÉSENCES À DISTANCE
ÉDITIONS L'HARMATTAN
5-7, rue de l'École-Polytechnique 75005 Paris
Tél 01 40 46 79 20
email : harmattan1@wanadoo.fr
304 pages
Prix : 160 F
Présentation
Ce livre propose une analyse des incidences culturelles de la cyber-informatique autour de la
présence à distance, selon trois idées directrices
- Tendance anthropologique fondamentale (indissolublement culturelle et technique), la
Téléprésence voit augmenter son caractère incarné Désormais, c'est avec notre corps entier
que nous communiquons à distance ou avec des environnements virtuels (jeux vidéo, par
exemple) Au-delà de l'opposition entre présent et absent, se construisent de fines graduations
qui incitent à repenser la relation aussi bien lointaine qu'immédiate
- L'incarnation dans la présence à distance, alimente la crise de confiance envers la télévision,
en particulier Téléprésents, nous exigeons désormais des images incarnées, vivantes : des
moyens pour expérimenter l'actuel -ou le passé- et non plus pour en reproduire de simples
traces Les médias numériques offrent naturellement leurs services pour cette expérimentation
directe de l'information modélisée Mus par un puissant attracteur techno-culturel, nous
substituons progressivement, à l'ancienne figure "cru parce que vu", la formule "cru parce que
expérimentable"
- Les incidences culturelles de la téléinformatique sont paradoxales Et les visions convenues
(catastrophe du "temps réel" ou, à l'inverse, suprématie du savoir comme fondement du lien
social) sont, au mieux, simplificatrices En effet les réseaux numériques fabriquent une forme
de localisation Le temps différé se tisse à l'instantanéité La linéarité est vivifiée par
l'hypermédiation et l'accélération nourrit le ralentissement de la communication Loin de
dessiner un paysage univoque, la téléinformatique métisse anciennes et nouvelles logiques
Ces trois questions offrent autant de vues sur le statut de l'interactivité informatique, les
enjeux politiques de l'apprentissage des langages hypermédias, l'automatisation de la
médiation sur Internet, ou encore certains aspects de l'art numérique en passant par une
relecture de L'image-temps de Gilles Deleuze
Remerciements
Introduction
A - Du spectacte au spectacte
B - La crise de confiance des massmedia
C - La demande de participation traduite par le système télévisuel
D - Vers l'expérimentation de l'information
E - Une expérimentation véridique, sans mise en scène ?
Conclusion
Index
Bibliographie
Table des matières
À Rose
REMERCIEMENTS
J'adresse mes remerciements à Jean-Pierre Balpe dont les judicieux commentaires m'ont
permis de clarifier certaines questions alors que cet ouvrage était encore dans une phase
intermédiaire. De plus, ses travaux ont inspiré certaines de mes réflexions, ainsi qu'en
témoigne l'un des chapitres de ce livre. Ma gratitude va aussi à mes collègues et amis de
l'I.U.T. de Villetaneuse, Pierre Barboza, Frédéric Dajez et Patrick Delmas. Le cadre de travail
élaboré en commun pour imaginer et mettre en place de nouvelles formations au multimédia a
été une incitation permanente pour ouvrir de nouvelles directions de recherche et préciser mes
analyses. Je remercie aussi Claude Poizot pour son travail de correction de ce livre.
Enfin, je ne saurais oublier à quel point au cours de ces dernières années de réflexions
communes, les vues pénétrantes de Toni Negri m'ont, latéralement, fait entrevoir de nouveaux
horizons pour penser à la fois la dynamique propre des télétechnologies et leur efficacité dans
les mutations sociales en cours.
"Il faut prendre à la lettre ce que nous
enseigne la vision : que par elle nous
touchons le soleil, les étoiles, nous
sommes en même temps partout, aussi
près des lointains que des choses
proches, et que même notre pouvoir
de nous imaginer ailleurs - "Je suis à
Pétersbourg dans mon lit, à Paris, mes
yeux voient le soleil" [Robert
Delaunay, Du cubisme à l'art
abstrait] - de viser librement, où qu'ils
soient, des êtres réels, emprunte
encore à la vision, remploie des
moyens que nous tenons d'elle."
Introduction
Pourquoi mettre Présences au pluriel dans le titre de ce livre ? Les "présences à distance"
visent une région particulière, celle des déplacements fluides gérés par les technologies
numériques, mais conçus dans leur dépendance aux "machines" intellectuelles et corporelles
(langage, vision, audition, geste, etc.). Il ne s'agit, ici, ni d'une lecture généalogique, ni d'une
description fidèle du paysage technique et politique des télécommunications. Nous explorons,
en revanche, quelques logiques homogènes aux procédés actuels de déplacements des signes
de la présence en les comparant à celles qui ont gouverné leurs prédécesseurs. Nous ne
présupposons pas que la Téléprésence est appelée à se substituer aux rencontres charnelles
dans les activités humaines. D'où le pluriel qui affecte le terme "présence", exprimant le
développement de solutions intermédiaires entre l'absence et la présence strictes : les
modalités de la présence à distance se multiplient, et surtout, le coefficient corporel augmente
dans ces transports. La Téléprésence agit comme une "forme culturelle" qui redéfinit la notion
même de rencontre (comme d'autres, telles que la photographie ou la télédiffusion
audiovisuelle, l'ont déjà accompli). Nous aurons bien sûr, à nous expliquer sur cette notion de
"forme culturelle" dans ses rapports à la technique en général et aux techniques particulières
qui la sous-tendent. Ainsi -c'est l'une des propositions principales de ce livre- la Téléprésence
transforme l'exercice de la croyance telle qu'elle se concrétise aujourd'hui encore dans la
télévision, parce qu'elle affecte les conditions du déplacement de la présence.
La crise de confiance qui taraude les massmedia dans leur fonction informative entretient, en
effet, des rapports explicites avec la Téléprésence, si l'on admet que la croyance, quel qu'en
soit le vecteur, exige un transport de l'événement (article de presse, enregistrement vidéo,
etc.). On est présent par procuration en lisant un article de presse qui décrit un affrontement
militaire, par exemple. On est témoin par oeil et oreille interposés quand on regarde un
reportage sur ce même conflit. Avec les vecteurs numériques, on est présent aussi, mais de
manière à la fois plus distante et plus intime, dès lors qu'il devient possible d'expérimenter
l'événement par le truchement de son modèle, et non plus d'apprécier la transposition écrite ou
la capture audiovisuelle pratiquée par autrui.
L'invention, à la fin du siècle précédent, des techniques d'enregistrement avait déjà suscité une
prémonition de leur dépassement. Archéologie de la Réalité Virtuelle, ces visions s'étaient
asséchées avec la sédimentation de la radio et de la télévision. Les techniques de simulation
numérique les ont fait passer de l'état de fictions à celui de premières réalisations. Dans un
premier chapitre, nous proposons une définition du mouvement actuel de Téléprésence dans
ses relations aux formes antérieures de déplacement des signes de la présence (écriture,
imprimerie, téléphone, etc.). L'hypothèse centrale d'une augmentation tendancielle du
caractère incarné du transport de la présence y est affirmée en regard de ce qu'offrent les
technologies numériques. Numérisation, modélisation, mise en réseau constituent en effet la
chimie de base de la Téléprésence. Nous centrons notre enquête sur la commutation entre
l'activité humaine et les univers virtuels, c'est-à-dire sur la notion d'interface. Nous tentons en
particulier de montrer que loin d'éliminer le corps et les sensations physiques dans une
supposée fuite en avant de l'abstraction, la Téléprésence les réinjecte au centre de l'expérience
humaine. Cependant, ce retour du corps dans l'expérience virtuelle s'accompagne d'une
redéfinition de la kinesthésie. La Téléprésence ne restitue pas à l'identique les performances
que nous accomplissons habituellement. Elle invente un autre milieu perceptif dans lequel se
concrétisent notamment des mouvements relationnels entre objets et sujets humains,
particulièrement sensibles dans le travail coopératif à distance. Entre la présence en face à
face et l'absence, se construisent donc des graduations sans cesse plus fines qui incitent à
repenser nos conceptions héritées, relatives au partage commun de "l'ici et maintenant" et
corrélativement à la séparation. Comment, dans ces conditions, apprécier les craintes d'une
possible confusion des registres "réels" et "virtuels" ? Peut-on imaginer des transactions à
distance qui rendraient transparents les procédés relationnels au point de les effacer de la
perception des acteurs ? Nous esquissons, pour clore cette partie, une réponse à ces questions.
Le deuxième chapitre, qui offre son sous-titre à ce livre, propose de relier la crise actuelle des
médias de masse à l'accentuation de l'incarnation de la communication. On l'a dit, le
développement de nouvelles formes de présence à distance (réseaux, supports numériques
interactifs) permettent, en effet, un rapport plus intime avec l'événement. Les modalités de la
croyance sont alors recomposées sous la pression de ces exigences de participation plus
intime. Les formules reliant croyance et mise en forme visuelle du monde, qui ont assuré les
beaux jours des techniques d'enregistrement, entrent en crise, inassouvies par la restitution
inerte des prélèvements opérés par les divers systèmes de l'ère de la capture directe
(photographie, radiodiffusion, télévision, etc.). Au prélèvement événementiel, succède
l'épreuve d'une animation simulée de modèles, prolongeant les dynamiques vivantes
auxquelles ils réfèrent. L'hypothèse développée affirme, à l'encontre des discours érigeant la
télévision en pouvoir fascinant absolu, que les massmedia ne souffrent pas d'un trop-plein de
participation mais d'un déficit, et que progressivement se mettent en place, grâce à la
Téléprésence, les moyens d'une expérimentation plus directe de l'information. D'où
l'avènement d'un spectacte, succédant au spectacle. On comprend la multiplication des
tentatives d'intégration, par le système télévisuel, de cette demande participative, de même
que l'on constate les limites intrinsèques des réponses fournies à la quête de réalisme. Est-ce à
dire qu'il n'y aurait plus de mise en forme de l'information, qu'un accès pur de toute médiation
serait désormais possible ? La propension expérimentatrice trouve-t-elle son origine dans
l'existence de technologies qui lui fournissent l'occasion de s'exprimer ? Peut-on relire
d'anciennes analyses élaborées à propos de la photographie, à la lumière de l'importance prise,
aujourd'hui, par les "télé- contacts" ? D'où l'occasion d'avancer quelques hypothèses sur les
nouvelles scénographies qui se construisent dans le contact à distance, dont les "avatars
virtuels" sont l'une des illustrations.
Le chapitre III est spécifiquement consacré à Internet, sous un angle particulier : la question
de la médiation. Poussé par une puissante vague visant à supprimer les intermédiaires
traditionnels (édition, distribution, recherche d'information, etc.), ce nouveau média peut-il
tenir les promesses qui le soutiennent ? Peut-on, en effet, considérer Internet comme un
modèle politique d'organisation sociale anti-hiérarchique, valorisant les relations latérales ?
On discutera, sous trois éclairages différents, la tendance à l'affaiblissement des médiations.
D'abord en observant qu'un autre type de médiation émerge avec le développement du réseau
mondial : l'auto-médiation, fondée sur l'alliance de l'autonomisation et de l'automatisation de
la médiation, alliance que l'espace Internet suscite et fortifie. Ensuite, Internet sera envisagé
comme espace politique propre. Comment les principes démocratiques prônés dans le réseau
sont-ils appliqués au gouvernement du réseau lui-même ? Enfin, sur un tout autre plan, nous
comparerons les deux grandes postures de la navigation interactive (CD-Rom et réseau) dans
leurs rapports à l'idéal d'une autonomie revendiquée. Quel sens donner à l'utopie Internet ? Et
de quel type d'utopie s'agit-il ?
[1] Dissocier lieu et temps : l'état de rêverie éveillée nous en donne l'expérience. Souvenirs,
fantasmes et rêves déclinent toute la gamme des combinaisons possibles. Dans ses formes
extrêmes, cette dissociation devient pathologique. Dans une intervention orale au séminaire
"Pratiques - Machines - Utopie" (Université Européenne de la recherche - Département des
Sciences politiques de l'Université Paris VIII, Paris, 1994), le psychiatre Jean Oury éclairait la
psychose en la décrivant comme un trouble de la présence : un patient qui parlait avec lui dans
son bureau, était, en fait, resté près de l'étang, à côté des canards.
Après avoir posé, dans une première partie, quelques jalons pour une archéologie de la Réalité
Virtuelle, nous préciserons les conditions de ce partage, et ceci dans deux directions, le
perfectionnement des interfaces de communication et la naissance de nouveaux milieux de
présence partagée, tirant profit des ressources abstraites de la télévirtualité. Nous
prolongerons, ensuite, cette enquête en interrogeant les craintes d'un éventuel doublage virtuel
de notre environnement ; craintes qui, tout en créditant la simulation numérique d'un pouvoir
imitatif probablement démesuré, méconnaissent les dimensions proprement créatives des télé-
technologies.
D'Apollinaire à Saint-Pol-Roux
Jean Brun aurait pu également solliciter Paul Valéry qui a, bien entendu, lui aussi anticipé la
télévirtualité. La construction même du célèbre article, La conquête de l'ubiquité, recèle une
vision prémonitoire. Avant de décrire et d'analyser la télé-diffusion de la musique et du son, il
commence par abstraire la forme fondamentale du phénomène : "Sans doute ce ne seront
d'abord que la reproduction et la transmission des oeuvres qui se verront affectées. On saura
transporter ou reconstituer en tout lieu le système de sensations (italique ajouté par le
rédacteur), -ou plus exactement, le système d'excitations- que dispense en un lieu quelconque
un objet ou un événement quelconque" [15]. Pressentant la continuité entre le développement
des réseaux énergétiques (eau, gaz, électricité) et des futurs réseaux informationnels, il
désigne, après la musique [16], le prochain milieu candidat à la télé-exportation : les images
visuelles. "Un soleil qui se couche sur la Pacifique, un Titien qui est à Madrid ne viennent pas
encore se peindre sur le mur de notre chambre aussi fortement et trompeusement que nous y
recevons une symphonie. Cela se fera" [17]. En cela, Paul Valéry ne se situe plus, comme
Apollinaire, sur le terrain de la fiction littéraire mais sur celui de l'extrapolation socio-
technique, soutenu par une intelligence profonde du phénomène. Radicalisant encore son
pressentiment, il s'interroge : "Je ne sais si jamais philosophe a rêvé d'une société pour la
distribution de Réalité Sensible à domicile" [18]. Les majuscules élèvent l'intuition au rang de
concept, rejoignant, cinquante ans auparavant, les mêmes marquages typographiques qui
affectent la Réalité Virtuelle lorsque les ingénieurs américains des années soixante-dix la
baptisèrent et signifièrent ainsi l'invention d'un nouveau milieu de "Réalité Sensible".
Dans Cybernétique et société, paru aux États-Unis en 1950, Norbert Wiener, l'un des
principaux créateurs du mouvement de la cybernétique, propose une argumentation visant à
établir la possibilité théorique de l'enregistrement et de la transmission du vivant. Il s'agit là
d'un tournant dans le projet de transfert de présence, car pour la première fois c'est une
argumentation scientifique, et non une spéculation visionnaire, qui est avancée.
Indépendamment du degré de pertinence du propos, ce changement de registre mérite d'être
souligné. Wiener ne décrit pas simplement le projet, il indique comment il faut le réaliser.
L'idée maîtresse, conforme à l'esprit conquérant de la cybernétique, repose sur une conception
"immatérielle" du corps, sa définition informationnelle, énergétique. "L'individualité du corps
est celle de la flamme plus que celle de la pierre, de la forme plus que celle d'un fragment
matériel ; cette forme peut être transmise ou modifiée, ou doublée" [19]. La définition
énergétique de la matière annonce sa définition informationnelle : "Nous ne sommes que les
tourbillons d'un fleuve intarissable, non-substance qui demeure, mais modèles qui se
perpétuent, [...] l'idée selon laquelle on pourrait imaginer non seulement le voyage par train ou
par avion, mais aussi par télégraphe, n'est pas absurde en soi, si loin qu'elle doive être de sa
réalisation" [20]. L'idée générale est de remplacer un corps humain par son double
informationnel, de le transmettre et de le reconstituer à distance par une sorte de synthétiseur
de présence. Affirmant que l'obstacle technique n'est que provisoire, il ajoute que cette
reconstitution totale d'un organisme vivant ne serait pas "plus radicale que celle subie
effectivement par le papillon au cours de sa métamorphose" [21]. Un tel projet se rapproche
clairement de la synthèse numérique. Il demeure partiellement organisciste : on s'attache à la
constitution d'une matière modélisée, -la comparaison avec la chrysalide atteste qu'il s'agit
toujours de mutation organique- et on l'expédie grâce à une transmission substantielle. Mais
l'évocation de la synthèse informationnelle rapproche le projet de la logique numérique et
même de la Réalité Virtuelle. Observons que les voies imaginées par Wiener ne sont pas du
tout, actuellement tout au moins, celles qu'empruntent les ingénieurs de la Téléprésence. Ils
oeuvrent dans le champ de la synthèse de la présence perceptive (image, son, tactilité, effort)
et n'envisagent pas le moins du monde de se lancer dans des projets de synthèse et de
transport substantiel du vivant (aujourd'hui, ils en seraient, de toute manière, bien incapables).
La présence est une notion à la fois évidente et floue. Unité de lieu et de temps définissent la
présence physique, et encore [22]. Mais les espaces-temps mentaux -ce à travers quoi on est
physiquement présent- sont, eux, multiples. Leurs topo- chronologies ne sont pas
descriptibles. On n'est jamais là et à l'instant où l'on croit. On s'expatrie continuellement...
surtout à l'état immobile. Pour élargir les fondements d'une archéologie de la Réalité
Virtuelle, ces quelques références devraient être complétées par de plus amples investigations,
relatives notamment :
- à l'espace langagier : mise en commun entre des sujets s'opérant toujours par le détour
abstrait d'un tiers symbolisant, et rendant de ce fait illusoire tout espoir d'une communication
im-médiate,
- à la notion de marché, ajustement plus ou moins spontané des acteurs économiques sans
qu'ils soient directement en contact,
-à la présence divine (vue comme présence à distance) dans ses différentes versions :
prophétique et donc portée par le discours ou le texte (tradition juive), incarnée et imagée
(tradition chrétienne en n'oubliant pas la position jésuite, moderne avant la lettre : image qui
se donne comme telle appelant à être appréciée pour ses qualités sensibles et non pour sa
signification).
- au fétichisme : prendre la partie pour le tout est une forme de présence à distance opérant par
mobilisation d'un objet partiel remplaçant la totalité (qu'il s'agisse de satisfaction sexuelle,
d'opération langagière ou de substitution maternelle grâce à un "objet transitionnel"),
Dans notre enquête, nous rencontrerons certaines de ces directions même si nous privilégions
plutôt les traits socio- techniques de la Téléprésence.
Wiener avait vu juste lorsqu'il préconisait de réaliser le doublage informationnel d'un corps
pour, ensuite, le télé-déplacer. Il prévoyait ainsi l'interdépendance entre la simulation
informatique et l'expansion des réseaux numériques, qui constituent aujourd'hui les deux cas
d'emploi du terme "virtuel" [23]. Mais le cybernéticien, tout comme ses prédécesseurs de
l'avant-dernier siècle, demeurait prisonnier d'une vision réaliste du doublage. Il s'agissait bien
de reconstitution à l'identique. Or les réalisations actuelles démontrent que la virtualisation ne
réplique pas des univers de référence, elle invente, à partir d'eux, de nouveaux mondes. Ainsi
exprime-t-elle sa puissance générative. Notre investigation de la Téléprésence est fondée sur
un mouvement en quatre temps qui explicite la notion de déplacement informationnel et
caractérise ses phases :
- la production d'une représentation formelle de l'objet à déplacer pour qu'il puisse passer par
le filtre d'un réseau numérique,
- l'accroissement des caractères incarnés des représentants ainsi obtenus (ajout de l'image au
son pour accéder à la visiophonie, passage à la troisième dimension dans Internet, par
exemple),
- dans cette tentative mimétique déjouée, naissance d'un espace propice à la création de
formes hybrides soumettant le double informationnel de l'objet source -rendu transportable- à
de nouvelles modalités cognitives et actives (comme le multifenêtrage, hybride entre la
multiplicité des espaces d'un bureau réel et la bi-dimensionalité de l'écran ou encore l'usage
du regard pour se déplacer dans les espaces de Réalité Virtuelle).
Il s'agit donc de préciser et d'illustrer ces quatre opérations. Nous envisageons les relations
entre les phases d'imitation et d'invention comme une manière d'analyser les réalisations et les
projets en cours, de les soumettre à une même interrogation discriminante. Cette interrogation,
relève, par ailleurs, d'une problématique beaucoup plus vaste, que nous ne ferons que
suggérer, englobant le champ de la dynamique technique, comme mouvement de création en
tant que telle : imitation, détournement, inflexion de la nature, par d'autres moyens que la
nature, et donc création, de fait, d'un nouveau milieu naturel/artificiel [24].
Modéliser et transporter
La première opération de la Téléprésence consiste à traduire numériquement les composantes
appelées à être déplacées (voix, image, éventuellement efforts physiques) [25]. De même, les
éléments de l'environnement sujets à interactions sont transcrits (espaces documentaires, lieux
de travail comme dans la Bureautique virtuelle). Enfin, les interfaces spécifiques nécessaires
sont installées pour animer ces univers (de la définition des zones sensibles dans l'écran aux
organes de commandes gestuels tels que les souris et joysticks - jusqu'aux interfaces de
Réalité Virtuelle comme les gants de données, casques d'immersion, etc.). Ce premier
mouvement s'adosse à la simulation informatique qui affine sans cesse ses capacités à
produire des modèles numériques fonctionnels des objets et systèmes qu'elle prend pour cible.
Dans un deuxième temps, on transporte, via des réseaux adaptés, ces éléments modélisés. Une
grande variété d'applications concrétise cette double opération qui, de l'enseignement à
distance au télétravail en passant par le déplacement d'oeuvres ou de musées et les facultés
inédites de travail coopératif à distance, combine différents composants (textes et graphismes
avec ou sans image de l'interlocuteur, réception des efforts physiques à distance, etc.). On ne
fera pas ici la typologie de ces configurations, nous réservant par la suite d'approfondir
certains exemples, en particulier dans le domaine de la Réalité Virtuelle, qui concentre le plus
grand nombre de canaux perceptifs.
Simuler et déplacer, ces deux opérations recouvrent les deux cas d'emplois du terme "virtuel".
Le premier, la modélisation numérique, désigne une variation d'existence. De la réalité de
premier ordre, empirique, on passe à une réalité de deuxième ordre, construit selon les règles
de la formalisation physico-mathématique. La deuxième acception du terme"virtuel" relève
d'une variation de distance, et c'est là que prend place le transport par réseau. On parle
d'entreprises, de casinos, ou de communautés virtuels pour désigner des institutions, ou des
personnes, éloignées et qu'on ne peut atteindre qu'à travers le réseau. Et cet éloignement est le
fruit de leur modélisation numérique préalable, condition pour qu'ils puissent se glisser dans
les mailles du réseau. On entre en rapport effectif avec un ensemble de signes traduisant leur
présence (textes, voix, images, etc.) dans une forme mue par des programmes informatiques.
Cette animation automatique par programmes donne consistance à l'appellation "virtuel".
Sinon, il s'agirait d'une simple télé-communication, comme avec le téléphone. (On peut parler,
par exemple, de "casino virtuel" sur Internet parce qu'un modèle de casino fonctionne sur un
serveur, à distance). Le "virtuel" de la simulation ne s'oppose pas au "virtuel" des réseaux, il
le prépare. Ces accommodations numériques ne sont certes pas anodines et il ne faudrait pas
laisser croire qu'elles se contentent de répliquer les phénomènes et les relations situés à leur
source. Elles ne se limitent pas à filtrer la communication à distance. Elles sélectionnent,
surtout, les matériaux qui se prêtent à une transmission (ainsi l'odorat, malgré les récentes
recherches en cours, est couramment délaissé au profit de l'image plus valorisée
culturellement et... facilement modélisable). La forme des entités déplacées, tels les "avatars
virtuels", est strictement dépendante de ces sélections opérées. Tel "avatar" privilégiera la
qualité graphique des costumes, un autre la qualité sonore, un autre encore la conformité
photographique du visage. C'est dire si ces transpositions altèrent et redéfinissent les acteurs
engagés ainsi que leurs relations.
Avec le développement des organes intuitifs de commande des ordinateurs, dans les années
quatre-vingt, la notion d'interface a d'abord désigné les organes matériels de communication
homme/machine (tels que le clavier, la souris ou les leviers de commande) ainsi que
l'organisation dynamique des affichages à l'écran (multi-fenêtrages et menus déroulants). Dix
ans plus tard, avec la vague du multimédia, la diffusion du CD-Rom et d'Internet, une autre
signification s'y est adjointe, dès lors qu'il devenait possible d'activer directement les objets
sur l'écran. La notion d'interface graphique est apparue, désignant à la fois les outils de
navigation dans un programme multimédia ainsi que l'organisation logique de l'application,
telle qu'elle apparaît sur l'écran.
Nous réservant de reprendre plus avant cette dernière acception de la notion d'interface, nous
centrerons, ici, notre analyse sur son versant externe, matérialisé par les équipements de
commutation entre l'expression humaine et les univers virtuels, tels que : éditeurs partagés,
affichage vidéo, visio et audio-casques, gants capteurs, costumes de données, senseurs, exo-
squelettes, systèmes à retour d'efforts ou leviers de commandes multi-usages.
Le travail de groupe sur les mêmes sources numériques (architecture, dessin industriel, etc.) a
rendu nécessaire la mise au point d'<<éditeurs partagés>> assurant la collectivisation de toute
modification individuelle apportée au projet, ceci afin d'échapper à l'imbroglio résultant de la
circulation simultanée (par disquette ou courrier électronique) de plusieurs versions d'un
même travail. Manipuler des objets communs est une chose, échanger à propos de cette
activité en est une autre. Comme l'explique Michel Beaudoin-Lafon, directeur du Laboratoire
de Recherche Informatique à l'Université Paris-Sud : "En effet, le processus de production de
l'objet est aussi important que le résultat de ce processus, particulièrement dans les tâches à
couplage fort (nécessitant une très forte interaction entre les participants, comme dans le
brainstorming). Par exemple, lorsque l'on fait un croquis pour expliquer une idée, on fait
constamment référence à cette figure par des gestes. Il faut donc donner les moyens à chacun
de percevoir les actions des autres et pas seulement le résultat de ces actions" [26]. Plusieurs
systèmes prennent en compte cette dernière faculté en affichant sur les documents, les
positions des pointeurs activés par les participants ou encore en délimitant, par des dégradés
de couleurs, les zones que chacun affiche sur son écran, de telle manière que chacun puisse
voir ce que regardent les autres.
Le partage, à distance, d'espace de travail est aussi l'objectif visé par le système ClearBoard
[27]. L'image vidéo de l'interlocuteur est superposée à la surface de travail sur l'écran de
l'ordinateur, si bien que les deux personnes ont l'impression de travailler à modifier un plan,
par exemple, en étant situées de part et d'autre d'une vitre transparente sur laquelle s'affiche ce
plan. L'espace de travail se confond alors avec l'espace de communication. C'est l'une des
concrétisations de la notion de mediaspace, espace commun de travail à distance sur des
ressources multimédia, mobilisant principalement ordinateur, caméra vidéo et microphone,
prolongeant des équipements habituels (courrier interne, téléphone, messagerie, etc.).
Ces recherches ont mis en lumière la nécessité de respecter les échelles de disponibilité de
chacun des participants à un médiaspace, en particulier lorsque tous partagent des locaux
contigus (laboratoire, ensemble de bureaux d'un service, etc.). Dans ces conditions, autant les
espaces communs (cafétéria, bibliothèque) sont toujours accessibles, autant les postes de
travail personnels peuvent alors être protégés d'une incursion intempestive par de subtiles
procédures qui vont de l'affichage d'une porte sur l'écran (ouverte, entrouverte -il faut alors
frapper- ou fermée) au "coup d'oeil" lancé vers l'écran d'un collègue pour le saluer brièvement
ou vérifier qu'il est disponible. D'autres codes sociaux gouvernant l'établissement d'un contact,
telle la graduation de l'approche permettant progressivement l'installation de la relation, se
révèlent plus difficile à reproduire. Avec les écrans, les transitions sont difficiles à ménager :
l'image apparaît soudainement. Des propositions sont à l'étude pour y remédier.
En tout état de cause, on peut déjà observer que le doublage des relations de proximité
ordinaire par des dispositifs techniques, tout en tenant compte des contraintes sociales locales,
les modifie en instaurant un double système de relation. Ces systèmes imprégnés des
contraintes dues à la séparation physique, inventent de nouvelles mises en forme des espaces
de travail ; c'est cela qui les distingue d'une simple télétransmission et qui rend indispensable
une modélisation préalable du fonctionnement des interfaces élaborées. On retiendra, de plus,
que les mediaspaces -a priori conçus pour donner la sensation d'un espace commun entre des
équipes éloignées- sont aussi expérimentés dans des institutions à localisation unique.
Toute invention d'interface est un nouveau circuit reliant réalité de premier ordre et réalité
modélisée. Les exemples qui suivent indiquent différentes voies par lesquelles la
commutation réel/virtuel s'établit. On ne saurait trop souligner l'importance de l'une de ces
directions : l'alliage de l'objet matériel et de sa modélisation virtuelle. Le projet Karma,
développé par une équipe de l'Université de Columbia (New-York) permet d'ajouter à la
vision ordinaire d'un équipement, une vue synthétique tridimensionnelle permettant de faire
fonctionner celui-ci. L'imprimante tombe-t-elle en panne ? Il suffit de mettre une paire de
lunettes, forme simplifiée d'un casque de vision de Réalité Virtuelle. Le squelette fonctionnel
apparaît. Il ne reste plus qu'à manoeuvrer les boutons, leviers et autres manettes virtuelles
permettant d'ouvrir un capot, faire glisser un tiroir, activer un mécanisme et en observer les
conséquences ; le tout en simulation, bien entendu [28]. Ainsi, la Réalité Virtuelle surimpose
à la vision ordinaire de l'objet une vue chirurgicale fonctionnelle, autorisant la manipulation
simulée de l'objet. Les interfaces matérielles (organes de commandes de l'appareil) ont ainsi
été doublés par leurs équivalents virtuels.
Dans le même registre, d'autres recherches ont pour objectif la disparition du support
d'affichage lui-même : plus d'écran à regarder ni de lunettes à porter. Dans la filiale
européenne du P.A.R.C. de Xerox, installée à Cambridge (Grande-Bretagne), P. Wellner
dirige un projet nommé Digital Desk qui élimine les interfaces habituelles (clavier, souris,
etc.). Sur le bureau s'affichent directement les données issues d'un projecteur numérique en
surplomb relié à un système élaboré de vision artificielle capable d'interpréter certains gestes
et de reconnaître des données montrées du doigt sur le bureau, par exemple. Les activités
médicales constituent aussi un important champ d'expérimentation pour ces interfaces plus
naturelles. Ainsi, un institut allemand a conçu une table de consultation destinée à l'initiation à
l'anatomie [29]. Plusieurs étudiants, équipés de lunettes à cristaux liquides, peuvent observer
l'un d'entre eux, disposant d'un "gant de données", manipuler une image tridimensionnelle
d'un corps humain projeté sur la table lumineuse. Squelette, système circulatoire, respiratoire,
etc. peuvent être, tour à tour et simultanément, visionnés ou auscultés. Ici, l'écran individuel a
été remplacé par un équipement permettant de collectiviser l'apprentissage.
Réalité animée
Les "réalités prolongées" assouplissent des objets qu'on plie selon nos quatre volontés, c'est-à-
dire incorporent certaines dimensions subjectives humaines dans leur mode de manipulation.
Dépositaires d'une réactivité, d'un réglage comportemental, ils s'ajustent à nos comportements
et s'auto-définissent dans un rapport adaptatif. Les recherches sur les smart rooms et smart
clothes élargissent ainsi la notion d'objets interactifs. Citons Alex Pentand, l'un des
responsables de ce programme de recherche au Medialab du M.I.T. à Boston : "It is now
possible to track people's motion, identify them by facial appareance, and recognize their
actions in real time using only modest computational resources. By using this perceptual
information we have been able to build smart rooms and smart clothes that have the potential
to recognize people, understand their speech, allow them to control computer displays
without wires or keyboards, communicate by sign language, and warn them they are about to
make mistake" [30]. Au-delà de l'usage d'ordinateurs, de vastes perspectives sont ouvertes
pour élaborer des objets sensibles, cartes de crédit qui reconnaissent leur propriétaire, sièges
qui s'ajustent pour nous garder éveillés et à l'aise, chaussures qui savent où elles se trouvent.
Transformer les objets qui nous entourent en assistants personnels, tel est l'objectif poursuivi.
C'est ce même objectif que visent les "robots chercheurs", dans le domaine documentaire, afin
de doter des programmes de capacités à reconnaître et à interpréter les actions de l'opérateur
dans le balayage de banques d'informations. On demande, par exemple, à un programme de
traiter une requête telle que : "Trouvez-moi les trois livres les plus intéressants sur les
nouveaux projets d'interfaces". Connaissant les centres d'intérêt du demandeur, la nature de
ses requêtes récentes, les articles qu'il écrit, celui-ci parcourra un ensemble de banques de
données, consultera les "abstracts" et autres listes de mots-clés dans les bases de données qu'il
jugera les plus appropriées. La mise au point de tels agents "intelligents", dont nous utilisons
des versions simplifiées sur Internet, est, depuis plusieurs années, au centre des activités de
l'Advanced Technology Group d'Apple visant à enrichir les interfaces graphiques -basées sur
le multifenêtrage et les menus déroulants- popularisés par le bureau du Macintosh. Le maître
mot est celui de délégation. Ajoutons "de compétence". Il faut pour cela que des programmes
puissent avoir accès à nos habitudes et soient en mesure d'acquérir des informations sur nos
centres d'intérêt sans que nous soyons obligés de leur faire subir un fastidieux apprentissage
sur le modèle des systèmes experts actuels. Eric Hulten, responsable du Human Interface
Group dans ce laboratoire d'Apple, explique : "De fait, nos ordinateurs savent déjà bien des
choses sur nous : leurs disques durs contiennent les coordonnées de nos interlocuteurs, notre
agenda, nos ressources et dépenses... Ils pourraient en apprendre encore plus dans notre
courrier électronique" [31].
Ces recherches sont à rapprocher de celles entreprises dans un autre cadre : l'intelligence
artificielle distribuée. Il s'agit de fournir à des agents autonomes certaines compétences
limitées leur permettant de conduire une activité de manière autonome, l'association de ces
conduites pouvant aboutir à résoudre des problèmes (comme le jeu du pousse-pousse ou le
Rubix's cube). Dans cette approche, point n'est besoin d'un programme de résolution global.
On installe une scénographie et un jeu d'acteurs qui, une fois définies les conditions initiales
et l'objectif souhaité, enchaînent eux-mêmes les actions nécessaires pour résoudre le
problème. Ces méthodes, dites de programmation multi-agents, sont utilisées, en particulier,
pour modéliser l'évolution d'une situation aussi complexe que la vie d'une fourmilière ou
étudier la dynamique d'évolution de robots adaptatifs dont la morphologie évoluera en rapport
avec l'accomplissement plus ou moins réussi de certaines tâches comme la recherche dans
leur environnement et le transport de certains matériaux (minerai, débris, etc.).
Symbolique amplifiée
Autre exemple, l'Institut Français du Pétrole utilise une interface de navigation permettant de
circuler dans une base de données scientifiques tridimensionnelle. L'interaction avec un
modèle virtuel abstrait permet, en effet, de mieux comprendre le fonctionnement de systèmes
complexes tels que la modélisation moléculaire (utilisé chez Glaxo) ou l'analyse de données
financières, affichées dans un espace tridimensionnel. La mise au point de ce type d'outil peut
ainsi faciliter l'analyse de systèmes à plusieurs paramètres, ce qui est impossible avec tout
autre moyen. L'objectif est de maîtriser des systèmes d'informations complexes et de grande
dimension (supervision de processus industriel, outils de vigilance ou de décision pour les
contrôleurs aériens, etc.) [33]. Ces outils symboliques, loin d'imiter la réalité empirique,
donnent forme à des mixages de représentation réalistes et d'espaces cognitifs, radicalisant
ainsi ce qu'ont préparé, avant eux, nombre de techniques d'inscription (dessins d'architecture,
dessin industriel, etc.). Mais ici la fonction représentative est augmentée d'une mission
directement opérationnelle.
Nous avons décrit et commenté des recherches avancées qui donnent le sentiment, justifié,
qu'il s'agit de prototypes nullement stabilisés sur le plan technique et dont la large diffusion
est loin d'être garantie. Nous savons bien que les voies qui conduisent une innovation de
laboratoire à un usage étendu sont impénétrables. Mais notre recension n'a pas un objectif
prospectif. Elle indique une direction générale, laquelle se concrétisera selon des trames
encore mal dessinées. Les jeux vidéos sont, évidemment, l'un des principaux vecteurs de
diffusion de l'augmentation sensorielle. Nous en voulons pour preuve, par exemple, la mise
sur le marché des jeux vidéos, d'interfaces de " retour d'effort" qui étaient, il y a peu encore,
l'apanage de laboratoires ou de professionnels spécialisés [34]. Ainsi, pour les courses
d'automobile, le constructeur américain ACT Labs propose un volant sensible qui transmet les
moindres cahots du bolide engagé dans l'épreuve. Microsoft, pour sa part, commercialise
depuis décembre 1997, le dispositif SideWinder -manche à balai rétroactif contrôlé par
repérage de position optique et muni de deux moteurs- qui vibre si l'on roule sur une chaussée
déformée et oppose une résistance croissante dans les virages si la vitesse augmente. En
simulation de vol, il propage les efforts selon les conditions de vol et le type d'avion utilisé et,
dans les jeux guerriers, provoque un recul variable selon qu'on actionne une arme à répétition
ou un canon. Dès 1998, une société américaine mettait sur le marché The Intensor Tactile
Chair, chaise conçue pour les jeux vidéos. Équipée de haut-parleurs, elle réagit aux
différentes phases du jeu grâce à ses vibreurs disposés dans le dos et sous le siège. Dans la
même perspective générale, les systèmes de Réalité Virtuelle qui jusqu'à présent demeuraient
l'apanage de laboratoires scientifiques ou de lourds équipements de jeux d'arcades, semblent
pouvoir se répandre dans les foyers. Des améliorations techniques notables (suppression des
retards d'affichage des images lors des mouvements brusques, par exemple) ainsi qu'une
spectaculaire baisse des prix [35] laissent entrevoir l'ouverture des marchés grands publics.
Déjà en Novembre 1998, IBM présentait un micro-ordinateur portable (moins de trois cents
grammes) contrôlable à la voix, avec des lunettes spéciales en guise d'écran d'affichage. Et en
décembre 1998, Sony annonçait la mise sur le marché de Glasstron, écran visuel portatif
connecté à un DVD, récréant à quelques centimètres des yeux l'impression d'une écran de plus
de plus d'un mètre de large, situé à deux mètres de distance ; l'image est paraît-il de grande
qualité et l'impression saisissante [36].
Au delà de la maturation et de la sélection des systèmes qu'assure le champ des jeux vidéos
ainsi que l'expansion des technologies mobiles (téléphonie évoluée, postes légers de
connexion à Internet, etc.) ce qui nous semble pouvoir être retenu, c'est la direction générale
prise vers le prolongement virtuel des objets quotidiens d'une part et la multi-sensorialité de
l'autre.
D - Le retour du corps
On a souvent mis l'accent sur le versant "immatériel" des technologies du virtuel. En fait, rien
de tout cela n'est vraiment immatériel, c'est le type de matérialité qui se modifie :
miniaturisation, approche de certaines limites physiques des composants, flux opto-électro-
magnétique, vitesse de commutation des états (avec le méga-hertz comme unité), fluidité de
l'imagerie informatique. Avec la Réalité Virtuelle, un tout autre volet se découvre. Une partie
majeure du savoir-faire des ingénieurs s'investit dans l'invention et la mise au point
d'interfaces destinées à assurer la conjonction entre les univers virtuels et notre corps. La liste
est longue des trouvailles et autres ingénieux dispositifs qui assurent ces fonctions [37].
Bien que ne relevant pas directement de la Réalité Virtuelle, signalons que des logiciels de
simulation permettant l'exploration sensible de la résistance d'objets tridimensionnels grâce à
la souris sont déjà expérimentés. Équipés de systèmes à retour d'effort, la souris restitue les
sensations de résistances lors de l'auscultation d'objets modélisés apparaissant à l'écran.
C'est bien notre corps, considéré comme sujet de la perception, qui revient au centre de ces
recherches. La mise en correspondance généralisée avec les environnements simulés par la
Réalité Virtuelle souligne l'importance des équipements de connexion, hybridant nos sens aux
expériences virtuelles. L'extrême malléabilité des productions simulées (sons, images,
mouvement, perception tactile, efforts physiques, etc.) exige des interfaces matérielles, on ne
peut plus visibles et palpables.
On doit ici faire mention d'une tendance des recherches actuelles visant à diminuer la lourdeur
de ces interfaces : caméras analysant la position tridimensionnelle des mains, dispositifs
déterminant la direction du regard, etc. Ce qui retient l'attention, c'est la prise d'information
directe sur le flux perceptif : capteurs bio-électriques destinés à enregistrer la contraction des
muscles et à en déduire les trajectoires gestuelles, caméras alimentant des réseaux neuronaux
pour reconnaître la disposition des mains devant un écran, enregistrement des mouvements
oculaires, lasers inscrivant directement l'image sur la pupille. Même s'ils s'allègent, ces
appareillages ne pourront s'effacer totalement, car ils organisent la commutation de nos
actions perceptives avec les mondes virtuels. Plus on souhaitera affirmer le réalisme des
interactions avec ces mondes (et ceci est une logique majeure), plus cette commutation
occupera le centre de la scène virtuelle. D'où la vitalité des recherches en matière d'interfaces,
recherches qui, dans le même mouvement, inventent des modalités inédites de fréquentation
d'univers virtuels.
Il n'est pas étonnant que les investigations artistiques de l'univers de la Réalité Virtuelle,
privilégient l'invention, l'adaptation ou le détournement de telles interfaces. L'intelligence
sensible de nombre d'artistes s'investit ainsi dans la création de situations propices à induire
une suspension du temps ou un trouble dans la situation spatiale. Ces interventions ont
souvent en commun d'échanger ou de combiner, grâce aux interfaces conçues, les activités
perceptives. Citons, à titre d'exemple, l'installation Handsight d'Agnes Hegedüs [38]. Le
visiteur introduit, avec sa main, un globe oculaire dans un globe en Plexiglas vide et
transparent. Le globe est, en fait, un capteur qui explore un univers virtuel, décalé d'une
bouteille "de patience" de la tradition hongroise (exposée à coté). Les déplacements manuels
provoquent le calcul d'images affichées sur un grand écran.
Tenir son oeil au bout de sa main, tel est le collage perceptif que nous propose l'artiste,
indiquant ainsi qu'un vaste mouvement d'échange et de combinaison des perceptions est
aujourd'hui en cours, sous l'impulsion de leur traduction numérique. Des applications à
caractère fonctionnel, dans la communication dite "multi-modale", exploitent les mêmes
directions : saisir avec l'oeil (tir des pilotes de chasse) ou commander à la voix.
Avec La plume et le pissenlit d'Edmond Couchot et Michel Bret [39,] le souffle, métaphore de
la vie corporelle s'il en est, devient l'interface d'effeuillage de l'image numérique. On aura
compris qu'il s'agit de souffler sur un capteur pour détacher les fleurs du pissenlit ou faire
s'envoler la plume, qui retombe conformément aux lois de la résistance de l'air. Le souffle,
comme le dit Edmond Couchot, "implique le corps de manière discrète mais très profonde".
Claude Cadoz, dans une très intéressante étude sur la place des sensations physiques dans la
communication avec l'ordinateur, rappelle les trois fonctions principales du canal gestuel [41].
Outre une mission sémiotique évidente (le geste accompagnant la parole afin de situer la
nature du propos), le canal gestuel possède aussi des fonctions épistémiques et "ergotiques".
La fonction épistémique prend en charge la "perception tactilo-proprio-kinesthésique". Elle
permet d'apprécier des qualités telles que la température, la forme, la texture, les mouvements
d'un corps. La dimension "ergotique" (de "ergon", travail en grec) tient à ce que le rapport à
notre environnement n'est pas exclusivement informationnel, il est aussi énergétique. Si l'on
serre un gobelet en plastique, on le déforme. La spécificité du canal tactile est de modifier
l'état de la source qui le stimule.
On semble ici aux antipodes d'une réflexion sur le statut des images si tant est que ce qui
caractérise notre relation aux images optiques (aussi bien qu'à celles qui sont faites à la main),
c'est précisément l'intégrité dont elles bénéficient lors de tout acte contemplatif. La Réalité
Virtuelle assure, de manière emblématique, la jonction entre l'univers informationnel et
l'univers énergétique/mécanique, relativisant ainsi la coupure que la cybernétique des années
cinquante avait établie entre énergie et information. Les notions d'interaction, de retour
d'effort du virtuel vers le réel [42] illustrent notamment ce mouvement. "Il existe des
situations communicationnelles où la dépense d'énergie est nécessaire" [43] comme la
communication musicale, rappelle Claude Cadoz. De même, dans certaines activités, comme
la danse, la fonction ergotique du geste ne peut être séparée de sa fonction sémiotique.
Il est vrai que le toucher, comme le geste, souffre de connotations négatives qui mêlent les
interdits sexuels à cette dimension, peut être encore plus fondamentale, d'altération de l'objet.
Le primat du contemplatif, de la présence à distance non interventionniste, au détriment du
contact physique va de pair avec un certain puritanisme qui n'est plus de mise. L'iconophilie
contemporaine se soutiendrait donc, aussi, de ce que la vue est une présence à distance qui
respecte, par définition, son objet. L'image actée, -si l'on appelle ainsi une image chaînée avec
des actes- constitue un compromis ingénieux entre l'accès direct à l'objet (en fait, à son
modèle) et la sauvegarde d'une réalité tenue en retrait. Nouvel âge des représentations, elle
renoue avec l'interventionnisme de l'image, stade magique des temps anciens (non totalement
révolus), où l'image est une médiation active dans l'accomplissement d'un acte : vengeance,
satisfaction d'un désir, aide pour surmonter une épreuve, etc.
E - Graduations de présence
- et des procédures abstraites (comme le simple adressage automatique par liste de diffusion
sur Internet, jusqu'à l'affichage de la cartographie des échanges entre plusieurs participants).
L'impossibilité d'imiter les relations ordinaires des humains entre eux et avec leur
environnement matériel s'allie avec ces procédures abstraites pour donner forme à de
nouveaux milieux où la présence ne se conjugue plus au singulier mais selon des graduations.
Celles-ci étagent des niveaux de présence selon deux lignes non exclusives :
- une direction extensive (d'une présence, encore assez dégradée, dans les réseaux actuels
-téléphone, Télétel, Internet- aux figures plus expressives promises par la Réalité Virtuelle en
réseau [44]),
Que sont ces indicateurs ? Il est bien connu que toute communication à distance nécessite des
marqueurs spécifiques qui suppléent aux incertitudes nées de l'absence de contacts directs.
L'écriture mobilise ses codes graphiques et sémantiques pour diminuer la flottaison du sens
(mise en page, respect plus strict de la grammaire, etc.). La communication téléphonique
majore les caractères formels de l'échange et use abondamment de la redondance. On le sait,
les réseaux actuels (Télétel, Internet) sont encore faiblement incarnés. Mais la tendance à
l'augmentation s'affirme nettement [45]. La Téléprésence, quant à elle, met à profit
l'ingénierie numérique pour intensifier la présence (capteurs corporels, retour d'effort) en
inventant de nouveaux marqueurs. Or, le phénomène le plus radical est encore d'un autre
ordre : c'est la combinaison des deux lignes extensives et intensives, aboutissant à la création
d'hybrides, mélanges de présences physiques et de traitements abstraits. L'exemple du projet
DIVE aidera à les situer.
Mais DIVE organise aussi les interactions entre des acteurs humains et des objets (livres,
documents, sources audiovisuelles). Ces derniers sont dotés de propriétés qualifiant leurs
modalités d'interactions avec les usagers, et entre eux. Des concepts-clés ont été forgés. Par
exemple, l'aura est un sous-espace lié à l'objet qui augmente le potentiel d'interaction entre
objets. Le focus est le centre d'attention qui agit comme sélecteur d'informations. Le nimbus
est "le lieu où un objet met à la disposition des autres objets un aspect de lui-même. Cela peut
être une projection de qualité ou de propriété comme la présence, l'identité ou l'activité. Par
comparaison avec le monde réel, nimbus rayonne du <<je ne sais quoi>> qui émane de la star
de cinéma -ce qui fait que chacun s'arrête et que tous portent attention sur elle" [47]. Des
programmes particuliers peuvent transformer les sous-espaces pour amplifier, atténuer ou
étendre certains champs.
Ces opérations rapportées au monde réel consisteraient, par exemple, à utiliser un microphone
pour amplifier la voix, monter sur une estrade pour se rendre plus facilement visible. Notre
ambition n'est pas de décrire, dans le détail, le fonctionnement -complexe- de cet espace
coopératif de travail. Elle vise plutôt à montrer en quoi ce travail est exemplaire.
Les concepts, assez abstraits, qui gouvernent DIVE restituent nos habitudes de fréquentation
d'univers socio-topologiques. Ils explicitent des mouvements abstraits, ou plus exactement
mentaux, qui gouvernent nos rapports à un environnement matériel et humain. Ainsi en est-il
de la notion de "centre d'intérêt", ou d'horizon de recherche. Lorsque nous recherchons un
dossier dans un bureau, c'est l'image de ce dossier que nous projetons, tel un faisceau
lumineux, sur l'environnement. À ce moment, les autres objets (chaise, livres, ordinateur...) se
fondent dans un décor vague. Les autres dossiers dispersés, de couleur différentes, jouiront en
revanche d'un coefficient de présence plus soutenu. C'est ce genre de rapports que les
concepteurs de DIVE tentent de matérialiser dans l'espace commun, et c'est cela qui est
novateur. Car il ne s'agit plus de restitution mais d'invention de marqueurs abstraits
d'interaction (signes graphiques, protubérances visuelles, accrochées aux "avatars"), pouvant
être affiché par programmes informatiques. Par exemple, s'adresser à quelqu'un nécessite
d'intercepter son champ visuel -augmenter le potentiel d'interaction avec cette personne, dira-
t-on dans le vocabulaire de DIVE. Plus les champs visuels sont interpénétrés, plus l'affinité est
importante.
Les relations d'usages, d'intérêts, de même que la fréquence des rapports sont concrétisées,
alors que d'ordinaire ces mouvements sont intégrés automatiquement dans notre perception
spontanée de la situation. Les acteurs -humains et non-humains- de ce monde virtuel
possèdent un différentiel de présence qui traduit la nature et l'intensité des relations qui les
unissent (ou les séparent). On voit s'ébaucher une démarche visant à objectiver, à imager
métaphoriquement des mouvements subjectifs latents. Une sorte de couche relationnelle est
projetée sur la scène matérialisant graphiquement les interactions à l'oeuvre. Cette couche
abstraite traduit -partiellement, bien sûr- des investissements psychologiques habituels. Mais
elle les exprime à travers des jeux scénographiques agençant les propriétés modélisées des
différents acteurs (objets et humains), et ce, grâce à des traitements par programmes.
On peut tirer quelques enseignements à caractère plus général de ce projet. Les concepteurs
auraient pu se contenter de dupliquer les conditions du travail coopératif. Ils ont finalement
inventé un nouveau milieu d'interaction sociale dont il serait absurde d'imaginer qu'il traduise
la souplesse des interactions ordinaires d'une communauté en co-présence mais qui, en
revanche, crée des outils formels pour une cartographie dynamique relationnelle. Telles sont
bien les limites et la portée de la Réalité Virtuelle, car ici encore faute de reproduire on
invente. En effet, on ne peut traduire à l'identique nos activités perceptives (vision,
préhension, etc.). Encore moins peut-on espérer restituer ce qui est le plus mobile et fugitif,
nos états mentaux. Plutôt que de s'y essayer, les créateurs de DIVE ont défini des instruments,
nécessairement rigides et peu malléables, mais qui offrent l'énorme avantage de se prêter au
calcul par programme et de se surajouter ainsi à la perception spontanée, qui, il ne faut pas
l'oublier, continue à interpréter et à ajuster les interactions à l'oeuvre.
On peut prédire un bel avenir à cette direction de recherche. Restituer les dimensions
affectives dans la communication à distance est un objectif partagé par de nombreuses
recherches, des désormais célèbres "émotikons" sur Internet au modelage expressif des
"avatars" des communautés virtuelles (comme dans l'expérience HABITAT au Japon).
Comment traduire un désir d'en savoir plus, une envie, une aversion, une habitude d'usage ?
Un passionnant champ de recherche s'ouvre aux "psychomécaniciens" des environnements
communautaires afin de traduire la diversité de nos mouvements relationnels. Peut-être leur
faudra-t-il spécifier les formes matérielles de ces mouvements selon le degré d'opérationalité
souhaité (travail, formation ou relation libre) bien qu'un strict partage entre ces postures soit
difficile à imaginer. Il se confirme, en tous cas, que pour faire coopérer des communautés à
distance de manière régulière et fructueuse, on ne saurait se limiter à convoyer des
informations. Cela exige de prendre en compte les dimensions psychosociales des relations de
travail [48], pour ensuite cartographier les interactions à l'oeuvre, en imaginant une ingénierie
infographique socio-topologique. On est donc conduit à densifier les fonctions de présence et
à ne pas se contenter de les transporter.
Les spect-agents
L'ingénierie de simulation, dans sa quête de densification des relations à distance fait naître
une génération d'avatars, doubles, spectres, substituts, représentants numériques, dont la
caractéristique essentielle consiste à être animée, à la source, par un agent humain. Nous
regroupons ces créatures sous le vocable de spect-agent. Le vocable spect-agent exprime
l'alliance de la fluidité du spectre et du caractère actif du représentant lié à son origine
humaine mais aussi aux automatismes qui l'animent (on a vu comment des "représentants"
peuvent exprimer des fonctions abstraites de présence). Ce néologisme désigne ce qui n'est ni
un double, ni une copie dégradée, mais une graduation d'existence. C'est donc une
dénomination plus respectueuse de la spécificité de ces représentants que le terme "avatar"
(signifiant "copie dégradée") fréquemment employé. Les spect-agents procèdent d'une co-
construction, synthétique (mue par les programmes informatiques) et humaine (alimentée par
l'activité immédiate d'un sujet), où il s'agit de doubler la vie réelle, et, pour ce faire d'inventer
une générativité, due, pour une part, à la résistance qu'oppose le réel à sa duplication
mimétique.
Ainsi, dans des projets tels que DIVE, HABITAT au Japon [49] ou "Deuxième monde" en
France [50], (intervention par "avatars" interposés), et plus généralement dans les récents
travaux utilisant le langage V.R.M.L. [51] sur Internet, on retrouve très nettement les trois
mouvements constitutifs de la dynamique inventive : la tentative d'imitation, l'impossibilité
intrinsèque d'un tel projet de duplication à l'identique et en dernier lieu, l'ouverture d'un
espace de possibles dynamisé par la confrontation avec ces obstacles rédhibitoires. Ces
applications et recherches combinent, actuellement, la restitution formelle et empirique
(imitation de l'apparence tridimensionnelle et simulation comportementale d'objet) avec la
construction inédite d'un milieu cognitif et relationnel objectivé (inscription graphique des
relations, des émotions, invention de marqueur des qualités des rapports entre les acteurs et
avec les objets).
La ductilité du milieu virtuel permet ces agencements qui allient plusieurs composants. On
pourrait parler de greffes mêlant des génotypes différents. Les premiers types de composants
sont des formes (agents humains, scènes, objets, dispositifs) analogues à notre niveau de
réalité, ainsi que des comportements à vocation imitatifs ou prédictifs (la simulation réaliste,
la C.A.O., la modélisation scientifique). Les deuxièmes sont constitués par des interactions
ouvrant à ce qu'on pourrait appeler une perception synthétique. Celle-ci associe librement les
vecteurs perceptifs et effectifs de l'action humaine (déplacement par le regard, vision qui se
poursuit en action comme dans le tir par viseur tête haute où repérer la cible sur la visière
virtuelle permet de déclencher le tir par la voix). Enfin, les troisièmes types de composants
pour la synthèse en milieu virtuel sont les dimensions affectives, cognitives, relationnelles
entre spect-agents d'une part, objets et dispositifs simulés de l'autre, matérialisant ainsi
certains états mentaux (intention, disposition affective comme les Kansei d'HABITAT [52]).
Signalons que dans le domaine des jeux vidéos, les game designers ne jurent plus que par
l'autonomie comportementale des acteurs virtuels injectés dans la scène. Le joueur les
rencontrera et il devra comprendre, pragmatiquement, leurs caractères (recherche d'affection,
par exemple) et leurs spécificités comportementales (serviabilité,agressivité, etc.) ; ceci pour
s'en faire des alliés, par exemple. L'intelligence des dimensions socio-affectives deviendra
alors un enjeu essentiel pour participer au jeu... et gagner.
D'une manière générale, les communautés virtuelles ainsi réunies sont, comme toutes les
associations humaines, des assemblées d'agents humains et non humains (objets,
environnements, etc.). La communication médiatisée par des spect-agents transcrits -de
manière souvent encore assez frustes- des actions humaines (comme le ferait la
visioconférence, par exemple) mais ajoute la plasticité de la sphère non-humaine
(modifications de l'environnement, expérience à distance sur les mêmes objets, etc.). Un
ingrédient original -des oxymores spect-agents, qui naissent dans, et par, le milieu virtuel-
vient donc s'ajouter à la scénographie, déjà complexe, de la communication à distance.
Produire, avec les moyens actuels de l'ingénierie numérique, une représentation formelle du
monde pose tout simplement la question de son caractère prétendument illusoire. Aucun esprit
occidental ne confond le portrait photographique d'une personne avec cette personne elle-
même, ni n'envisage d'adresser la parole à un acteur sur l'écran dans une salle de cinéma. (La
suppression de cette impossibilité est précisément la trame du chef-d'oeuvre de Woody Allen,
La rose pourpre du Caire). Il faut à la fois établir la différence radicale de l'imagerie
informatique interactive avec les techniques d'enregistrement, et penser cette distance comme
un écart non moins important avec notre niveau habituel de réalité.
Si on prend pour argent comptant la vocation substitutive du "virtuel", comme nous y invite
une vulgate répandue, on est conduit à durcir la ligne qui sépare la simulation numérique de
l'enregistrement indiciel. Par exemple, s'interrogeant sur les rapports respectifs
qu'entretiennent la photographie et l'image de synthèse avec la mort, Chantal de Gournay se
demande : "Car si l'image (photographique, cinématographique) est ce miroir de l'invisible qui
nous aide à faire le deuil de nos morts, de nos terreurs, de nos ethnocides ou de nos crimes
contre la nature, de quoi peut-on faire le deuil avec une image de synthèse ?" [54] Le
présupposé de cette question affirmative consiste à considérer qu'une image de synthèse
serait, par essence, totalement réductible aux procédés logico-mathématiques qui la
constituent, et par là, à l'abri de toute contagion référentielle. La gestation algorithmique
tracerait une barrière définitive avec l'autre régime de l'image, indiciel, qui enregistre la
réalité, telle qu'elle est, avant même tout regard, toute mise en forme langagière. L'indicialité,
serait la seule modalité où les scories du réel, ce qui échappe à toute formulation, viennent
s'inscrire, s'imprimer sur le support, et s'offrir, subrepticement, à notre appréhension. Le mode
de production de l'image informatique, réductible à la maîtrise technique, la projetterait hors
du cycle vivant et de l'altération qui en résulte.
Il y a lieu de douter de telles vues. D'où viendrait ce statut d'exception de l'image informatique
qui, production humaine, pourrait miraculeusement effacer cette origine pour sembler ne
provenir que de froides procédures (elles aussi absolument auto-engendrées, inhumaines ?).
C'est ignorer le singulier commerce qu'entretiennent les réalisateurs d'image de synthèse avec
leur production [55]. Maîtrise ? Peut-être, mais singulièrement malaisée. Comment peut-on
imaginer une telle activité où s'abîmerait, par miracle ou par décret, l'imaginaire du
réalisateur, ses évaluations intermédiaires, ses hésitations. Croit-on à l'automatisation
intégrale d'une telle production ? (Et encore, serait-elle automatisée, qu'il conviendrait de
remonter la chaîne des investissements, d'interroger le choix du dispositif, des logiciels, le
travail de programmation, etc.). Mais ici nul automatisme à l'oeuvre dans le dessin des
formes, le choix des textures, la réalisation éventuelle de maquettes en dur, la sélection des
éclairages, des points de vues, etc. Pas plus d'automatisme dans les arrangements temporaires,
les graduations de finitions possibles et la décision d'arrêt. Il ne s'agit pas, pour autant, de
dissoudre la spécificité des images ainsi obtenues, de négliger les moments de dépossession,
de surprise. Il ne faudrait pas non plus sous-estimer l'automaticité partielle de la production
(lancer une procédure de calcul d'une ombre, animer une forme par un programme, etc.) et
surtout tenir pour négligeable l'usage de procédures programmatiques [56]. Mais pourquoi
décider de supprimer les moments d'évaluation humaine et de choix, moments omniprésents
dans une telle élaboration ? S'il faut invoquer un deuil impossible, ce serait bien,
paradoxalement, celui de la tentative de se passer d'une référence à la réalité. Si tant est que la
simulation n'est pas effacement du réel mais seulement tentative. Affirmer sa réussite est un
acte de foi aussi arbitraire que commode, car ainsi le grand partage entre réel et virtuel devient
possible. Tout comme avec l'image enregistrée, on fait, ici aussi, le deuil de l'invisible source
des projets, de l'impossibilité de les terminer, des mille décisions qui président à leurs
naissances et qui demeureront opaques.
Qui se tient attentif au processus de création d'une "image de synthèse", ne peut ignorer à quel
point elle métabolise "les scories du réel" qui l'assaillent de toutes parts et ceci à toutes les
phases de sa constitution. Ces scories, on les pressent dès le projet initial (toujours une idée
accrochée au fil d'une histoire individuelle et collective). On les sent dans les méthodes et
outils : lancer de rayon et autres artifices constructifs, morphogénétiques. Ces méthodes
matérialisent des théories expérimentales sur le fonctionnement de la réalité qu'il s'agisse de
croissance de plantes ou de vagues croulant sur une plage. On insiste, parfois à juste titre, sur
le versant abstrait de l'opération modélisatrice. Il est vrai que l'étude de phénomènes non
visibles en tant que tels -comme le comportement d'équations mathématiques- trouve, dans la
mise en image des modèles, un vecteur d'étude irremplaçable. Mais bien souvent, aussi, la
simulation informatique, loin de se borner à étudier le comportement futur d'un système,
devient une manière d'éclairer, d'ausculter la réalité, et non pas de construire une néo-réalité à
vocation substitutive [57]. Enfin, on ressent les "scories" dans le résultat final, livré à
l'appréciation de sensibilités humaines. Ajoutons enfin, qu'une image de synthèse peut
sombrer dans l'oubli ou le mystère d'une intangibilité pour peu qu'on ait laissé s'éteindre les
lignées technologiques (ordinateurs, systèmes d'exploitation, interfaces) qui permettent de
l'afficher, ce qui arrive plus souvent qu'on ne le croit.
L'imagerie numérique joue avec la notion de limite, multipliant les actualisations, décuplant
les cheminements. Comme dans une fête foraine, on ne sait où donner de la tête, mais dont
quelques heures plus tard et après moult déambulations, on s'est mentalement fabriqué un
plan. Assouplissant les repères, ces scénographies intensifient la question. Toujours déçu,
mais toujours en quête de recul des bornes, nous ne finissons pas d'éprouver les paradoxes
croisés du désir de liberté, des sentiments d'inquiétude devant ces conquêtes et aussi des
déceptions face aux contraintes ressenties. Croire en l'immanence des montages numériques,
c'est les magnifier, leur attribuer un surcroît de puissance, celui d'abolir les limites. Oserait-on
suggérer qu'ainsi s'investit l'espoir qu'ils détiendraient un tel pouvoir ? Le pouvoir faustien de
nous placer hors d'atteinte de la ruine, de la mort si, comme l'affirme Chantal de Gournay, "
[...] le monde virtuel de l'ordinateur, régi par la logique de la simulation et du simulacre, est
un monde placé hors d'atteinte de la mort [...]" [58]. Résultat considérable, si toutefois c'était
le cas. Mais là encore, heureusement, nous serons déçus.
Malgré les apparences, ce n'est pas l'illusion du réel que visent les techniques de Téléprésence
-elles en sont bien incapables- et surtout, on manquerait leur spécificité en leur assignant cet
objectif. À première vue, on viserait une restitution, au plus près possible de la réalité. Mais,
sa réalisation, on l'a vu, se heurte à des obstacles permanents et surtout découvre des horizons
inattendus, engageant la construction d'ordres spécifiques de réalités plutôt que la substitution
du niveau empirique.
La notion de dimension offre une entrée intéressante dans la thématique de l'imitation. Cette
fameuse troisième dimension, présentant la profondeur sur la surface est au fondement de
l'illusion. Mais pourquoi parle-t-on d'<<illusion perspectiviste>> ? Est-ce parce que la
troisième dimension est figurée sur le tableau ou bien, plutôt, parce que le tableau se
rapproche de l'image visuelle ? "L'illusion" se situerait plus en référence à l'acte de vision qu'à
son objet, la réalité. Comme le signale Louis Marin [59], l'enjeu de la perspective n'est pas de
donner l'illusion de la présence, en trois dimensions, des personnages couchés sur la toile,
mais de former son regard dans la vision d'autrui, en référence à une organisation
"transcendantale" de la vision qui permet la formation d'une communauté d'observateurs. Tout
en semblant viser une "construction légitime" de l'image respectant le fonctionnement de la
vision, la perspective invente un autre monde visuel, et par là une expérimentation potentielle
de l'espace. Elle devient alors machine à fabriquer d'autres machines intellectuelles et
matérielles (de la géométrie descriptive au dessin industriel).
L'hypothèse domiciliaire
Platon définissait l'art comme mimesis, imitation qui a conscience d'elle-même. On peut
étendre cette conception au principe de la représentation, qui, espace clivé, présente toujours
simultanément le contenu et le procédé, l'illusion et ses moyens. Perspective, photographie,
cinéma et aujourd'hui image numérique relient, à chaque fois singulièrement, sujet humain et
dispositif scénographique. Toute présence s'appuie sur un horizon de métaprésence combinant
présence et oubli du lieu de la présence, savoir et sensation mêlés de la mise en scène
spectaculaire, accommodation au dispositif artificiel [62]. Dans toutes les formes de présence
à distance, ce savoir/sensation est actif. Une sorte d'arrière-fond de l'expérience du dispositif
transactionnel (lecture, téléphone, groupe de discussion sur Internet, Réalité Virtuelle), non
directement perceptible, à la fois constamment rappelé et oublié. Expérience du dispositif qui,
par exemple, permet le transport dans le récit selon des modes différents selon qu'il s'agit d'un
livre, d'un film ou d'un multimédia.
Avec le déplacement de la présence par réseau numérique, il ne s'agit donc pas d'une
immédiation. Dans le réseau, le média tente de se faire oublier par toutes sortes de
perfectionnement (adjonction du son, de l'image animée, puis de l'immersion et de la synthèse
des perceptions kinesthésiques). Mais, plus la médiation mime la transparence, plus la
prégnance de sa fonction est massivement ressentie et plus ses logiciels et ses matériels
deviennent complexes et substantiels. C'est pourquoi la présence à distance n'est pas une
réalisation de la présence. Se tenir en contact passe toujours par une médiation. Et si on
recherche la transparence, on interposera toujours plus d'interfaces sophistiquées pour
concrétiser cette transparence. Chaque pas qui fait avancer ce projet éloigne alors d'autant la
cible.
Rappelons que l'une des idées maîtresses qui orientent le travail du célèbre préhistorien, mais
aussi anthropologue, établit que le processus d'hominisation se caractérise par la
domestication du temps et de l'espace grâce à la symbolisation, elle-même chevillée à
l'émergence de l'outil et du langage. Si l'on entend par symbolisation la capacité de faire
valoir une chose pour une autre, on comprend en quoi le langage (mettre des sons à la place
des choses), l'outillage (mettre des instruments à la place du corps) ou encore la figuration
graphique (dessiner des formes à la place des animaux) sont des processus solidaires et qui
expriment une proto-Téléprésence. Le rôle du piège du chasseur est à cet égard
paradigmatique. On peut certes considérer le piège comme un pur système opératoire, mais on
laisse alors de côté l'essentiel. Installer un piège engage le chasseur dans une pratique de
substitution. Le piège fonctionne à sa place, le libère du contrôle de l'espace, de l'assignation
territoriale ainsi que de l'affectation temporelle. C'est le premier dispositif automatique de
l'humanité, qui plus est, cybernétique, puisque c'est l'énergie potentielle ou cinétique de
l'animal qui permet son auto-capture. Le piège suppose et secrète une symbolisation portant
sur le sujet humain lui-même (remplacer le chasseur).
Là, avec l'inscription dans un dispositif artificiel d'un projet formé à l'avance, pré-vu,
s'originent, par exemple, les principes de la programmation, au sens littéral (pro-gramme
signifie "inscrit à l'avance") [65]. Le système artificiel de capture est un puissant instrument
de Téléprésence, qui à la fois engage -dans une perspective téléologique, on dirait "qui secrète
automatiquement"- les pratiques de contrôle du temps et de l'espace et les intériorise comme
horizon de la conscience humaine. Affirmer que l'hominisation est co-extensive à la
Téléprésence n'est en rien céder à un effet de mode, tout au plus ajuster le vocabulaire à ce
que les temps actuels développent de manière extrême.
Promesses de la Téléprésence
Lorsqu'on porte un regard rétrospectif sur l'histoire des technologies de Téléprésence, on peut
y découvrir un principe d'analyse liant les étapes successives : chaque invention majeure tient
la promesse de la précédente et annonce une promesse qu'elle ne peut tenir. L'écriture étend la
mémoire sociale que la phonation langagière tenait emprisonnée dans les capacités mnésiques
individuelles (avant qu'on la note, conserver la parole exigeait de la mémoriser, souvent en la
liant à des séquences de gestes). Par la multiplication à l'identique d'un original, l'imprimerie
tient la promesse d'une inscription permanente que l'écriture manuscrite, faiblement
distribuée, n'avait qu'esquissée. La photographie concrétise l'exactitude de la prise de vue
exprimée par la peinture réaliste et concrétise l'instant comme élément du mouvement. Par
l'animation, le cinéma amplifie la saisie vivante du monde que la photographie maintenait
figée, tout en annonçant (grands écrans, spatialisation du son, etc.) l'immersion dans l'image.
L'image tridimensionnelle interactive réalise la promesse de la perspective et des techniques
d'enregistrement, d'un libre parcours à l'intérieur de l'image. La simulation numérique
matérialise la sortie hors de la représentation audiovisuelle vers l'expérimentation empirique
de l'environnement. Le réseau multimédia ne peut tenir la promesse de l'expérience corporelle
partagée, ce que la Réalité Virtuelle en réseau laisse entrevoir.
Pour rendre cette lecture rétrospective plus affinée, il conviendrait d'y ajouter quelques
boucles historiques : par exemple, bien avant les écrans panoramiques du cinéma, la
perspective circulaire antique pratiquait déjà l'immersion dans l'image. Ce travelling
historique ne présente aucun caractère téléologique. Tout au plus permet-il de questionner les
développements actuels. Quelle promesse la Téléprésence actuelle ne peut-elle tenir ? Elle
demeure, par exemple, prisonnière de la modélisation préalable des univers d'interaction, si
bien que toute surprise est déjà inscrite dans les formes de transpositions choisies qui
déterminent les genres d'imprévisibilités possibles. Il faudra suivre, ici, les développements
futurs de la modélisation automatique d'objets, de scènes déjà engagée dans certains domaines
(comme la capture tridimensionnelle automatique d'objets architecturaux, de sites
préhistorique ou...de formes corporelles [66]). Passera-t-on au stade de l'enregistrement
automatique de modèle comportementaux de systèmes en évitant leur formalisation physico-
mathématique ? La Téléprésence maintient une distance entre description informationnelle et
existence concrète des objets qu'elle manipule et transporte. Ces limites sont-elles
inamovibles ? On retrouve ici, les espoirs d'un Norbert Wiener prophétisant l'analyse et la
reconstruction moléculaire, à distance, des corps. Mais peut-être la formulation de la question
sur les promesses de la Téléprésence véhicule-t-elle une métaphysique du redoublement à
l'identique, que je dénonce, par ailleurs, comme une aporie ?
[1] Dans son remarquable travail sur l'imprimerie, (La révolution de l'imprimé dans l'Europe
des premiers temps modernes, La Découverte, Paris, 1991), Elisabeth L. Eisenstein analyse
les effets de mise à distance provoqués par le livre imprimé. Elle cite par exemple Isaac
Joubert, professeur de médecine à Montpellier au XVI [e] siècle, qui parlant des livres les
qualifient "d'instructeurs silencieux qui, de notre temps, portent plus loin que les cours
publics" (op. cit., p. 118) ou encore Malesherbes, dans son discours de réception à l'Académie
: "Les Gens de Lettres sont au milieu du public dispersé ce qu'étaient les orateurs de Rome et
d'Athènes au milieu du peuple assemblé "(op. cit., p. 120). Elle signale aussi, que, a contrario,
les évangélistes et autres discoureurs publics virent leur public s'élargir du fait de la
disponibilité d'annonces imprimées.
[2] Cette amorce d'archéologie de la Réalité Virtuelle provient d'une partie d'un article déjà
publié : L'augmentation tendancielle du taux de présence à distance, in Terminal ndeg. 69,
automne 95, L'Harmattan, Paris, pp. 69/83.
[3] Jean Brun, Le rêve et la machine, La Table ronde, Paris, 1992.
[4] Il n'entre pas dans nos objectifs de réfuter, ici, les thèses de Jean Brun sur la signification
du fait technique. Disons, pour faire court, que nous nous situons dans une perspective assez
différente de celle de cet auteur. Nous analysons plutôt la tentative de débordement, par la
technique, des cadres spatio-temporels hérités, comme constitutifs, et non corruption, du
monde humain. Il n'en demeure pas moins que le livre de Jean Brun nous intéresse parce qu'il
présente et radicalise, de manière richement illustrée, la thèse de la corruption.
[5] On ne peut s'empêcher de penser que Jean Brun discrédite, par avance, toute forme
réalisée de Téléprésence, baigné qu'il est par une Téléprésence divine autrement prometteuse.
[9] Saint-Pol Roux, Cinéma vivant, Rougerie, 1972, p. 96 - cité par Jean Brun, op. cit., p.229.
[15] Paul Valéry, La conquête de l'ubiquité, In Œuvres II, Bibliothèque de la Pléiade, NRF
Gallimard, Paris, 1960, p. 1284. Rappelons que Paul Valéry écrit cet article en 1928, quelques
années seulement après les premières expériences de diffusion radiophoniques.
[16] Nulle incitation romantique dans l'évocation de la nouvelle mobilité de la musique. Mais
plutôt le sentiment que la disponibilité d'écoute conquise rapproche des conditions vivantes de
la création du compositeur. Paul Valéry écrira même que le travail de l'artiste musicien trouve
dans l'enregistrement "la condition essentielle du rendement esthétique le plus haut", op. cit.,
p. 1286.
[19] Norbert Wiener, Cybernétique et société, coll. 10-18, 1962, p. 212 cité par Jean Brun, Le
rêve et la machine, p. 231.
[22] Le travail effectué par Henri Bergson, notamment dans Matière et mémoire, est ici
incontournable. Il montre à quel point, dans l'attention présente, le souvenir et la perception se
co-définissent sans qu'il soit possible, à la limite, de les distinguer. Nous y reviendrons au
chapitre VI, à propos de l'étude de Gilles Deleuze sur le cinéma, L'image-Temps, où nous
verrons comment la notion de cristal actuel/virtuel s'appuie sur la théorie bergsonienne de la
temporalité dans ses rapports à l'action, la perception et la mémoire.
[23] L'une des premières recherches pour la Réalité Virtuelle, réalisée par la NASA à la fin
des années soixante-dix, fut la télé-robotique spatiale basée sur le couplage des mouvements
d'un opérateur au sol et de son exo-squelette virtuel dans l'espace. Dans ce projet, simulation
numérique interactive et déplacement informationnel étaient déjà condition l'un de l'autre.
[27] Ce système a été développé par H. Ishii aux laboratoires de N.T.T., au Japon. Voir
l'article de Michel Beaudoin-Lafon déjà cité.
[28] Voir l'interview de Steven Feiner, in SVM MAC, avril 1994, ndeg. 50, p. 130.
[29] Ces travaux ont été réalisés par le département de "visualisation scientifique" du
Supercomputer Center au German National Research Center for Computer Science, près de
Bonn.
[30] Alex Pentand, "Smart rooms, smart clothes", in Actes d'Imagina, Monaco, 21 au
23/02/1996, p. 176. (Il est maintenant possible de suivre les mouvements de quelqu'un, de
l'identifier en reconnaissant son visage et de reconnaître ses actions, en temps réel, en ne
mobilisant que de modestes ressources informatiques. En utilisant cette information
perceptive, nous avons pu mettre au point des "chambres intelligentes" et des "vêtements
intelligents" qui peuvent reconnaître des gens, comprendre leur langage, leur permettre de
contrôler des affichages sur écran sans câbles ni claviers, de communiquer par signes, et de
les avertir lorsqu'ils sont sur le point de commettre des erreurs.) Sans doute peut-on
rapprocher ces recherches de celles, encore plus prospectives menées au Xerox Center de Palo
Alto, sur les "sensors", mini-puces communiquantes dotées de capteurs, micro-machines et
autres piézo-matériaux, qui pourraient se fondre dans les composants élémentaires d'un pont
pour éviter qu'il ne s'effondre lors d'un tremblement de terre ou revêtir les ailes d'un avion
d'une sorte de peau capable de stabiliser l'appareil en toute circonstance. Il s'agit, en fait, de
diffuser l'informatique au coeur même de la matière pour que les objets s'adaptent d'eux-
mêmes aux conditions ambiantes par des ajustements "intelligents" sans dépendre d'un
ordinateur central.
[31] L'ordinateur, délégateur zélé, in SVM MAC, avril 1994, ndeg. 50, p. 127.
[33] Avec le Dataland, le M.I.T. a développé depuis le début des années quatre-vingt, une
interface gérant des sources d'informations multiples et complexes.
[34] Ces interfaces ont été présentées à Electronic Entertainment Exhibition, Salon
international du jeu vidéo à Atlanta (États-Unis), 17/20 Juin 1997. Signalons aussi la
Feedback Racer de Guillemot International, comportant 14 boutons de contrôle et des
capteurs qui repèrent la position des mains sur le volant et transmet les chocs côté gauche ou
droit de la route ou encore les sensations de cisaillage provoquées par les joints métalliques
lorsqu'on franchit un pont.
[36 ]Ce dispositif est connectable à un micro-ordinateur ainsi qu'à une console Playstation.
Philips propose pour sa part Scuba, casque de Réalité Virtuelle qui s'adapte sur les principales
consoles de jeux.
[37] On en trouvera une description détaillée sous la plume de Jean Segura, La panoplie du
virtuel, in La recherche, Mai 1994, Ndeg. 265, p. 499/503.
[38] Réalisé au Zentrum für Kunst und Medien de Karlsruhe (Allemagne), Handsight a été
présenté à Artifices 3, Saint-Denis, décembre 1994.
[40] Cette partie provient de notre article "Les images hybrides : virtualité et indicialité, in
Image & média, sous la direction de Bernard Darras, MEI ndeg.7, L'Harmattan, Paris, 1998.
[41] Claude Cadoz, "Réintroduire les sensations physiques", in La Recherche, ndeg. spécial,
ndeg.285, Mars 1996, p. 80.
[44] La spatialisation du son est un bon exemple de ce mouvement extensif, c'est-à-dire qui
vise à imiter toujours au plus près la communication hic et nunc. Le téléphone, comme la
télévision restitue le son de manière directionnelle, à partir de haut-parleurs. La stéréophonie,
et d'autres procédés comme le Dolby, le dote d'un certain relief. Mais seule la Réalité
Virtuelle parvient à spatialiser réellement le son, c'est-à-dire à calculer, en temps réel, la
position relative de l'auditeur et des sources d'émission dans l'espace, pour diffuser, dans
chaque oreille, des sons modulés selon ces positions.
[45] La possibilité de créer des espaces interactifs tridimensionnels sur Internet grâce aux
applications V.R.M.L. en est un exemple frappant.
[48] Cette prise en compte entre en résonance avec l'importance que de nombreux courants de
la sociologie du travail attachent aujourd'hui au facteur subjectif dans les relations de travail.
D'où le développement de recherches sur ces dimensions subjectives exigées et valorisées
dans la nouvelle configuration productive post-fordiste, marquée par l'accentuation du
caractère coopératif du travail, l'importance des ajustements interindividuels et la croissance
du travail intellectuel. Citons, à titre d'exemple, Philippe Zarafian, La nouvelle productivité,
Paris, L'Harmattan, 1991, le très stimulant livre de Christian Marazzi sur le rôle directement
productif du travail linguistique, La place des chaussettes, L'éclat, Paris, 1997 ainsi que le
Ndeg.16 de Futur antérieur, Paradigmes du travail, Paris, L'Harmattan, 1993/2.
[49] L'expérience HABITAT au Japon, "communication médiatisée par ordinateur" ainsi que
la définisse ses concepteurs, a initié la présence visuelle des intervenants sur un réseau. Ceux-
ci composent leur "avatar", sortes de marionnettes graphiques, habillées, personnalisées,
sexuées. Pour une description approfondie de ce projet, patronné par Fujitsu, voir Alsuya
Yoshida et Hajime Nonogaki, Habitat, in Actes d'Imagina 1994, pp. 249/254.
[50] Cette application, réalisée par Cryo Interactive, modélise le centre historique de Paris sur
un CD-Rom et permet, via une connexion Internet, à plusieurs participants d'entrer en relation
dans cet espace par l'intermédiaire "d'avatars" graphiques. L'objectif est de concrétiser, dans
un monde virtuel parallèle, la plupart des relations sociales urbaines (rencontres, commerce,
éducation, participation politique, etc.).
[51] Devenu une "coqueluche" du Web, V.R.M.L. (pour Virtual Reality Modeling Language)
est un langage qui permet de créer des espaces virtuels tridimensionnels interactifs dans
lesquels on peut circuler, que l'on peut meubler d'objets avec lesquels une interaction
collective devient possible. Voir notre article : "Internet, un récit utopique", in B.P.I. en Actes
(sous la direction de Jean-Pierre Balpe), Actes de l'Observatoire des lectures hypermédias,
Centre Georges Pompidou, Paris, 1997.
[52] Le kansei désigne, dans HABITAT, une "personnalité électronique", basée, de manière
très sommaire, sur les expressions non-verbales, mimiques faciales et marques intentionnelles.
[53] Voir Michel Alberganti, "Steve et Adele, enseignants virtuels", in Le Monde interactif,
supplément au Monde, 13/01/99, p. IV.
[55] Voir à ce sujet notre article déjà cité, "Les images hybrides : virtualité et indicialité"
(revue MEI, Ndeg.7, L'Harmattan, Paris, 1997) où sont distingués les différents types
d'accouplement entre les images produites par capture indicielle et les traitements numériques.
La Réalité Virtuelle, notamment, y est soumise à un questionnement sémiotique où il apparaît
qu'un certain type d'indicialité trouve, indirectement, à s'y exprimer.
[56] Procédures qu'on désigne souvent par le terme ambigu de "langage de programmation",
l'ambiguïté tenant à ce qu'il leur manque l'essence d'une langue naturelle, sa polysémie et sa
transformation permanente par l'usage social.
[57] Jean-Louis Boissier est l'un des premiers qui ont éclairé cette importante question. Voir
par exemple, "Bambous : pour que poussent les images", in Les chemins du virtuel, Centre
Georges Pompidou, Flammarion, Paris, 1989.
[61] Marc Guillaume (sous la direction de), Où vont les autoroutes de l'information ?,
Descartes et Cie, Paris, 1997. Voir en particulier p 111/128, où il est montré qu'en milieu
urbain les réseaux ajoutent des fonctions de "commutations" à celles qui existent déjà
(transports, équipements culturels, etc.). De ce fait, ils augmentent le pouvoir attracteur des
grandes métropoles.
[62] Voir Jacques Aumont : "Ce que nous dit cette théorie (celle de la double réalité de
l'image) par conséquent, c'est que le spectateur a affaire principalement à l'espace illusoire de
la représentation ; mais que cela n'est complètement possible que s'il garde en même temps, et
subsidiairement, conscience des moyens de cette illusion." L'oeil interminable, Séguier, 1989,
p. 142, cité par Kamel Regaya, Du cinéma à la télévision : quel régime perceptif ? in
Télévisions, L'Harmattan, Paris, 1995, p. 35. Sur la même question et traité d'un autre point de
vue, voir aussi le passionnant article d'Octave Mannoni, Je sais bien, mais quand même... in
Clefs pour l'Imaginaire, Points-Seuil, Paris, 1969.
[65] Bernard Stiegler a consacré les deux tomes de La technique et le temps, à la discussion
approfondie de ces questions (Galilée, Paris, T. I, 1994 et T. II 1996).
[66] Il n'est pas sans intérêt de remarquer qu'une véritable industrie de la capture volumique
est en passe d'éclore avec les cabines d'essayage qui, scannant notre corps, permettent de le
revêtir de vêtements virtuels, en haute résolution. La marine française a déjà utilisé ce procédé
pour réaliser les uniformes de 70 000 marins. Une nouvelle vie pour le sur-mesure... Voir
Clive Cookson, La prêt-à-porter veut en finir avec les cabines d'essayage, in Courrier
International, ndeg. 425-426, 23/12/1998, p. 47.
Table des matières
Chapitre II
La crise de confiance des massmedia et le principe
d'expérimentation
Un nouveau paradigme -l'expérimentation- tend à fonder la croyance dans les régimes actuels
de la communication. Il s'agira d'abord de spécifier ce nouveau principe en regard de ceux qui
le précèdent, et notamment en le comparant au régime de croyance issu de l'enregistrement
optique. Nous préciserons ensuite comment il contribue à défaire les évidences qui fondaient
nos régimes de vérités à l'heure de la télévision triomphante, c'est-à-dire comment il corrompt
le théorème central de cette période : "cru parce que vu". Nous verrons que la crise du
spectacle n'est pas celle d'un trop- plein de participation mais d'un déficit. Se dégagera alors
l'axe principal de ce chapitre`, montrant comment les régimes d'expérimentation portés par les
médias numériques tentent de combler ce passif. En témoignent certaines analyses actuelles
sur la photographie, comme celle de Jacques Derrida en particulier, qui souligne à quel point
la question du contact direct, du toucher devient une dimension majeure de l'assurance
réaliste. Il s'ensuit qu'à l'instantanéité propre à la télédiffusion, succèdent d'autres régimes
temporels engageant le passage à l'ère du spectacte.
A - Du spectacle au spectacte
Le désir de fondre ensemble la vie et le spectacle, la vie et la littérature, la vie et l'art a inspiré
nombre de courants philosophiques et artistiques. Mais dans une perspective quasiment
symétrique de celle que Régis Debray dénonce dans la télévision. Qu'il s'agisse du
mouvement surréaliste, du situationnisme ou encore des positions exprimées par Gilles
Deleuze dans toute son oeuvre, la séparation représentation/réalité est toujours vécue comme
un frein à l'augmentation de liberté, comme une camisole enserrant le mouvement vital.
Supprimer la distinction entre la vie, et tout particulièrement la vie de la pensée d'une part, et
la représentation de l'autre, définit l'une des visées essentielles du mouvement surréaliste.
André Breton, dans le Manifeste du surréalisme, l'exprime clairement dans sa définition.
"SURRÉALISME, n.m. Automatisme psychique pur par lequel on se propose d'exprimer, soit
verbalement, soit par écrit, soit de toute autre manière, le fonctionnement réel de la pensée.
Dictée de la pensée, en l'absence de tout contrôle exercé par la raison, en l'absence de toute
préoccupation esthétique ou morale"[2]. Et quelques lignes plus loin : "le surréalisme repose
sur la croyance à la réalité supérieure de certaines formes d'associations négligées jusqu'à lui,
à la toute-puissance du rêve, au jeu désintéressé de la pensée"[3]. Breton projette des rapports
entre réalité et surréalité qui dépasseraient la problématique contenant/contenu, repoussant
toutes les tentatives de "soustraire la pensée de la vie, aussi bien que de placer la vie sous
l'égide de la pensée"[4].
Habiliter les vertus d'une pensée directe, libre de toute mise en forme, de toute contrainte
logique telle est la charge du Manifeste. Sur ce chemin, se dressent évidemment la pesanteur
des artifices de toutes sortes, la présence incontournable des instruments d'extériorisation de
la pensée ainsi que les pressions contraignantes des techniques. Ces médiations, Breton les
assigne à convoyer la tradition, à exprimer l'ordre du monde, le poids de la réalité, dont la
seule forme digne d'intérêt, pour l'inspirateur du mouvement, est de s'appliquer au
fonctionnement de la pensée. La métaphysique négative de l'artifice, du média, s'oppose à la
glorification d'une expression pure de tout intermédiaire ("l'enfance qui approche le plus de la
vraie vie"[5]). Breton hésite, bien sûr, à rejeter le langage et la communication et il s'exprime
dans une forme syntaxique excellente, très éloignée des "associations libres" préconisées dans
son essai. Le premier manifeste se termine par cette phrase : "L'existence est ailleurs"[6]. Pour
parvenir à cette autre "existence", deux chemins se dessinent : la poésie et la politique. La
politique transformera le monde et la poésie exprimera directement la pensée, sans détour
sémantique. Forme indicielle -au sens de Charles S. Peirce[7]- de la pensée, la récitation
intérieure du poème fait surgir immédiatement le sens par le jeu des motifs sonores et des
analogies émotionnelles engendrées. Elle rend immédiatement présente la signification par les
distorsions de la langue, sans avoir à la représenter par le recours systématique aux
significations déposées dans les règles grammaticales et les usages sociaux du langage. Mais
s'émancipe-t- on vraiment de la représentation dès lors qu'on s'impose pour ce faire une forme
(un média), le poème, par lequel on fait jaillir affections, émotions et visions intérieures ? Qui
plus est, en déniant le monde de la sémantique par l'intermédiaire de mots[8].
Un risque de dispersion ?
La discussion sur la crise de crédibilité dont souffre la télévision peut être utilement éclairée à
partir d'une discussion des propositions de Régis Debray pour qui le petit écran symbolise le
nouveau régime médiatique dominant, la vidéosphère. Deux controverses polarisent la
discussion des thèses du "médiologue". La première porte sur le nombre ainsi que sur le
découpage des médiasphères. Nous ne ferons que l'évoquer. La deuxième concerne la
pertinence de l'idée selon laquelle la vidéosphère -dont les caractéristiques (pouvoir englobant
de l'image télévisuelle, etc.) ont été rappelées plus haut- définirait le régime médiatique
actuellement dominant. Sur ce point, nous tenterons de montrer en quoi l'hypermédia
constitue un régime médiatique à part entière, réductible ni à la graphosphère, ni à la
vidéosphère.
La controverse portant sur le nombre de médiasphères est intéressante, car elle montre que la
tripartition proposée (logosphère, graphosphère, vidéosphère) n'est pas aussi évidente qu'il y
paraît. Roger Chartier apporte des vues qui complexifient notablement les frontières[11] en
distinguant deux régimes de la vidéosphère : celui où l'image se singularise sans co-présence
du texte (cinéma et télévision) et celui "du texte donné à lire dans une nouvelle représentation
(électronique), sur un support nouveau (l'écran) et selon des modes de contextualisation et de
maniement sans précédent dans l'histoire longue des supports de l'écrit". Ainsi, les deux
mutations fondamentales qui caractérisent la vidéosphère seraient "la prolifération des images
sans écrit, mais aussi la transformation de la représentation de l'écrit"[12]. Ce détour par la
critique de l'organisation des médiasphères intéresse notre enquête parce qu'il débouche
précisément sur le statut de la numérisation du texte, comme changement radical des pratiques
de lecture et d'écriture. Modifications qui bouleversent l'unité même de ces activités en les
mélangeant directement aux pratiques d'inscriptions, en général, aussi bien textuelles
qu'illustratives, imagées ou sonores. La numérisation des signes distingue notre époque
comme étant la première où tous les types d'informations transitent par les mêmes codages
(binaire), les mêmes équipements (ordinateur) et surtout les mêmes types de traitements
(programmes informatiques). Il s'agit d'un saut où le technique renvoie au symbolique dans un
sens fort du terme, c'est-à-dire qui a trait aux langages. Les pratiques d'écriture et de lecture
sont alors plongées dans des agencements d'une grande variété (dessins, schémas, tableaux,
images numérisées, séquences sonores, etc.). La gestion de la circulation dans ces inscriptions
devient une question centrale. Une nouvelle "grammatologie du document hypermédia"
-selon l'expression pertinente de Henri Hudrisier- s'élabore à partir d'un travail collectif et
international de définition de normes. Dans l'écriture multimédia, par exemple, cette activité
radicalise les opérations d'organisation et de recherche des contenus déjà sédimenté dans la
conception des textes (sommaires, notes, index, etc.). Cette grammatologie dessine
notamment une carte des circulations possibles dans les corpus (arborescences, liens
hypermédias, gestion des balises sur le Web) et mobilise des instruments informatiques de
recherches adaptés à ce nouveau milieu, tels que les "moteurs", "agents intelligents" et autres
logiciels d'indexation automatique.
Dans ce nouvel état du texte, la frontière avec les autres types de signes n'est plus aussi bien
dessiné qu'à l'ère de l'imprimé. Parallèlement de nouveaux régimes temporels d'appropriation
s'annoncent. Mis en mouvement par la numérisation, le texte est, paradoxalement, ralenti par
une appropriation hésitante, hachée, où immobilisations, relectures et flux rapides se
succèdent, où les respirations se règlent sur la matérialité de la mise en espace et des
scénographies dynamiques du texte, brisant le flux uniforme de la disposition régulière le long
des pages d'un livre. D'autant que le texte numérisé peut s'accoupler à des messages sonores
ou imagés dans une perspective multi- ou hypermédiatique. Il ne s'agit pas ici de supposer que
le rythme de la lecture individuelle s'accordait mécaniquement à la linéarité du texte sur
support stable. La lecture obéit à des inflexions temporelles évidentes, fruits d'une traduction
d'un texte stable en discours intérieur fluctuant selon la subjectivité du lecteur. Mais la
matrice séquentielle régulière qui ordonne l'inscription typographique forme néanmoins la
structure objective principale du texte auquel toute lecture se confronte, serait-ce pour la
contester. Le régime médiasphèrique-roi de la vidéosphère, le "temps réel", serait ainsi,
bizarrement, plus en adéquation avec le temps continu, régulier de l'imprimé qu'avec les
ruptures (zapping), les arrêts et finalement le ralentissement des flux propre à l'ordre
numérique ; nous y reviendrons.
Une virtuosphère ?
La vidéosphère, définie comme "l'ère du visuel" dans le livre que Régis Debray consacre à
l'image, place -à travers sa dénomination même- l'audiovisuel moderne, et principalement la
télévision, en institution-reine distribuant nos régimes de croyances et de vérité. "Telle serait
l'hallucination-limite de l'ère visuelle : confondre voir et savoir, l'éclair et l'éclairage"[13]. Le
postulat implicite sur lequel est fondé toute l'analyse se construit sur la suprématie d'une
vision devenue "ère du visuel" plaçant en position sommitale une modalité particulière de
l'appareil médiatique : l'image vidéo et son vecteur institutionnel et technique central, la
télévision. La thèse défendue consacre le dispositif télévisuel en ordonnateur de la vérité, en
fondateur de l'espace public ainsi que du lien social. Cela justifiera qu'ultérieurement, un livre
entier, L'état séducteur[14], soit consacré au renversement de sujétion entre télévision et
pouvoir politique. L'hypothèse que nous mettons à l'épreuve, énonce que précisément le
régime télévisuel connaît une crise de légitimité profonde qui interdit d'en faire l'attracteur
principal de nos régimes de vérité comme de notre espace public[15]. Les modalités techno-
culturelles qui dérivent de l'image numérique interactive, tracent des lignes de fuite qui
contredisent celles qui s'originent dans la télévision. Il est symptomatique que dans les pages
où Régis Debray appréhende les enjeux de l'image numérique[16], il n'est quasi
exclusivement question que des techniques de traitement d'image (imagerie scientifique,
médicale,...), lesquelles n'instaurent pas, fondamentalement, une nouvelle modalité de
fréquentation des images. Une image numérique satellitaire se regarde comme une
photographie prise d'avion. Sont délaissées, de fait, toutes les régions (jeux vidéo,
multimédias de visites virtuelles ou d'apprentissage, circulation dans les réseaux, télévision
interactive, etc.) où des pragmatiques inédites s'installent, bouleversant les modes antérieurs
d'approche de l'image, régions que nous regroupons sous le vocable d'image actée. (Je
préfère, en effet, la dénomination image actée à celle, plus courante -et valide- d'"image
interactive". Elle marque, en effet, plus nettement l'existence d'un acte intentionnel comme
fondement d'existence de ces images, signifiant par là qu'elles s'enchaînent à partir d'actions
accomplies par un sujet provoquant, en retour, d'autres actions). L'univers de l'action sur
l'image est ainsi ignoré. Le primat de l'immédiateté propre à la logique de "temps réel" des
médias de flux (radio, télévision) est considéré comme l'ultime -et dramatique- visage de la
temporalité réglant les fonctionnements de l'espace public. Il ne vient pas à l'esprit du
"médiologue" que l'ordre numérique véhicule une autre distribution temporelle chevillée aux
règles de mise en oeuvre des programmes informatiques.
Dans sa réponse aux critiques qui lui sont faites, Régis Debray admet, en règle générale, leur
pertinence mais il ajoute une croyance : celle selon laquelle "le message sans code (l'image
électronique), fore et ratisse plus large que l'autre ("la transmission numérique des textes"),
unimédia ou non"[17]. Dans ses travaux antérieurs, l'auteur avait déjà crédité l'image d'un don
qui se pare du costume de l'évidence. "La preuve par l'image annule les discours et les
pouvoirs"[18]. Considérant que la capture vidéographique supprime le travail d'élaboration,
de mise en forme, caractéristique des régimes d'inscriptions antérieurs, il affirme la naturalité
de la puissance de l'enregistrement : "La vérité en vidéosphère est originelle, non finale"[19].
Ainsi la force de conviction du message visuel semble être fondé sur un critère quasi physique
: le privilège de l'indicialité -peircienne- de la capture optique sur toute attitude réflexive. Ce
serait donc quasiment un fait naturel qui expliquerait le lien entre vérité et vision. Notre
désaccord, sur ce point, est total. Et, comme souvent, ce sont précisément les dynamiques
actuelles qui, fissurant l'ancien pacte de croyance, en révèle la contingence. Elles le
découvrent alors comme une construction sociale et altèrent sa supposée naturalité. Notre
critique est donc double. Elle porte d'abord sur l'idée que la télévision -média déclinant dans
ses formes actuelles- puisse continuer à assumer, ad vitam eternam, une fonction structurante
de notre espace public. En deuxième lieu, elle conteste la possibilité de réunir sous un même
vocable -vidéosphère- les logiques contradictoires de la vision basée sur l'enregistrement
indiciel avec celle de l'expérimentation basée sur celle du traitement par programme.
Comment conviendrait-il de nommer cette deuxième composante de notre "médiasphère" ?
Dans la même livraison de la revue Le Débat consacrée à la médiologie, Roger Laufer insiste
sur les linéarités partagées de la télévision et de l'écrit, en y opposant l'hypertexte dans lequel
"commence à se développer aujourd'hui un mode d'organisation non linéaire de la pensée, au
coeur de la logo-graphosphère informatisée"[20]. Le terme de numérosphère vient à l'esprit. Il
est d'ailleurs évoqué par Régis Debray lui-même accordant crédit aux remises en cause de
Roger Laufer et amorçant ainsi la reconnaissance du nécessaire clivage interne à la
vidéosphère entre les logiques du "temps réel" et celles du temps différé. La proposition est
alléchante. Elle possède l'avantage de souligner l'importance d'une codification désormais
commune à tous les types de signes (manuscrit, imprimé, sonore, imagé, etc.). Mais le
numérique n'est qu'un codage, un moyen, une forme technique (et c'est bien ce à quoi
s'intéresse la médiologie) dont la fantastique explosion est la conséquence directe de
l'informatisation. Le codage numérique existait bel et bien avant l'invention de l'informatique.
Mais sans l'ordinateur, et donc la possibilité de traitements par programmes automatiques, ce
code est un fardeau inutile. Ce qui est central à notre époque, ce n'est pas tant la victoire du
code binaire, mais la disponibilité généralisée de machines fiables capables d'exécuter des
programmes automatiques. Bien que la notion de programme soit bien antérieure à celle
d'informatique, tout comme celle d'automatisme, on peut postuler qu'aujourd'hui une
accélération définitive a été enclenchée par la délégation de traitements intellectuels à des
programmes d'ordinateur. On proposerait donc volontiers, malgré la sonorité disgracieuse,
"programmosphère". Mais, outre l'insuffisante spécificité du concept général de programme
pour désigner l'informatique, l'inconvénient d'une telle proposition réside dans le message
qu'elle véhicule, tendant à certifier qu'avec l'informatique, des logiques univoques de partage
spatio-temporel sont à l'oeuvre. On verra, plus en avant, en quoi une telle proposition est
discutable. Alors virtuosphère ? Mais peut-être faut-il se résigner à ne pas inscrire la
complexité du régime actuel de la communication dans une seule sphère.
Nous commenterons ici quelques faits et controverses qui sont autant d'indices assez
explicites, de la crise qui affecte les massmedia. Nous soulignons tout particulièrement le
défaut d'expérimentation qui transparaît dans les reproches adressés à tel ou tel projet, et
mettons en perspective les premières réalisations qui prennent le relais des médias handicapés
par leurs difficultés à assumer des missions expérientielles.
L'état de méfiance
Que "la preuve par l'image" devienne la preuve que l'image trompe, nous signale qu'un ancien
régime de légitimation décline sous la poussée de nouvelles exigences. Ici, à la différence du
conte, c'est parce que le pouvoir du roi est vacillant qu'on peut s'écrier "le roi est nu". D'où le
démontage en cours des anciens mécanismes qui assuraient, non pas l'objectivité de
l'information, mais l'efficacité de la formule "cru parce que vu". Les artifices, les tromperies,
les arrangements, bref la mise en scène de la vérité télévisuelle est désormais sous le feu du
soupçon et le chroniqueur intitule précisément son propos : "L'état de méfiance". On
retiendra l'hypothèse que la méfiance n'est pas le produit de la tromperie, mais qu'à l'inverse
la tromperie est débusquée parce que règne désormais "l'état de méfiance".
Le soupçon généralisé ne porte pas tellement sur la conformité des images enregistrées à leur
référent -où s'apprécierait un défaut d'indicialité de la capture optique, rongée par le trucage et
la mise en scène- mais plutôt sur l'incapacité des images enregistrées (ou transmises en direct,
là n'est pas la différence essentielle) à offrir un instrument d'expérimentation. Et les
massmedia ont déjà perçu cette limite, sans toutefois pouvoir la déjouer. D'où l'affectation un
tantinet masochiste avec laquelle ils se plaisent à souligner leurs propres erreurs
d'appréciation : victoire programmée de Balladur à la présidentielle du printemps 1995,
accueil enthousiaste du plan Juppé sur la Sécurité sociale à l'automne de la même année, par
exemple. On pourrait, dans la même perspective, interpréter le culte nostalgique que vouent
régulièrement des émissions à l'histoire de la Télévision[24]. S'agit-il d'y vénérer un agonisant
ou déjà un disparu ?
Si le chroniqueur du Monde constate que "La France ne croit plus ce qu'on lui montre" et que
"quiconque prétend s'adresser à elle, quiconque inscrit son visage sur l'écran familier, est
d'emblée suspect"[25], c'est parce que le soupçon précède toute présentation purement
audiovisuelle désormais trop affaiblie pour établir une référence solide. La vérité exige
aujourd'hui de pouvoir la vérifier soi-même. Précisons que cette vérité "expérimentale" ne
saurait posséder un caractère ultime. Ce n'est évidemment qu'un régime particulier et actuel de
vérité plus adéquat à nos attentes culturelles que la conformité indicielle, laquelle provient
d'un prélèvement direct à la source de l'événement, comme dans toutes les formes
d'enregistrement. On précisera cela ultérieurement.
Instantanéité et véracité
Christiane Amanpour, reporter phare de CNN, affirmait en octobre 1998, que la baisse
d'audience de la chaîne était due à la montée en puissance des sites d'informations en ligne sur
Internet. Voici ce que déclarait, en décembre 1998, Howard Rosenberg, critique de télévision
au Los Angeles Times : "Les infos à la télé n'ont jamais été aussi mauvaises [...] les télévisions
se ruent sur le spectaculaire, comme les courses d'hélicoptères [poursuites policières
transmises en direct] et sur les sujets les plus faciles à couvrir : les meurtres. Un cadavre
encore tiède, un flic et c'est dans la boîte. De plus en plus de gens préfèrent regarder le câble
et s'informer sur Internet"[26]. Ces déclarations jouxtent un article qui présente Newsblues
-site Web impertinent- exutoire, où les journalistes américains racontent pour la première fois
à cette échelle et le plus souvent de manière anonyme, les turpitudes de leurs directions :
sensationnel à tout-va, malhonnêteté financière, etc. Cent vingt mille visites dès le premier
jour : cette expression publique est un signe évident de la crise de confiance, exprimée cette
fois de l'intérieur de l'appareil télévisuel.
En France, il n'est pas certain que la grande messe du vingt-heures attirera toujours autant de
fidèles. Plus que la baisse d'audience, tendancielle, pour ce rendez-vous quotidien, c'est la
transformation de la réception qui doit être soulignée. Désormais, on regarde le "vingt-heures"
aussi comme un spectacle. On peut s'en désoler où s'en réjouir, mais force est de constater que
la valeur "cultuelle"[27] cède la place au décodage distancié. Et cette attitude évaluatrice,
pratiquée collectivement, tend à devenir la condition spectaculaire. Le sentiment commun du
partage de la retransmission de l'événement tend à faire de la retransmission un événement en
tant que tel.
Cette question de la valeur "cultuelle" de la télévision risque d'être fortement déplacée sous
l'effet des profondes modifications du système de diffusion. La perspective, en France, de
pouvoir recevoir, notamment grâce à la numérisation, plus de cent chaînes risque de
transformer considérablement la notion de partage collectif de l'événement. Notons que cette
situation, effective depuis des années aux États-Unis, n'a pas jusqu'à présent supprimé les
quelques occasions où les téléspectateurs se trouvent rassemblés par dizaines de millions pour
suivre simultanément des retransmissions à valeur fusionnelle[28] : super-bowl aux états-
Unis, Jeux Olympiques, débat entre les candidats à l'élection présidentielle, etc. La persistance
de telles télé-rencontres de masse nous interroge sur leur fonction. Le partage simultané
d'événements, serait-ce par télé-relation, participe aujourd'hui à la structuration de toute
communauté.
Observons que l'instantanéité d'un tel partage constitue encore un gage de confiance dans la
véracité du reportage, c'est-à-dire dans sa capacité à oblitérer tout questionnement sur ses
effets de mise en scène. Si un événement est télédiffusé instantanément à un vaste public, il
paraît être à l'abri des soupçons de montage ou de trucage. Cette observation semble
pérenniser la télévision dans sa fonction de principal instrument du lien social à distance.
Ainsi, dans son étude sur "l'Histoire du regard en Occident"[29], Régis Debray affirme-t-il
que la question de l'authenticité des images, c'est-à-dire de leur conformité au référent va être
déplacée vers celle de leur "vraisemblance" et que "...celle-ci ne sera plus garantie que par
leur rapidité de transmission : plus bref le délai, moins de possibilité de truquage (qui
demande des machines et du temps)"[30]. Or des traitements numériques d'images qui
permettent d'hybrider, quasi instantanément, des images optiques enregistrées avec des
images totalement calculées sont d'ores et déjà en fonctionnement. Citons, à titre d'exemple le
procédé Epsis mis au point par Matra qui permet d'incruster, en "temps réel", des images de
synthèses dynamiques dans des reportages de télévision ; ce procédé est utilisé aujourd'hui
pour des publicités virtuelles lors de retransmissions sportives, par exemple[31]. Instantané
n'est plus synonyme de vérifiable. Bref, il va falloir faire notre deuil d'une confiance
inébranlable dans la vérité "indicielle" et du sentiment d'authenticité qu'assurait la
télétransmission instantanée. Et ce tournant, déjà sensible dans notre suspicion à l'égard des
massmedia, loin de renforcer les duperies médiatiques ouvre à une mise en doute généralisée
de toute information rapportée. Désormais pour croire, il va falloir mettre la main à la pâte.
Une pâte malléable, ductile, que l'on veut tester, éprouver, bref une pâte virtuelle. Ce qui ne
veut pas dire -on s'en doute- véridique, infalsifiable ou irresponsable.
Depuis mars 1998, l'Agence France Presse propose un nouveau service d'information
infographique tridimensionnelle destiné aux chaînes de télévision. Chaque jour une animation
en images de synthèse 3D leur est soumise, relevant d'un événement particulier de la journée,
accident, fait divers, sport... Ces animations sont destinées à compléter des séquences tournées
et peu compréhensibles (accident, attentat, par exemple) ou à clarifier des images confuses
comme un départ de course automobile enfumé par les gaz d'échappement. Parmi les
premières images réalisées en 3D à titre de test, on a pu voir comment, lors de la course
Vendée Globes 96, le skipper Bullimore se trouvait incarcéré sous la coque de son voilier
retourné. De même a-t-on vu la localisation du bateau naufragé au milieu de l'Atlantique. La
chaîne qui achète le document peut l'obtenir dans sa version standard, ou bien dans une
version "châssis d'image" qu'elle peut ensuite personnaliser. Elle peut également solliciter
l'A.F.P. pour lui fournir la même scène, mais sous un angle différent. On voit donc se
construire une industrie de "l'arrangement", intermédiaire entre la prise de vue et la synthèse
d'images, dont on ne peut affirmer qu'il s'agit d'un trucage pur et simple, puisqu'il s'agit d'être
plus près de l'événement ; beaucoup plus près que ne le permet la capture optique. D'où les
distorsions qui découlent de ces opérations qui mixent capture optique et synthèse numérique.
Et la logique veut, qu'à une phase ultérieure, les fichiers numériques sources puissent être
transmis par réseau à des fins de mise en scène directe par le téléspect-acteur à son domicile.
Après s'être investi dans la fabrication d'un néo-réalité à vocation réaliste, l'image numérique,
démontrant peut-être ainsi sa maturité, se tourne vers son passé immédiat, l'image vidéo. Le
film numérique L'expert[32] est en effet, totalement bâti à partir d'un corpus, lourd s'il en est,
formé par les trois cent soixante-dix heures de bandes du procès Eichmann, à Jérusalem ;
bandes que personne pour ainsi dire n'avait jamais revues[33]. Ces documents inédits ont
donné à Egyal Sivan et à Ronis Brauman (l'ex-Président de Médecins Sans Frontières) l'idée
de se pencher sur la personnalité de l'ancien chef nazi à la lumière du livre-reportage sur le
procès, publié en 1963 par Hannah Arendt : Rapport sur la banalité du mal[34]. Leur
intention est de faire revivre le regard que portait la philosophe sur Eichmann. Non pas un
bourreau sanguinaire, mais un citoyen ordinaire obéissant à un appareil de pouvoir.
À partir des centaines d'heures composant les archives, un film de deux heures est né qui
mobilise des techniques de retraitement numériques originales[35]. Les images d'archives ont
été tournées par quatre caméras fixes, opérant alternativement. Tout travelling, zoom ou effet
optique étaient donc impossibles. Ces images forment une sorte de banque de données à partir
de laquelle de nouvelles prises ont été reconstituées (ce dont les spectateurs seront avertis dès
le début du film). Des mouvements virtuels de caméras (panoramiques, travellings), par
exemple, ont été calculés en tenant compte de la géométrie de la salle (qui existe encore à
Jérusalem). Les acteurs du procès, témoins, juges, avocats et accusé sont réinsérés dans une
maquette tridimensionnelle des lieux. Des effets complexes (modifications d'éclairage et de
texture) affectent les images. Des changements virtuels de focales modifient les vues. Des
images des témoins s'affichent, en réflexion, sur la vitre blindée de la cage de verre qui
séparait Eichmann du tribunal alors qu'elles n'apparaissent pas dans les bandes originales. Le
son est aussi retravaillé, pour faire coïncider, par exemple, les réactions d'Eichmann aux
témoignages, en gommant le temps de latence pris par la traduction.
L'image de synthèse réinterprète ainsi l'image enregistrée. Trouant les surfaces, elle lui donne
une profondeur de champ que celle-ci s'était vu confisquer par le caractère indélébile de la
prise d'empreinte. Elle remonte l'entropie de la pente temporelle en recomposant à volonté les
durées et les enchaînements déposés une fois pour toutes dans la succession des prises de
vues. Le matériau de base de la refonte numérique devient l'image enregistrée isolée,
capturée, sculptée, mise en série pour devenir un méta-film. Du "ça a été" on est passé au "ça
pourrait être ça aussi". Le rêve ancestral consistant à obtenir d'une image plus qu'elle n'en
exhibe de prime abord, à la faire exsuder ses constituants dissimulés, commence à se
concrétiser. Il se vérifie que l'image numérique révèle (au sens photographique) l'image
enregistrée, comme celle-ci révèle son référent réel. La redéfinition de l'espace (et du regard)
concerne la finitude de la capture optique dans ses rapports au temps. L'image enregistrée
nous a habitués à sa stabilité qui renvoie elle-même à l'immuabilité apparente du passé. Ce
régime est révolu. L'expert en est l'un des plus purs témoignages. La trace du passé est, à la
manière d'une fouille archéologique, relancée dans l'actuel, comme ces photographies
d'enfants disparus que des logiciels font vieillir au fur et à mesure que le temps passe[36]. On
creuse derrière l'enregistrement pour en extraire une autre actualisation, non pas fausse, mais
compossible. Ce qui a été capturé n'est que l'un des possibles que sa mise en traitement
numérique va libérer de son inscription, auparavant définitive, sur la pellicule. La
démonstration est, ici, paradoxalement renforcée par le fait que le résultat est un film : le
numérique est, en l'occurrence, un rebond qui ramène à la forme filmique initiale. (Pas
d'interactivité dans ce cas ; les réalisateurs de L'expert ont, en effet, soigneusement
sélectionné et mis en scène certains effets signifiants illustrant leur thèse). Mais la portée de
cet étonnant travail va bien au delà de cette constatation. S'il est possible de tirer des images
enregistrées de leur torpeur, c'est bien, qu'aujourd'hui, un principe d'expérimentabilité les
domine. Désormais, tout film classique est, potentiellement, une matrice d'où peuvent naître
des séries.
Les affaires judiciaires sont un filon inépuisable pour tenter de rapprocher le spectacle et la
vie... et transformer un reportage en instrument destinée à modifier le cours de la justice. D'où
l'exemple suivant de justice-fiction, mais cette fois avec le vrai supposé coupable. R. Agret
avait été condamné pour un double meurtre dans les années soixante-dix. Il avait été ensuite
gracié, puis acquitté. Sur le plateau, les acteurs du drame : parents et proches de l'accusé,
expert médecin légiste, les avocats de la partie civile et de la défense, un gendarme partie
prenante de l'enquête, un juré. L'émission débutait par une fiction réaliste reconstituant le
cadre familial et social. L'animatrice s'appuyait sur la contre-enquête entreprise par l'équipe
qui avait préparé l'émission, repérant les incohérences et les faiblesses du dossier pouvant
conduire à réviser le procès. Mais, au grand désespoir du principal protagoniste et de Philippe
Alphonsi, TF1, flairant peut-être la chausse-trappe, renonçait à la diffusion. Bref, les fictions
réelles commençaient à sentir le soufre. Mettre en cause le pouvoir judiciaire en le doublant
par une reconstitution, aussi professionnelle soit-elle, semblait dangereux pour la chaîne, en
particulier dans une période fertile en démêlés juridiques. Proposons une autre hypothèse, non
contradictoire.
La télévision aurait désormais tiré les leçons de son échec à proposer l'expérimentation de la
réalité par les moyens du spectacle. La disgrâce des reality shows creuse, de manière
symptomatique, ce déficit. Mais l'échec n'est apparemment jamais considéré comme définitif.
Régulièrement, de nouvelles réalisations viennent tenter de recoudre la vie et la fiction. Les
"feuilletons documentaires" -docusoaps comme les nomment les réalisateurs anglais après les
avoir importés de leurs homologues néerlandais, inventeurs du genre- en sont les derniers
avatars. Faire jouer à l'infirmière ou à la vendeuse de grand magasin sa vie sociale réelle en la
ponctuant d'intrigues ou de gags : ainsi se rejoignent la réalité "brute de décoffrage" avec
"l'humour et l'émotion", comme l'explique Christoph Jörg[37], chargé des docusoaps sur Arte.
Nous ne sommes pas surpris de voir, dans le dossier de presse, qu'il s'agit de "construire des
histoires au plus près de la vie". Les fictions réalistes sont, en effet, la réponse exacerbée à
cette soif de réalisme et d'implication qu'une puissante vague culturelle fait déferler. Mais ils
ne peuvent l'étancher. Comme le dit Gérard Leblanc : "Rien n'a absolument changé avec les
reality shows, sinon qu'ils renforcent le désir, faute de l'avoir satisfait, d'une ouverture sur le
réel qui ne serait pas jouée d'avance"[38]. Le reality show est cardinal, non pas comme genre
télévisuel, mais en tant que métaphore de la recherche de réalisme. Ainsi Jean-Claude
Soulages montre comment, depuis sa naissance, les informations à la télévision sont sujettes à
cette tension. On débute, nous dit-il, après guerre, avec le modèle spectaculaire des actualités
cinématographiques. Puis le langage se délie dans les années 1960 et vers les années 1980, on
reconnaît la prise de parole du citoyen (micro-trottoir, débats en direct, etc.). Enfin,
aujourd'hui, "le but de la scénarisation est d'immerger le téléspectateur dans le réel selon trois
méthodes : filmer en direct, reconstituer le fait comme il a eu lieu, ou scénariser l'événement
en suivant des personnages"[39]. Ajoutons que s'il s'agit d'"immerger le téléspectateur", des
moyens autrement plus efficaces que le petit écran se font jour. On l'a compris, nous
prolongeons le diagnostic par un pronostic.
Déplacer les limites, élargir l'espace du jeu avec le réel : tel serait le projet que les médias
numériques promettent de concrétiser. Mais là gardons-nous de tout emportement mécaniste.
Élargir ne signifie pas supprimer les limites. Dans les micro-mondes simulés, celles-ci n'ont
pas disparu. En revanche, elles deviennent le produit de l'action et de la perception et non plus
leurs présupposés, tels qu'ils se figent dans la construction et la rhétorique de l'émission de
télévision. Ces limites relèvent d'une double définition. D'une part, elles sont perçues comme
barrières infranchissables, bornes déposées par les concepteurs du micro-monde simulé. Je ne
peux pas sortir du musée pour aller me promener dans la rue si les concepteurs ne l'ont pas
"joué d'avance". D'autre part, elles sont construites par l'interactant. Toute décision, à un
moment donné d'un parcours, inscrit une limite irréversible. Si on revient en arrière, c'est une
autre séquence temporelle qui s'ouvre. Si j'ai poursuivi la visite du deuxième étage de l'aile
Richelieu au Louvre, j'ai perdu -peut-être définitivement, et en tous cas pour ce parcours-
l'accès à l'escalier vers le troisième étage. On peut faire l'hypothèse que l'assouplissement des
bornes de la présentation, comme le réglage du hors-champ[40] par le spectateur, loin
d'assouvir le désir de participation et de rupture de la barrière représentationnelle, ne renforce,
au contraire, l'appétence pour un jeu ouvert avec le réel et n'aiguise encore plus le goût du
franchissement de la barrière représentative. Ainsi se révéleraient les fondements de la
tendance à l'incarnation croissante des représentants (la prochaine étape étant, avec la Réalité
Virtuelle, la généralisation de l'immersion pluri-sensorielle individuelle, puis collective).
Les premières armes de la télévision interactive
La télévision interactive exprime la recherche, dans le cadre télévisuel, d'un compromis entre
émission collective et réception personnalisée. Avec FSN (Full Service Networks : "réseaux
de services complets", nom donné à l'expérimentation de télévision numérique d'Orlando), on
a vu se profiler de nouveaux alliages entre émission et réception[41]. L'un des services du
FSN -TNX News Exchange- conçu avec la rédaction de Time, permettait d'effectuer une
sélection thématique automatique en compilant un ensemble de sujets diffusés par les grandes
chaînes de télévision ou les stations locales. Ces émissions étaient numérisées, compressées,
découpées par thèmes et stockées sur les batteries d'ordinateurs du centre informatique. Il ne
restait plus aux abonnés qu'à choisir le (ou les) thèmes : Bourse, Bosnie, économie, météo,
tourisme, arts, etc.[42]. Sports-on-demand offrait, sport par sport, les matches de la journée ou
de la semaine ou, si l'abonné le désirait, les entretiens avec sa vedette préférée, l'affichage de
photographies ou d'informations en vidéotexte. La chaîne NBC Sports envisageait d'offrir aux
téléspectateurs l'équivalent d'une régie à domicile. Suivre tel joueur plutôt qu'un autre, voir le
match en surplomb ou derrière les filets de l'équipe adverse, revoir des séquences passées,
déclencher un ralenti... Très logiquement, la télévision numérique offre un accès à des univers
simulés simplifiés, expression plus nette encore de la formule spect-actrice en gestation.
Toujours sur FSN, Shoppervision, centre de télé-achat virtuel, exhibait ses galeries
tridimensionnelles. On pénétrait dans les boutiques, on consultait des catalogues, on
manipulait des objets pour les observer sous toutes leurs coutures. Mais, retour au réel oblige,
tout cela finissait par un bon de commande sur lequel la frappe d'un code d'identification
réalisait l'achat et déclenchait la future livraison à domicile. Mais la maîtrise technique ne
décide pas de tout, loin s'en faut. Le marketing, les réactions des publics ainsi que la
maturation d'autres solutions techniques[43] détermineront les rythmes de mise en service de
ces innovations (L'abandon, par exemple, de l'expérience FSN montre que rien n'est encore
vraiment stabilisé dans ce domaine). En recul en Floride, la télévision interactive a refait
surface à Hongkong où l'opérateur de téléphone Hongkong Telecom lançait, à l'automne 1997
et après trois années d'expérimentation, de véritables services de télévision interactive[44] tels
que vidéo à la demande (plus de cent films dès l'ouverture), télé-achat (six mille produits)
puis, progressivement, programmes éducatifs et connexion à Internet.
Enfin, prolongement logique, la publicité interactive s'apprête à offrir ses écrans sur les
chaînes numériques câblées[45], non sans illustrer immédiatement la contradiction
fondamentale qui oppose média de flux et réception à la demande ; en effet si un spot est
retenu, son exploration interactive mordra sur les autres messages publicitaires qui lui
succèdent, au grand dam des responsables des régies.
Quelles qu'en soient les formes, la convergence entre l'univers de la télévision et celui du
multimédia en ligne est une orientation majeure que la plupart des industries de ces secteurs
concrétisent à leur manière. En France, les opérateurs de chaînes par satellite proposent, pour
les uns, des chaînes interactives de jeu ou d'opérations bancaires et, pour les autres, la
consultation de sites Web avec hauts débits via le satellite pour l'arrivée et téléphone pour le
départ. Symétriquement, France Télécom étudie différents moyens d'acheminer de la vidéo de
bonne qualité sur les écrans des ordinateurs. L'opérateur national développe des canaux
multimédias à grande vitesse et des accès rapides à Internet. Des modem-câbles sont proposés
qui devraient permettre d'afficher des séquences vidéos sur Internet de qualité similaire à celle
de la télévision.
Alors que les réseaux télévisuels tentent de conquérir l'interactivité des réseaux numériques,
ceux-ci convoitent, à l'inverse, de devenir l'un des supports de télédiffusion. Sous la pression
des push technologies, des chaînes multimédias spécialisées, et à diffusion permanente,
apparaissent sur Internet. Il s'agit bien, dans la logique des médias de flux, de "pousser"
l'information vers l'utilisateur et non de "tirer" celui-ci vers l'information, comme dans la
navigation classique. Bref, entre chaînes de télévision, câblées ou par satellites, services sur le
Web et opérateurs du téléphone des alliances mouvantes se trament. De nouveaux alliages
temporels entre réception de flux et navigation interactive apparaissent, dont il nous
appartiendra d'évaluer, ultérieurement, la nature.
L'interactivité est l'une des principales directions visées. Depuis le mois de mars 1997, suivre
une course de Formule 1 sur CanalSatellite revient à sélectionner, avec la télécommande, six
canaux diffusant simultanément la tête de la course, le pilotage (grâce à des caméras
embarquées dans le cockpit) ou encore l'activité dans les stands. On ne regarde plus la
transmission de l'épreuve, on prélève -par un zapping permanent- un reportage personnel.
Avec l'ajout de reportages sur les pilotes et les écuries, le zapping s'approche un peu plus de la
navigation dans un hypermédia (CD-Rom ou Web).
Les abonnés à la chaîne C:, diffusée jusqu'en 1998 sur CanalSatellite, ont pu télécharger des
logiciels sur leur ordinateur (jeux, logiciels en promotion, etc.) et recevoir des véritables
magazines multimédias en liaison avec les émissions vidéo diffusées sur la chaîne (science-
fiction, BD par exemple)[47]. Apparaît une nouvelle forme de télévision à deux couches en
quelque sorte. La couche multimédia fait office de fenêtre approfondissant le sujet de
l'émission. Un concert, par exemple, est accompagné, sur le supplément multimédia, d'une
discographie, d'articles de presse ou d'extraits d'autres enregistrements.
Enfin, dernier, et non des moindres, exemple, la nouvelle chaîne multimédia audiovisuelle
éditée, en 1997, par CNN (CNN Custom-News), approfondit le Webcasting dans des
proportions inégalées. L'abonné commence par répondre à une centaine de questions portant
sur ses domaines de prédilection et, dans chacun de ces domaines, il peut préciser jusqu'au
détail ses préoccupations. La chaîne est bien sûr alimentée par l'énorme fond documentaire de
CNN. Elle est aussi reliée aux principales agences de presse, à quelques grands titres de la
presse quotidienne et à une quarantaine de magazines thématiques (des sciences et techniques
à la chasse en passant par l'alpinisme et l'arboriculture). Balayant ces gigantesques sources
documentaires, la chaîne affiche un journal personnalisé qu'il est encore possible d'affiner en
indiquant quelques mots clés supplémentaires. Ce journal multimédia combine textes, courtes
vidéos et séquences sonores. Alors qu'il consulte son journal, l'abonné voit défiler, en bas de
page, des nouvelles fraîches, "poussées" sur son écran, en rapport, avec ses centres d'intérêt.
En octobre 1998, Reuter annonçait le lancement de NewsBreaker, chaîne multimédia à
destination aussi bien des opérateurs de chaînes de télévision que des particuliers via Internet.
Netscape et Microsoft[48] ne sont pas en reste, qui proposent dans les dernières versions de
leurs navigateurs, des abonnements à des bouquets de chaînes. Même si, dans un premier
temps tout au moins, ce sont les entreprises, via les réseaux Intranet, qui formeront la clientèle
principale des technologies push, une extension progressive aux particuliers semble, à terme,
probable. D'autant que les nouvelles générations de langage de conception de site (X.M.L.)
succédant à H.T.M.L., renforceront la liberté de mise en forme des pages reçues, et
permettront d'y insérer des informations élaborées par l'internaute lui-même.
Ces évolutions, que nous aurons l'occasion de retrouver pour en apprécier les formes
temporelles inédites, montrent assez clairement, que le média télévision (comme la radio) est
en redéfinition sous la pression des réseaux numériques. Cela ne signifie pas qu'il va être
absorbé dans les réseaux numériques et perdre toutes ses spécificités, notamment sa valeur
"cultuelle" (rassemblement autour d'événements phares assurant une participation sociale
commune). Mais son unité technologique est en passe de se fractionner et ses modes d'usages
en seront sans aucun doute redessinés[49].
La "pulsion" expérimentatrice s'exprime, bien entendu dans d'autres sphères que l'information
politique, et notamment dans le domaine judiciaire. Les tribunaux, aux états-Unis, par
exemple, ont de plus en plus fréquemment recours à des simulations en images de synthèse
tendant à démontrer, par exemple, l'inanité d'une légitime défense invoquée par la Police alors
que la victime, à terre, avait déjà été atteinte. Une autre reconstitution virtuelle a prouvé qu'un
accident de circulation ne pouvait qu'impliquer la responsabilité du conducteur. La
modification interactive des paramètres de vision des scènes (vue subjective, déplacement de
point de vue, etc.) assure une confrontation concrète des thèses opposant les parties. Le
développement d'une véritable industrie de la preuve expérimentale par reconstruction
simulée -une cinquantaine d'entreprises s'y sont déjà spécialisées[54]- est d'autant plus
remarquable qu'elle est souvent sollicitée par les procureurs eux-mêmes. Ces développements
sont loin de convaincre systématiquement les jurys, mais parfois ils jouent un rôle de premier
plan. Ils posent, bien entendu quantité de problèmes (notamment financiers et d'égalité face à
la loi), mais le dynamisme du marché de "l'animation judiciaire" peut nous persuader que la
démarche expérimentatrice est dans l'air du temps. La création de sites Web ou l'édition de
CD-Rom, à l'occasion de grandes affaires judiciaires, bien que de nature plus informative, le
confirme.
"L'affaire Simpson"
Les abonnés à Compuserve pouvaient aller chercher directement les documents publics de
l'affaire sur des bases de données : photos officielles, dessins des médecins légistes incluant
les traces de coups de poignard ainsi que le texte intégral des comptes rendus du procès. Des
conversations directes avec des experts leur étaient proposées. Sur America On Line, l'autre
grand service d'informations en ligne, on trouvait aussi les questionnaires que les jurés avaient
dû remplir, portant sur la connaissance qu'ils avaient de l'affaire, préalablement à leur
nomination. On pouvait aussi accéder à des banques de données juridiques ou participer à des
groupes de discussions. Des clips audio des moments forts du procès (témoignages,
plaidoiries, réquisitoires) étaient disponibles ainsi que, à la demande, des pièces du dossier
telles qu'une photographie du visage tuméfié de la victime après l'une de ses confrontations
musclées avec son mari. Hors services privatifs, de nombreux groupes de discussions ont vu
le jour, et la controverse y a battu son plein, spécialement autour de la fameuse question du
supposé parti pris raciste des enquêteurs.
épreuves érotiques
Demeurons dans l'aire "sulfureuse" en élargissant le champ de l'épreuve interactive aux CD-
Rom pornographiques. On constate que, fatalement, ce marché est soumis à une pression
innovatrice pour la mise au point d'interfaces idoines. Les CD-Rom érotiques deviennent une
plate-forme d'essai pour des interfaces et des scénographies beaucoup plus "impliquantes" que
la simple navigation dans des images ou des séquences vidéos. Exploitant la dimension
naturellement interactive de l'échange langagier, des ingénieurs spécialisés en Intelligence
Artificielle, ont adapté un logiciel pour converser librement avec une créature à l'écran,
l'interroger et lui donner des ordres (dont on devine la teneur). Des concepteurs américains
préparent d'autres jeux roses très interactifs, et, pour ce faire, conçoivent des interfaces
adaptées : bracelets qui permettent de diriger les mouvements des belles virtuelles, bagues
fixées sur le doigt dirigeant une main modélisée qui parcourt l'image à volonté[56]. Et des
prothèses encore plus proches des organes sexuels sont à l'étude, comme des sexes virtuels
clonés à distance, conçus selon la logique des systèmes à retour d'efforts expérimentés dans
les applications d'arrimage moléculaire en Réalité Virtuelle, par exemple.
Nul étonnement à ce que l'activité sexuelle soit l'objet de recherches visant la présence à
distance. Le cybersex, ici aussi, prolonge les formes antérieures de transports sexuels (contes,
récits littéraires, bandes dessinées, photographies, films, communications téléphoniques,
Minitel rose, images de synthèse interactives, et, à terme, Réalité Virtuelle en réseau). Que le
fantasme puisse être considéré comme une" technologie" érotique ne surprendra personne.
Mais faut-il conserver les guillemets à "technologie" ? On peut aussi appréhender le fantasme,
ainsi que le souvenir ou encore l'imagination comme des technologies de mise à distance et de
transport qui empruntent les voies tressées du langage et du souvenir perceptif inscrit.
(Revivre le passé, c'est le redéfinir : toute remémoration est aussi une interprétation actuelle).
On pourrait d'ailleurs construire une histoire des transports sexuels à distance, échelonnée sur
chacun de ces supports (contes, films, etc.) et qui distinguerait les modes de sollicitation
fantasmatique dans leurs rapports aux différents types d'inscriptions et à leur mise en jeu
fantasmatique.
La production "multisupport"
L'expérimentation virtuelle est aussi une médiation, la présence à distance demeure une
scénographie, l'interactivité se joue dans un théâtre. Mais ces formes obéissent à de nouvelles
distributions de rôles ainsi qu'à des systèmes de valorisation inédits. Ce qui diffère dans le
nouveau régime de légitimation de la croyance, ce n'est pas qu'il serait plus "réaliste" que
l'ancien mais qu'il est construit selon des procédures plus homogènes aux exigences de
l'incarnation croissante et à l'espérance d'une élaboration individuelle d'un point de vue. Mais
cette construction individuelle recèle des limites.
Si elle devient plus charnelle, plus expérimentable, l'information sera moins indicielle, plus
construite. On n'expérimente que ce qui a été modélisé de manière pertinente. L'événement est
mis en maquettes, articulé en rhétoriques cohérentes. Le processus informationnel sera
l'aboutissement d'une épreuve publique de légitimité (au sens où la légitimité scientifique
s'acquiert à travers la confrontation publique des hypothèses). Ces modèles sont-ils de fidèles
représentants ? Où se situent leurs limites, leurs points aveugles ? La modélisation est, dans le
domaine de l'ingénierie, une épreuve opérationnelle, et dans le domaine social une épreuve
herméneutique. Quels partis pris le CD Rom modélisant le procès Simpson aux États-Unis
exprime-t-il ? Sur quelles ignorances est-il édifié ? Quelles interprétations juridiques sont-
elles à sa source ? Ces questions affleurent obligatoirement dès lors que l'interrogation et les
choix de circulation sont délégués à l'interactant.
Ce qui est essentiel, c'est le mouvement de consolidation réciproque entre progrès dans
l'incarnation tangible des représentants et fondation culturelle de la vérité sur
l'expérimentabilité. La figure du réalisme aurait ainsi changé de costume : d'une facture
essentiellement liée à la capture visuelle, elle est en passe de se lier au test pratique. Et la
représentation virtuelle numérique permet, à la différence du spectacle audiovisuel plat et
plein, d'inclure dans le spectacte, une multiplicité de vues, éventuellement contradictoires. À
charge pour le spect-acteur de choisir, l'angle (ou les angles) d'éclairage qui lui convient.
Transfert de source de légitimité, de l'émetteur vers le récepteur, telle serait la mission, ou le
fantasme de la présentation virtuelle. Et l'on perçoit immédiatement certaines apories qui en
découlent. Le récepteur peut-il devenir la seule source de légitimation des informations et de
leurs mises en récits ? Évidemment pas. Le paradigme de l'expérimentation n'affirme pas
l'extinction des foyers qui surplombent l'acteur individuel et irradient les normes sociales,
foyers à travers lesquels l'expérience est à la fois vécue et construite. La référence au groupe
n'a pas disparu dans ces jeux expérimentaux, elle s'est simplement assouplie, libérant des
espaces de parcours singuliers. On ne saurait substituer une caricature à une autre en
échangeant le modèle hétéronome des massmedia supposés conditionner le social avec celui
de l'expérience, laquelle assurerait la parfaite autonomie d'une subjectivité individuelle. Il
faut, en revanche, prendre la mesure de la mise en critique généralisée et du relativisme que le
dispositif expérimentateur du spectacte véhicule et induit à la fois.
Pour caractériser la crise du régime classique d'adhésion, j'ai surtout insisté sur
l'affaiblissement du pacte visuel, le vacillement du régime de vérité fondé sur le "voir pour
croire". Deux aspects de la question méritent une discussion : l'accompagnement langagier de
l'image télévisuelle et surtout le sentiment communautaire, qu'on peut aussi appeler la valeur
"cultuelle" de la télévision.
En effet, l'image télévisuelle apparaît rarement isolément. Elle est mise en scène par un
discours, un commentaire omniprésent qui cadre, définit, contextualise les images montrées.
Le régime de croyance propre à la télévision serait donc non pas "croire ce qu'on voit" mais
"croire ce que le commentaire fait voir ". C'est un fait universel, le cadrage langagier ne
contraint pas mécaniquement la signification. Par ailleurs, lorsque le sujet est brûlant, le
commentaire se heurte -et ceci, depuis toujours- aux horizons d'attente basés sur les
convictions et engagements préalables des publics. Outre ces données générales, l'activité
discursive est majorée dans le contexte actuel de la crise de confiance, dans la mesure où elle
doit vaincre en permanence le sentiment partagé que "les médias nous trompent". D'où une
surcharge souvent pénible, -un appareil de persuasion redondant- qui tente désespérément de
rattraper le déficit d'adhésion et qui participe finalement à notre désaffection[60].
C'est plutôt cette deuxième opération qui est taraudée par le désir d'expérimentation. Et la
force de cette option, c'est qu'elle assure un compromis acceptable entre une participation
intime -par l'entremise de modèles- et un risque limité, c'est-à-dire un engagement protégé par
la distance. Mon hypothèse ne conclut d'ailleurs ni à la disparition future de la télévision, ni à
celle du "grand public", mais à l'effritement de son pouvoir référentiel et persuasif au profit
d'autres régimes de croyance appuyés sur les pragmatiques socio-techniques de
l'expérimentation.
Par ailleurs, la fonction cultuelle est à la source de controverses sur les rapports média de
masse/espace public. En effet, au moment où se multiplient les signes annonciateurs d'une
baisse de régime "fiduciaire" des massmedia, se font jour des évaluations quelque peu
nostalgiques. Elles suggèrent que les massmedia, comme forme, sont peut-être inséparables
de l'idée de démocratie (c'est le point de vue, par exemple, de Dominique Wolton[61]). Dans
cette perspective, en ces temps de rigueur individualiste, le grand public serait plutôt une
réserve de liens sociaux à protéger qu'une survivance totalitaire à dissiper.
Comment en effet penser un espace public qui ne serait plus construit selon le modèle de la
pyramide ? D'où viendraient les références communes à l'expérience, les normes réglant
l'échange ? Ceux qui partent en guerre contre les formes diffractées de l'espace public -telles
qu'Internet- défendent, je crois, une conception rigide et archaïque de l'espace public.
Présupposant un lien consubstantiel entre média de masse et démocratie, ils restreignent la
crise de la démocratie représentative à ses aspects régressifs (le Monicagate, par exemple),
oubliant que même à travers cet épisode scabreux se manifeste une véritable recherche de
rapports latéraux, non ou anti- étatiques. Ils ramènent les modalités actuellement encore
dominantes de la médiation, à des formes absolues et veillent jalousement sur le monopole
professionnel dont ces formes jouissent encore et que certains usages d'Internet, notamment,
menacent (ce qui -on s'en expliquera- ne signifie pas un épuisement de la médiation comme
principe).
Demeure la question des formes de l'espace public que dessineraient les scénographies
hybrides mêlant simulation, réception directe, accès à des banques de données et échanges
latéraux. Qu'induiront ces nouveaux cadres de réception/action ? Ils posent effectivement
nombre de questions quant à la détermination de références communes dans l'échange social.
Ne concluons pas trop vite à leur disparition, si tant est que ces références "transcendantes"
qu'on croyait disparues ressurgissent souvent à travers le processus même qui les disperse. On
doit même constater que ces processus sont inducteurs de relations spécifiques, y compris
locales, à l'image des regroupements, associations, communautés nés de la fréquentation des
réseaux. Ils sont aussi à l'origine de liens collectifs, comme l'automatisation de la médiation
sur Internet, dont nous reparlerons. Ces processus définissent des normes communes, y
compris morales, dans l'affrontement à l'État et aux groupes privés. Et l'on pourrait même
aller jusqu'à considérer la présence à distance comme l'un de ces ciments collectifs.
Ces nouvelles formes de lecture par navigation -qui s'opposent, par nature, aux logiques du
l'instantanéité- enrichissent l'éventail des pratiques de communication. Elles réévaluent ce que
signifie "s'approprier", rajeunissent la notion de durée. Et ce n'est pas la disponibilité
technique de ces nouvelles formes de lectures qui, par contagion d'usages, transformerait le
"grand public" des massmedia en enquêteurs attentifs, recoupant les sources et testant des
interprétations. C'est plutôt l'inverse qu'il faut considérer : l'émergence de ces dispositifs
expérimentaux comme indice d'une redistribution des normes de croyance. Et finalement,
pour évaluer ces conclusions, il conviendrait de les appliquer récursivement à elles-mêmes.
Ce qui revient à observer dans quelle mesure elles peuvent servir à nourrir de nouvelles
expérimentations de l'information modélisée.
Notons d'abord que la vocation expérimentatrice n'est pas né avec les technologies
numériques interactives. Ce désir a sous-tendu toutes les technologies de représentation :
dessin, perspective, photographie, cinéma muet, parlant, etc. On peut en effet considérer que
l'appétit pour l'expérimentation est déjà manifeste dans la production de représentants
analogiques. Cette tendance s'est adossée à un mouvement social et culturel, en Grèce antique
avec l'émergence de l'apparence comme question éthique et pratique. Elle s'est renouvelée et
accentuée lors de la Renaissance (imprimerie, perspective), et a été décuplée par la révolution
industrielle (photographie, enregistrement). On peut en effet lire l'histoire des techniques de
représentation, au moins depuis le XIXe siècle, comme une quête de modèles sans cesse plus
proches de la réalité référentielle, et pour cette raison plus ductiles. L'invention de la
photographie a joué un rôle majeur dans cette accélération. L'enregistrement est, à cet égard,
une rupture essentielle. Mais on ne saurait comprendre les intentions profondes -explicites et
muettes- qui sont à la source de la photographie en ignorant la dimension proprement
expérimentatrice de la perspective, de la lanterne magique ou encore de la géométrie
descriptive, véritables technologies propices à inventer d'autres technologies, torpilles
exploratrices lancées pour investir à la fois le monde et la perception humaine.
La dimension représentative -imiter le monde- n'est que l'une des faces de ces exercices
démiurgiques. L'autre réside dans leur fonction poïétique : l'émergence d'un univers inouï,
totalement hétérogène à ce que l'expérience humaine avait conçu jusque-là. L'inscription
visuelle permanente d'une co-présence passée dans la photographie en est un exemple type.
La prise de vue photographique est d'emblée une prise de temps. Ce geste participe de l'auto-
construction d'un rapport au temps, où le passé peut être re-présenté. Il constitue aussi une
expérience sociale princeps de l'automatisme et, depuis la fin du XIXe siècle, de
l'instantanéité de l'enregistrement. Ainsi le mouvement d'expérimentation dans la production
de représentants possède des dimensions tout à la fois corporelles, mentales et axiologiques :
blocs de gestes, d'attitudes corporelles, de dispositions d'esprit, d'épreuves perceptives et de
systèmes de valeur.
Ce serait donc plutôt une tendance techno-culturelle profonde, de nature anthropologique, qui
serait à la source du mouvement d'incarnation croissante des représentants. "Techno-culturel"
désigne ici une dynamique née, non pas directement dans la sphère de la production de biens
matériels mais dans celle des activités scientifico-artistiques (la photographie ne se rattache
pas directement à la lignée des machines énergétiques, ni le cinéma). Nous avons déjà tenté,
dans le 1er chapitre, de montrer dans quel complexe de déterminations -langagières,
scientifiques, imaginaires- il convient de situer la notion de présence à distance. Cette
tendance constituerait même, répétons-le, un fondement anthropologique, si on considère que
le mouvement de substitution et de transport de la présence à distance se confond avec le
processus d'hominisation lui-même.
De nouvelles distanciations
Il est remarquable que dans la première livraison de la revue Les Cahiers de médiologie[64],
intitulée : "La Querelle du spectacle", une proportion quasi majoritaire des articles prend,
totalement ou partiellement, le théâtre comme référence du spectacle. Ce qui revient à
considérer que la forme matricielle du spectacle est le spectacle vivant, plus précisément
encore -car la danse ou le concert possèdent aussi cette qualité- le spectacle vivant parlant, la
mise en scène des récits. La question de la séparation entre le spectacle et le spectateur est l'un
des axes cardinaux des réflexions développées. De multiples exemples d'assauts livrés contre
le clivage scène/salle, acteurs/spectateurs viennent illustrer la tendance à l'immersion dans le
spectacle. Dans un article d'ouverture de la revue, Daniel Bougnoux[65] érige même la rampe,
matérialisation de la séparation entre la scène et la salle, en symbole de la coupure sémiotique.
Mettre la scène au milieu des spectateurs (Mnouchkine), faire le spectacle avec les spectateurs
(Living Theater), transformer le spectacle en agitation politique (agit-prop), les formules n'ont
pas manqué qui participent de cette volonté d'abroger la loi qui cloisonne physiquement
l'espace fictionnel (rappelons que ces assouplissements scénographiques sont déjà présents
dans le théâtre grec classique avec l'installation des choeurs qui représentaient les spectateurs
dans le spectacle et signifiaient ainsi l'existence d'un ailleurs du récit, lieu permettant son
interprétation et sa critique). Glissons une hypothèse. Ce serait le mouvement d'incarnation
croissante dans le transport de la présence à distance qui fonde ce recours nostalgique à la co-
présence charnelle hic et nunc. Curieusement, ce n'est pas la télévision, forme spectaculaire
massive, qui est prise comme archétype, ni le cinéma. Avec le spectacle vivant, l'idée d'une
parenthèse insérée dans le flux quotidien, un moment inédit et non reproductible de
communion -spectateurs/acteurs et spectateurs/spectateurs- s'impose comme définition du
spectacle pur. L'enregistrement, entraînant la reproductibilité audio-visuelle à l'identique
(cinéma, télévision) souille cette co-présence, ce souvenir d'un événement original et
unique[66]. Prise d'empreinte d'un instant, par constitution, passé, l'enregistrement se situe à
l'un des deux pôles opposés au spectacle vivant (l'autre est le spectacte).
Inversement, d'ailleurs, une dissociation spatiale peut provoquer un trouble temporel. Bernard
Stiegler rappelle ce que Proust écrit à propos du téléphone : "usant de cet appareil pour la
première fois, il entendit la voix lointaine de sa grand-mère qui lui apparut déjà morte "[72].
La distance spatiale engendre une distance temporelle. Être écartelé, au même instant, entre
un ici et un là-bas, provoque une distorsion dans l'équivalence de l'ici et du maintenant,
comme si la simultanéité dans la distance spatiale, ne pouvait s'opérer qu'au prix d'une
déliaison temporelle, prenant, ici, la forme d'une distanciation : Proust entend son aïeule ici,
mais la voit plus tard, la disjonction spatiale impliquant un dérèglement temporel.
La "spectralité" de la photographie
Dans un livre d'entretien ultérieur avec Jacques Derrida[73], Bernard Stiegler reprendra ce
thème du toucher différé. Inspiré par Lévinas, Derrida souligne l'effet de réalité de la
photographie en singularisant les cas où ce sont des visages qui nous adressent leur regard,
comme "source d'une vue possible"[74]. Dans cet entretien, Jacques Derrida enchaîne une
réponse qui constitue une voie d'entrée fondamentale sur la "spectralité" moderne. Derrida
précise d'abord que le spectre, à la différence du revenant, "c'est toujours du visible [...]. Il se
refuse à l'intuition à laquelle il se donne, il n'est pas tangible (marqué par nous)"[75]. Le
phénomène de "hantise" est donc constitué par la privation du toucher, déliant ainsi la vision
de la tactilité. Enchaînant sur la présence essentielle de la mort dans tout acte d'enregistrement
(capture ou lecture) -comme prémonition de notre présence actuelle, appelée à disparaître- le
philosophe affirmera clairement quelques pages plus loin : "On a l'impression, c'est un
sentiment dont on a du mal à se défendre, qu'une substitution peut suppléer à tous les sens,
sauf au toucher. Ce que je vois peut être remplacé. Ce que je touche, non, ou en tout cas on a
le sentiment, illusoire ou non, que le toucher assure l'irremplaçabilité : donc la chose même
dans son unicité"[76].
On comprend alors l'effort conjoint de Bernard Stiegler et de son interlocuteur pour fonder le
réalisme photographique sur la tactilité. Contact à distance de temps, transfert photo-
énergétique de la surface de l'image enregistrée, rencontre différée du regard de l'autre, la
perspective peircienne de l'indice est omniprésente[77]. Comme le suggère Derrida, "la
technologie moderne [...] bien qu'elle soit scientifique, décuple le pouvoir des fantômes"[78].
Mais aujourd'hui le genre technologique "spectre", limité jusqu'ici à la prise d'empreinte,
demande à être considérablement élargi[79]. Aux technologies d'enregistrement s'adjoignent
progressivement, on le sait, les technologies de simulation et de télé-présence. Il s'en suit que
de nouvelles générations de spectres font leur apparition. En premier lieu, on le sait,
l'ingénierie informatique de simulation a engendré des représentations qui n'obéissent plus à la
logique de l'enregistrement mais à celle de la modélisation. Image d'un présent
perpétuellement rafraîchi, elles offrent un espace d'affirmation immédiate et ne restituent plus
un ancien présent capturé. Ces présentations se sont progressivement dotées, non seulement
des attributs de l'indicialité audiovisuelle (image et sons) mais aussi des caractéristiques
physiques des objets et systèmes qu'elles simulent (déformation, chocs, etc.). Avec la Réalité
Virtuelle, ce sont les formes de fréquentation de ces objets virtuels qui se sont enrichies de
nouveaux vecteurs sensoriels grâce aux interfaces "haptiques" traduisant précisément la
tactilité. Les systèmes à retour d'efforts concrétisent cette tendance au réalisme, non plus
audiovisuel, mais kinesthésique. Le développement de la Téléprésence s'accompagne
maintenant de protocoles dans lesquels nous sommes dédoublés par des "avatars" virtuels
voyageant à notre place dans des univers de synthèse, ("avatars" que j'ai préféré dénommer
spectagents, dans la mesure où ils allient la fluidité du spectre et le caractère actif du
représentant traduisant la permanence de son alimentation humaine).
Derrida affirme que le spectre ne se définit pas seulement comme phénomène visuel, mais par
le fait que "nous nous sentons regardés, observés, surveillés,... nous sommes "devant la loi",
sans symétrie possible, sans réciprocité..."[80]. Dans quelle mesure, pourrait-on se sentir épié
par ces spectagents, alors même que nous en réglons les actions ? Sans doute leur activation
volontaire minore leur pouvoir de surveillance. Nous mesurons encore assez mal la nature de
ces situations où un dédoublement, très imparfait, s'allie à la manifestation d'une certaine
autonomie de ces créatures auxquelles nous insufflons notre énergie.
Un nouveau système de représentation vient souvent tenir les promesses de ceux qui l'ont
précédé, avons-nous déjà dit. La simulation interactive, par exemple, permet de faire l'épreuve
de la troisième dimension, exercice que la perspective, en la limitant à une activité purement
mentale, ne faisait que présager. Aujourd'hui, les médias numériques basés sur l'engagement
expérimental (CD- - Rom, Web, etc.) viennent tenir les engagements chuchotés par les
techniques d'enregistrement qui annonçaient déjà, mezza voce, la possibilité de rapports plus
charnels avec l'événement.
Il faut, en effet, aller chercher les moyens d'une épreuve incarnée là où ils se trouvent, c'est-à-
dire dans les techniques numériques de simulation fonctionnant selon un tout autre régime
temporel que celui de l'enregistrement et de la diffusion instantanée. L'usage du concept de
"temps réel" est source d'ambiguïté. On le sait, ce concept trouve sa source dans l'univers de
l'informatique pour désigner des systèmes dont les temps de réponse sont contrôlés. Or il est
devenu synonyme de simultanéité de l'émission et de la réception dans un tout autre univers,
celui des médias audiovisuels classiques (radio, télévision). Dans le monde de l'informatique,
en revanche la logique du temps différé retrouve ses lettres de noblesse, même s'il ne s'agit
plus du temps différé de l'écriture mais d'un mixage d'instantanéité et de différemment. La
Téléprésence par agents interposés ("avatars virtuels") ou l'usage d'Internet qui mêle
navigation et abonnements à des chaînes multimédias spécialisées (push technologie)
concrétisent ces hybrides temps différé/"temps réel". Traiter l'information dans des procédures
interactives suppose des temps de latence et de retour sur les messages dont la structure en
deux mouvements -écriture puis validation- propre au courrier électronique est un exemple.
En symbolisant la temporalité dominante par la fabuleuse croissance du rythme auquel battent
les horloges de nos ordinateurs, on isole une performance technique des conditions générales
d'usage de l'informatique laquelle obéit à des logiques bien plus complexes (émancipation et
dépendance des temps humains de traitement)[81].
L'épreuve de la subjectivité
Convoyer le monde sur l'écran numérique, ce n'est pas le contempler dans son salon. Il ne
s'agit plus, alors, de spectacle -distancié ou englobant- mais de simulation. Et la simulation
n'est plus de l'ordre du visible mais du méta-visible, c'est-à-dire d'activités mettant en scène le
visible, mais aussi l'audible, le textuel, le gestuel (et finalement, avec les Réalités Virtuelles,
la perception tactile). Bref, il ne s'agit plus de spectacle audiovisuel, mais de performance
hyperstésique incluant le réglage et la modification du spectacle, indissolublement écriture et
lecture, vision et mise en scène du regard, audition et écoute, mouvement et retour d'effort.
On pourrait parler, au sens étymologique du mot cyber, d'un cyber-spectacle, spectacle
partiellement gouverné par le spectateur.
Milieu de vie, la nouvelle télévision ? Oui, au sens où tout média construit son milieu. Mais la
crise de légitimité qui frappe désormais la télévision lui interdit cette perspective
"englobante". Peut-elle être reprise à son compte par l'ordre virtuel ? Est-il en mesure de
donner une nouvelle vigueur à cette logique d'enveloppement qu'une télévision affaiblie ne
peut plus soutenir ? Le mouvement d'incarnation croissante des représentants véhicule
communément le sentiment d'une confusion des registres réel/virtuel, spectacle/vie réelle, etc.
Dans notre esprit, il ne s'agit pas, avec le spectacle, d'une dissolution des distinctions entre
référent et représentation, de substitution du spectacle par la vie réelle mais d'une nouvelle
scénographie culturelle, d'un désir d'une représentation active du monde plus adéquate aux
exigences d'incarnation, car fondée sur l'expérimentabilité de celui-ci et non plus sur son
enregistrement. Mais comment expérimenter un procès, une guerre, un conflit social ? Il y
faut de bons modèles. Pas des copies passives, objectives et unilatérales. Mais des instruments
qui intègrent l'expérimentabilté dans leurs principes constitutifs inséparablement techniques et
psychologiques. L'ingénierie numérique, (hypermédias, réalités virtuelles, mise en réseau)
-née dans et pour cet esprit- offre alors ses services pour imaginer les nouveaux alliages
donnant forme au spectacte.
De plus, et c'est une question essentielle, expérimenter par simulation sauvegarde la sécurité
physique du spect-acteur. Souhaiter un rapport plus charnel à l'événement est une chose,
devenir un acteur au sens plein du terme en est une autre. Et ici, il ne s'agit évidemment pas
de cela. Le spectacte offre un engagement acceptable qui allie une mise à l'épreuve des
certitudes avec la sauvegarde de l'intégrité personnelle (même si, sur un autre plan, une
participation engagée peut parallèlement s'accomplir). L'idéal d'objectivité, battu en brèche
par la mise en spectacle de l'information, retrouverait alors une nouvelle jeunesse sous les
auspices d'une subjectivité assumée, individuelle et collective, laquelle soumettrait ses
inclinations à l'épreuve de l'expérience.
[1] Régis Debray, à propos du spectacle, in Le débat, n° 85, Gallimard, Paris, p. 12.
[3] Loc. cit., La proximité de ce que Breton appelle la "pensée parlée" avec la démarche
psychanalytique de l'association libre est évidente. Dans le même texte, Breton rend
explicitement grâce à Freud d'avoir rétabli le rêve comme "part considérable de l'activité
psychique" (p. 21).
[4] Le surréalisme et la peinture (1928), cité par lui-même dans Qu'est-ce que le
surréalisme ?, Actual/Le temps qu'il fait, Paris/Cognac, 1986, p. 19.
[7] On rappelle que pour Peirce un signe "indiciel" entretient un rapport de contiguïté
physique avec le phénomène qui lui a donné naissance : la trace laissée par le pas dans la
neige, par exemple.
[8] On aurait affaire à un mécanisme représentationnel qui s'affirmerait en tant qu'il se nie. On
pense ici au mouvement, décrit par Yves Barel dans La société du vide, (Le Seuil, Paris,
1984) d'installation implicite d'une transcendance par la recherche d'une autonomie la plus
intègre possible.
[9] Régis Debray, à propos du spectacle, in Le débat, n° 85, Gallimard, Paris, p. 3/15.
[11] Ainsi note-t-il : "...l'invention du codex aux IIe-IIIe siècles de notre ère, qui représente,
du point de vue de la relation entre la forme du livre et le rapport à l'écrit, une révolution
infiniment plus importante que celle de l'imprimerie. Avec le codex, ce sont, en effet, toutes
les catégories et tous les gestes de la culture de l'écrit qui se trouvent redéfinis". Et il poursuit
en notant que le concept de logosphère efface totalement cette mutation décisive dont le seul
équivalent est (ou sera) le remplacement de la représentation imprimée du texte par sa
représentation électronique. "Roger Chartier, Médiologie, sociologie des textes et histoire du
livre, in Le Débat, n° 85, mai - août 1995, Gallimard, Paris, p. 21. Régis Debray convient
d'ailleurs qu'un assouplissement de la tripartition des médiasphères s'impose pour tenir
compte, par exemple, de la mnémosphère, régime de transmission oral des sociétés ignorant
les systèmes d'inscription. De même admet-il que la vidéosphère, loin de traduire un régime
stabilisé, ne s'avère constituer qu'une "courte phase de transition vers une numérosphère, un
tout informatique à la fois plus stable et mieux articulé (entre l'écrit et le visuel notamment)".
Chemin faisant, in Le Débat, n° 85, p. 56.
[15] Sans qu'on puisse encore en tirer un argument décisif, il n'est pas sans intérêt de noter
qu'une chute notable d'audience affecte l'information télévisée, aux États- Unis. Alors que
60% des Américains regardaient le traditionnel journal télévisé du soir en 1993, cette
proportion est descendue à 42 % en 1996. Et les magazines d'informations connaissent une
évolution semblable. La participation de la télévision à la construction de l'espace public ne se
réduit pas, bien sûr, à l'information mais celle-ci n'en constitue pas moins un secteur
stratégique.
[18] Régis Debray, Vie et mort de l'image, Gallimard, Paris, 1992, p. 375. On pourrait ajouter
nombre de prise de position du même auteur allant dans ce sens telle que la suivante, publiée
dans un livre ultérieur : "Nous adhérons naturellement à ce qui nous parvient comme naturel
(la vue sans prise de vues)....En vidéosphère, il n'y a pas de faux témoins". L'état séducteur,
Gallimard, Paris, 1993, p. 128.
[22] Dans plusieurs passionnants articles, Edgar Roskis, montre comment se combinent
logiques éditoriales et disponibilité technique pour redessiner la vérité visuelle dans la presse
ou la télévision. Citons dans Le Monde diplomatique, Mascarades (décembre 1996),
Mensonges du cinéma (novembre 1997) et La deuxième vie de l'image (avril 1998).
[23] Ainsi, dans un livre d'anthologie, David King décrit par le menu les pratiques de
falsifications photographiques du régime stalinien (The Commissar Vanishes, Metropolitan
Books, New-York, 1997.)
[24] Culte, dont des émissions comme "Les enfants de la Télévision" sur TF1 ou le feuilleton
de Pierre Tchernia, "Notre télévision", sur France 2 durant l'été 1993, sont de bons exemples.
[27] La dimension cultuelle réfère au culte qui rassemble les fidèles et assure la participation
dans l'ici-et-maintenant en référence à un ailleurs à la fois inaccessible (car intangible) et
proche (culturellement)... comme précisément la télévision.
[28] Notons, cependant, qu'en 1998 pour la première fois, l'audience cumulée des trois grands
networks américains (ABC, CBS et NBC) est passée sous la barre des 50 %, signant ainsi
symboliquement l'entrée dans une nouvelle ère de fragmentation de la télévision. Mais il ne
faudrait pas en tirer des conclusions hâtives quant à la poursuite de cet affaissement.
[29] Tel est le sous-titre de Vie et mort de l'image, Gallimard, Paris, 1992
[31] Notre article "Images hybrides, virtualité et indicialité", (in Image & média sous la
direction de Bernard Darras, MEI n°7, L'Harmattan, Paris, 1997, pp. 103/128) présente une
analyse des principales applications dans ce domaine et les interroge selon l'hypothèse qu'un
nouveau type d'indicialité trouve à s'y vérifier .
[32] Le titre est provisoire. Le film devait initialement s'intituler Dans la cage de verre.
[33] Ces informations proviennent de discussions avec Jean Ségura, journaliste spécialisé en
imagerie informatique, ainsi que de l'article qu'il a publié dans Libération du 3/03/1997.
[36] Ainsi a-t-on appris qu'une enfant de huit ans, enlevée à l'âge de quatorze mois, avait été
retrouvée au Porto Rico par un agent d'Interpol grâce à la consultation d'un site Web d'une
association américaine d'enfants disparus, qui avait fait vieillir une photographie prise alors
que l'enfant était encore au berceau. Ce travail complexe, impliquant notamment IBM, Sony et
les services secrets, mobilise plusieurs techniques (ressemblance prédominante avec l'un des
deux parents, recoupement et traitement de photographies d'enfance de la famille, etc.).
[37] Interview dans Libération par Catherine Malaval, "Le docu ne crache pas dans le soap",
3 et 4 octobre 1998, p. 37.
[39] Jean-Claude Soulages, interview dans Le magazine de l'image et du son, INA, n° 8, nov.
1998, p. 21.
[40] Le hors-champ, au cinéma, désigne ce qui sort du champ de la caméra et donc n'apparaît
pas dans la scène filmée, même si des effets s'y manifestent.
[41] Yves Eudes, Les mirages de la télévision interactive, in Le Monde diplomatique, janvier
1996, p. 17.
[42] Autre avantage substantiel, FSN enregistrait, à la seconde près, les choix de chaque
abonné. Plus besoin de mesure d'audience, de dresser des profils de consommateur-type, de
peaufiner des statistiques sur les goûts des publics, sur les pratiques d'usages du média ; tout
cela était capturé automatiquement par l'opérateur.
[43] La vidéo à la demande affichée sur écran d'ordinateur en réseau et mis à jour par satellite,
est une solution étudiée, par exemple, par TF1 associé à Microsoft.
[45] La publicité interactive semble être d'une exceptionnelle rentabilité, car elle concrétise
l'efficacité du marketing direct : l'activation du message permet, en effet, de recueillir les
coordonnées des personnes intéressées par le produit. En 1997, TPS et CanalSatellite ont déjà
expérimenté des logiciels spécialisés et diffusés quelques spots interactifs.
[46] Aujourd'hui un DVD-Rom stocke huit fois plus d'information qu'un CD-Rom, et ce
rapport va, sans doute, lui-même doubler, et plus, dans les prochaines années.
[47] Parallèlement C: offrait un accès à Internet avec réception par le satellite -garantie de
meilleure qualité d'images et d'interactivité- et envoi de données via modem. En 1998, C: a
cessé d'être diffusée faute d'une rentabilité suffisante ; preuve supplémentaire, s'il en était
besoin, de l'instabilité actuelle des équilibres techno-économiques et des usages. Mais non
point condamnation de la recherche d'une combinaison entre logique de flux et logique de
navigation, même si la télévision n'est sans doute pas le média qui accueillera finalement cet
alliage, mais plutôt les réseaux à hauts débits.
[49] Certaines enquêtes d'audience effectuées aux États-Unis relèvent déjà les signes d'une
certaine compétition, pour les hommes, entre l'information télévisée et Internet. Une
proportion significative des jeunes Américains commence à privilégier le réseau aux journaux
télévisés.
[50] Plusieurs sites ont connu une affluence record. Hotwired, site consacré à l'élection
présidentielle, ouvert par le célèbre périodique Wired, pourtant peu versé dans la politique,
revendiquait plus de 10 000 connexions par jour.
[52] J.P. Barlow, co-fondateur de l'Electronic Frontier Fondation, une puissante association
de défense d'Internet, déclare : "[...] le monde interactif est d'ores et déjà en train de créer des
systèmes de gouvernement bien mieux adaptés à l'économie de l'information que ceux de
l'état-nation de l'ère industrielle", cité par P. Sabatier, élections pièges à électrons in
Libération, 11/10/96, p. 11.
[53] Le CD-Rom Croisades, édité par Index+, offre une double vision, occidentale et
orientale, de l'histoire des croisades. À travers un jeu, il permet "d'expérimenter" dans une
certaine mesure, ces événements en respectant la pluralité des déterminations (religieuses,
politiques, sociales).
[54] Yves Eudes dans son article ("L'image virtuelle se fait auxiliaire de justice", Le Monde,
24/11/97, p. 32) cite des noms éloquents : "Preuves Matérielles Productions, Média médico-
légal, Témoignages visuels".
[55] P. Briançon, O.J. Simpson, le dernier réseau où l'on cause, in Libération, 7/02/95.
[58] Dès 1998, l'INA mettait en place un "studio de production multisupport". Plusieurs
projets sont déjà en cours, en particulier avec France Télévision pour des émissions de la série
"Un siècle d'écrivains".
[59] Le coût des systèmes de production de programmes en vidéo numérique a été divisé, en
francs constants, par 10 entre 1973 et 1998 ; et ceci avec des performances techniques en
constante progression. Cette diminution de prix se poursuit : début 1999, on pouvait acquérir
une station de production pour un investissement allant de 50 à 100 000 F. L'entrée de
gamme, sous forme d'ordinateur portable qui connecte caméscope, appareil photo, Minidisc,
etc. -officiant comme banc de montage numérique- se situait à moins de 20 000 F. Voir
Franck Poguszer, Home vidéo : ma télé à moi, in In@visions, n° 9, janvier 1999, INA, p.16.
[60] Lors de l'enregistrement d'une édition de La Marche du siècle sur FR3, une assistante me
disait : "Dans cette émission on est clair et simple, on annonce : "la voiture rouge va passer",
on voit la voiture rouge qui passe et on conclut : "la voiture rouge est passée"".
[62] Dans son commentaire critique des thèses de Régis Debray, Jean-Louis Missika appelle,
lui aussi, à ne pas accorder une primauté de principe au facteur technique: "[...] encore plus
naïfs sont ceux qui [...] pensent que la télévision a révolutionné le régime de la preuve et de la
croyance". (Le Débat, n° 85, Gallimard, Paris, p. 42/43). Passons donc pour un naïf, nous qui
tenons pour l'idée qu'un régime de vérité -distribuant des intérêts, et donc des partis pris,
parfois contradictoires - se forge dans l'alliage d'un système technique, d'institutions et
d'orientations culturelles dominantes. Le système technique -ne serait-ce que comme surface
active réfléchissant ces orientations culturelles-, devrait donc se voir reconnaître sa part
d'efficacité dans l'attelage qui tire un régime donné de vérité.
[63] On s'expliquera au dernier chapitre sur les raisons de l'usage décalé du concept de "temps
réel" né dans l'univers de l'informatique militaire des années cinquante et souvent adopté
aujourd'hui pour caractériser l'émission/réception instantanée.
[64] La Querelle du spectacle, Les Cahiers de médiologie n°1, Gallimard, Paris, 1996.
[65] Daniel Bougnoux, Bis ! ou l'action spectrale, op. cit., pp. 15/28.
[66] ll y aurait matière à discuter le caractère inédit de chaque représentation d'une pièce.
Quiconque assiste à deux représentations d'une même mise en scène d'un spectacle théâtral
est, au contraire, frappé par leur ressemblance. Mais accordons- lui cette qualité d'événement
unique.
[67] Bernard Stiegler, La technique et le temps, Tome II, Ed. Galilée, Paris, 1996, p. 25.
[68] Roland Barthes, La chambre claire, Les Cahiers du cinéma /Gallimard/Le Seuil, Paris,
1980, p. 120.
[71] La réalité optique est, on le sait, strictement inverse. Avec ce "toucher du regard", on voit
resurgir la théorie antique de la vision ; celle du "rayon visuel", émis par l'oeil, qui va palper
la réalité et ramène à la rétine les informations acquises.
[73] Jacques Derrida, Bernard Stiegler, échographie de la télévision, éd. Galilée, Paris, 1996.
[77] Voir aussi sur ce point la très riche argumentation de Pierre Barboza dans Du
photographique au numérique - La parenthèse indicielle dans l'histoire des images,
L'Harmattan, Paris, 1996.
[79] Voir mon article, Les images hybrides, in revue MEI n n°7, L'Harmattan, Paris, 1997.
[81] Nous reviendrons ultérieurement sur l'hypothèse que, paradoxalement, l'usage des
programmes automatiques n'accélére pas unilatéralement la communication sociale mais la
ralentit aussi.
Table des matières
Chapitre III
L'auto-médiationsur Internet comme forme politique
L'usage public d'Internet -nous laissons de côté, ici, ses fonctions purement commerciales-
concrétise l'idéal d'un fonctionnement social fondé sur la pure circulation et sur l'inexistence
d'intérêts contradictoires. La distance permet un refroidissement des conflits : ils se traitent
alors comme de purs enjeux intellectuels et non comme des contradictions sociales. Les
espoirs de Norbert Wiener, formulés dans Cybernétique et société, se renouvellent ici. Une
prolifération des flux d'informations permettrait la libre discussion et l'obtention de consensus.
Lequel consensus devient un mécanisme social idéal. La forme politique absolue qu'Internet
promeut consiste à fonder directement la légitimité du pouvoir sur l'association de collectifs
de base, sans référence à une instance qui les dépasse. Actualisant, sur un terrain
technologique, une forme de pensée politique anarchiste, le pouvoir n'est, alors, légitime que
s'il est immanent et toute transcendance, étatique ou privée, est vigoureusement combattue. La
montée du relativisme, du scepticisme devant les vérités révélées (religieuses, économiques,
morales) renforcent le sentiment qu'une nouvelle politique doit émerger, par une poussée
ascendante, d'un mouvement brownien de contacts et contrats sociaux passés entre collectifs
autonomes. Il y en, en effet, une profonde convergence entre une philosophie politique édifiée
autour du concept de réseau et le constructivisme sociologique. Le social y est conçu
précisément comme un ajustement progressif, entre individus et collectifs censés être
autonomes. Internet peut servir de parabole à des processus plus généraux[1]. Les concepts de
négociation et de contrat se substituent alors à ceux d'antagonisme social et de divergence
d'intérêts[2].
Mais la transcendance, chassée par la porte, ne risque-t-elle pas de faire retour par la fenêtre ?
La rencontre sur un même terrain (l'échange déterritorialisé) procède déjà d'un consensus
aveugle : le désir de construire une association alternative et non de se replier sur une
existence en pure autarcie. L'immanence est donc déjà encadrée par ce désir implicite. En
outre, des collectifs autonomes, peuvent-ils exister comme collectifs sans une référence qui
les dépasse et les fonde ? Sur quels principes (épistémologiques, moraux) peuvent-ils fonder
leurs rapports ? (La communauté scientifique, par exemple, partage, non sans conflits, une
conception pragmatique de la vérité scientifique basée notamment sur l'expérimentabilité, la
réitérabilité, la régularité des résultats obtenus). La recherche de la vérité, la diffusion du
savoir ou le partage des connaissances n'ont aucun sens sans que soit reconnue préalablement
une valeur -même locale et temporaire- à l'authenticité et aux normes morales qui permettent
de parler un langage social commun.
S'agit-il vraiment, avec Internet, d'un espace lisse, uniforme où, par glissements diaphanes, on
rencontrerait, sans résistances, des millions de personnes connectées, dans une sorte de
"village planétaire" bâti dans un tissu aux mailles aussi serrées que le réseau téléphonique
mondial ? Il y a lieu d'en douter. L'océan calme qui baigne les rives des modemS est en train
de révéler quelques aspérités. Par exemple, pour les éditeurs de sites, la "visibilité" des
services offerts devient une qualité essentielle : pages d'accès chatoyantes, soigneusement
designées, luxuriance de la navigation hypertextuelle. Les hiérarchies socio-économiques
émergent à nouveau, dès lors qu'Internet devient une surface commerciale stratégique.
Le versant libertaire d'Internet doit-il être considéré comme une utopie malsaine ? Nullement.
Mais il est truffé des contradictions sociales actuelles[3]. Bien qu'il soit soumis à l'idéologie
individualiste (seul et libre face à des millions de partenaires), et à la pression libérale, l'esprit
d'Internet mérite d'être défendu et Pierre Lévy a raison de rappeler, dans Cyberculture, que le
réseau est le fruit d'un puissant mouvement social coopératif, né aux États-Unis dans les
années soixante-dix, "visant la réappropriation au profit des individus d'une puissance
technique jusqu'à lors monopolisée par de grandes institutions bureaucratiques"[4]. Mais cette
défense des principes généreux qui ont présidé à l'émergence de la Toile, ne saurait dispenser
de trier les propositions, ni ignorer que le développement du réseau ne garantit pas
mécaniquement la poursuite du projet initial d'une démocratie informationnelle.
Ce sont ces mouvements que nous approchons par la notion paradoxale d'auto-médiation dans
ses deux dimensions -en partie contradictoires- d'autonomisation et d'automatisation de la
médiation. On parlera d'autonomisation lorsque l'acteur médiatise lui-même l'événement et
construit ainsi directement l'espace de sa communication/diffusion. On caractérisera
l'automatisation de la médiation par l'usage direct de logiciels permettant d'accomplir
directement une tâche (par exemple, rechercher des informations sur Internet). On suivra ces
mouvements dont la synthèse donne corps au concept d'auto-médiation, mouvements qui
s'expriment dans la substitution directe d'intermédiaires mais aussi, bien que moins
explicitement, dans l'évitement d'institutions par des relations horizontales.
Dans un deuxième temps, nous poursuivrons, sous un autre angle, l'interrogation sur l'éviction
ou le déplacement des intermédiaires en comparant les deux grandes figures qui remettent en
cause les formes usuelles de la médiation : le parcours interactif sur support local et la
navigation sur réseau. Cette dichotomie, quelque peu rigide dans cet énoncé, doit être
comprise, on le verra, comme l'étude de types idéaux et non comme une analyse factuelle.
Internet, un plurimédia
Ajoutons que la presse en ligne tend à s'émanciper de la pure restitution numérique. Elle offre
de plus en plus, outre le journal, des documents in extenso qu'on ne peut publier faute de
place, des liens avec d'autres sites, des adresses de banques de données consultables ainsi que
des espaces de discussion. De plus, les nouveaux langages annoncés, d'édition de documents
sur Internet (de type X.M.L. succédant à H.T.M.L.) autoriseront le récepteur à modifier les
pages et lui permettront d'y intégrer ses propres informations. La rupture avec le mode de
consultation de la presse classique en sera encore approfondie.
Le devenir-médiateur de l'acteur
L'empressement avec lequel des médias traditionnels (presse, chaînes de radio et télévision)
se précipitent sur Internet ne saurait surprendre. C'est leur propre fonction d'intermédiaire
spécialisé dans le traitement de l'information qui se joue. De la mise en ligne des titres de
presse (changement de support à contenu invariant) à l'animation de sites ponctuels, la palette
des initiatives est large. Notons cependant, qu'à l'heure actuelle, la mise sur le Web des
journaux n'a pas cannibalisé leur édition papier, parfois bien au contraire[11]. Il ne faut donc
pas pronostiquer mécaniquement la disparition des massmedia. Cependant, ces derniers
-notamment dans leur quête du scoop comme dans l'affaire Monica Lewinsky[12]-se voient
concurrencés par la relative facilité avec laquelle il devient possible de diffuser largement
l'information à toute échelle grâce au Web, et spécialement par l'ouverture de sites
événementiels.
Mais ce qui se profile remet en cause de manière bien plus profonde encore la structure de la
médiation puisque le réseau permet aux acteurs d'un événement de devenir les producteurs et
diffuseurs naturels de l'information qui concerne cet événement. Par exemple, parmi les sites
qui ont couvert le procès Papon, l'un d'entre eux a été créé et tenu seul par l'un des plaignants,
Jean- Marie Matisson. Il proposait la consultation du dossier d'accusation, la présentation des
familles plaignantes, les témoignages tout aussi bien que des forums ou l'intervention de
spécialistes ; toutes propositions hors de portée des médias traditionnels et qu'à lui seul il
offrait. Ce qui en dit long sur les nouvelles possibilités éditoriales ouvertes par ce nouveau
canal d'expression. Plus même que l'abondance de l'information, c'est la tonalité qui était
remarquable. Acteur engagé, Jean-Marie Matisson ne s'encombrait pas du style impersonnel
des médias de masse, employé même par ceux qui avaient ouvertement pris parti. Par ailleurs,
il ne faut pas opposer mécaniquement médias de masse et édition de sites. La notoriété du site
Matisson était fondée dans une large mesure sur des médias traditionnels : ce sont des articles
de presse, en l'occurrence, qui ont annoncé et validé ce site.
On voit se dessiner, en fait, une double évolution. Avec de faibles moyens -et une grande
dépense d'énergie- on peut atteindre une audience sans commune mesure avec ce que
coûterait une diffusion par les médias classiques. Mais parallèlement, les principaux acteurs
de l'édition en ligne (grands quotidiens, chaînes d'information comme CNN, etc.) investissent
des sommes importantes dans des programmes et moteurs de recherche offrant exhaustivité,
rapidité et convivialité aux utilisateurs. L'industrialisation de l'auto-médiation devient l'un des
principaux enjeux socio-techniques d'Internet. Mais cette industrialisation porte dans ses
flancs des outils facilitant l'expression directe des acteurs sociaux. Dans cette course-poursuite
rien ne garantit le succès final des industries informationnelles.
Le on line devient une modalité idéale de service personnel. Quantité d'illustrations peuvent
être invoquées. Ici, un site du syndicat américain AFL-CIO propose aux salariés de comparer
leur feuille de paye avec celle des patrons de plusieurs centaines de grandes entreprises,
incluant leur prime et autres émoluments adjacents. Là, on peut suivre quasiment en direct,
sur le site d'un organisme de prévision météorologique[13], le résultat des simulations des
effets de El Nino sur le climat actuel et futur du continent américain ainsi que des principales
régions du globe. Là encore, des étudiants, en mal d'inspiration, de compétence ou de temps,
s'adressent à des sites spécialisés pour télécharger des devoirs prêts à l'emploi[14].
Les activités boursières trouvent avec Internet un fantastique moyen d'effectuer directement
des transactions en évitant les maisons de titres et de courtage[15]. Réalisée sur Internet aux
États- Unis, le coût d'une opération est en effet près de huit fois plus faible que par l'entremise
d'un courtier utilisant le téléphone, la télécopie ou le courrier. Le média incite à la création de
services spécifiques, indépendants de l'industrie financière installée. De grands opérateurs
(ainsi que certains fonds de placement), conscients du risque de perte de leur monopole,
ouvrent, eux aussi, des sites Web pour permettre aux épargnants de placer directement leurs
fonds. La substitution du courtage financier par des instruments automatiques commence à
concurrencer, aux États- Unis, les sociétés boursières. Il est désormais possible de réaliser
directement, via le Web, une introduction en Bourse, grâce à l'assistance de programmes
spécialisés[16]. Opération coûteuse (jusqu'à plusieurs centaines de milliers de dollars),
fastidieuse (des formulaires de plusieurs centaines de pages) et longue lorsqu'elle est réalisée
par des institutions spécialisées, elle devient économique et plus rapide sur le Web.
"Do it yourself"
Le domaine musical est particulièrement exemplaire. Non pas seulement parce qu'il se prête
assez facilement à l'envoi de fichiers sur le Net (des formats de codages, tels que MP3[17],
accélèrent aujourd'hui notablement de tels échanges). Mais parce qu'avec deux logiciels
gratuits disponibles sur le Web, n'importe quel amateur peut proposer à la ronde ses CD
favoris. Les enjeux sont multiples et sérieux (laissons ici de côté l'épineuse question des droits
d'auteur). Chaque artiste qui le souhaite peut alors distribuer directement sa production[18].
Des dizaines de milliers de personnes transforment, en toute illégalité, leur ordinateur en juke-
box. Mais plus significative encore est l'activité moléculaire des milliers d'entre eux qui
montent des sites spécialisés, offrent le téléchargement gratuit des logiciels nécessaires et
améliorent régulièrement tous ces outils. Chacun devient ainsi un agent effectif d'une mise en
cause pratique des majors de l'industrie du disque, lesquels étudient les différents moyens
d'une riposte (notamment par la mise au point de robots de recherche spécialisés ainsi que par
le tatouage numérique des titres).
On pourrait multiplier les exemples et convoquer d'autres réalisations dans des activités aussi
variées que la formation, la culture (visite de musées), la banque, le jeu d'argent (cybercasino)
ou les enchères en temps réel. L'éviction des anciens intermédiaires au profit d'un modèle
fluide de rapports directs est l'un des messages centraux d'Internet (le vocable barbare de
désintermédiation a même été forgé pour désigner ce phénomène). C'est un modèle
d'organisation sociale à peine voilé qui se fait jour. Le visage public d'Internet s'y dessine et
c'est ce qui alimente son dynamisme conquérant. Le combat contre toutes les formes de
transcendance qui rassemble des courants ultra-libéraux et anarchistes trouve dans la
suppression des intermédiaires un objectif majeur. L'affrontement des puissances établies
devient un rapport social positif, substituant une ancienne domination. Par exemple, participer
à la diffusion de titres musicaux gratuits sur le Web met en cause pratiquement un rapport
marchand établi et on comprend d'où vient la formidable énergie sociale qui s'y investit : il
s'agit bien d'une forme de militantisme que, pour le coup, les ultra-libéraux prisent assez peu.
On peut parler d'une logique performative qui accomplit sa visée, ou encore qui affirme
l'antagonisme et le supprime en instituant une alternative dans une logique proche, toutes
proportions gardées, de celle du double-pouvoir des périodes révolutionnaires. Un double-
pouvoir alternatif aux logiques marchandes et hiérarchiques, c'est bien ce que visent
explicitement les courants les plus radicaux du cybermonde et qu'instaurent, de fait, les
dizaines de milliers d'adeptes de la version cyber du "Do it yourself".
Évitement d'institutions
Délaisser des institutions traditionnelles (justice, santé, formation) pour assumer plus
directement leurs missions, telle est l'une des dimensions du mouvement d'évitement des
intermédiaires spécialisés. Il ne s'agit pas de substituer ces fonctions par des programmes
automatiques, mais plutôt d'imaginer des formes de rapports sociaux plus horizontaux, plus
souples et dont le fonctionnement est négocié entre les acteurs. Bien entendu ce mouvement
ne menace pas la légitimité de ces institutions en tant que telles ; il manifeste cependant un
désir d'autosuffisance, à l'écart de, voire contre, l'État. Ainsi, la justice se voit-elle contournée
par des relations plus directes entre justiciables. Plusieurs types de cours de justice
"virtuelles" existent déjà sur le réseau. Leur saisie, motivée par le souci d'éviter les longues et
coûteuses démarches traditionnelles, suppose, bien entendu, l'accord des parties. Sur des sites
Web aux États-Unis, les jurés disposent de forums de discussion et leurs votes sont
sécurisés[19]. Autre exemple, des juristes québécois ont ouvert en juin 1998, le
Cybertribunal, cour virtuelle spécialisée dans les litiges relatifs au commerce électronique
mais aussi au droit d'auteur ou au respect de la vie privée. N'importe qui peut le saisir s'il
s'estime victime, par exemple, d'un commerçant. Si, dans un premier temps, les efforts du
médiateur s'avèrent infructueux, le Cybertribunal rendra un arrêt. Dénuée de tout contenu
légal, cette décision puisera sa force dans la publicité donnée à la condamnation, risquant
d'entamer le crédit d'une entreprise commerçant sur le Net. En fait, jouant la logique du
certificat de bonne conduite, Cybertribunal incite les entreprises à afficher un logo indiquant
aux clients qu'elles s'engagent à faire appel à cette cour virtuelle en cas de différend. Tenter de
régler les conflits privés ou commerciaux en trouvant d'autres espaces neutres plus proches
des justiciables que les institutions étatiques, semble être la principale motivation qui anime
aussi bien les initiateurs des cours virtuelles que ceux qui y recourent.
Le secteur de la santé est lui aussi soumis à la même pression où se combinent télé-médecine
et tendance à l'élimination des intermédiaires. Par exemple, à l'hôpital Rothschild, à Paris, la
visioconférence permet d'ores et déjà de rassembler autour d'un patient des équipes médicales
interdisciplinaires localisées dans plusieurs hôpitaux parisiens. Radicalisant cette perspective,
l'installation de capteurs sensoriels à domicile permettant l'auscultation à distance est
envisagée. Aux États-Unis, certaines autorités médicales pensent à installer en ville des
bornes multimédias afin de pratiquer des check-up et même une auto-délivrance de
médicaments. Ajoutons à cela un système de vidéoconférence pour se faire examiner à
distance par un spécialiste et nous avons les premiers segments d'une offre d'équipements de
télé-médecine que la réalité virtuelle en réseau et la télé-robotique médicale viendront
progressivement compléter. Time Warner, dans le cadre de l'expérimentation du réseau FSN à
Orlando, avait déjà conçu un service nommé Health TV (Canal Santé) basé sur l'installation à
domicile de dispositifs permettant à des médecins de pratiquer des auscultations à distance :
pouls, pression artérielle, niveau de stress. L'envoi de la force d'interposition américaine en
Bosnie s'est accompagné d'une expérience en vraie grandeur de télé-médecine.
Visioconférence, télé-radiologie, télé-dentisterie ont été mises à profit pour garantir qu'un
soldat sera aussi bien soigné en Bosnie que chez lui. Ainsi, le général A. Lanoue, chef du
service médical de l'armée américaine, affirmait : "Il y a toujours des spécialistes réveillés
quelque part dans le monde. Si on a besoin d'un dermatologue, avec le réseau -sur le site Web
dédié- on arrivera toujours à joindre quelqu'un de frais et dispos"[20]. (Ajoutons que la télé-
médecine représente, pour les États-Unis, un enjeu industriel et géostratégique, spécialement
dans leur nouvelle politique africaine). Il est vrai que la télé-médecine ne supprime pas, en
tant que tels, les spécialistes sollicités à distance. Et l'auto-médication est loin de conduire les
professionnels de la santé aux portes des agences pour l'emploi. Mais, l'augmentation du
niveau général de connaissance médicale, tout comme l'incitation -pour certaines maladies- à
déléguer aux patients une part croissante de la surveillance et des soins, élargissent la voie
pour une prise en charge directe de certains soins. Le perfectionnement des systèmes de
télésurveillance et de télé-diagnostic accentuera nécessairement cette tendance. Surveiller,
c'est, en cas de problèmes, inciter à l'intervention, en particulier lorsque la visite d'un médecin
est difficile voire impossible (navires en pleine mer, par exemple).
Le domaine de la formation est certainement celui qui résiste le plus à un strict passage au
télé-enseignement, sauf dans certaines conditions exceptionnelles (lieux d'habitation isolés,
formations de hauts niveaux s'adressant à des publics déjà fortement diplômés, par exemple).
L'absence de co-présence physique est toujours considérée, par les enseignants et les élèves,
comme une grave privation, même dans les expériences les plus accompagnées[21]. Il n'en
demeure pas moins que, outre l'usage croissant de formes hybrides[22], des cursus complets
ainsi que de véritables établissements d'enseignement en ligne commencent à voir le jour. Ces
services deviennent alors des médiateurs spécialisés de télé-formation, mixant la
communication médiatisée (contacts électroniques formateurs/formés) avec un recours
croissant à l'auto-formation (circulation hypertextuelle, séquences d'auto-évaluation à
correction automatisée, etc.).
Des méthodes plus systématiques font leur apparition. Par exemple, Lycos, robot chercheur
d'information -le premier qui indexe aussi les images et les documents sonores- confectionne
une liste de deux cent cinquante sites considérés comme les plus "populaires". Comment les
repérer ? Suivant une logique "citationnelle" (comptage du nombre de références faites à un
article scientifique dans les articles publiés sur les mêmes thèmes, afin d'en fixer le niveau
d'intérêt général). Le robot parcourt plusieurs milliers de sites chaque jour et mémorise le
nombre de liens qui mènent vers chacun d'entre eux. Plus il y a de liens, plus le site est dit
"populaire". Les robots et les guides de recherche permettent une véritable industrialisation de
cette logique d'automatisation de l'évaluation[24].
En 1998, on dénombre déjà plus de mille trois cents robots de recherche. Comment trouver
celui qui convient, compte tenu du domaine défini ? Dans une logique naturellement méta,
des robots de robots ont été conçus, tel que Savy search, à l'Université de Colorado, qui
n'exige que quelques indications sur la nature des informations recherchées (données
existantes sur le Web, noms de personnes, des sites commerciaux, par exemple). Savy
sélectionnera lui-même les robots les plus compétents selon les domaines prescrits, leur
enverra la requête, réceptionnera les réponses, éliminera les croisements et présentera les
résultats. Certains méta-robots testent plusieurs dizaines de moteurs et les classent par ordre
de pertinence sur le domaine indiqué dans la requête. D'autres encore, comme Metacrawler,
brassent les résultats de l'ensemble des autres robots.
Une nouvelle génération de méta-moteurs de recherche commence à apparaître qui assure des
fonctions de filtrage et d'évaluation de l'information selon plusieurs niveaux de recherche
incluant des méthodes d'analyse sémantique. Digout4U, à finalité plutôt professionnelle, en
est un bon exemple. Ce moteur accepte l'interrogation en langage naturel, interrogation à
laquelle il appliquera des procédures d'analyses sémantiques et syntaxiques. Il élargira de lui-
même, par exemple, l'interrogation "trafic en Asie" à "drogue OU mafia OU blanchiment...
ET Chine OU Thaïlande OU Laos...". Traquant moteurs de recherche, sites et même groupes
de discussion, Digout4U hiérarchise les fruits de ses investigations par ordre de pertinence.
Grâce à son module de traitement sémantique[25], coeur du système, la qualité des réponses
obtenues est étonnante. Pour faire face à l'augmentation de la surface informationnelle du
réseau et à l'acuité croissante des réponses espérées, verra-t-on apparaître des méta-méta-
robots ?
La vente de voyages est, elle aussi, en passe de subir de profonds remaniements qui menacent
les intermédiaires habituels (agences, voyagistes, etc.). Exploitant la puissance des moteurs de
recherches, de nombreux sites proposent des services de veille personnalisée sélectionnant
sans relâche les destinations et les dates indiquées par l'Internaute tout en affichant des
tableaux comparatifs de prix[26]. L'instantanéité est ici un atout essentiel : qu'une place se
libère et le client est immédiatement prévenu par courrier électronique. Non seulement
l'agence de voyage est ignorée, mais le rapport commercial s'automatise. Les logiciels
personnalisés prennent, ici, la place de l'employé spécialisé.
Dans d'autres domaines, la propension à éviter les intermédiaires se traduit par la mobilisation
à distance d'automates peu conventionnels. Par exemple, on peut commander, via Internet,
une observation par télescope d'une portion du ciel. Depuis le remplissage du formulaire
précisant la demande sur le Web jusqu'à réception par courrier électronique des images
acquises, tout est automatique[29]. Le télescope est pour ainsi dire télécommandé à distance.
Il décrypte les indications transmises et effectue les prises de vues correspondantes sans
interposition de personnels spécialisés. La grande mécanique techno-scientifique devient ainsi
mobilisable pour des usages personnalisés.
Bien que ne relevant pas directement de l'auto-médiation pratiquée par le grand public,
l'automatisation intensive des techniques d'analyses documentaires transforme
considérablement certaines activités banales. La polémique politique, par exemple, s'est
trouvée enrichie récemment de nouveaux et puissants instruments. Durant la campagne
législative anglaise de 1998, l'état-major de Tony Blair s'est équipé du logiciel professionnel
Retrievial/Ware -déjà utilisé par Bill Clinton en 1992- afin de découvrir rapidement, par
exemple, une citation d'un ancien discours contredisant les propos actuels d'un leader
conservateur. Des recherches qui mobilisaient des équipes entières durant des journées
s'effectuent maintenant en quelques secondes[30].
L'automatisation des traitements alliée à la formation, grâce à Internet, d'un espace unifié
mondial de l'information numérique crée une situation très nouvelle démultipliant la portée de
chacun de ces deux facteurs pris isolément. L'idée d'auto-médiation ne doit pas être
confondue avec celle d'automatisation, même si la première emprunte les voies de la seconde.
Ce qui apparaît dans l'élimination d'intermédiaires traditionnels, c'est, en premier lieu, la
possibilité d'effectuer directement des opérations qui exigeaient auparavant une maîtrise
professionnelle des sources d'informations ainsi que des procédures opératoires. L'effet-réseau
est d'abord une opération de rassemblement qui réunit en une seule base documentaire
répartie ce qui auparavant était éparpillé en autant de sources spécialisées, dont la localisation
était connue des seuls professionnels. Les logiciels de réservation de voyages sur le Web, par
exemple, sont fonctionnels parce que les robots de recherche se chargent de trouver les
adresses des sites concernés par une requête. La présence commune préalable de ces sites sur
le réseau est la condition de l'efficacité de ces logiciels. L'automatisation de la recherche est,
en deuxième lieu, le corollaire indispensable de cette possibilité d'accès démultiplié. C'est
l'alliance de la réunion des sources et de l'automatisation qui permet l'auto-médiation versus
automatisation.
Mais approchons-nous d'un peu plus près de cette notion. Quel est le contenu concret de
l'extension du self-service informationnel ? Il requiert, de plus en plus, un apprentissage, quasi
professionnel dans certains cas, de techniques de recherches documentaires, dont le
perfectionnement actuel des requêtes sur les robots chercheurs donne un aperçu. Plus
largement, l'usage approfondi du réseau relève d'une véritable compétence spécialisée, si on y
inclut la maîtrise des téléchargements des programmes complémentaires nécessaires pour
assurer une interactivité de l'image, le contrôle des push technologies, la réception
d'applications en V.R.M.L., etc. En regard de l'informatique documentaire professionnelle, les
techniques de recherches sur Internet sont, bien sûr, simplifiées. Mais elles se complexifient,
pour peu qu'on souhaite en exploiter toutes les potentialités. Opérateurs booléens,
parenthèsages, et bien d'autres méthodes se développent. Avec leur corollaire, des traductions
graphiques sous forme d'arborescences, par exemple, aidant l'utilisateur à préciser ses choix.
Internet étant, dans son principe, un média public, on voit d'un côté se complexifier et se
raffiner ses modes d'usages, et de l'autre se développer des aides cognitives spécialisées. Il
n'en demeure pas moins que l'usage du réseau exige et développe des compétences
spécifiques nullement triviales, selon des niveaux d'exigence variables, des applications grand
public aux activités professionnelles. L'auto-médiation requiert donc des apprentissages
typiques, dont la sophistication varie selon les différentes activités effectuées. Rien ne serait
plus inexact, que d'envisager ces pratiques comme relevant d'activités presse-boutons.
Il est vrai que l'auto-médiation engendrée par les moteurs et guides de recherche n'influe pas
sur les contenus informationnels repérés. Elle compile des stocks et produit des liens logiques.
Son élément, c'est essentiellement aujourd'hui la statistique et l'indexation des données. Mais
le tournant est pris, on l'a vu avec Digout4U, vers l'interprétation sémantique des
informations, et là, bien sûr, une subjectivité "machinale" -pas nécessairement intentionnelle-
s'exprime nécessairement, de par la mise en procédures automatisées des méthodes
d'extraction du sens imaginées par les concepteurs.
Par ailleurs, un média construit sur l'accès direct à l'information risque d'engendrer une
certaine clôture des champs d'intérêts. En lisant un journal, la formulation d'un titre intriguant
nous incite parfois à lire un article qu'on n'aurait jamais parcouru spontanément. La
"personnalisation" inhibe ces effets de proximité. L'émiettement, le confinement et le
compartimentage des aires de curiosité risque d'instituer un univers normatif et conservateur.
La maîtrise accrue des procédures de recherches d'informations ou de participation à des
collectifs thématiques véhicule une tendance à la spécialisation et peut traduire un désir de
confinement. L'horizon relationnel risquerait d'être a priori rétréci, éloignant toute rencontre
hors champ. Ces tendances à la personnalisation, incontestablement dans l'air du temps, ne
doivent cependant pas être érigées en mécaniques fatales. L'usage de ces agents personnalisés,
même s'il résonne avec de fortes tendances à la spécialisation, n'est pas exclusif d'autres
formes de parcours plus intuitifs, plus collectifs et ouverts à des rencontres imprévues. Rien
n'autorise, actuellement, à opposer mécaniquement individualisation et vagabondage intuitif.
L'une, activité finalisée, limitée à des centres d'intérêt précis, peut parfaitement s'accommoder
avec l'autre, à caractère plus ludique, dans des domaines aux frontières floues. Si la
valorisation de l'individualisation des requêtes mérite d'être soulignée, il serait imprudent de
déduire, à partir des usages actuels du réseau, des formes dominantes (individualisme, en
particulier) qui le qualifierait définitivement. La médiation automatisée recule, et ce n'est pas
rien, d'un cran (voire de deux, avec les méta-robots) la confrontation avec des décisions
humaines. Est-ce à dire qu'elle a vocation à éliminer tous les courtages humains ? Ce serait
aller vite en besogne.
Auto, c'est soi-même, médiation c'est quasiment l'inverse : elle suppose l'intervention d'un
tiers. L'auto-médiation est paradoxale. D'une part, loin d'instaurer une relation "im-médiate",
elle mobilise des automates en position tierce -de nouveaux types de médiateurs- dont les
robots et guides de recherche sont, on l'a vu, sont les plus purs exemples. D'autre part, comme
on va le voir, elle est utilisée, à rebours, par les industriels du service en ligne face aux
Internautes.
Bataille politique contre la prééminence de l'État ou de firmes privées dans le contrôle des
communications, modèles de rapports interindividuels non médiatisés, valorisation de
l'autonomie et de l'action libérée au maximum de toutes contingences extérieures, tous ces
traits s'allient pour faire de la tentative de suppression des courtiers traditionnels un enjeu
nodal. Il faut cependant souligner l'impossibilité logique du modèle qu'Internet promeut, plus
ou moins délibérément, en annonçant une émancipation complète des intermédiaires.
Naviguer, surfer sur l'océan informationnel comme on navigue librement sur les mers du
globe, est une métaphore douteuse. Seul, face aux Gigabits des centaines de milliers de
services accessibles, on serait vite englouti sans les automates de recherche disponibles. Plutôt
que d'une suppression d'intermédiaires, ne s'agit-il pas de leur substitution par une nouvelle
catégorie, sécrétée par le média lui-même, dont la principale caractéristique consiste à
automatiser la médiation. La maison de courtage en Bourse est substituée par des sociétés
offrant des logiciels de recherche et de transaction en ligne, tout comme le voyagiste l'est par
d'autres logiciels et moteurs de recherche spécialisés. La poste voit sa fonction
avantageusement accomplie par les serveurs de courriers électroniques. L'institution éducative
prend la forme d'un fournisseur de services en ligne de télé-formation. L'éditeur, le libraire
sont remplacés par un gestionnaire de sites sur le réseau ou un diffuseur de logiciels de
recherches hypertextuelles. Les nouveaux médiateurs combinent en réalité télé-relation entre
acteurs humains et mise à disposition d'automates.
L'auto-médiation est à double face. En effet, les outils de l'auto-médiation sont mis à profit
par ceux qui se situent sur l'autre versant du réseau, les industriels du service en ligne, face
aux Internautes. Amazon.com, par exemple, propose à l'acheteur des livres correspondant à
son profil de lecteur. Des programmes, opérant par "filtrage collaboratif", lui adressent des
propositions d'achats en compulsant inlassablement les listes de livres commandés par les
autres acheteurs du même titre. D'autres applications de compilation automatique sont, en
revanche, la conséquence directe de l'existence de la Toile. Par exemple, la multiplication des
sites musicaux sur le Web (plus de vingt-sept mille, fin 1997) rend difficile le strict respect de
la protection des droits d'auteurs. Qu'à cela ne tienne, une agence américaine de recouvrement
de droits vient de mettre en service Musicbot, robot qui, à grande vitesse, surveille et recense
la diffusion de musique sur le Net.
Dans le même esprit, certaines entreprises de cybercommerce ont développé des logiciels pour
contrer l'usage des robots d'achat qui réduisent à néant leurs efforts publicitaires ou de
marketing. Ils analysent systématiquement l'adresse du visiteur et ferment l'accès au site
lorsqu'ils repèrent un robot ou réduisent les prix d'achat en majorant les frais de livraison.
Enfin, frisant l'escroquerie, certains robots sont en fait rattachés à des "entreprises partenaires"
; d'autres sont rétribués selon les clients "rabattus".
Par ailleurs, cette logique provoque de grandes tensions dans le domaine sensible de la vie
privée. Employée à grande échelle dans des pays comme les États-Unis, à législation laxiste
en la matière, ces méthodes étendent considérablement le champ de l'enquête individuelle
pratiquée par des sociétés privées[32]. Enfin, l'auto-médiation peut prendre le visage trouble
de l'auto-censure. Des outils, qualifiés de censorware, commencent à être utilisés pour
organiser l'automatisation individuelle de la censure dans la consultation des sites, non sans
engendrer de graves contresens[33].
Il est frappant de voir se généraliser, dans une forme d'espace public, une auto-médiation
automatisée dont on n'a pas fini de découvrir la puissance parce qu'elle traduit un profond
désir d'accroître notre puissance d'intervention pratique et relationnelle en profitant des
formidables automates intellectuels mobilisables à distance par le réseau. Sous cet angle, la
présence à distance intensifie l'existence sociale.
Internet n'est pas seulement un espace fonctionnel où l'on résout des problèmes (trouver
l'information pertinente, acheter un produit, réserver un voyage, etc.). C'est aussi un espace
d'expression où chacun est censé pouvoir s'adresser, sans autorisation préalable, au monde
entier. La multiplication des sites personnels et des home pages en témoigne. Cette situation,
qui radicalise des tendances antérieures dont l'imprimerie a été l'un des vecteurs, comporte des
aspects inédits. Il nous faudra prendre la mesure de la production exponentielle de textes et de
documents multimédias sur le réseau, dont il est difficile de préciser le statut : productions à
caractère informatif auxquelles il est impossible d'appliquer les règles usuelles de validation
(notoriété, responsabilité, etc.), textes expressifs dont on ignore quasiment tout de l'auteur,
dissimulation ou travestissement de l'émetteur, interventions fragmentaires dans des groupes
de discussion ou encore messages reçus grâce à des listes de diffusion, etc. Des flux textuels
sont mis en ligne sans être investis par leurs auteurs comme des matériaux qui les engagent ;
une production expressive et documentaire souvent anonyme, en croissance permanente.
Cette fontaine prolifique n'est plus soumise à des exigences de consistance, d'originalité, de
responsabilité, de qualité littéraire, de pertinence et de style. Elle s'apparente beaucoup plus à
une conversation orale, ou plutôt à un bruissement mondain, une profusion d'interpellations,
des bribes de discussions aussitôt perdues qu'engagées -abdiquant d'emblée le prestige qui
s'attache à la chose écrite et notamment sa conservation. Peut-elle se prêter à des
enchaînements ? Constitue-t-elle autre chose qu'un espace projectif, où chacun peut trouver
matière à alimenter ses propres associations et fantasmes ? De telles propositions, peuvent-
elles faire penser ?
Nombre de prosélytes des réseaux nous invitent à abdiquer tout questionnement sur l'identité
de l'auteur, mettant en cause son unicité même. Mais peut-on s'approprier un texte -ou un
hypertexte- sans supposer qu'une intentionnalité (aussi ténue et difficile d'appropriation, soit-
elle) y est déposée ? Comment apprécier un texte non délimité, dont l'unité formelle
distinctive serait flottante et qui, donc ne pourrait être assigné à des intentions individuelles ou
à celles de groupes réunis par un commun parti pris ? Que la signature individuelle d'un texte
engage indirectement une cohorte d'auteurs rassemblés par les tribulations antérieures du
rédacteur, c'est l'ordinaire de la condition moderne d'auteur. Mais qu'on puisse dissoudre cette
exigence dans une prétendue virtualisation où plus aucune idée n'est assignable à un auteur
individualisé, au profit d'une écriture collective, parallèle et disséminée est hautement
problématique. Peut-on penser une communauté qui transcende immédiatement ses
composantes et qui, d'emblée, fonctionnerait dans l'échange, sans pôle privilégié
d'individuation assumant les fonctions d'accumulation et de mémorisation ? Nous le verrons,
malgré bien des dénégations, une mémoire individuelle et collective s'édifie de fait autour du
réseau. L'extension de l'expérience sociale que constitue Internet en est la preuve vivante.
Une autre série d'arguments remettent en cause le principe même du vote. Christian Huitema
dénonce "l'effet pervers" de "ces systèmes de votes", lorsqu'aucune proposition en présence
n'emporte la majorité absolue. "On verra se développer des négociations de coulisse qui
conduiront à des compromis boiteux"[37]. Pourquoi répudier de telles négociations
envisagées comme corruptrices ? La suite éclairera cette prévention contre les risques de
"marchandages". La règle de l'I.E.T.F. (groupement responsable de l'évolution des standards
de l'Internet[38]) est donc, non pas de décider par un vote, mais de rechercher un consensus.
Mais comment l'I.A.B. s'applique-t-elle ces principes, afin de renouveler chaque année la
moitié de ses membres ? Par tirage au sort d'une liste de volontaires qui décident
souverainement quels seront les membres remerciés et qui les remplacera. Pourquoi
rechercher un consensus ? Afin de convaincre. Comment ? "Seule compte la qualité
technique, aidée si possible par une démonstration pragmatique"[39]. Et, Christian Huitema
d'insister sur les deux critères de choix que sont la force d'une démonstration concrète par "un
logiciel qui tourne" et la facilité de production. La conclusion coule de source : "La recherche
du consensus conduit ainsi à l'élégance et à l'excellence"[40]. On pourrait ajouter : "par la
preuve technique". Si Jürgen Habermas recherchait des exemples pour qualifier le mode de
légitimation propre à la technique, il les trouverait là, "brut de décoffrage".
Mais n'oublions pas que les enjeux des décisions à prendre concernent le choix des standards
de communication[41]. S'agissant de protocoles techniques, ceux-ci peuvent être publiés sur
le réseau à des fins d'expérimentation conjointes. Les acheteurs de prototypes doivent pouvoir
choisir entre "plusieurs produits de différents fournisseurs". Dans une logique libérale, "la
responsabilité du choix", est laissée au "marché", sage instance qui régule l'adéquation entre
l'offre et la demande. Il s'agit bien là d'un ordre social, exprimant la formation, non pas d'une
opinion mais le fonctionnement pur d'un marché en situation libérale idéale, où la liberté et
l'autonomie des acteurs le dispute à la rationalité technique de leur choix. Mais même dans ce
cas, l'opérationalité technique n'est pas à l'abri des jeux de pouvoirs. Imposer une norme est
souvent un enjeu commercial considérable qui mobilise des stratégies très rusées[42].
Dans la continuité de l'expérimentation conjointe des protocoles, une question, liée à la nature
originale d'Internet, attire en particulier notre attention. Elle touche au règlement des conflits.
Tous les conflits n'ont pas à être tranchés en faveur d'une solution exclusive. Dans ces cas, le
contrat social peut alors redéfini à partir de l'acceptation de la coexistence d'expérimentations
contradictoires. C'est d'autant plus facile sur le réseau qu'il s'agit d'un échange de signes. Dans
d'autres compartiments sociaux, ce n'est pas si simple. Faut-il, à la place d'une usine
désaffectée, construire un immeuble ou aménager un parc ? On ne peut pas entreprendre de
véritables expériences urbaines ou sociales (la démarche expérimentale suppose la
réversibilité, le retour aux conditions initiales). Sur un réseau, il est en revanche possible de
faire coexister plus facilement différentes solutions antagoniques à un même problème parce
que l'espace informationnel supporte beaucoup plus aisément la co-présence de propositions
conflictuelles.
Le modèle libéral convient-il vraiment pour penser cette forme horizontale de rapport à la fois
non totalement marchand et non-étatique qu'est Internet ? Pas pleinement. Le réseau est en
effet aussi un espace public d'un type particulier, sans distinction entre centre et périphérie. Il
n'appartient ni à des individus, ni à des États, ni à des groupes privés. Et enfin, il est mû, pour
sa part non-marchande, par un idéal de participation active aux décisions. Dans le
"management" d'Internet, il y a une recherche et une activité démocratique incontestables qui
dépassent les limites de la démocratie représentative et qui reposent sur l'originalité des
logiques du réseau. Cette recherche matérialise toujours aujourd'hui l'inspiration novatrice et
l'énergie égalitaire qui avaient saisi le groupe social matriciel (chercheurs et jeunes
universitaires américains des années soixante-dix) dont est issu Internet.
D - Scénographie de l'auto-médiation
On sait que la forme des récits, les "dispositifs d'énonciation", véhicule l'essentiel de leur
signification. Dans cette optique, je propose de comparer deux types, apparemment opposés
de dispositifs : le récit interactif et la navigation sur réseau. Tous deux concrétisent, à
première vue, l'idée d'autonomie narrative (ou "navigationnelle") et chacun se décline, par
ailleurs, dans l'une des deux configurations privilégiées du multimédia : CD-Rom et Web.
D'un côté la circulation dans un programme local, fermé mais avec des corpus de grandes
dimensions -que les nouvelles générations de supports optiques (DVD-Rom) viendront
démultiplier- de l'autre la présence à distance et l'activation de chaînages quasi infinis. D'un
côté un grand livre déjà écrit, de l'autre un livre qu'idéalement, on peut augmenter soi-même.
D'un côté la mémoire inscrite, mais inaltérable, de l'autre la circulation, l'échange, mais sans
(ou quasiment sans) le souci de la mémorisation.
Avec les dispositifs auto-narratifs (récits qu'on se raconte à soi-même), le fantasme est
d'éliminer toute référence extérieure, faire du sujet le seul auteur du récit. Fantasme
d'autonomie absolue, où, dans un premier mouvement, le récit d'autrui est ignoré à travers
l'interaction avec un moteur de propositions textuelles, imagées, et sonores. Les circulations
sur CD-Rom, par exemple, imagent cette posture[43]. Que cette tentative soit vouée à l'échec
ne la discrédite pas à l'avance. Car bien sûr le spect-acteur affronte des obstacles rédhibitoires
dans cette quête d'autonomie. Il ne maîtrise ni les matériaux narratifs ni l'enchaînement des
séquences. Ceux-ci apparaissent comme l'oeuvre du concepteur de l'hypermédia, bien que leur
destination soit de se dissimuler en tant que déjà donné, pour laisser place à un certain espace
libre de construction du récit ou du parcours par le spect-acteur, espace desserrant les
contraintes propres aux supports stables (livre, film, etc.).
Avec le Web, ce serait, à première vue, l'inverse. Ici, l'interaction idéale se déroulerait -si elle
le pouvait, et on sait la distance qui sépare ce voeu de la réalité des usages- sans
intermédiaires. Laissons ici de côté les usages informationnels d'Internet (consultation de
banques de données, de journaux, de revues, etc.). Non pas qu'ils soient secondaires mais ils
relèvent d'une communication dans laquelle, on l'a vu, les procédures automatisées
(navigateurs, robots chercheurs) occupent une place centrale et déplacent des anciennes
médiations (édition, médecine, justice...). Intéressons-nous plutôt à la part vivante du réseau,
celle qui ne mobilise pas essentiellement des programmes automatiques mais rassemble des
sujets humains à distance : messageries, groupes de discussion, etc. Nous avançons pourtant
l'hypothèse que, sous un visage différent de celui qui habille l'interactivité locale, le même
fantasme d'autosuffisance est à l'oeuvre. Certes, il ne s'agit apparemment pas d'éliminer autrui.
Plutôt de le rendre omniprésent, mais sous une forme abstraite. Dans les groupes de
discussion, la scénographie de l'échange s'émiette dans les rebonds d'une conversation
multipolaire, sans références stabilisées. Toujours évolutive, non dirigée vers la mémorisation
des échanges, elle se déroule dans une temporalité constamment rafraîchie. D'un côté -avec le
récit interactif- il s'agirait d'une tentative d'élimination de l'extérieur, de l'autre -avec le
réseau- une inflation d'extériorité. Un récit auto-engendré contre un flux d'échanges sans
récit ?
On soupçonne que l'hypertrophie de ces postures se rejoint dans leurs extrémités : tenter de
dénier l'altérité en la rabattant sur l'objet local (cas du récit interactif), ou déjouer l'altérité en
la diffractant dans un entrelacs de correspondances éparpillées dans les mailles du réseau.
Dans les deux cas, on vise à la suppression d'une référence externe au dispositif narratif ou,
plus largement, relationnel. Cette visée d'auto-référence s'accomplit de deux manières
différentes. Avec le récit interactif, il s'agit, en tendance, d'être soi-même et tour à tour
récepteur de ses décisions et, fantasmatiquement, auteur de son spectacle : spect-acteur. Avec
la navigation sur réseau, sans intermédiaire, le fantasme -bien qu'apparemment inversé- est
semblable : supprimer une instance surplombante et source de légitimité, annihiler une
transcendance à laquelle se référerait la communication interindividuelle.
Ce type de situation manifeste le désir d'autonomie, le refus du dédoublement, mais qui reste
de fait un dédoublement dans sa forme "rusée" ; comme la forme de transcendance que, dans
son étude sur l'auto-référence et le dédoublement, Yves Barel qualifiait de particulièrement
subtile, consistant à donner le sens de quelque chose en le lui refusant : "Ce que l'on chasse
est recréé par la manière dont on le chasse"[45]. Ainsi, rapporte Howard Rheingold, "le
programme du réseau WELL le plus utilisé s'appelle <<Who>> et permet de savoir qui est
connecté à un moment donné"[46]. Le monde virtuel se regarde vivre, se met à distance de
lui-même, mais par effet miroir : "À observer une communauté virtuelle donnée [...] on a un
peu l'impression de regarder un feuilleton américain pour lequel il n'y aurait pas de séparation
nette entre les acteurs et les spectateurs"[47]. Désir d'une reprise totalisante de la vie d'une
communauté par elle-même, désir spéculaire qui manifeste non pas tellement l'auto-contrôle,
mais l'auto-référence. Les résultats d'une étude sur les modes d'usages du Web, entreprise par
un sociologue canadien, F. Bergeron vont dans le même sens. Ainsi, a-t-il eu l'idée de
comptabiliser les occurrences du mot "je" dans les langues anglaise, française et espagnole, en
lançant l'un des plus puissants moteurs de recherches, Altavista, sur le réseau. Deux fois plus
de "je" que de "tu" et de "nous", telle fut la réponse[48]. Bien entendu, il faut accueillir ces
résultats avec prudence compte tenu de l'absence de statistiques générales, mais l'indication
est intéressante. La formidable explosion des pages d'accueil personnelle sur le Web nourrit
une inflation de biographies, de récits des faits et gestes quotidiens, les uns aussi banals que
les autres, bref une soirée "diapos de vacances" à l'échelle de la planète. Aussi, en guise de
portrait type d'Internaute, dessine-t-il : "Un individu assez centré sur lui-même et qui fait de
ce recentrement un projet mondial". Finalement cet exhibitionnisme de principe, qui
transforme Internet en "lieu privilégié de l'admiration de soi", n'est peut-être pas aussi
illusoire qu'on pourrait le croire. Ce qui compte, c'est de s'afficher sans espérer pour autant
recevoir des connexions. L'affiliation au réseau par installation d'une carte de visite
multimédia fait alors office de lien social, à l'image de ce que Michel de Certeau avait déjà
remarqué à propos de ceux qui laissaient la télévision ouverte même lorsqu'ils quittaient leur
domicile.
Ce que l'on chasse -la médiation- est recréé ici, en instituant l'échange permanent, multiplié,
diffracté sur le réseau comme lieu social privilégié. Le média -supposé miroir- recrée une
distance et dédouble les cybernophiles en observateurs d'eux-mêmes. Ils n'affirmeront jamais
qu'ils se replient dans le réseau, que c'est un refuge. Bien au contraire, ils le présentent comme
le symbole de l'ouverture au monde, avec, en prime, l'allégement des appartenances. On se
définit par l'affiliation au réseau. Dans cette logique, être membre d'un groupe de discussion
devient une marque sociale notable. Et une adresse électronique, un signe de reconnaissance
de plus en plus courant. En fait la scénographie cyber transforme l'Internaute en centre
privilégié, la périphérie n'est là que pour lui assurer cette position nodale. Mais cette
certification dépend de la société des correspondants. C'est un compromis ingénieux entre une
négation de l'altérité -en quoi consiste l'illusion d'être le centre du réseau- et une position
constamment et directement référencée à l'assemblée mouvante des participants reliés. Ni une
vraie solitude, ni une participation totale. Ni une confrontation engageante -du type de celle
où l'on risque un échec- ni une flottaison indifférente, comme dans les foules anonymes.
Drôle d'espace, ni vraiment public ni totalement privé. On livre toujours quelque chose de soi
dans un réseau sans en maîtriser ni la signification, ni la trajectoire. Émerge ainsi une nouvelle
formule d'interpénétration des espaces publics et privés, où l'espace public s'encarte en
quelque sorte dans l'espace privé. L'interrogation porte, de fait, sur la nature d'un lien social
"virtuel" non-hiérarchique et toujours fluide : que gagne-t-on et que perd-on en tentant
d'éliminer les points d'accumulation de la mémoire, et par conséquent en affaiblissant sa
temporalisation ? Il y a manifestement un vertige, un trouble à penser un espace social a-
centré, formé de groupes à échanges partiels (à distance et par systèmes symboliques).
Si Internet est adossé à un mythe, celui-ci tiendrait plutôt des mythes de l'âge classique (récits
fondateurs dans lesquels on s'inscrit) plutôt que de ceux de l'âge moderne (désir de dissiper les
récits fondateurs par l'opérationalité techno-scientifique). Mais ce n'est pas simplement un
récit fondateur qui distribuerait des réponses aux interrogations existentielles actuelles. C'est
un dispositif pratico-imaginaire qui expérimente, dans l'actualité, son utopie. Tout comme les
Anciens expérimentaient leurs mythes (danses rituelles, théâtre grec, cérémonies religieuses)
en essayant de fonder l'organisation de leur vie sociale sur des règles qu'ils souhaitaient
immuables, (et qui pourtant exigeaient une interprétation permanente).
Évidemment, Internet ne se présente pas comme un mythe, mais comme un dispositif socio-
technique. Il en a pourtant tous les traits. Nous le nommons "présence à distance" et le
définissons comme un mythe expérimental. Ce mythe, comme tout mythe, n'est ni un récit
mensonger ni une illusion. Il possède la double efficacité d'être à la fois une espérance et une
expérience. Espérance d'une vie plus "immatérielle", moins soumise aux pesanteurs des
macros-objets, de la matière industrielle, des rapports sociaux de domination. Le cyberespace
cumule la fonction imaginaire (ludique, onirique, relationnelle) avec la fonction opérative
(formation, commerce, travail)[49]. Dans la pure veine des utopies du siècle passé, Internet
permet d'éprouver conjointement l'évasion dans un outre-monde où les règles sociales seraient
à inventer ex nihilo (comme les règles du management interne d'Internet ou l'établissement
d'une constitution politique dans le "Deuxième monde" en seraient les prémisses) et
parallèlement de conduire des activités variées (jeux, conversations, commerce, travail) où le
média démontre sa pertinence. L'imaginaire et l'opératif s'allient pour accomplir cette utopie
pratique.
Internet reconstitue une transcendance par son combat tangible contre les intermédiaires : une
cause commune qui dépasse les acteurs et surtout qu'ils peuvent mettre en oeuvre directement.
D'autant que la sphère de la communication interpersonnelle n'épuise pas la discussion des
enjeux sociaux du réseau. Internet est aussi le porte-parole d'un vigoureux mouvement visant
à augmenter nos espaces d'autonomie, notre puissance d'intervention sociale, notamment on
l'a vu, en conquérant, par automatismes interposés, l'exercice de fonctions sociales qui nous
échappaient ou en s'opposant à certaines logiques marchandes. Aussi, faisons-nous
l'hypothèse que l'auto-médiation agit, dans ce cadre, comme principe quasi-moral, la lutte
contre les intermédiaires faisant office d'objectif normatif. Comment imaginer une force plus
transcendante (mais aussi pourvoyeuse de subjectivité) qu'une cause à laquelle on ne se
contente pas d'adhérer mais qu'on actualise, qu'on performe. Il n'y a pas de discours plus
efficaces que ceux qu'on propage parce qu'ils servent nos intérêts. Sous cet angle, au fil de nos
multiples connexions, nous construisont indéfiniment le mythe Internet, inscrivont son récit et
performont sa légende.
[1] Un exemple parmi cent possibles : dans le livre L'entreprise digitale de A. André et al.
(Andersen Consulting, First, Paris, 1997) l'entreprise numérique est définie comme "un réseau
de petites équipes autonomes, ouvert sur l'extérieur, affranchi des contraintes de l'espace et du
temps, irrigué par une information disponible. Et capable de se reconfigurer instantanément
pour s'adapter aux évolutions de son environnement."
[2] Ce constructivisme sociologique inspire nettement l'épistémologie basée sur les réseaux
socio-techniques. Nous aurons l'occasion d'y revenir par la suite.
[3] Dans les "groupes de discussion", par exemple, une pression normative ne manque pas de
s'exprimer : pas de texte flou et long (aucune chance d'être lu), ne pas ennuyer les participants,
consulter les F.A.Q. (Frequently asked questions) pour ne pas alourdir la circulation de
l'information, faire preuve de netiquette, bref être performant, circonstancié, opérationnel.
[4] Pierre Lévy, Cyberculture, Odile Jacob/Conseil de l'Europe, Paris, novembre 1997,
pp. 147/148.
[5] La logique du massmedia est très lisible du point de vue de l'éditeur. En attestent les
dépenses de publicité sur le réseau visant à retenir l'Internaute sur un même site ainsi que le
développement de campagnes promotionnelles ciblées. Par exemple, le site d'IBM a reçu plus
de quatre millions de visiteurs durant la confrontation entre Deep Blue et Gary Kasparov
(dont 420 000 pour la dernière partie). Une telle audience comparable à celle d'un bon
programme sur le câble, hisse cette opération au rang de principale campagne publicitaire
menée sur le Net. En revanche, du côté du récepteur, cette caractérisation doit être nettement
tempérée. L'Internaute circule interactivement dans un site édité, et, de plus, à la différence
d'un journal ou d'une revue papier, il peut le quitter instantanément pour aller sur d'autres
sites.
[6] Cylibris propose au lecteur tenté par l'offre, de passer à l'écriture à partir de textes
téléchargés, et offre des conseils à destination des apprentis auteurs.
[7] "Dans le cyberespace, chacun est simultanément écrivain et journaliste, éditeur et lecteur,
vendeur et acheteur." (B. Giussi, Révolution dans l'information, in Le Monde Diplomatique,
oct.1997, p. 27).
[8] LMB Actu est publié par le C.N.R.S.
[10] Il faut entre six et dix-huit mois pour publier un article -s'il est accepté- dans une revue
de renom. La publication directe est la conséquence, aussi, d'une certaine tendance des
comités de lecture -assaillis par un nombre croissant de propositions d'articles- à privilégier,
faute de temps, les articles les moins "fantaisistes", lesquels recèlent parfois de véritables
innovations déstabilisatrices. Voir Jean Zinn-Justin, L'influence des nouveaux outils
informatiques sur la publication des travaux en physique, in Terminal, ndeg.71/72, 1996, pp.
259/266.
[11] L'exemple du San Jose Mercury News aux États-Unis est symptomatique, qui a vu croître
simultanément la lecture des deux versions.
[12] La publication sur le webjournal de Matt Drudge, d'informations non vérifiées à propos
des liaisons extra-conjugales de Clinton a contraint les grands quotidiens à emboîter le pas de
peur qu'ils ne soient devancés par leurs concurrents.
[14] Des sites commerciaux ou coopératifs, aux États-Unis, se livrent une concurrence
acharnée pour répondre aux demandes les plus diverses, grâce à leurs bibliothèques contenant
des milliers de devoirs et à leurs moteurs de recherche. Le développement de ces pratiques
suscite déjà, chez les enseignants des contre- mesures : demandes d'avant-projets ou sujets
très contextualisés. Au Texas, une loi a été prise pour interdire ce type de commerce. À quand
les logiciels de détection des devoirs pré-rédigés ? (Voir K. Granier-Deferre, Dissertations à
vendre, in Le Monde, 7/8 Septembre 1997, p. 34.)
[15] En 1997, trois millions de compteS étaient gérés sur le réseau aux États-Unis. Fin 1998,
leur nombre dépassait les cinq millions. Selon une étude (effectuée en 1997 par le cabinet
Forester Research), plus de quatorze millions de comptes seront ouverts sur le réseau en
2002. Elle prévoit que les actifs gérés vont y être multipliés par 5. La société de placement
direct en Bourse par le Web, E*Trade, basée à Palo Alto, arrivait sur le marché français à la
fin 1998, accélérant l'ouverture de services similaires par des banques et des courtiers
traditionnels.
[16] E*Trade réalise, en association avec une banque, l'introduction on line de sociétés sur le
marché boursier. D'autres institutions s'apprêtent à offrir les mêmes services.
[17] Abréviation de MPEG 1 Audio Layer 3, MP3 est un standard de compression numérique
divisant par 12 la taille des fichiers sans perte trop sensible pour l'oreille.
[18 ]En 1998, le groupe de rap Public Enemy a été le premier à offrir gratuitement le
téléchargement de titres inédits, entamant ainsi une violente campagne contre sa propre
maison de disques. Sommé de rentrer dans le rang par les dirigeants du label, le groupe a
obtempéré non sans se réjouir d'avoir lu "la peur dans leurs yeux" et en ajoutant : "On sait que
c'est quelque chose qu'ils ne pourront plus arrêter." Propos rapportés par Matt Richtel, Internet
ouvre une brèche dans le monopole des maisons de disques, in Courrier International, ndeg.
425- 426 du 23/12/98, p. 46.
[19] Voir Yves Eudes, L'ère des cybertribunaux, in Le Monde, 29 et 30/09/96, p. 29, et Michel
Arseneault, Les justiciers du Web, in Le Monde, 28 et 29/06/98, p. 34.
[21] Enseignante d'anglais et pionnière du premier lycée public totalement en ligne aux États-
Unis -la Florida High School d'Orlando-, L. Parrish, après avoir insisté sur la qualité humaine
de ses contacts électroniques avec ses élèves, ajoute néanmoins : "Mais une vraie classe me
manque beaucoup..." C. Lionet, Floride, lycée hors les murs, in Libération, supplément
multimédia, 14/11/1997, p. II.
[22] L'activité du C.N.E.D. semble aller dans ce sens. Voir Jacques Perriault, La
communication du savoir à distance, L'Harmattan, Paris, 1996.
[23] Magellan, moteur de recherche qui indexe plus de quatre millions de sites, en commente
cinquante mille seulement et décerne des étoiles. Seuls cinq pour cent d'entre eux ont reçu
quatre étoiles.
[24] Les "robots-chercheurs" -on le rappelle- sont des programmes qui vont rechercher des
informations en fonction de centres d'intérêts particuliers et les ramènent en direct ou dans
une boîte aux lettres. AltaVista -conçu par Digital- est devenu une référence incontournable.
Les guides de recherche, comme Yahoo!, proviennent d'une indexation humaine organisant le
contenu d'Internet dans de gigantesques structures de données. Certains robots, moins
universels, visent des objectifs plus sophistiqués. Les "agents" de Verity, par exemple, vous
préviennent que le vol que vous avez réservé est annulé, ceux de General Magic peuvent
effectuer directement une réservation sur un autre vol. Nombre de grandes entreprises de
Thomson à l'Aérospatiale, la Défense Nationale et la D.S.T. s'intéressent à ces robots
chercheurs pour l'espionnage industriel. Une place particulière doit être réservée à Taïga
(Traitement automatique de l'information géopolitique), développé pour la D.G.S.E., qui traite
l'information secrète. Son architecte, C. Krumeich en a tiré une version civile, Noemic,
capable de recherches sémantiques et qui prend en compte les concepts, les métaphores ou les
associations d'idées. Sur les robots chercheurs, voir notamment A. Rouble, Internet Reporter,
ndeg. 6.
[25] Digout4U exploite la méthode des "langages pivots" développée par Taïga. Plus
puissante que le simple enregistrement de mots clefs, cette méthode associe, aux termes de
l'interrogation initiale, un ensemble d'éléments contextuels (y compris la traduction anglaise)
qui élargit considérablement les champs de recherche. À la fin, le moteur évaluera les
informations récupérées sur le réseau en les rapprochant de la requête initiale. Voir E. Parody,
Digout : de l'ordre dans vos recherches, in Planète Internet, ndeg. 24, nov. 1997, pp. 80/81.
[26] Travelocity, l'une des principales entreprises américaines de vente sur Internet, a mis au
point un logiciel de recherche qui avertit l'usager, par courrier électronique, de toute variation
de prix supérieure à vingt-cinq dollars sur la destination choisie. Grâce à Expedia, le logiciel
spécialisé qui a permis à Microsoft de s'imposer dans ce secteur, on peut même visualiser un
schéma de l'avion avec les places disponibles. Guides, locations de voitures, réservations
d'hôtel sont les prolongements logiques de ces services, qui, encore minoritaires aujourd'hui,
suscitent un engouement croissant. Images des hôtels, vues des paysages environnants et
bandes sons sont en préparation.
[27] Aux États-Unis, Amazon.com -qui propose trois millions de titres sur le Net- s'est
imposée en deux ans comme l'une des premières success story du commerce électronique.
Barnes & Noble, la célèbre chaîne de librairies, offre un million et demi de titres. D'autres
distributeurs se sont spécialisés par genre (science-fiction, mode, etc.) Sur Dial-a-book, on
peut télécharger et lire gratuitement le sommaire et le premier chapitre, et commander ensuite
le livre qui sera expédié par la poste. En France, l'ABU (Association des Bibliophiles
Universels) a été fondée en avril 1993. Son ambition est de numériser et de rendre accessible
sur le réseau une sélection d'oeuvres du patrimoine littéraire francophone libres de droits, du
traité de Maastricht au Discours de la méthode de Descartes. Plus de cinq mille connexions
par mois, en 1997, viennent, légitimer l'intérêt de ce patient travail. L'ABU propose aussi aux
Internautes différents outils de recherches automatiques tels que des calculs d'occurrences
pour chaque ouvrage ou pour l'ensemble du corpus. Enfin, en octobre 1998, un grand éditeur
français, Le Seuil, doublait la distribution en librairie de deux livres par leur mise en ligne sur
Internet. L'éditeur électronique 00h00, en proposait la commande par téléchargement direct
ou l'impression à la demande relayée par un réseau d'imprimeurs disséminés sur la planète.
[28] On peut citer, parmi les plus répandus, Jungle équipant Yahoo! ou Jango disponible aussi
sur le moteur Excite.
[30] Le logiciel, proposé par la firme Excalibur, indexe tous les mots d'un texte leur faisant
correspondre une signature binaire. Exploitant les principes associatifs des réseaux
neuronaux, il peut explorer une encyclopédie de 50 000 pages en dix secondes tout en tolérant
des erreurs. Il est déjà utilisé sur Internet par deux moteurs de recherche (Yahoo! et Infoseek)
pour identifier, selon les mêmes principes, l'énorme gisement d'images sur le Net et permettre
la recherche de documents. La R.A.I. italienne, par exemple, l'utilise pour ses besoins. Avec
un coucher de soleil comme image de départ, le logiciel proposera toutes les images proches
et celles dont les couleurs voisinent où qui comportent un disque lumineux.
[31] Voici, par exemple, comment B. Dousset, concepteur du logiciel d'analyse statistique
Tétralogie, le présente : "Tétralogie fouille Internet et opère des croisements de termes
scientifiques, d'organismes, de noms de personnes... pour en extraire l'information cachée.
Nous pouvons déceler les axes de recherche prometteurs, ceux où la concurrence est moins
forte, identifier les <<mandarins>> du domaine, ou au contraire les chefs de labo qui
émancipent leurs collaborateurs" (cité par C. Labbé et O. Rousseau, Internet veille sur les
entreprises, in Le Monde, sup. Multimédia, 3 et 4/11/1996, p. 32). Le logiciel peut détecter les
chercheurs qui ont fréquemment changé d'équipe, accumulant ainsi des savoir-faire variés. Il
démasque aussi les notoriétés factices obtenues par citations réciproques (les classements
obtenus par compilation automatique des noms cités dans les publications engendre
effectivement ce genre de comportement chez nombre de chercheurs américains).
[32] Des sites commerciaux américains proposent pour des sommes allant de cent à deux
cents dollars des enquêtes approfondies sur les individus. Exploitant de puissants moteurs de
recherches, se constituant de vastes fichiers acquis auprès d'institutions financières, par
exemple, ces services peuvent renseigner un employeur sur la véracité d'un C.V., vérifier les
diplômes mentionnés, les sanctions pénales reçues ou le bon remboursement des emprunts
contractés. Ils envisagent, d'ailleurs, de moissonner des gisements d'informations en Europe
pour permettre aux entreprises du Vieux Continent de contourner des barrières législatives
souvent beaucoup plus solides qu'outre-Atlantique. Sur les dangers de "l'autorégulation" à
l'américaine, voir Mathieu O' Neil, "Internet, ou la fin de la vie privée", in Le Monde
Diplomatique, septembre 1998, p. 23.
[33] Toute l'ingénierie des agents intelligents est mise à profit pour proposer l'installation sur
les ordinateurs familiaux, ou dans les entreprises, de logiciels paramétrables filtrant les accès,
qui aux sites à caractère sexuel, qui aux casinos virtuels, etc. Les forums de discussion, les
moteurs de recherche et les bases de données sont aussi contrôlés. Ces censorware
commencent à influencer le contenu du Web aux États-Unis, les sites commerciaux prenant
garde de ne pas figurer sur des listes rouges.
[38] L'I.E.T.F. (pour Internet Engineering Task Force) est un organisme supervisé notamment
par l'I.A.B.
[41] Les standards sont des programmes qui assurent la gestion des réseaux incluant, par
exemple, le choix stratégique d'une méthode d'adressage adaptée à l'éventuelle croissance
exponentielle des abonnés.
[44] Ces considérations sont parfaitement résumées dans la conclusion que Pierre Lévy
apporte à Cyberculture : "La cyberculture incarne la forme horizontale, simultanée, purement
spatiale, de la transmission. Elle ne relie dans le temps que par surcroît. Sa principale
opération est de connecter dans l'espace et d'étendre les rhizomes du sens" (op. cit., p. 308).
[48] 77 044 332 "je, I" contre 43 325 875 "tu, you", précisément, mais en un temps non
mentionné.
[49] Cette séparation est, bien entendu, à prendre comme un partage analytique et non
descriptif. Nombre d'activités laborieuses possèdent des dimensions imaginaires, et à l'inverse
le travail relationnel est aussi opératif.
Table des matières
Chapitre IV
La téléinformatique comme technologie intellectuelle
Quel profit pouvons-nous faire du concept de technologie intellectuelle pour apprécier les
enjeux du développement de la téléinformatique ? Cette question a partie liée avec deux
autres interrogations plus générales :
- Le travail symbolique repose-t-il principalement sur les déterminations matérielles des outils
qu'il mobilise ?
Notre ambition, face à ces questions complexes, est mesurée. Nous les aborderons dans la
perspective de développements ultérieurs concernant notamment les enjeux culturels de la
téléinformatique. Précisons que notre démarche n'est pas démonstrative. Si elle reprend
quelques problèmes fondamentaux, c'est plus dans l'intention de mieux faire comprendre au
lecteur les présupposés qui gouvernent nos analyses que pour en détailler les articulations.
Ceci nous offrira l'opportunité d'évaluer, plus largement les thèses de la nouvelle école
épistémologique sur la nature du travail scientifique dans ses relations aux autres sphères de
l'activité sociale (politique, notamment). Enfin, un commentaire des travaux de
Jacques Derrida à propos de l'archive clôturera ce chapitre : archive en général -modalité de
mémorisation collective- et archive "virtuelle" en particulier, laquelle est l'objet d'une
pénétrante interrogation sur le dépassement de l'opposition présence/absence, prolongeant
l'enquête du philosophe sur la spectralité.
Les premiers usages de l'écriture avaient, on le sait, une vocation gestionnaire, calendaire ou
généalogique. Quelques millénaires après leur utilisation courante comme mémoire
additionnelle à l'oralité, Jack Goody[1] a pu y détecter l'émergence d'une raison graphique,
spatialisée, permanente et réflexive. On a, par ailleurs, maintes fois souligné en quoi l'écriture
et les opérations symboliques, notamment sur les figures et les nombres, ont conditionné la
naissance de la pensée réflexive, philosophique et scientifique mais aussi la formation des
premières cités-États[2]. Après quatre siècles, nous commençons à comprendre assez
clairement pourquoi une technologie bien matérielle comme l'imprimerie doit être qualifiée de
technologie intellectuelle. C'est- à- dire comment, en industrialisant la mémorisation de l'écrit,
elle a créé un nouvel espace intellectuel et fait naître des notions aussi inédites que celle
d'auteur individuel, d'authenticité, de datation et de catalogage[3]. Certains travaux vont
même jusqu'à faire reposer la stabilisation de la Renaissance sur l'invention de
l'imprimerie[4].
Plus que son contenu, cette méthodologie interroge l'activité symbolique à partir des
instruments concrets avec lesquels elle opère. Elle s'intéresse à la matérialité des truchements
et se demande en quoi leur constitution physique les prédestine à ouvrir de nouveaux champs
de connaissance ? Dans cette perspective, la philosophie ainsi que les mathématiques sont les
enfants de l'écriture, et la production industrielle par série est la descendante de la presse à
imprimer. Une longue lignée initiée notamment par Walter Benjamin et Marshall McLuhan a
développé, à rebours de la tradition philosophique réflexive, cette enquête sur l'efficacité
propre des supports et des moyens, déduisant les finalités à partir des déterminations
concrètes des instruments et de la manière dont les acteurs les enrôlent dans leurs projets.
Ainsi, l'invention de l'ordinateur mêle indissolublement une généalogie de recherches
théoriques sur l'automatisme et une exigence stratégique militaire, auxquels il faudrait ajouter
quantité d'autres déterminations comme les affrontements internes à l'équipe des inventeurs.
Prolongeant ces travaux, un courant de l'épistémologie contemporaine, dont Bruno Latour est
l'un des meilleurs représentants en France, porte son attention sur les procédures concrètes à
travers lesquelles le fait scientifique se construit, se maintient, et négocie sa reconnaissance.
Dans cette perspective, les techniques de prélèvements des faits en milieu naturel, leurs
transports, leurs traductions en inscription et les traitements concrets de ces inscriptions ainsi
extraites sont devenus le centre de l'étude de la production de la science. La notion de
"technologie intellectuelle" a ainsi été élevée au rang de principe ordonnateur de la pensée
scientifique ; laquelle est devenue ingénierie de conception et d'usage d'instruments de
prélèvements, de transports et de travail sur les données en milieu contrôlé, nommé
laboratoire. La portée essentielle du concept de "technologie intellectuelle" réside alors dans
la potentialisation de la pensée qu'elle autorise. Des jeux inédits sur les inscriptions permettent
d'augmenter les connaissances qu'elles rassemblent. Trouver les formes de cartographie
adéquates, les symbolisations à plus-value informationnelle, les modalités d'inscription
augmentant l'acquisition de connaissances : ceci constitue la visée des technologies
intellectuelles opérant toujours par une modélisation à gain cognitif.
Internet devient même parfois une technologie inédite de production distribuée. Le système
d'exploitation Linux en est l'un des meilleurs exemples. Diffusé libre de tout droit sur Internet,
le code source de ce logiciel de base a été progressivement pris à bras le corps par des
centaines d'informaticiens de par le monde, qui n'ont eu de cesse que de le tester sous tous ses
aspects, d'en améliorer les performances et d'échanger, via le réseau, leurs résultats. Si bien
que ce programme est aujourd'hui moins gourmand en puissance et plus robuste que, par
exemple, les produits standards de Microsoft. Le tamisage méticuleux auquel a été soumis ce
logiciel surpasse le travail d'équipes d'ingénieurs appointés, certes qualifiés mais en nombre
limité et toujours soumis aux contraintes d'urgence.
Utilisé, juste retour des choses, par le quart des sites de la Toile, Linux, comme d'autres
logiciels libres[6], est profondément lié à Internet qui agit comme une force productive directe
provoquant et organisant l'association coopérative de centaines d'acteurs. Parfaite illustration
d'une "intelligence collective" chère à Pierre Lévy, cet exemple nous éclaire sur la
constitution du réseau en technologie intellectuelle originale.
L'idéal scientifique, c'est que la Science parle de manière anonyme, générique, et pas au nom
d'une personne physique. Comment ? En publiant non seulement ses résultats mais ses
protocoles, de telle manière que chacun puisse refaire l'expérience et se convaincre de la
validité des résultats. La science expérimentale est donc nécessairement publique et
"publicatrice", voire "publieuse" puisque c'est aujourd'hui comme jamais, la condition de la
légitimation du labeur scientifique. De manière iconoclaste -c'est ce qui épice le propos et
assure ses valeurs de vérité- Bruno Latour, et les courants qui étudient la production sociale
de la science, attirent notre attention sur le fait que "refaire l'expérience" est une proposition
abstraite. Pour la concrétiser, il faut disposer d'un laboratoire, pouvoir accéder aux banques de
données mondiales, bénéficier d'une ligne de crédits. Ne sauraient faire défaut, en outre, les
tours de main assurant la solidité des bricolages montés, mais aussi des carnets d'adresse bien
remplis listant les bonnes relations qui assureront la légitimité des projets expérimentaux.
Enfin, il est indispensable de convaincre des institutions pour débloquer les budgets ; bref, il
faut faire de la politique.
Bruno Latour, par exemple, dans son travail sur Pasteur, nous appelle à prendre avec la plus
grande méfiance le supposé "génie" de Pasteur[9]. Mais au terme de ces alliages humain/non
humain, c'est le chercheur, comme agent différencié de son environnement, qui disparaît.
"L'idée nouvelle" comme le "génie créateur" source d'une découverte constituent, dans cette
logique, un effet idéologique, reconstruit a posteriori. D'où l'accent mis sur l'idée que la
découverte résulte principalement d'agencements complexes où le hasard, les contacts avec
les collègues, le désir de convaincre et l'appétit de pouvoir jouent un rôle majeur. La notion
même de "chaînage humain/non-humain/humain" s'efface au profit d'une collusion asphyxiant
à la fois objet et sujet. Désormais, c'est le réseau associant les chaînages qui pense.
D'où vient le projet d'expérience qui recomposera l'horizon d'une discipline ? Du hasard, de
méthodes systématiques, exhaustives ? Le "coup de génie" -ou, plus modestement, une idée
organisatrice qui redistribue les acquis- ne se conçoit certes pas sans les techniques de
traitement des inscriptions, mais pas non plus sans le travail imaginaire, l'expérience de
pensée, l'anticipation créatrice d'ordre. Sans doute est-ce salutaire de sauver la "matérialité"
du travail scientifique et de mettre à jour les réseaux socio-techniques qui le rendent possible.
Mais pourquoi radicaliser ainsi le propos au point d'évacuer la subjectivité des chercheurs et
des équipes, leurs différences, leurs spécificités ? La suspension des chaînages, dans ce qu'on
appelle communément la "réflexion" personnelle, ne trouve, dans cette perspective, plus
aucun espace[12].
L'humain, toujours techniquement équipé, est un être pris dans le mouvement d'extériorisation
et d'intériorisation de la technique. Ce deuxième mouvement est délaissé dans la logique de la
"construction sociale de la science". Car l'intériorisation est un métabolisme mystérieux.
Qu'est ce qui pousse un chercheur, ou une équipe, à faire telle comparaison, à mélanger les
inscriptions de telle façon qu'il en résulte un gain cognitif décisif ? On peut se demander pour
quelles raisons la dimension imaginaire et personnelle de l'activité scientifique (projets
expérimentaux, vérification, importation de concepts, etc.) est-elle, à ce point, déniée ? La
liberté de mouvement interne du sujet, la possibilité d'abstraire, fut-ce pour imaginer de
nouveaux montages expérimentaux, ne recèle-t-elle pas d'une puissance heuristique
indispensable ? Ne suppose-t-elle pas de dégager en soi, fugitivement, un espace libre où
viennent se combiner des idées et des mouvements psychiques oubliant et commutant à la fois
les technologies intellectuelles ? L'occultation provisoire des déterminations socio-techniques,
l'isolement mental est une dimension, fugitive mais puissante, du surgissement du nouveau,
un moment privilégié dans la ronde sans fin des interactions qui assaillent, orientent et
déstabilisent l'activité de connaissance. La systématisation du concept de réseau vient, ici,
oblitérer la reconnaissance de l'espace subjectif. La mise en cause légitime des miracles d'une
"pensée" scientifique toute-puissante autorise-t-elle ce retournement ?
Par ailleurs, et sous prétexte que les techno-sciences sont "civilisatrices ", on s'évite le souci
d'évaluer leurs usages, notamment selon des critères éthiques. Comment orienter un jugement
de valeur à propos de tel ou tel projet si l'on se contente de tenir le livre de comptes des
conflits d'intérêts et de pouvoir qu'il engendre ? S'il n'y a pas d'intentionnalité, ni d'intérêt
repérable dans leurs genèses et leurs appropriations, comment les apprécier ? Tout se vaut :
Hiroshima, les autoroutes, le fichage informatique aux côtés du traitement de texte et de
l'ingénierie écologique ?
S'ouvrent alors de nouveaux champs à l'investigation scientifique, tels que les mathématiques
expérimentales ou la modélisation numérique de comportement d'objets. Poussant à l'extrême
cette logique, de nombreux courants estiment que la fonction socialement structurante des
technologies intellectuelles surpasse celle des technologies énergétiques/mécaniques. Dans la
mesure où ils conditionnent les formes de la mémoire sociale et constituent les technologies
de la connaissance, les systèmes symboliques et les technologies intellectuelles qui les mettent
en oeuvre seraient la source première de la dynamique des civilisations. Cette idée est le
présupposé explicite ou implicite, par exemple, des prosélytes d'Internet. Il n'est pas dans
notre intention d'analyser ici dans le détail ces hypothèses mais de rappeler que nombre
d'analyses contemporaines -sur le phénomène de mondialisation, spécialement[14]-
s'appuient, implicitement ou explicitement, sur cette prépondérance.
Ces analyses ont eu un effet décapant et ont nourri une réflexion innovante dans plus d'un
domaine. Elles suscitent, aujourd'hui un mouvement de balancier qui, à nouveau prend ses
distances à l'égard d'un abord purement empirique du fonctionnement des médias. À leur
encontre, le reproche (fondé nous semble-t-il) de positivisme affleure. Les techniques de
production, de gestion, et de transport des signes sont-elles les facteurs premiers qui rendent
compte de leurs significations comme de leurs fonctions sociales ? L'écriture hier, les réseaux
numériques aujourd'hui, ont-ils partout et à toute époque, les mêmes enjeux ? Dans quelle
mesure les systèmes socio-politiques qui les accueillent et les développent, ne les marquent-ils
pas aussi profondément ? Enfin, ne doit-on pas considérer que des technologies particulières
s'imposent parce qu'elles sont utilisées par certains centres de pouvoir dans les affrontements
qui les opposent à leurs concurrents ? L'exemple qui suit illustrera cette hypothèse.
La fondation théologique Golpayeni, l'une des plus conservatrices de Qom (la capitale
religieuse de l'Iran) s'est équipée de batteries d'ordinateurs, d'origine américaine[15]. Leurs
mémoires rassemblent plus de deux mille volumes relatifs au fiqr (droit musulman, chi'ite et
sunnite). Depuis 1995, le centre s'est abonné à Internet. Comment expliquer que Qom, qui a
réussi à faire interdire la réception satellitaire, de même que la communication téléphonique
mobile en Iran, se précipite sur l'informatique documentaire en réseau ? Les affrontements qui
opposent le "clergé politique" au haut clergé traditionnel sont à l'origine de cette initiative. Le
haut clergé risque, en effet, d'y perdre le monopole de l'interprétation des textes (ce qu'il
accomplissait avec peu de compétences, semble-t-il). On rappelle que la dimension juridique
dans l'islam (ce qui est autorisé ou non dans la vie sociale) comme dans d'autres religions
d'ailleurs, est centrale. L'exégèse assure donc un pouvoir irremplaçable. Si tout un chacun, via
les réseaux, peut accéder directement au corpus consignant le fiqr, ceux qui en ont le
monopole, c'est-à-dire en l'occurrence le haut clergé, voient leurs prérogatives vaciller. Un
chercheur iranien explique qu'en fait, les ordinateurs participent au dessein du régime
islamique qui est de prendre le pouvoir religieux aux grands ayatollahs. Khamenei, devenu à
l'époque président de la République, cherchait à mettre au pas le clergé chi'ite en
l'assujettissant à l'État. Et pour ce faire, il souhaitait affaiblir le contre-pouvoir religieux en
favorisant le clergé intermédiaire. L'objectif était de faire émerger de nouvelles instances
basées sur le moyen clergé et de concurrencer ainsi celles que contrôle le clergé traditionnel.
D'où la mise en place d'une machine de guerre pour substituer au "pouvoir des religieux
conventionnels" celui des "religieux politiques". L'enjeu est aussi très matériel : il s'agit de
faire rentrer dans les caisses de l'État les sommes considérables récoltées par le clergé. On
comprend aisément pourquoi l'ouverture à Internet est favorisée par le gouvernement.
- une technologie intellectuelle (les banques de données accessibles par réseaux) est l'agent
essentiel d'une redistribution des rapports de force,
- une technologie intellectuelle est utilisée par l'un des camps pour asseoir son pouvoir.
Il serait assez imprudent, ici, de certifier la première hypothèse. Peut-être pourra-t-on lire dans
trente ans que les réseaux ont joué un rôle fondamental dans la laïcisation de l'État iranien.
D'ailleurs, rien n'oblige à choisir l'une de ces thèses contre l'autre. On peut parfaitement
considérer que l'usage de l'informatique documentaire recompose les rapports de force dans le
clergé parce que l'un des protagonistes prend le risque de faire jouer cette force. Après tout,
est-on sûr que cette initiative ne joue pas, finalement, contre ceux qui la mettent en oeuvre ?
Démocratiser l'accès aux textes consignant l'exégèse de l'Islam, cela n'engage-t-il pas, à terme,
un affaiblissement du pouvoir des intermédiaires en général ? Ceci n'implique pas,
mécaniquement, que le clergé politique creuse sa propre tombe, mais qu'il se contraint, à
terme, à devoir s'adapter à ce futur contexte. Par ailleurs, la mise en cause, par les
technologies numériques, des intermédiaires spécialisés est une question assez fondamentale.
C'est, en effet, l'un des caractères majeurs d'Internet dont nous avons déjà eu l'occasion
d'apprécier l'ampleur et la portée.
Toute une tradition de la sociologie des techniques s'est attachée à l'étude du mouvement
inverse qui façonne les outils à travers leurs usages. Plutôt que de considérer la forme
concrète du média comme déterminant un usage, on privilégie alors la malléabilité des
instruments dont l'usage transforme le programme de fonctionnement. Et cette logique est
particulièrement sensible à notre époque où un nombre croissant d'objets et de dispositifs ne
contiennent plus en propre leurs fonctions, mais les font émerger dans une mise en réseau
avec d'autres systèmes. Le chaînage (chaîne du froid, chaîne audiovisuelle, chaîne
informatique) devient le mode privilégié d'existence d'objets déformables, pliables,
constitutivement paramétrables. L'ordinateur en est l'exemple type : système évolutif, dont on
ne peut prévoir toutes les fonctions, lesquelles s'inventent avec l'évolution du système lui-
même soumis à la pression des usages et des détournements. On entre dans un cercle vicieux.
Si la forme ne rend plus compte du projet, si l'objet ne détermine plus fidèlement son usage,
sur quoi fonder une analyse "médiologique", par exemple ? Signalons, sans approfondir, que
le concept de relation transductive, proposé par Gilbert Simondon (que reprend Bernard
Stiegler dans La technique et le temps[16]), définie comme relation qui constitue ses termes,
permet de lever l'aporie qui se présente dès que l'on renverse les causalités habituelles pour y
substituer une détermination par les conséquences[17].
À cette problématique, on peut opposer qu'il n'y a pas lieu de chercher des causes premières
-et encore moins unique- dans une dynamique d'émergence interne à des systèmes complexes
où logiques techniques, sociales et systèmes symboliques interfèrent. C'est au moins une
leçon épistémologique qu'on peut retenir du connexionnisme moderne qui a permis de
concevoir le phénomène d'émergence d'ordre comme produit de l'interaction coopérative
d'agents autonomes. Aucune théorie générale ne dispense de l'étude de configurations
historiques particulières et ce qui vaut pour l'imprimerie ne se déplace pas automatiquement à
la photographie ou à Internet. Nous verrons, en particulier, dans le dernier chapitre, qu'il est
discutable de postuler que les télé-technologies marquent culturellement nos sociétés de
manière univoque.
Aujourd'hui, l'idée générale de la suprématie des systèmes symboliques se renforce d'une série
de partis pris qui se veulent de pures constatations telles que la croissance des transactions
dites "immatérielles", la part symbolique dans les flux d'échanges, l'assomption des
connaissances comme vecteur d'orientation décisif de nos sociétés. Or dans les réseaux
numériques, par exemple, tout passe évidemment par des systèmes de signes (textes,
graphiques, images, sons, liens hypermédias...). Ainsi la forme s'harmonise au contenu : le
réseau vu comme espace élargi d'échanges symboliques -le multimédia- accueille l'enveloppe
du lien social, épurée de ce qui résiste à un conditionnement numérique : la présence
corporelle. Le mouvement dès lors s'auto-entretient : "l'immatériel" abreuve les réseaux et
ceux-ci se gonflent en irriguant cette matière ductile à souhait, au point de sembler occuper
tout l'espace public (et privé). On passe de l'affirmation d'un lien entre les techniques de
déplacement matérielles (routes, fleuves,...) et de signes (écriture, imprimerie, télégraphe,...
réseaux numériques) à une inversion de priorité, le transport des signes devenant, lui seul,
stratégique. Or, une étude attentive montrerait une croissance conjointe des flux
informationnels sur les inforoutes et matériels sur les grandes voies du commerce mondial. Il
est vain de rechercher un supposé facteur "immatériel", déterminant dans l'organisation des
échanges (de signes et de choses). En revanche notre attention doit se concentrer sur les
mutations qui saisissent le transport des signes pour tenter de le rapprocher du transport des
choses, autre manière de décrire la tendance à l'augmentation de l'incarnation dans la présence
à distance.
On voudrait discuter ici plus en avant la notion d'immatérialité de l'information. Les réseaux
territoriaux classiques (routes, chemin de fer,...) qui assurent le transport des marchandises-
choses convoient indissolublement des agencements matériels et l'information qu'ils
emprisonnent. Expédier une machine, c'est envoyer l'information qu'elle encapsule dans ses
rouages, c'est adresser un programme d'usage. À ce stade, l'information ne se distingue pas de
la matière. En revanche, on se laisse souvent aller à affirmer que les réseaux informationnels
-séparant l'information d'une matière qui la contiendrait- convoient de l'information comme
pure immatérialité. On oublie alors la matérialité des réseaux eux-mêmes pour ne retenir que
l'encombrement matériel infime de l'information numérisée ou l'extrême rapidité de traitement
des flux électromagnétiques et photoniques. On élimine les chaînages qui traduisent et
conduisent les messages d'un point à un autre. Qu'est ce que la transmission d'une image sur le
Web, par exemple, si l'on fait abstraction de la numérisation comme technologie intellectuelle,
de l'ordinateur pour effectuer ces calculs et conduire les commutations sur le réseau, de la
ligne téléphonique pour la transporter, de l'institution France Télécom pour concevoir,
installer, vendre ce transport, et d'une quantité d'autres médiations dont la liste occuperait des
pages entières ?
La supposée qualité immatérielle de l'information s'appuie aussi sur l'idée que l'information
véhicule l'événement et donc le remplace dans une certaine mesure. Mais si le message peut
représenter l'événement, s'il peut le déplacer jusqu'au cerveau des destinataires, c'est
uniquement grâce à l'existence de réseaux de diffusion déjà engagés dans l'émergence de
l'événement lui-même et qui construisent l'information afférente. La prise de la Bastille
annoncée aux Indiens d'Amérique n'aurait eu aucun effet. Je peux, sur Internet, informer tout
le monde que la Terre va être détruite dans vingt ans par une énorme collision avec un
astéroïde géant. Pour être cru, il faut d'une part que j'aie accès au média -et que celui-ci
fonctionne- et de l'autre que je dispose d'une confiance reposant sur une longue chaîne
d'accréditations préalables. Couper le message des réseaux potentiels de diffusions, et donc
d'un complexe de désirs, d'intérêts, de rapports de forces, relève d'une vue assez idéaliste.
L'appropriation de l'information ne relève pas d'une logique de l'usage (unicité, perte,
altération, dégradation) car ce n'est pas une chose. Mais sa diffusion n'est pas pour autant
"immatérielle", car sans les réseaux qui l'acheminent, l'information demeure une promesse en
attente de réalisation. Lorsqu'on couple l'information aux réseaux qui la produisent,
l'entretiennent, la conservent et la diffusent, on conçoit plus facilement que la nature relative
de l'information -non pas une chose mais un rapport social par l'intermédiaire de choses-
n'empêche nullement qu'elle soit le fruit d'un travail personnel et institutionnel
inséparablement matériel et subjectif.
La notion de travail "immatériel" trouve en revanche, une pertinence lorsqu'on la rapporte aux
segments purement relationnels du travail collectif, au travail communicationnel dans ses
dimensions interpersonnelles, non directement, médiatisé par des appareils techniques et
institutionnels. Nous sommes ici en présence de deux positions radicalement opposées. La
première, à la suite des travaux de l'école d'anthropologie sociale de la science, insiste sur
l'impossibilité de différencier, dans une activité productive, subjectivités humaines d'une part
et dispositifs techniques et cadres institutionnels, de l'autre. La deuxième position met
l'accent, en revanche, sur le contenu relationnel, affectif, subjectif de cette activité dans le
contexte du post-fordisme, sans toujours accorder la place qui lui revient aux réseaux socio-
techniques. On le verra, l'invocation des réseaux numériques et de l'informatisation vaut alors,
dans ce dernier contexte, assurance de l'immatérialité du travail et suprématie de la
connaissance comme force productive. Il nous semble, qu'effectivement, on doit faire sa place
à l'intersubjectivité dans le travail coopératif et ne pas le réduire à la mise en oeuvre de
procédures "matérielles", comme nous y conduit la logique des "réseaux pensants". Mais tout
en reconnaissant l'autonomie non réductible du travail relationnel on ne saurait l'isoler, ni
même peut-être l'appréhender, hors de son outillage pratique, c'est-à-dire techno-
institutionnel. Les conditions contemporaines de ce travail communicationnel exigent, sans
doute plus qu'auparavant, d'étudier simultanément ses versants techniquement médiatisés et
ses versants informels.
Travail en réseau et subjectivité productive
On a vu -en particulier au chapitre I- à quel point se raffinent les dispositifs gérant le travail
collectif et s'accroissent leurs capacités à exprimer les conditions sociales de la coopération.
Soulignons une nouvelle fois que la mise à distance contraint à formaliser une part des
relations sociales auparavant "naturelles" et que, parallèlement, elle invente de nouvelles
modalités communicationnelles. La coopération à distance offre donc un cadre inédit à l'étude
de l'intersubjectivité en situation d'éloignement. L'approche dite de "proxémique
virtuelle"[30] -notamment à propos des espaces collectifs de travail- offre un cadre stimulant
pour mieux observer comment le travail linguistique et relationnel se concrétise lorsqu'il
s'effectue, justement, à distance et par le truchement de réseaux numériques. Nous avons ici
en vue les travaux -tel que DIVE, déjà cité- qui mettent à profit l'ingénierie informatique pour
concrétiser (et inventer) des fonctions abstraites de présence. Cette approche déploie une série
de questions vives : comment se combinent les segments durs et les segments mous dans le
travail relationnel, comment s'établit la coopération, comment se métabolisent les dimensions
affectives dans le filtre des réseaux numériques ? La formalisation des transactions l'emporte-
t-elle sur la spontanéité et l'invention de protocoles relationnels inédits ? Porter une attention
particulière au fonctionnement des interfaces -dispositifs et logiciels- autour de la synthèse
des activités communicationnelles semble être aussi une direction prometteuse. Cette
abstraction des fonctions de présence risque-t-elle de jouer à l'encontre des dimensions
psychoaffectives ? Comment sont-elles contournées et complétées par des relations
traditionnelles (rencontres, séminaires, par exemple) ? Ces aspects rendent concrète la
mobilisation relationnelle et affective croissante qu'exige le travail intellectuel coopératif,
dans le contexte du travail en réseau.
Par ailleurs, ces questions relatives à l'univers du travail entrent en résonance avec des
interrogations plus générales concernant les rapports entre l'échange à distance d'une part et
l'engagement relationnel et institutionnel, de l'autre. À quoi s'engage-t-on par un acte de
communication à distance ? On sait que, en dehors même des situations à caractère
performatives, n'importe quel énoncé lancé dans une messagerie, même anonyme, engage
l'énonciateur. Mais à quoi ? Auto-évaluation, fonction miroir, observation des effets du
message sur les autres personnes connectées, les incidences sont d'une grande variété. Il est
donc difficile donc de qualifier, de manière générale, la nature de la rétroaction dans un
réseau. On peut néanmoins penser que cette communication est d'autant plus chargée d'enjeux
qu'elle est chevillée à une participation concrète, à une expérimentation collective des effets
de telle ou telle proposition. C'est la notion de degré d'appartenance qui est ici décisive. On
n'appartient pas de la même manière à un "groupe de discussion" et à un séminaire
professionnel permanent, par exemple. La notion de communauté virtuelle regroupe des
relations d'une grande hétérogénéité, telles que la rencontre fortuite et (cas extrême) unique, le
regroupement autour d'un centre d'intérêt (et donc le renouvellement régulier de l'échange), ou
encore le doublage d'une relation sociale classique par une télé-relation virtuelle (comme avec
le téléphone). Les relations entre le dire et le faire offrent, dans ce contexte, un nouvel
éclairage.
Pourquoi, dans la perspective d'une réflexion sur l'inscription, solliciter le livre de Jacques
Derrida, Mal d'Archive[32] ? Le texte de la conférence du philosophe "déconstructionniste"
représente une tentative inédite, dans l'horizon freudien, de mise en rapport de la
mémorisation vivante et des techniques "archivales" prolongeant, à l'extérieur, la fixation
mémorielle. Cette approche offre, de plus, l'occasion de poursuivre une réflexion sur la
"spectralité" à l'heure des spectres numériques modernes. Finalement, le livre fait apparaître
que l'archivage, dans ses rapports aux techniques archivales, est une condition de la "ré-
flexion" proprement dite, de la mise à distance, qu'elle est productrice d'un dialogue intérieur.
En cela, ajouterons-nous, elle s'oppose à l'accélération de la rotation des inscriptions, au culte
de l'éphémère, à la valorisation de la circulation au détriment de l'interprétation ; bref, elle
balance l'éloge du réseau par l'insistance sur le travail herméneutique local.
Archiver, c'est "consigner", écrit Jacques Derrida, mettre en réserve en "rassemblant les
signes"[33]. Geste systémique, "coordonner en un seul corpus", mais aussi temporel
"synchronique", rendre accessible en un même lieu, donc en un même temps. Question
politique, dit Jacques Derrida. "Nul pouvoir politique sans contrôle de l'archive, sinon de la
mémoire"[34]. Et on pourrait ajouter, contrôle de la transmission de la mémoire, des schèmes
opératoires, produisant ainsi des modalités temporelles différenciées si tant est que chaque
type d'archive est dépositaire d'une temporalité spécifique : écriture (mise à distance de soi,
auto-dialogue, mémoire objectivée), imprimerie (multiplication des sources, objectivité,
justesse, comparaison), enregistrement (actualisation du passé), etc. L'archive ne se contente
pas de figer et de rendre disponible l'information ou l'histoire, elle les conditionne :
"L'archivation produit autant qu'elle enregistre l'événement"[35]. Toute la question de
l'archive se situe dans une tension entre la rétention vivante et l'inscription extérieure
permanente. Car tout système de signes, pour être consulté, doit pouvoir être atteint par une
énergie vivante. À l'heure d'Internet, de ses milliers de banques de données et de ses moteurs
de recherches, cet adage se vérifie, on ne peut plus clairement.
L'archive virtuelle
L'archive "spectrale"
Jacques Derrida, à la suite de Freud, insiste sur la part de réalité des spectres. Ceux-ci ne sont
pas de pures illusions, mais des "vérités du délire" issues d'un retour d'événements refoulés.
D'où le mécanisme de l'hallucination démonté par Freud : "la forme déformée...parvient à la
conscience... avec une force de conviction intensifiée par la compensation, et en restant
attachée au substitut déformé de la vérité refoulée"[44]. Jacques Derrida fait dériver cette
qualité opérative des spectres vers l'archive : "...la structure de l'archive est spectrale. Elle l'est
a priori : ni présente, ni absente <<en chair et en os>>, ni visible ni invisible..."[45]. On
pourrait dire comme les "Réalités Virtuelles", au sens de la signature programmatique d'une
réalité. (On emploie ici le terme programmatique -plutôt qu'informationnel- pour signifier
qu'il s'agit d'une réalité modélisée par et dans un programme, sous forme numérique).
"Réalités Virtuelles" s'ajustant sur le modèle des "spectres", de la "hantise", de ce que Freud
nomme "fantôme réel" pour désigner l'hallucination visuelle (l'archéologue, Hanold, parle
avec Gradiva, son "spectre de midi", laquelle est ensevelie depuis longtemps déjà).
Bien sûr, alors que l'hallucination vise la satisfaction primitive des pulsions par reconstitution
imaginaire de l'objet manquant, les "Réalités Virtuelles" jouent la satisfaction expérimentale,
pratique (ce qui peut être aussi considéré comme un apaisement). Mais sans doute aussi, peut-
on les appréhender comme matérialisation, certes rigide et pesante, de la fantasmatique
ordinaire qui double notre présence au monde ; comme une concrétisation technique de cette
zone "fantomatique" virtuelle, intermédiaire entre réalité et imaginaire. La "Réalité Virtuelle",
comme concept général, constituerait alors la forme actuelle de la "spectralité" instrumentale.
[2] L'écriture, dont Jack Goody a montré qu'elle sert d'abord à conserver des inscriptions
gestionnaires (comptes, impôts, conscription, généalogie), naît dans et pour les premières
cités-État. Le village se transforme en ville dans le même mouvement où la mémoire sociale
qu'exige son gouvernement dépasse celle qu'un chef peut gérer avec son seul cerveau.
[5] André Leroi-Gourhan, La mémoire et les rythmes, Albin Michel, Paris, 1965. Voir plus
précisément le chapitre IX (La mémoire en expansion), pp. 63/76.
[6] On peut citer The Gimp (logiciel de manipulation d'images), Apache (adopté par la moitié
des sites pour distribuer les documents aux Internautes), Sendmail (gérant la commutation du
courrier électronique) ou encore Star Office (ensemble bureautique). Mais la liste s'allonge
chaque mois. Par ailleurs, on l'a vu précédemment, la stratégie de la firme Netscape livrant le
code source de son prochain navigateur pour échapper à l'étreinte de Microsoft s'inspire
directement de l'exemple de Linux : on ne saurait admettre plus explicitement la supériorité
des logiciels obtenus grâce à une telle méthodologie collective d'élaboration et de
perfectionnement.
[7] Henri Atlan, par exemple, dans son livre A tort et à raison (Le Seuil, Paris, 1986) avait
précisé l'intérêt des contraintes spécifiques au "jeu de langage" scientifique, notamment
pp. 226 et 228/230. La science n'est plus alors la connaissance d'une réalité ultime, mais
procède d'une interaction assumée entre le sujet connaissant et la réalité. On retrouve la
notion, chère à Francisco Varela, d'enaction, construction commune du milieu extérieur et de
l'activité humaine appareillée. Cette posture redonne une place spécifique à l'humain, à côté
des dispositifs techniques et des institutions, dans les processus de connaissance.
[8] Les sciences et les techniques sont : "fragiles, mêlées, rares, masquées, troubles, médiées,
intéressantes, civilisatrices", Bruno Latour, La clef de Berlin, La Découverte, Paris, 1993,
p. 11
[9] "Il y a en effet de quoi tomber à genoux d'admiration puisqu'on attribue à la <<pensée>>
d'un homme la transformation rapide et complète d'une société", Bruno Latour, Les
microbes : guerre et paix, éd. A. M. Métailié, Paris, 1984, p. 21.
[11] Dans L'innovation technique, et plus précisément dans la partie consacrée à la critique de
l'anthropologie des sciences, Patrice Flichy a parfaitement analysé cette dernière dimension :
"Une autre critique que l'on peut faire aux recherches de Callon et Latour est d'éliminer la
question de l'intentionnalité des acteurs, au profit d'une simple capacité tactique à saisir les
opportunités, à faire des coups, à <<resserrer les boulons>> du réseau", L'innovation
technique, La Découverte, Paris, 1995, p. 105.
[12] Dans le même ordre d'idées Régis Debray explique que "la pensée... cela n'existe pas.
Cette pompeuse abstraction désigne pour le médiologue l'ensemble matériel, techniquement
déterminé, des supports, rapports et moyens de transport qui lui assurent, pour chaque époque
son existence sociale" (Cours de médiologie générale, Gallimard, Paris, 1991, p. 17). Là aussi
"la pensée" est réduite à ses outils matériels d'exercice.
[15] Voir J.-P. Perrin, "Le virus informatique divise le clergé iranien", Libération, 21/12/95,
p. 12.
[18] Dans L'innovation technique (op.cit), Patrice Flichy discute les principales théories de
l'innovation technologique et montre, de manière convaincante, l'impossibilité d'un modèle
unique (économique, technique, sociologique, culturel) qui rendrait compte de la multiplicité
des causalités à la source du processus innovateur.
[20] Par exemple, François Ascher explique : "La résurrection des villes au XII[e] siècle n'a
pas été le "résultat" de la renaissance routière mais plutôt sa cause, la renaissance urbaine
étant elle-même due selon G. Duby à celle des campagnes. De même... les innovations
routières au XVIII[e] siècle n'ont pas transformé le "système urbain" mais sont venues
"habiter l'ancien" et doter d'un contenu fonctionnel nouveau des distributions spatiales
anciennes", Dynamiques métropolitaines et enjeux socio-politiques, in Futur Antérieur, n° 29,
1995/3, L'Harmattan, Paris, p. 156.
[21] Que la sémiose comporte un substrat matériel (la circulation neuronale), on ne saurait le
contester. Mais ce niveau de description est inadéquat pour la définir. Vaste question sur la
nature de la subjectivité et le statut de l'esprit qu'on ne fait ici qu'effleurer.
[23] Philippe Breton attire notre attention que le fait que pour Norbert Wiener et les premiers
cybernéticiens, il n'y a pas d'autre réalité que celle constituée par les relations entre les
phénomènes (Une histoire de l'informatique, La Découverte, Paris, 1987, pp. 129/134.)
[24] Ainsi Pierre Lévy écrit-il : "Le message est lui-même un agent affectif pour l'esprit de
celui qui l'interprète. Si le texte, le message ou l'oeuvre fonctionnent comme un esprit, c'est
qu'ils sont déjà lus, traduits, compris, importés, assimilés à une matière mentale et affective."
(Qu'est ce que le virtuel ? , La Découverte, Paris, 1995, p. 105). Si on ne peut qu'approuver
cette affirmation pour ce qui est du moment de l'interprétation, on peut aussi comprendre, en
revanche, que les qualités affectives, dans l'intériorisation du message, sont transférées au
message en tant que tel. L'émotion, par exemple, semble congelée dans le message, quasiment
l'une de ses propriétés ontologiques.
[25] La relation entre forme et essence dans la production artistique pose d'autres problèmes
que nous laissons, ici, de côté.
[26] La manipulation de symboles chère à Robert Reich (L'économie mondialisée, Dunod,
Paris, 1993).
[27] Philippe Zarafian écrit à ce sujet : "...la socialisation coopératrice est en train de basculer
d'une coopération réglée sur des bases fonctionnelles vers une communication intersubjective
pour des raisons propres à l'efficience contemporaine du travail coopératif." (Travail
industriel, socialisations et liberté, in Futur antérieur, Paradigmes du travail, n° 16, 1993/2,
p. 81.)
[28] Ainsi, pour qualifier le "travail immatériel", Christian Marazzi écrit-il : "Le nouveau
capital fixe, la nouvelle machine qui commande le travail vivant, qui fait produire l'ouvrier,
perd sa caractéristique traditionnelle d'instrument de travail physiquement individualisable et
situable, pour être tendanciellement toujours plus dans le travailleur même, dans son cerveau
et dans son âme." (La place des chaussettes, L'éclat, Paris, 1997, p. 107.)
[30] La "proxémique virtuelle" étudie la manière dont des acteurs situés dans des espaces
virtuels façonnent les relations spatiales, aussi bien entre eux qu'avec les dispositifs qui les
entourent. Au-delà de l'aspect strictement spatial, cette notion s'élargit à la construction,
notamment topographique, des relations sociales dans les environnements simulés.
[38] "... la dite technique archivale ne détermine plus, et ne l'aura jamais fait, le seul moment
de l'enregistrement conservateur, mais l'institution même de l'événement archivable",
Jacques Derrida, Op. cit., p. 36.
[39] La question du dépôt légal de l'audiovisuel pose des questions voisines. (Voir Francis
Denel, Les archives de radiotélévision, patrimoine et objet/sujet de recherche, in Rencontres
Médias 1, B.P.I., Centre G. Pompidou, Paris, 1997, pp. 107/123.) L'automatisation du
prélèvement s'y concrétise dans la perspective de l'analyse documentaire. L'INA expérimente
déjà des programmes de reconnaissance et d'indexation automatique de la parole pour
numériser les fonds sonores radiophoniques et télévisuels. Quant à l'indexation automatique
de l'image -beaucoup plus complexe encore-, certains aspects (repérage automatique de
changement de plans, d'occurrences de décors, par exemple) commencent à en être maîtrisés.
[40] La mise en patrimoine permanente, sans distance de temps, est l'un des problèmes
majeurs de l'art contemporain, comme des musées de même nom : difficultés d'une
critériologie et obsession patrimoniale s'y conjuguent, selon la passionnante thèse de Corinne
Welger-Barboza : "Le devenir documentaire du patrimoine artistique - Perméabilité du musée
aux technologies numériques", Université de Bourgogne, 1998.
[41] Internet offre, à cet égard, un exemple assez clair de mixage d'une obsession
accumulatrice (rassemblement de la mémoire mondiale en ligne, conservation automatique
des paramètres des connexions, des chemins empruntés, des adresses, etc.) avec une certaine
dévalorisation de la mémorisation (échanger puis oublier, rafraîchir l'information sans
conserver les anciennes versions, etc.).
[44] Freud, Délire et rêves dans la <<Gradiva>> de Jensen, 1906-1907, Idées, NRF, p. 225,
cité par Derrida, op. cit., p. 137.
[46] Maurice Merleau-Ponty, L'oeil et l'esprit, Gallimard, Folio, Paris, 1964, p. 27.
Table des matières
Chapitre V
Retour sur interactivité
L'interactivité est une catégorie propre à l'informatique des années quatre-vingt. Elle tentait de
désigner une forme de communication entre programmes et sujets humains au moment où les
concepteurs parvenaient à déposer dans les programmes des fragments d'autonomie
comportementale. Un bouillonnement dans l'invention de nouvelles d'interfaces dites
"intuitives" (souris, menus déroulants, etc.) allant de pair avec le développement de la micro-
informatique, campait le paysage. Alliée à l'individualisation des usages des ordinateurs cette
situation allait provoquer des bouleversements dans les schémas traditionnels de la
communication. En insérant un agent actif -le programme- entre l'usager et la machine, les
catégories classiques d'émetteur, de récepteur, de message et de canal de communication
entraient en mouvement et se bouclaient. Dans ce sens, l'interactivité est l'un des costumes
possibles du concept "d'autonomie intermédiaire" propre à l'automatisme informatique :
stabilité du moteur (le programme) et multiplicité des figures qu'il déploie et interprète. En
résultaient des scénographies de commerce inédites avec les ordinateurs, lesquelles ont permis
l'éclosion d'une grande variété d'activités sociales, des transactions bancaires à l'éducation, des
jeux à la bureautique. L'essor de ce qu'il est convenu d'appeler le "multimédia" a
considérablement accéléré et radicalisé ce mouvement. Aujourd'hui, l'interactivité est-elle un
concept toujours pertinent ? Et sous quelles conditions ?
Une deuxième partie s'attachera aux enjeux plus particulièrement éducatifs de l'interactivité.
On y prônera la nécessaire reconnaissance, au deux sens du mot, des logiques de la
communication numérique et de l'hypermédiation dans une perspective éducative. Au delà de
l'utilisation en tant que technologie éducative, on montrera pourquoi et comment devrait
s'imposer un objectif central consistant à favoriser le "devenir auteur" des générations
montantes (et des autres aussi, bien sûr). On décrira comment la culture de l'interactivité
-redistribuant les notions de message et de récepteur- favorise alors naturellement la
production d'applications interactives. On s'appuiera sur l'analyse des logiques propres au
multimédia qui transforment profondément déjà les postures lectorielles en les chargeant de
nouvelles dimensions éditoriales, renouvelant ainsi les séparations fondées sur la culture du
livre. D'où notre proposition d'un soutien systématique à un home multimédia personnel et
collectif, qui pourrait constituer l'objectif fondamental d'une politique éducative en harmonie
avec la culture de l'interaction numérique.
Enfin, une troisième partie concernera le récit interactif. Région plus délimitée, le récit
interactif délivre cependant de précieuses indications sur les spécificités du régime de la
communication interactive. Il contraint, en effet, à mettre à l'épreuve certaines épistémés
majeures de la narration classique telles que les rapports entre l'auteur et les personnages,
entre l'activité d'écriture et le récit produit, ou encore entre l'interprétation et l'organisation
matérielle du support. Mais de manière peut-être plus essentielle encore, le récit interactif
révèle qu'à travers les questions de la séquentialité du récit, des temporalités de sa réception,
de la présence du spect-acteur dans la narration ou de l'irruption d'un tiers -le programme-
dans la relation auteur/lecteur, ce sont toujours, on le verra, des théories fictionnelles de la vie
qui se tiennent en arrière plan. Alors que dans les récits linéaires ces théories s'expriment
surtout dans la matière narrative, ici elles se font jour, de surcroît, dans la scénographie de
l'interaction (design des interfaces, conception de la navigation hypermédiatique gouvernant
les trajectoires dans l'espace du récit, nature des programmes qui organisent la production
narrative et ancrent la posture du spect-acteur). Enfin, avant d'entrer dans le vif du sujet, il me
semble nécessaire de délimiter plus précisément la signification du néologisme proposé de
spect-acteur. Je précise que dans mon esprit, la notion d'acteur ne désigne pas ici les espaces
de liberté dont jouit l'interprète, au sens théâtral ou encore l'acteur dans une acception
sociologique (l'acteur social). Il renvoie directement à la notion d'acte, quasiment au sens
gestuel, par opposition à l'appréciation mentale. Et le trait d'union est essentiel, puisqu'il
accouple la fonction perceptive "spect" (regarder) à l'accomplissement de l'acte.
Depuis assez longtemps, l'interactivité est critiquée comme illusion de réciprocité. La notion
d'interactivité est alors perçue comme incitation/valorisation de "l'activité" au détriment,
affirmait Jean-François Lyotard, par exemple, de la "passibilité". Ainsi écrivait-il : "On ne
demandait pas des "interventions" au regardeur quand on faisait de la peinture, on alléguait
une communauté. Ce qui est visé aujourd'hui... c'est au contraire, que celui qui reçoit ne
reçoive pas, c'est qu'il ne se laisse pas décontenancer, c'est son auto-constitution comme sujet
actif par rapport à ce qu'on lui adresse"[47]. Être "passible" de l'oeuvre d'art, c'est-à-dire y être
confronté comme membre d'une communauté, c'est, pour Jean-François Lyotard, une position
qui tranche radicalement avec l'interactivité, comme si la projection active dans une scène
avait obligatoirement comme corollaire une abdication de la sensibilité, un renoncement à une
exigence de confrontation et l'impossibilité d'une suspension du contrôle ("se laisser
décontenancer"). La dimension gestuelle de la posture interactive apparaît alors comme
synonyme de maîtrise. Rien pourtant ne permet de fonder l'antinomie gestuelle/suspension
possible de la signification. Des oeuvres "interactives" sont venues confirmer, par divers
éclairages, qu'elles pouvaient provoquer, tout comme les oeuvres classiques, "une catastrophe
des sens", selon l'expression imagée de Marc Le Bot[48]. (On pense, par exemple, à des
installations en Réalité Virtuelle comme Handsight d'Agnès Hegedüs, Place - A User's
Manual de Jeffrey Shaw, Ménagerie de Susan Amkraut et Michael Girard ou encore
Tunnel sous l'Atlantique de Maurice Benayoun, travaux dont il sera fait mention
ultérieurement). Et pourquoi ne pas imaginer, qu'à travers ces oeuvres et quelques autres, une
communauté "d'interactants" serait en train de se rassembler, "passibles" d'émotions
esthétiques en partie communes ?
La critique -voire le mépris- de Jean-François Lyotard rejoint, par certains aspects, un autre
genre de réfutation qui prétend souligner l'impuissance de l'interactivité à se faire l'écho de
l'infinie souplesse des comportements humains. On adresse alors un grief, implicite, à la
situation interactive, consistant à lui reprocher son incapacité à simuler pleinement les
relations vivantes. On lui refuse alors son statut d'entre-deux (ni rencontre directe avec une
subjectivité, ni programmation univoque) pour la reléguer -comme le fait Jean-François
Lyotard- dans le champ de la communication instrumentale, redevable de l'opérationalité
technique. C'est pourtant ce caractère d'entre-deux qu'il faut reconnaître et que je
revendiquerais comme posture spécifique passionnante. Il est vrai que, comme l'explique
Jean-Pierre Balpe, le récepteur est l'un des paramètres du modèle global organisant le système
interactif. Mais cette restriction vaut surtout pour le concepteur. Sur l'autre versant, le spect-
acteur se trouve dans une situation inédite d'ouverture limitée : contraint, mais mobile. Alors,
liberté en cage ? Ouverture illusoire, comme l'affirment ceux qui craignent le piège d'un
affranchissement surveillé (et qui font mine de reprocher à l'interactivité ses limites alors
qu'ils préfèrent, par habitude, les barrières traditionnelles qui enserrent les oeuvres
indéformables classiques) ? Je préfère retenir l'idée que interactivité apparaît comme une
nouvelle condition de la réception et l'interpréter comme l'indice d'un désir collectif
d'assouplissement des limites -nous y reviendrons- et ceci aussi bien du point de vue du
concepteur -qui vise une maîtrise en surplomb- que du récepteur. Ce désir est la condition
spectatorielle actuelle -ce qui ne dévalue pas ses anciennes formes- mais exige qu'on la
reconnaisse comme telle, pour le pire et le meilleur (qui nous intéresse principalement).
Épurons toute illusion quant à une possible simulation adéquate du sujet humain. Même si la
tentative de simulation de l'autre demeure une première ligne d'analyse valable, elle doit éviter
une dérive mimétique. "L'autre", dans la situation interactive, est un horizon, une référence
pas une présence susceptible d'être dupliquée à l'identique. Certains signes de sa présence sont
manifestes (réponse, compréhension partielle des énoncés, intelligence parcellaire de la
situation) mais pas l'intégralité de sa personne (réactivité, créativité, intentionnalité, etc.).
Dans une perspective complémentaire, on doit considérer que l'interactivité construit son
spect-acteur, de la même manière que le livre construit son lecteur et un public de lecteur.
L'interactivité matérialise alors des rapports au récit, par exemple, qui n'ont pas de référent
dans la confrontation avec d'autres supports (livre, film, bande dessinée, etc.).
Dans cette perspective, l'articulation centrale qui organisait l'analyse de l'interactivité comme
"simulation de l'autre" séparait l'interactivité langagière (échanger du langage contre du
langage) de ce que j'ai appelé "l'interactivité de commande", désignant par là les situations où
le langage n'est pas le vecteur principal -ni même obligatoire- de l'interaction, comme dans les
visites de villes, de musées ou la plupart des jeux vidéos. Or, la notion "d'interactivité de
commande", si elle peut exprimer une assez grande variété de situations où l'interaction se
déroule à travers l'activation d'interfaces, de menus ou de zones sensibles sur l'écran, n'est pas
assez spécifique. Elle ne désigne pas avec une précision suffisante une grande diversité
d'applications où l'activité corporelle est, en tant que telle, directement l'objet de l'interaction.
Ne s'agit-il pas, en effet, dans nombre de cas, de restituer, dans le cadre d'un espace contrôlé
par programme, des activités corporelles telles qu'un déplacement dans l'espace, une épreuve
de pilotage d'engins, un combat de rue ou une compétition sportive ? La grande majorité des
jeux vidéos, les visites de villes ou de musées, les univers virtuels basés sur la communication
par avatars interposés, reposent sur de telles "simulations corporelles".
Cette notion doit, cependant, être maniée avec une certaine prudence. Simulation ne veut pas
dire reproduction à l'identique. En effet, la spécificité de ces cadres d'actions résulte de la
modélisation préalable des micro-mondes imaginés ainsi que de l'usage indispensable
d'interfaces adaptées. De cette double contrainte, il résulte que les activités corporelles sont
simplifiées, réinterprétées, déformées afin qu'elles puissent s'exprimer dans ces conditions.
Mais, elles sont aussi reconstruites, et éventuellement prolongées par des outils cognitifs
puissants, afin de tirer partie de la malléabilité des univers numériques fictionnels et de leurs
potentialités. Ouvrir une fenêtre sur l'écran pour prendre connaissance de la position des
adversaires, afficher les actions passées, visionner le panorama du champ de bataille, toutes
actions possibles dans ces univers. On rejoint ici la problématique de la présence du corps à
distance. (C'est, on le rappelle, le premier sens de "virtuel" : l'objet virtuel résulte d'une
modélisation numérique et matérialise un déplacement d'existence. L'autre sens, prolongeant
celui-ci, étant le déplacement de présence, via réseaux, de ce modèle élaboré). Le corps
propre est à la fois réduit et retravaillé par les interfaces spécifiques à chaque application
(joysticks manipulant jambes, bras, ou tête, capteurs de position de la main ou du corps pour
les jeux en Réalité Virtuelle, etc.).
Le corps est alors réduit à un ensemble de compétences limitées, à l'intérieur des cadres
d'actions simulés. Il est déplacé à distance par formalisation -c'est-à-dire simplification et
amputation- afin de se mouvoir dans les espaces virtuels mis en scène (ville, musée, terrain de
sport, etc.). Mais c'est un corps articulé à toute l'ingénierie des interfaces, lesquelles ordonnent
ses réactions. Le déplacement de la souris, le cliquage ou le maniement des commandes à
l'intérieur des scènes explorées apparaissent alors comme des mouvements corporels
esquissés et accomplis dans le système de contraintes propre aux diverses scénographies. On
pourrait évoquer les fameux "schèmes moteurs" situés à la frontière du corporel et du mental,
que Bergson invoque pour établir sa théorie de la perception. Ce serait ces "sensations
musculaires naissantes" qui régleraient notre présence dans ces univers, à la différence qu'il ne
s'agit plus là seulement de perception mais aussi d'action.
La place du corps dans les démarches d'apprentissage n'est certes pas un thème inédit, mais
les environnements interactifs ont renouvelé l'approche des échanges entre le corporel et
l'intellect. Avancées que le développement en cours d'interfaces à retour d'effort -tel que le
manche à balai rétroactif SideWinder de Microsoft décrit au chapitre I- ne manquera pas
encore de prolonger. On le sait, la principale caractéristique de l'image numérique actée, c'est
qu'elle est devenue sensorimotrice par l'effet de l'incorporation du geste, de l'action, dans sa
mise en mouvement par les spect-acteurs. C'est une image kinesthésique, une image bordée,
pratiquement, par une incarnation non strictement imaginaire (à la différence des autres
régimes iconiques : dessins, photographie, films).
Déjà Seymour Papert promouvant l'environnement LOGO dans une stricte filiation
piagétienne, érigeait les échanges corps/intellect en articulation centrale de la formation à une
posture d'épistémologue[50]. Les jeux d'aventure confrontent -par une voie symétrique-
l'exploration corporelle et la symbolisation. Aujourd'hui, la qualité graphique des espaces
tridimensionnels conçus dans ces jeux ainsi que le raffinement des interfaces augmentent le
réalisme des déplacements dans les situations de découvertes -quasiment corporelles- tout en
alimentant la sophistication des univers sémantiques à explorer et à ordonner.
L'interactivité s'exprime alors non pas dans un échange avec un programme fermé, mais dans
la construction d'un micro-monde par création de programmes (LOGO) ou à travers la
découverte des principes d'une quasi-vie artificielle (jeux d'aventure). Dans la philosophie
éducative bâtie autour de LOGO -construire ses connaissances dans des milieux favorables à
leur croissance- l'activité de programmation est un apprentissage au modelage de micro-
mondes. Il s'agit de programmer les comportements souhaités d'un automate graphique, dans
une démarche à la fois analytique (réduire le complexe au simple, l'inconnu au connu) et
synthétique (fabriquer du complexe avec des séquences simples, combiner des agents
procéduraux) pour que l'automate se comporte selon le projet anticipé. La méthode ?
S'identifier à la "tortue" afin d'imaginer, par exemple, une géométrie à partir de son propre
schéma corporel, c'est-à-dire selon son expérience singulière de l'espace. Démarche inductive
expérimentale, proprement phénoménologique, où le corps propre sert de milieu d'expérience
pour... en sortir ; c'est-à-dire abstraire des régularités générales par l'auto-construction des
connaissances en milieu favorable. Bâtir des programmes d'animation pour "apprendre à
apprendre" : c'est bien en invoquant la puissance virtuelle et interactive inégalée du milieu
informatique que Seymour Papert, ses collaborateurs et les équipes éducatives conquises par
cette démarche affirmaient l'actualité de la révolution éducative qu'ils appelaient de leurs
voeux.
Avec les jeux d'aventure -Myst ou Riven sont parmi les meilleurs exemples-, c'est l'inverse. Il
ne s'agit plus de programmer des automates, mais d'induire les règles de fonctionnement de
mondes inconnus à partir de leur fréquentation. Il faut imaginer des régularités dans ce qui
paraît mystérieux et insaisissable. Ainsi que le signale Jean-Pierre Balpe[51], les jeux
d'aventure sont des milieux propices à l'induction. Ils exigent de conceptualiser
progressivement les interactions avec les univers virtuels scénarisés et de contextualiser les
connaissances acquises (ce qui paraît anecdotique dans une phase du jeu peut se révéler
décisif dans une autre). Il s'agit bien, ici aussi, de devenir épistémologue, mais de manière
moins "scolaire", plus vivante : une analogie -très- simplifiée de la "vraie vie" où il n'y a pas
de différence entre agir, percevoir, comprendre les effets de nos actions et s'approprier le sens
des environnements qu'on modèle et qui nous modèlent. Ainsi en est-il, par exemple,
lorsqu'on découvre un pays étranger avec ses moeurs, ses coutumes, etc. : comprendre les
règles de fonctionnement est le résultat des interactions, pas son préalable.
Alors que LOGO met en jeu un corps intellectualisé (il s'agit de trouver les règles abstraites
permettant les déplacements corporels de la "tortue" afin d'accéder "naturellement" aux
démarches d'apprentissages inductives et déductives). Myst ou Riven, en revanche, font appel
à ce qu'on pourrait appeler un intellect corporéisé. Ces jeux font dériver les conjectures de
l'incubation psycho-corporelle dans un milieu virtuel fortement réaliste. C'est par une
immersion dans un monde aux formes visuelles et sonores particulièrement soignées et aux
interactions comportementales précisément construites, que s'élabore finalement le travail
"ethnologique". L'induction, la symbolisation des relations entre les acteurs humains et non-
humains sont bien entendu des activités intellectuelles, mais ici elles sont favorisées par une
présence corporelle virtuelle. Dans les deux cas (LOGO et les jeux d'aventure) la visée est
épistémologique, voire épistémophiliques : induire les règles implicites pour sémantiser
l'univers, faire des hypothèses et vérifier leur consistance. Qu'il s'agisse de vérifier la
pertinence de ses anticipations (LOGO), ou du plaisir de dénouer des intrigues (jeux
d'aventure), l'excitation de la découverte et la jubilation lièes à l'accroissement progressif des
espaces de libertés, sont de puissants moteurs cognitifs.
Dans les deux cas, il s'agit d'environnements qui incitent à une mise à distance de soi.
Anticiper -"programmer" veut bien dire étymologiquement "écrire à l'avance"- ou induire,
sont des formes différentes de distanciations, avec ce que cela comporte de résistances et de
vertiges. L'interaction avec des quasi-sujets (l'automaticité des programmes qui animent la
tortue LOGO ou la quasi-vie des mondes virtuels dans les jeux d'aventure) médiatisent
souvent ces situations déstabilisantes... à condition, bien sûr, qu'on se reconnaisse dans ces
aventures et qu'on s'y risque ; ce qui ne saurait être érigé, de manière normative, en point de
passage obligé vers les rivages de "l'épistémophilie".
Interactivité et interface
Avec le développement des progiciels, les programmes multimédias ont modifié, dans cette
même direction, la notion d'interface. D'organes externes permettant l'interaction
homme/ordinateur, elle est devenue outil de manipulation posé à la surface du programme, à
la fois moyen de sélection des commandes, instrument de navigation, organisation générale
des informations, symbolisation des univers délimités et prescription de comportements pour
l'interactant. On note, en effet, une tendance très nette à ce que l'interface, qu'on appelle
désormais "graphique", exprime directement les mondes qu'elle permet de découvrir. Par
exemple, s'agissant de l'exploration d'une photographie, le pointeur prend la forme d'un
viseur. Plus même, l'interface tend à disparaître comme fonction séparée et à s'intégrer aux
constituants de la scène. L'interface devient interne à l'événement ; plus de barre de menus en
haut de l'écran : ce sont les objets de la scène eux-mêmes qui deviennent sensibles. Cliquer
sur le bouton du poste, il émet de la musique, passer en roll over sur un tableau, il s'anime, sur
une fenêtre, elle s'ouvre, glisser sur le bord inférieur d'une page, elle se tourne. Les jeux vidéo
d'action excellent à éliminer toute enveloppe graphique et relient directement les organes de
commandes aux acteurs eux-mêmes. Comme dans le monde réel, les objets sont devenus
mobiles, déformables, actifs. La présence de l'interactant dans la représentation en est majorée
d'autant.
Désir et déception
Au fondement de l'image interactive gît le désir de faire reculer les limites imposées par
l'enregistrement, de sortir de la culture de l'audiovisuel. Désir d'un accroissement des espaces
de liberté, de voir reconnaître au spect-acteur ou au lect-acteur une présence dans les
scénographies. En prolongeant ce propos, on pourrait soutenir que l'image actée engendre une
forme d'iconoclasme par excès d'iconophilie. Il s'agirait de faire rendre à l'image plus que ce
qu'elle ne peut apparemment accorder. On ne se demande plus, alors, si l'image exprime ou
déforme son référent, mais où se situent ses limites, quelles investigations peuvent-elles s'y
développer ? Bref, non pas que montre-t-elle, mais que dissimule sa surface visible ?
"Derrière chaque caverne, une caverne plus profonde".
Mais aussi, promettant un parcours sans fin, les scénographies numériques approfondissent la
déception de buter sur des limites, découvrant que des frontières bornent toujours ces
parcours, leur origine comme leurs déroulements. Les programmes multimédias accroissent le
trouble de la finitude alors même que leur principe consiste à élargir le champ des possibles
(mille images actualisables à partir d'un modèle, des milliers de trajets envisageables dans une
scène). D'où l'anxiété induite par la recherche endiablée d'une augmentation des degrés de
libertés dans le déplacement interne aux corpus, qu'ils soient à caractère narratif ou consultatif
? Or, on le sait, toute liberté nouvelle secrète des angoisses et des défenses. Dans cette
perspective, la déception est peut être salutaire, jouant probablement comme une réassurance
face aux vertiges de l'affranchissement du parcours unique.
Karl Sims, avec Genetic Images[56], s'inspire directement de la "vie artificielle". L'ordinateur
(un supercalculateur massivement parallèle de Thinking Machines) affiche une série de seize
images sur des écrans vidéo. Les visiteurs sélectionnent celles "qui seront amenées à survivre"
lesquelles, par combinaisons et mutations algorithmiques, produirons des "descendantes"
remplaçant les images éliminées. Le processus peut alors être réédité à l'infini. Karl Sims
qualifie l'installation "d'interactive" et écrit : "Ainsi, dans cette évolution artificielle, ce sont
les visiteurs qui déterminent interactivement <<l'aptitude>> des images à survivre"[57]. Il
s'agit de créer une vie "artificielle", c'est-à-dire qui se veut non intentionnelle (mais qui,
cependant, ne peut se passer de l'installation -nécessairement intentionnelle- d'un moteur non
intentionnel). On peut considérer que le visiteur collabore avec le programme pour déclencher
un processus évolutif, au sens darwinien du terme. Pour rendre compte de l'interactivité
comme forme de communication homme/machine, il est sans doute nécessaire de substituer à
un modèle binaire (interactivité langagière/corporelle), un modèle à trois branches incluant
cette dimension de composition automatique.
Avec les nouvelles générations d'objets "intelligents" évoqués au chapitre un (smart rooms ou
smart clothes, par exemple), se fait jour une autre modalité de la communication
homme/machine. Ces objets nous écoutent, nous scrutent, apprennent nos habitudes, et
finalement agissent avant même qu'on ne leur demande. Il s'agirait là d'une interactivité voilée
(du point de vue de l'interactant) ; non pas d'un commerce bilatéral mais d'une sorte de
capacité réflexe déposée dans des logiciels. Dépositaires d'une réactivité, d'un réglage
comportemental les "objets intelligents" s'ajustent à nos comportements et s'auto-définissent
dans un rapport adaptatif. À la notion d'interaction (entre un programme et un sujet humain),
ces programmes substituent un rapport docile, muet qui n'affirme explicitement son existence
qu'autant qu'il échoue à satisfaire nos besoins. On retrouve des séquences de dialogues
interactifs lors des phases d'initialisation (paramétrages) et d'échec (nouvelle programmation).
En dehors de ces moments, l'humain se sait épié et aidé par l'agent logiciel sans qu'il le
sollicite volontairement. Une communication implicite prend la place d'un échange
intentionnel explicite : une modalité d'une relation maître/esclave, car dans cette situation,
l'esclave n'est remarqué par le maître que s'il défaille.
"Devenir auteur" tel devrait être la devise inscrite au fronton du multimédia à vocation
éducative. On le verra, il s'agirait là moins d'une interactivité avec des "contenus" déjà
constitués que d'une interactivité qui confronte à des logiciels-outils. On rappelle d'abord que
l'apprentissage de la lecture n'a de sens que conjointement à celui de l'écriture. Rien de moins
que transformer de jeunes enfants en auteurs, au sens plein du terme : devenir auteur -écrire-
et pour cela lire les textes des autres comme les siens. Conduire le passage à l'écriture, c'est,
on le sait, l'une des missions essentielles de l'éducation. La visée ne consiste pas seulement à
permettre l'expression écrite de la pensée, mais surtout à provoquer naturellement une mise à
distance de soi, afin qu'à travers cette extériorisation, dans cet écheveau de règles et de
contraintes, les apprentis-auteurs explorent, raffinent et finalement produisent, par ré-flexion,
leurs idées. Utopie démocratique, que les nouveaux systèmes symboliques numériques se
doivent de prolonger, s'il est vrai que l'interactivité dans le contexte de l'hypermédiation fait
émerger de nouvelles pratiques d'expression/réception (que, par exemple, les notions de
lectacture, ou de home multimédia présentées plus en avant, tentent de circonscrire).
L'interactivité est considérée ici comme espace techno- culturel singulier où commercent
auteurs et récepteurs par programmes-outils interposés. Radicalisant ce qu'annonçait déjà
l'écriture et l'imprimerie -l'utopie de la République des Lettres, où chacun est aussi bien
lecteur qu'écrivain- l'interactivité informatique nous plonge dans un milieu encore plus
favorable pour expérimenter des agencements inédits entre ces deux postures. Pour aller à
l'essentiel, je suggère de reconnaître et de consolider le statut intermédiaire entre ces positions
: ni lecture -qui laisse inchangé le texte lu- ni écriture, dont l'idéal consiste à demeurer
inaltérée ; notions qui n'ont de sens historique que relativement à des supports stables.
("Lecture" et "écriture" sont à considérer ici dans un sens élargi, proche de "réception" et
"production").
Mais avant de poursuivre cette réflexion, il me semble judicieux de situer trois types de
fréquentation des programmes multimédias interactifs dans leurs rapports à la
"réception/production", qui on le verra, possèdent tous leur légitimité propre, même si leurs
frontières sont mobiles :
Nous concentrerons notre attention sur les deux dernières situations, si tant est que la première
ne souffre pas de remise en cause fondamentale, même si elle se confronte à la recherche de
langages inédits.
Mais peut-on, pour autant parler, d'écriture ? Bien sûr, on peut arguer du fait que l'écriture ne
se confond pas avec la production sémantique (on peut noter des listes de mots ou de nombres
sans rechercher à transcrire la pensée, c'est même cela que visaient les premières inscriptions).
Mais comment éliminer, aujourd'hui, du champ de l'écriture la production d'idées,
d'arguments ou d'expressions d'états affectifs, surtout lorsqu'on vise des textes argumentatifs ?
Agencer différemment l'organisation physique d'un texte, n'est générateur de productions
sémantiques et de postures sensibles passionnantes, que si le dispositif de réagencement
devient lui-même la composante essentielle d'une oeuvre interrogeant ses différentes
instanciations possibles et bousculant les coutumes lectorielles. (Les jeux calligraphiques ou
typographiques intentionnels peuvent, eux aussi, ouvrir des champs d'expression sémantiques
et esthétiques originaux). Mais dans ce cas, et même si une instanciation suscite une
modification interprétative pour un futur lecteur, peut-on lui décerner le titre d'écriture ? À ce
compte n'importe quelle succession de mots tirés au sort et alignés sur une page (ou un écran)
peut déclencher une vague d'associations. Ce n'est pourtant ni un texte, ni un poème, juste un
exercice automatique ou un test projectif ; sauf si le dispositif de tirage est pensé en tant que
tel par l'auteur, et là c'est ce geste qui devient proprement une oeuvre (les Cent mille milliards
de poèmes de Queneau n'ont d'intérêt que par le dispositif imaginé pour les produire et non en
tant que contenus).
Ceux qui considèrent que la lecture hypermédia s'identifie à une écriture simplifient par trop
la question, mais surtout réduisent les pratiques d'expression/réception sur supports
numériques à celles qui se sont sédimentées dans la culture de l'imprimé. Or, il me semble que
par de nombreux canaux, l'alliance des technologies d'inscription numérique et d'usages
sociaux plus répandus qu'on ne le croit, dessinent d'autres perspectives, intermédiaires entre
consultations, conservations, citations, collages, émissions de liens et création originale de
contenus. Une offre logicielle grand public accompagne et fortifie cette alliance : boîtes à
outils de toute nature, progiciels de design d'hypermédias, logiciels de traitement d'image
fournis avec les appareils photographiques numériques et décalqués des outils professionnels
de type Photoshop, logiciels d'échantillonnage musicaux, de sampling etc. Des home studio
aux pratiques de copier/transforme/coller musicales (techno, house music)[59] en passant par
les mix des raves, le domaine musical offre un bon écho de ce qu'une réception/production
multimédia est en passe de généraliser : un home multimédia élargi aux agencements
conjoints des univers textuels, graphiques, iconiques et sonores dans le contexte de la
communication collective et de la documentation partiellement automatisée. Si on décrit
concrètement ce que signifie réaliser une home-page sur Internet ou un site collectif dans une
classe, par exemple, on découvrira une nappe graduée d'activités où la recherche
documentaire automatisée par moteurs et guides, la citation, l'emprunt non référencé, le
collage, la transformation de sources originales occupent une place considérable. L'usage de
robots chercheurs est, par ailleurs, une manière naturelle de se déplacer sur le réseau : la
mobilisation de tels automates devient une pratique de lecture/recherche "grand public". De
multiples propositions s'amorcent pour cartographier et exploiter les gisements de données
ainsi collectés[60], étendant ainsi des savoir-faire d'organisation de connaissances aujourd'hui
encore spécialisés. Sur ce terrain aussi, le passage à la "home" exploitation dynamique des
paysages d'informations est amorcé. Le développement de nouvelles normes d'édition de
documents appelées à succéder à H.T.M.L. -tel que X.M.L. (pour eXtensive Mark up
Language), méta-langage permettant d'adapter les langages de conception selon la nature des
sites- augmentera l'initiative des Internautes. Plus généralement, il s'agira non plus de
"consulter" des sites mais de transformer les pages reçues, de les recomposer et d'y ajouter des
informations personnelles.
Bien entendu, une part plus originale, personnelle, lieu de la créativité dans un sens plus
traditionnel, complète ces activités : établissement de chemins de navigation, design
d'interfaces graphiques, et... rédaction de textes où il se vérifie que les savoirs de la
lecture/écriture "classique" demeurent fondamentaux dans ces nouveaux espaces expressifs.
Et l'on voit bien que ces dernières compétences sont majorées au fur et à mesure qu'on évolue
vers les univers professionnels. Mais, dans une perspective d'éducation et d'apprentissage, les
premières strates documentaires, de sélection et d'agencements sont d'une richesse heuristique
considérable.
Dans ce sens -celui du home multimédia- l'école doit prendre en charge le devenir-auteur
multimédia des enfants, comme Célestin Freinet avait pris en charge leur devenir auteur à
travers la fabrication de journaux. Et si, hier, tout le monde n'était pas appelé à écrire dans un
journal et à l'imprimer, demain, en revanche tout le monde sera plus ou moins conduit à se
mouvoir dans le milieu de la téléinformatique. Et c'est bien ce que nombres d'expériences en
France et dans le monde indiquent, notamment avec l'usage renouvelé de la pédagogie de
projet autour d'Internet (réalisation coopérative de sites, par exemple, version moderne de
l'imprimerie à l'école).
Levons, ici, une éventuelle méprise. L'auteur-citoyen dans l'aire de la culture de l'écrit n'est
pas obligatoirement un auteur au sens académique du terme (journaliste, écrivain, homme de
lettres ou de sciences, etc.). De la même manière, l'auteur multimédia n'est pas appelé à
maîtriser les savoir-faire spécialisés qui demeureront l'apanage de professionnels. Mais à des
niveaux différenciés, chacun est conduit à utiliser des outils de complexités graduées pour des
usages eux aussi gradués. La mise au point, par la société Cryo, du langage SCOL est un bon
exemple d'usages échelonnés d'un même logiciel. Ce langage de conception d'espace
tridimensionnel et interactif sur Internet -véritable prodige technique permettant le design
personnel, d'espaces de communication- est proposé dans plusieurs versions de complexité et
de prix différents selon qu'il s'adresse au grand public ou à des professionnels. SCOL devrait
permettre aux Internautes de créer assez facilement leurs propres mondes virtuels en trois
dimensions et d'y déposer leur avatar en scannant une photo, par exemple. Toutes les
composantes des scènes conçues sont cliquables et peuvent renvoyer par liens à d'autres lieux,
afficher des sources documentaires ou lancer des applications. De même, dans sa version de
1998, Le deuxième monde distribue à ses "habitants" des outils simples pour configurer, en
trois dimensions, leur home page ainsi que leur domicile virtuel, limité dans la version
antérieure à un appartement type dont ils ne pouvaient que personnaliser la décoration. Là
encore, l'habileté et les motivations des usagers donneront forme à des réalisations de qualités
différenciées.
Tous les Internautes, par exemple, savent bien que l'usage du réseau met en oeuvre des
compétences variées passant du simple "surfing" (l'équivalent de la lecture classique) à la
maîtrise des téléchargements de logiciels et à l'exploitation de grandes masses d'informations
acquises grâce aux robots et autres guides de recherches, dont les langages de requêtes se font
sans cesse plus acérés et complexes. Les réglages et manipulations logiciels sur Internet
dérivent parfois même vers des savoir-faire quasi-experts (chargement d'applications en
V.R.M.L. -langage de conception interactif tridimensionnel- et autres plug'ins, réception de
chaînes multimédias en continu, etc.). On voit se multiplier sur le réseau des offres d'outils
"grand public" de création de sites proposant aux Internautes néophytes des formats préétablis
qu'il s'agit de paramétrer et d'illustrer grâce à des banques d'images libres de droits[62]. Il
suffit d'agencer ces textes, photos et liens hypermédias pour construire un site personnel sans
rien connaître à la programmation. Au terme de ces entrelacements, réception et production
multimédias s'enchaînent -sans se confondre-, comme se font écho aussi lecture et écriture et
se couplent fondamentalement les activités de réception et d'expression dans les
environnements mus par l'interactivité informatique[63]. Tendance fondamentale qui pousse à
accroître, parmi les usages du réseau, ceux qui tendent à la production d'hyperdocuments.
On dira, bien entendu, que nul n'est tenu de devenir rédacteur hypermédia et que la rédaction
de textes linéaires sur papier n'est pas condamnée à quitter l'horizon éducatif. C'est
aujourd'hui exact, mais cela risque demain de devenir un faux dilemme, dès lors que les
savoirs de l'écriture s'hybrideront à ceux de l'hypermédiation. L'usage documentaire dérivera
alors fréquemment vers la production multimédia. Nous ne supposons pas qu'au nom d'on ne
sait quelle injonction normative, des pratiques de simples consultation et navigation soient
appelées à devenir obsolètes ni que l'hypermédiation doive effacer les frontières entre les
activités triviales et expertes d'édition multimédia, mais nous imaginons toutes sortes de
strates, aujourd'hui déjà observables, entre ces deux positions[64]. Nous conjecturons que,
même si les frontières se déplacent avec l'évolution techno-culturelle, ces deux pôles et donc
aussi les zones intermédiaires maintiendront leurs spécificités. Ces zones médianes forment le
terrain fertile de projets individuels et collectifs formateurs, et surtout en harmonie techno-
culturelle avec le milieu du multimédia.
Cette perspective pourrait, de surcroît, donner un contenu concret à l'appel au décryptage des
images, objectif récurrent proclamé, ici et là, par tous ceux qu'inquiète une supposée
domination -à démontrer, par ailleurs- du règne iconique sur le scripturaire. La seule manière
de dégonfler la baudruche de la manipulation par les images consiste à faire de chacun des
manipulateurs -au sens premier du terme- d'hyper-images. Pour former des citoyens capables
de déjouer les prétendus pièges des images numériques, rien ne vaut tant que de développer
leur réception/production, c'est-à-dire leur mobilisation expressive. On s'apercevra alors que
l'hypermédiation fait apparaître en pleine lumière ce que savent tous les professionnels de
l'image, à savoir que toute image est bordée par du langage -souvent écrit- (de même que le
langage engendre des images). OEuvrant naturellement dans les savoirs croisés de l'écriture,
de l'icône et du son, l'hypermédiation est une propédeutique sémio-critique naturelle.
Ainsi se fait jour la nécessité d'une acclimatation raisonnée au milieu téléinformatique, tout à
la fois maniement d'un ensemble corrélé d'outils de réception et d'outils de production, même
si, à la différence des technologies de l'écriture, celles du multimédia évoluent rapidement, et
ne sont peut-être pas appelées à se stabiliser. En revanche, les compétences exigées et
développées à la fois par les outils de la "home production" enrichissent la problématique de
l'interactivité. Il s'agit ici de mobiliser une interactivité -propre aux logiciels- pour produire
des programmes multimédias eux-mêmes à fréquentation interactive, une interactivité au
carré, en somme. Faire fructifier les savoir-faire intermédiaires du multimédia est un enjeu
éducatif, bien sûr, mais plus fondamentalement politique, si l'on comprend que se construisent
ici les formes et les outils expressifs de la démocratie. Même sans démarche volontariste, les
pratiques du "home multimédia" se développeront nécessairement, mais plus lentement et
sans que soit mise en lumière leur valeur. Répétons-le, il est de la responsabilité de ceux qui
ont en charge les politiques éducatives de commencer par reconnaître, au sens fort du terme,
les pratiques du "home multimédia" comme condition actuelle de la citoyenneté ; et ensuite, il
leur appartient de les systématiser.
Nous nous proposons, ici, d'analyser un genre d'application interactive particulier, le récit. On
le définira par l'alliage de deux composants (rappelant celles de l'hypermédia) qui définissent
le "cadre narratif formel". Les événements insécables forment le premier matériau. Constitués
par l'ensemble des segments inaltérables, des séquences moléculaires compactes, ils ne
peuvent être découpés par les actions de l'interactant : séquences sonores, images chaînées
dans un ordre toujours identique, textes composés, etc. Avec le graphe de navigation,
deuxième composant, on détermine les chemins possibles qui relient ces événements
moléculaires et que l'interactant actualise librement, dans le cadre préconçu des propositions
déposées dans les programmes qui gèrent l'interactivité.
Le cadre narratif formel, ensemble clos formé par ces deux constituants, représente le pôle
opposé à l'actualisation, c'est-à-dire au cheminement d'un sujet qui parcourt et s'approprie la
narration. Cette appropriation transforme le cadre narratif en moteur herméneutique individuel
ouvert, producteur de scènes imaginaires, générateur sémantique, déclencheur d'association
d'idées. Bref, on retrouve alors, dans cette activité d'interprétation, l'ordinaire de nos états
mentaux dans les situations toujours couplées de circulation, d'appropriation et
d'interprétation des récits, quel qu'en soit le support. (Roland Barthes, dans Le plaisir du
texte : "Bonheur de Proust : d'une lecture à l'autre, on ne saute jamais le même passage"). La
variété des supports, cela n'est pas, loin s'en faut, chose négligeable. Ici, à la différence des
supports formellement transparents (livre) ou à déroulement temporel fixe (film), se
concrétise une collaboration formelle du lecteur avec l'auteur, collaboration certes non
symétrique (l'activation d'un récit interactif, rappelons-le, ne saurait se confondre avec sa
conception). Soulignons que, dans les récits à cadre formel fixe, la coproduction est
uniquement de nature imaginaire, alors, qu'ici, elle porte sur la configuration même du récit
(l'enchaînement des scènes par exemple).
Si l'on suit ce schéma, nous serions confrontés à deux modalités de l'altérité dans la
scénographie interactive. La première, interne, exprimée par les codes d'interaction
(interruption, recherche d'ouverture telle que le cliquage exploratoire, réponse à une
proposition de débranchement) renvoie à l'auto-communication. C'est-à-dire à l'activité d'un
spect-acteur qui, dédoublé dans le récit, se prend comme sujet de questionnement. "L'auto-
communication", n'est-ce pas le contraire de l'altérité ? Oui, si on la conçoit comme une auto-
référence absolue. Ce dont il ne peut s'agir ici. Car se prendre comme sujet de questionnement
(vais-je ouvrir cette porte?) est toujours négocié en référence à une intentionnalité déjà
installée (celle du concepteur). Même dans ses dimensions de libre choix, cet arrière-fond se
manifeste. On pourrait dire que l'ouverture d'espace de libertés par le concepteur permet la
confrontation du spect-acteur avec lui-même. À cet instant, il s'agit donc d'un jeu à trois
personnages : le concepteur, le programme et le spect-acteur. Situation plus classique, le
deuxième type d'altérité, externe, manifeste la subjectivité du (des) concepteur, laquelle se
déploie dans l'ensemble du cadre narratif formel installé. Ce sont les donnés (matériaux et
modes de circulation) que l'interactant reçoit et qu'il ne peut négocier. On retrouve alors une
confrontation à deux partenaires principaux : l'auteur et le lecteur. Entre ces deux pôles (les
deux modalités d'altérité), la lectacture fait osciller liberté et contrainte, auto et méta-
communication, autonomie et dépendance.
La manière dont Umberto Eco présente L'île du jour d'avant est symptomatique d'un
questionnement général, induit par ce qu'on pourrait appeler une subjectivité interactive. Il
n'est certes pas anodin, que ces propos soient tenus par l'auteur de L'oeuvre ouverte, où, de
manière prémonitoire -en 1964- certains matériaux pour apprécier la future interactivité
informatique étaient déjà rassemblés[65]. S'exprimant donc à propos de son roman, il souligne
que sa structure est bien celle d'un moteur de construction du récit qui fonctionne à l'intérieur
même de l'histoire. Une scénographie à trois acteurs principaux est installée. Le romancier,
marionnettiste muet, anime deux créatures romanesques : le narrateur, lequel est doublé, dans
le récit, par ce qu'Umberto Eco appelle "son protagoniste" ou "son personnage". Évoquant les
langages dans lesquels s'expriment ses deux créatures, le romancier en vient à dire, parlant du
protagoniste, que "son auteur utilise un langage plus neutre", échangeant ainsi leurs positions
respectives. Le sémiologue construit un mécanisme narratif qui semble lui échapper. "Cette
fois, je n'avais pas de plan global ni de final : j'ai inventé chapitre par chapitre, en laissant le
récit se faire tout seul"[66]. Le procédé, tel que l'écrivain le décrit, redouble ainsi la trame
interne du roman : "un roman que le narrateur n'arrive pas à construire et auquel collabore le
personnage"[67]. Dépassant la controverse récurrente entre le double et le faux, l'écrivain
revient sur l'absence de dénouement du roman. On ne s'étonne pas que le doute flotte une fois
le livre refermé ; roman inachevé, comme tout roman, au sens où le moteur narratif installé
continue à tourner dans l'esprit des lecteurs bien après que le livre est refermé[68], mais en
outre, ici, formellement inachevé, parce qu'aucune réponse ne vient dénouer l'intrigue.
Umberto Eco réédite, dans une certaine mesure, à l'intérieur d'un roman -et ce n'est pas le
premier à utiliser le procédé- ce que Woody Allen avait fait, au cinéma, dans La rose pourpre
du Caire.
Le réalisateur new-yorkais avait, lui aussi, conçu un mécanisme interactif interne au récit
filmique. Son personnage principal, l'archéologue, était clivé entre sa fonction d'acteur
cinématographique et son rôle d'amoureux réel, et de ce fait ne cessait de franchir la barrière
physique de l'écran. D'où une mise en scène des paradoxes de l'ubiquité dans ses liens à
l'uchronie. Le réalisme nécessaire du film interdit qu'un personnage soit simultanément à
deux endroits, donc si l'acteur sort du film, il quitte son incarnation réelle et pratiquement, il
disparaît du tournage d'un autre film. La vie fictive, diégétique, se confond, potentiellement,
avec la vie réelle : on peut quitter le récit et s'incarner. Le film scénarise, dans un récit
séquentiel, l'interactivité (entre la spectatrice et l'acteur dans l'écran) et, de plus, pressent
l'accélération d'une ubiquité technologique que de multiples systèmes (télévirtualité,
communication par avatars interposés, etc.) incarnent aujourd'hui. Le moteur narratif du film
fonctionne à plein rendement tant que le conflit entre la fiction (continuer à faire l'acteur) et
l'incarnation (franchir l'écran pour retrouver la spectatrice) ne se dénoue pas. Le récit pourrait,
lui aussi, ne pas se terminer. Mais c'est un film, c'est-à-dire un spectacle dont la durée est
déposée une fois pour toute sur la pellicule. Même s'il figure l'interactivité mieux, sans doute,
que toutes les fictions interactives, il ne fait que la représenter et non la réaliser. Et le récit de
l'interactivité, tel que Woody Allen le scénarise, ne pourrait pas être traduit en récit interactif.
On y perdrait l'enchaînement temporel qui porte l'histoire, c'est-à-dire le génie propre du
metteur en scène. Cela n'implique pas qu'un autre type de talent fondé sur l'installation de
moteur narratif et de cadre scénographique appelant le spect-acteur à s'inscrire -cette fois-ci
formellement- dans le récit, soit d'avance disqualifié. Mais un tel talent obéit à d'autres
réquisits qu'un récit linéaire.
On peut distinguer trois types d'interruptions dans la trame d'un récit. Les deux premiers sont
volontaires. Le troisième, masqué, s'exécute à l'insu de l'interactant. Dans le premier type
d'interruption, un choix explicite se présente entre plusieurs prolongements. Le récit
s'interrompt et on doit, par exemple, pénétrer dans le jardin des Plantes ou bien longer la
Seine.
Le deuxième type d'interruption exige l'exploration "aveugle" de la scène pour rechercher une
zone active. Si on clique sur un agenda dans la mallette ouverte -alors que rien ne signale que
cet objet est "actif"- les pages de l'agenda s'affichent. À nous de trouver la zone cliquable qui
nous fournira des indications plus précises sur l'emploi du temps du possesseur du calepin.
Enfin, à l'insu de l'interactant, le programme peut recueillir des indices comportementaux qui
infléchiront le déroulement futur du récit. (Le CD-Rom Sale temps est construit selon cette
dernière logique[69]). Si le spect-acteur a choisi de s'intéresser à Marguerite, une variable
augmentera le coefficient amoureux, passionnel, intuitif de son personnage et la suite de
l'histoire traduira ce marquage. Comme dans la vie, les décisions prises expriment la
subjectivité et conditionnent le déroulement ultérieur des événements. Mais la variable
comportementale -dans Sale temps ainsi que, jusqu'à présent, dans la quasi-totalité des récits
interactifs- est aveugle pour l'interactant[70]. Elle oriente les choix ultérieurs proposés sans
apparaître explicitement à ses yeux.
La littérature générative
Avec la littérature générative, le lecteur n'a plus à choisir entre des développements proposés
ou à cliquer sur tel ou tel mot. L'édition du texte s'enchaîne sans qu'aucune action explicite ne
soit exigée de la part du lecteur. Mais le choix, disparu du champ de l'intention, ne s'est-il pas
logé dans celui du mécanisme aveugle de composition du récit ? Le lecteur ne ressent-il pas
ce mécanisme génératif aveugle, comme un horizon opaque ? Peut-il lire cette composition en
lui affectant un sens alors que l'unicité de la production a disparu au profit d'une émission, en
partie aléatoire. Quel type d'altérité -et, incontestablement, elle existe- rencontre- t- il ? En
quoi consiste le monde que l'auteur a "voulu créer" ? Se réduit-il aux mots et concepts ? N'est-
il pas profondément lové dans le moteur informatique démiurge créé ? En effet l'ensemble des
contraintes relationnelles agissant sur les "acteurs" (mots, concepts, phrases) et décrivant les
scénarios licites reliant ses "acteurs" -ce en quoi consiste la programmation du générateur
littéraire- matérialise l'horizon romanesque de l'auteur. Même s'il n'y a pas présélection par
l'auteur d'un paysage d'arborescences, sa conception du monde romanesque légitime (ce que
peuvent faire ou ne pas faire les acteurs humains et non humains dans le roman) est
néanmoins décrite dans ces choix de contraintes relationnelles. Finalement entre le "cadre
narratif" de l'interactivité et le "projet romanesque" du roman poiëtique, la différence,
incontestable, est-elle fondamentale ?
Pourrait-on, par ailleurs, suggérer à Jean-Pierre Balpe d'offrir au lecteur une machine
générative symétrique -et non pas interactive- qui lui donnerait la possibilité de participer,
dans une certaine mesure, à la composition du roman et qui lui permettrait d'investir plus
fortement le texte ? D'ouvrir, en quelque sorte, des lucarnes dans la boîte noire, pour que le
lect-acteur oriente les scénographies relationnelles déposées. Cette situation de partenariat
-inégal- ne saurait laisser entendre que le lecteur deviendrait coauteur. Non, tout juste
interprète, puisque la machine de lecture envisagée devrait nécessairement être conçue par
l'auteur, auquel on demanderait de complexifier son dispositif, d'ouvrir un espace d'itération
en distribuant au lecteur une certaine autonomie dans le mode de production du texte (influer
sur les caractères, les lieux, les relations entre personnages, par exemple)[75]. Mais sans doute
s'agirait-il alors d'une autre forme de littérature, que celle revendiquée par Jean-Pierre Balpe
lequel s'attache à inventer une figure véritablement "ouverte" de production littéraire
échappant à la téléologie d'un récit orienté et construit pour sa fin.
Si la composition du récit n'est plus l'objet d'un choix de la part du lecteur, alors la facture de
la narration, son monde propre -ce qui relie entre elles toutes les générations de textes, leur
donne un air de famille et constitue le style propre du roman- peut alors échoir aux options de
détails (prendre un taxi plutôt qu'un autobus, lire un quotidien et non pas un magazine, bref
tout ce qui n'engage pas une détermination psychologique forte d'un personnage). Le film
d'Alain Resnais, Smoking, No smoking est, dans une autre perspective, une illustration de cette
recherche de bifurcations -au sens de la théorie des catastrophes- dans des comportements
quotidiens. Mais Smoking, No smoking admet comme présupposé que les trajectoires de nos
vies obéissent aux logiques des systèmes catastrophiques, leur sensibilité aux conditions
initiales devenant ici des choix de détails : smoking, no smoking. L'idée de bifurcation
contient la possibilité de la réversibilité : "et s'il ne fumait pas, et s'il ne s'était pas marié avec
elle, etc.". Les deux films de Resnais sont d'ailleurs construits sur des reprises de bifurcations.
Et c'est probablement, passé les premiers retours, la réédition permanente de ces itérations qui
surcharge le procédé, alors que la machinerie scénographique demeure prisonnière de ces
répétitions[76].
La perspective de Jean-Pierre Balpe est au fond assez différente : les modifications de détails
n'engagent pas des bifurcations irréversibles puisque l'auteur du logiciel textuel affirme la
primauté du projet romanesque, c'est-à-dire l'installation d'un univers sensible, d'un cadre
sémantique, sorte de matrice primitive où sont engendrés tous les récits. Resnais avait, lui
aussi, délimité son cadre narratif, au point même de faire jouer tous les personnages par les
deux mêmes acteurs. Mais les différentes vies du couple apparaissaient comme un pur effet du
hasard : pile je meurs, face, je vis encore quarante ans.
Pour situer la position du sujet humain dans le cadre de ces expériences, nul besoin d'invoquer
un processus aveugle, "sans sujet ni objet", cher aux structuralistes des années soixante.
L'expérimentateur, installant le dispositif, programmant les compétences des acteurs, institue,
de fait, la nature de leur collaboration future. Nulle obligation, non plus, de supposer une
capacité de prédiction de l'évolution du système ainsi engendré. Ni soumission à des
processus "objectifs" extra-humains (l'évolution, le langage, les structures invisibles de
l'action collective), ni position de contrôle opérationnel de l'évolution artificiellement
déclenchée, la "vie artificielle" offre, en regard de cet antagonisme classique, une position de
compromis intéressante. La suggestion consistant à déléguer au lecteur une influence sur le
générateur textuel matérialiserait ce compromis entre une "vie artificielle" du texte et ce que
l'interactivité véhicule d'intentionnalité, dans la conception classique du "cadre narratif
formel". Mais si, en revanche, c'est la vraie vie qui est recherchée comme modèle, pourquoi
doit-elle s'accommoder des cadres contraignants -le projet romanesque- que, légitimement,
Jean-Pierre Balpe revendique en tant qu'espace fictionnel ? Ce serait donc une vraie vie
supervisée ? Comme la nôtre, avec ses espaces d'ouverture et de contrainte ? Ou alors, ainsi
que Jean-Pierre Balpe le laisse plutôt entendre, une vie reflétée par la métaphore des théories
du chaos. Dans cette perspective, rappelons-le, le déterminisme n'est pas rejeté, il est
inconnaissable. Tout ce que nous faisons, jusqu'au geste le plus insignifiant, a des effets
ultérieurs mais nous ne pouvons savoir quand, où, ni lesquels. L'idée d'une continuité causale,
de trames principales ou de structures psychologiques n'a alors plus de sens, à l'image des
flots textuels produits sans relâche par le programme romanesque rassemblant les mêmes
personnages dans les mêmes lieux, avec les mêmes objets mais selon des occurrences et des
modalités relationnelles toujours inédites.
Nul étonnement à constater que ces conceptions de la vie forment l'arrière-plan de ces
différents mécanismes d'écriture, de ces théories fictionnelles[80]. Que je prenne ou pas le
stylo sur mon bureau, cela peut-il influer notablement sur la date de ma mort ? Jouons-nous
notre avenir dans les hasards de la vie quotidienne ? Exceptionnellement, peut-être. Mais ces
exceptions ne sont-elles pas métabolisées par quelques logiques assez fortes qui nous font
interpréter justement ces événements comme des exceptions. Comment rendre compte de ces
logiques, de ce qui est indéformable dans notre rapport au monde, de la manière dont nous
avons construit nos biographies avec les matériaux du bord ? Que penser des inclinaisons par
lesquelles nous avons inscrit nos trajets dans la multiplicité des possibilités théoriques, de
notre façon particulière de répéter les mêmes erreurs ? Sans même aller jusqu'à invoquer l'idée
d'un gouvernail inconscient, les vues convoyées par la littérature générative, ou de manière
différente par le film de Resnais, sont anti-psychologiques au sens banal du terme. Mais, sans
doute ne faut-il pas prendre à la lettre ces propositions. Explorant des espaces et des
constructions fictionnels, ces mécanismes d'écriture n'ont pas pour ambition de devenir des
traités de psychologie. Finalement, et c'est à mes yeux l'essentiel, il s'agit bien de faire passer
la littérature du stade de la représentation de la vie à celui de sa modélisation ; non plus
aménager une scène indéformable mais installer un micro-monde doté de lois
comportementales où les acteurs peuvent vivre leurs vies (et pas forcément celle que l'auteur a
envisagée pour eux, une fois pour toutes). Et, à la limite, le lecteur, s'il n'arrive pas au bon
moment, ne percevra pas l'essentiel de ce qui se trame entre les personnages. La littérature
générative s'inscrit dans une perspective démiurgique de jeux avec l'autonomie relative des
créatures engendrées par les moteurs. Comment être surpris par ce qu'on a façonné, sinon en
lui injectant des principes vitaux ? Mais sans que la créature puisse s'échapper (cadre
romanesque aidant) : d'où un jeu entre dépossession et maîtrise (et peut-être même maîtrise au
carré). Le roman génératif se trouve en harmonie avec un mouvement culturel profond qui
pousse les auteurs et artistes de l'univers numérique, (tout aussi bien que les game designers
des nouvelles générations de jeux vidéos[81]), à créer des oeuvres directement comme méta-
oeuvres, c'est-à-dire comme puissances de productions de familles, de tribus, de sociétés
d'oeuvres auto-matiques (littéralement : qui sont cause de leur propre mouvement).
[48] Marc Le Bot invoquait -à l'encontre de l'art numérique relevant, selon lui, de l'idéologie
communicationnelle- cette dimension insensée propre aux oeuvres majeures. Voir, par
exemple, "L'art ne communique rien à personne" in Art et communication, éd. Osiris, Paris,
1986, pp. 141/144.
[52] Ces aspects ont été développés par Patrick Delmas lors d'une communication orale au
séminaire du G.R.E.C., UFR des Sciences de l'Éducation, Université Paris XIII, 19 juin 1997.
[53] Frédéric Dajez a développé ces questions lors du "Salon de discussion multimédia de
Paris XIII", 18 mai 1998, Université Paris XIII.
[54] Lors d'un séminaire à l'I.R.C.A.M. sur "Interactivité et Simulation" (Centre Georges
Pompidou, 20/02/1988), Philippe Aigrain avait développé un point de vue voisin.
[56] Genetic Images, installation présentée à la Revue virtuelle, Centre Georges Pompidou,
4/03/93.
[57] Karl Sims, Images génétiques, in Revue Virtuelle, Carnet 5, Centre Georges Pompidou,
mars 1993, p. 6.
[58] Pierre Lévy, Qu'est que le virtuel ?, La Découverte, Paris, 1995, p. 43.
[59] Dans son introduction au catalogue d'Imagina 98, Bernard Stiegler développe une
argumentation similaire balançant la puissance des industries mondiales du "broadcast
numérique" par le traitement local des images : la "house vidéo" qui devrait conduire à "un
changement profond de l'attitude comportementale du consommateur". (Actes d'Imagina 98,
INA, Bry sur Marne, 1998, p. 5). Voir aussi l'excellent commentaire que Pierre Lévy fait de la
musique techno dans Cyberculture, Odile Jacob, nov. 1997, pp. 168/172.
[60] Le logiciel Umap Web, conçu par la société Trivium, par exemple, cartographie les
proximités entre les thèmes consultés au fur et à mesure de la navigation dans des pages Web.
L'Internaute construit ainsi un paysage graphique de données, miroir explicite de ses
inclinations.
[61] Parmi les récentes annonces, et à titre d'exemple, nous relevons le logiciel ingénieux mis
au point par la société Realiz. Celui-ci produit une image tridimensionnelle à partir de
quelques photographies d'un même objet (meuble, visage ou monument). Visant dans un
premier temps des usages professionnels, cet outil démocratise incontestablement l'image 3D.
Ses concepteurs envisagent de l'associer aux logiciels de retouche livrés avec les appareils de
photographie numérique. Dans le même ordre d'idées, la société Virtools propose aux
designers de jeux vidéos un logiciel interactif 3D "temps réel" -Nemo- permettant de
s'affranchir de la programmation informatique. Avec Nemo, on peut animer directement et
interactivement, à l'écran, des scènes en attachant des comportements à des objets, lesquels
comportements peuvent être puisés et combinés dans une bibliothèque étendue. Bien sûr,
Nemo ne s'adresse pas au grand public, mais tout porte à croire que des versions simplifiées
permettront aux passionnés de fabriquer bientôt leurs propres jeux.
[62] De tels services existent depuis des années aux États-Unis. En France, la société
Multimania ainsi que le moteur de recherche Lycos proposent gratuitement ces instruments,
non sans lorgner sur la surface publicitaire ainsi créée par la multiplication des sites hébergés.
Ce qui, soi dit en passant, n'est pas du tout du goût des aficionados, lesquels ont réagi en
proposant un programme à intégrer aux pages Web, lequel bloque l'affichage des bandeaux
publicitaires.
[63] Par exemple, le CD-Rom Odyssey, conçu par la société Arkaos pour Jean- Michel Jarre,
offre aux utilisateurs un environnement pour "jouer" de l'ordinateur sur sa musique, comme
on joue d'un instrument. Les touches du clavier commandent l'affichage d'images que l'on
peut déformer en utilisant des effets spéciaux et dont on peut régler le rythme. Le logiciel
Xpose LT commercialisé par Arkaos permettra à ses acquéreurs de "jouer" leurs propres
images sur des musiques de leur choix
[64] On retrouve, sous certains aspects seulement, la querelle qui avait enflammé le milieu de
l'informatique éducative dans les années quatre-vingt, entre les partisans d'un large
enseignement des principes de la programmation (ce qu'assumait LOGO, notamment) et ceux
qui optaient pour les usages pédagogiques de l'informatique (E.A.O., simulation, etc.). Notre
option pour des "savoirs médians" ne recouvre pas exactement cette confrontation. Elle retient
le côté "productif" des premiers, tout en mettant l'accent sur la diffusion des outils
intermédiaires de création qui déplacent les savoirs requis, de l'informatique classique
(algorithmique, programmation) vers les langages applicatifs et les pratiques généralisées du
couper/coller/relier/créer.
[65] On se rappelle qu'Umberto Eco avait proposé le concept "d'oeuvre en mouvement" pour
caractériser des "oeuvres ouvertes" particulières. Toute oeuvre est ouverte, écrivait-il, car son
interprétation/perception suppose une collaboration "axiologique et théorétique". Mais les
"oeuvres en mouvement" invitent, en outre, à faire l'oeuvre avec l'auteur. Cette catégorie
visait des propositions fondées, dans les années soixante, sur des technologies opto-
mécaniques (travaux picturaux de B. Munari), électro-acoustiques (intervention à caractère
combinatoire dans l'audition des oeuvres musicales de Henri Pousseur) ou encore plus
directement sociales (Living Theater, agit-prop). Bien qu'à mon sens on ne puisse caractériser
ces oeuvres d'<<interactives>>, une appétence pour l'interaction s'exprimait déjà, du côté des
auteurs comme du public, appétence que l'interactivité informatique viendra naturellement
radicaliser dans la décennie suivante.
[66] Umberto Eco, interview dans Le Monde des livres, 16/02/1996, p. II.
[69] Les exemples qui suivent sont tirés du roman-photo interactif Sale temps, de Franck
Dufour, Jacky Chiffot et Gilles Armanetti, CD-Rom édité par Microfolies.
[70] La fiction -faiblement- interactive produite par Canal+, L'Affaire, est une sorte de
balbutiement de ce que pourrait être le marquage d'un caractère. Le public choisit, par votes
téléphoniques majoritaires, non pas le déroulement du récit, mais son "atmosphère". Chacun
des quatre actes possède quatre versions qui expriment quatre attitudes typiques face à la
corruption (le sujet de la fiction). Des durs -définis comme rejetant "le système pourri"- aux
individualistes mous considérant les infractions à la loi comme le fait d'individus malfaisants,
les quatre attitudes se traduisent par quatre scénarios, quatre éclairages subjectifs sur le même
scénario général.
[71] Dans le roman Prière de meurtres, la générativité se combine à une certaine interactivité.
Le lecteur choisit une période dans la durée linéaire du récit, mais le texte obtenu est à chaque
fois différent. Il s'agit là d'une interactivité quelque peu brouillée (et sans doute
volontairement), dans la mesure où les effets du choix ne sont pas, en tant que tels, signifiants.
[72] Jean-Pierre Balpe, Un roman inachevé, in Littérature n°96, Larousse, Paris, 1994,
pp. 50/51.
[73] Le nouveau roman sera interactif, interview parue dans Le Monde, 25 et 26 février 1996,
p. 29. Les propos de Jean-Pierre Balpe élargissent considérablement la notion d'interactivité
mentionnée dans le titre de l'article, si toutefois on définit l'interactivité par la circulation dans
un méta-récit déjà constitué. Mais le titre de l'article est un contresens commis par le
journaliste.
[76] Sur un plan strictement cinématographique, la bifurcation comme modèle du choix révèle
ses limites. En revanche, La rose pourpre du Caire présente un puissant modèle de
progression du récit : le personnage qui interagit avec la spectatrice du film augmente la
complexité du récit par rétroaction sur son cours. Bien plus qu'une simple bifurcation...
[79] L'obstacle principal pour une telle simulation "totale" résulte de la réduction
fonctionnaliste opérée par le programme de la vie artificielle "forte" qui identifie sa
représentation "computationnelle" à la dynamique de la vie, ignorant alors l'infinie complexité
de la matière vivante. Voir, par exemple, Philippe Goujon, "Les limites de la vie artificielle
<<forte>>", in Raison Présente "Autour du chaos", n° 115, éd. N.E.R., Paris, 1995,
pp. 71/100.
[80] Il ne s'agit pas forcément, pour les auteurs, de proposer des modèles réalistes, ni de
mettre obligatoirement en scène leurs "conceptions de monde". Les dimensions ludiques ou
expérimentales des rapports avec les moteurs narratifs forment une strate autonome, qu'on ne
saurait réduire à des motivations sous-jacentes, même si on peut aussi y lire, comme dans
toute fiction, certains tropismes dominants. Ici, l'animation automatique de micro-mondes
relationnels renforce souvent, en regard des fictions sur supports stables, ce jeu démiurgique.
[81] Une société d'acteurs virtuels avec lesquels il va falloir nouer des relations si on veut
atteindre un objectif : telle est la scénographie générale de ces jeux, combinant, là encore,
contrainte et liberté. Le joueur doit comprendre les logiques comportementales qui animent
ces agents : celui-ci deviendra-t-il un ennemi, puis-je faire de cet autre, un allié, etc. De plus,
la manière avec laquelle il les abordera les personnages influera sur leurs comportements. Le
joueur devient un ethnonologue ; il se branche sur un monde qui vit indépendamment de sa
présence, à charge pour lui d'infléchir dans un sens favorable les opportunités qui se
présentent. Comme dans la vraie vie ?
Table des matières
Chapitre VI
Commentaires sur l'image actée,
à partir de L'image-temps de Gilles Deleuze
L'univers des images numériques étend son emprise en accélérant le mouvement
d'autonomisation de l'image. Autonomisation veut dire ici, conquête progressive de l'espace
qui sépare l'image de l'objet, franchissement de degrés qui amenuisent les distinctions entre
les qualités de l'image (faible matérialité, mobilité, reproductibilité) et celles de l'objet
(consistance, opérationalité, unicité relative, propriétés physiques, indépendance). J'ai
fréquemment dénommé ces entités composites par le vocable image-objet en focalisant
l'analyse sur les modalités dites interactives de leur fréquentation, modalités dont j'ai tenté de
montrer qu'elles constituent leur essence[82]. Je souhaite y revenir, par un autre biais, en
tentant de spécifier le régime perceptif singulier qu'engagent et qu'expriment les
représentations contemporaines, que je propose de dénommer, images actées si on désigne
ainsi les images numériques appelées à être chaînées avec et par des actes[83].
Deleuze précise sa visée à la fin du livre. Non pas faire une théorie "sur" le cinéma, mais "sur
les concepts que le cinéma suscite et qui sont eux-mêmes en rapport avec d'autres concepts
correspondant à d'autres pratiques, la pratique des concepts en général n'ayant aucun privilège
sur les autres, pas plus qu'un objet n'en a sur les autres"[91]. Mettre en rapport les concepts du
cinéma avec d'autres concepts, que cache cette formule ? Il s'agit, en fait, de faire surgir les
concepts du cinéma dans un regard qui embrasse simultanément le cinéma et la vie, dans
toutes ses dimensions. Et Deleuze privilégie les dimensions proprement politiques. Il se sert
du cinéma comme d'un instrument d'observation qui révélerait l'état du monde et inversement,
il repère l'émergence des "concepts" du cinéma dans une mise en rapport avec ces autres
signes cliniques, qu'il appelle "autres concepts" (mais s'agit-il vraiment de concepts ou bien,
plutôt, de marques politiques saillantes caractérisant des périodes historiques). Les exemples
abondent : depuis la deuxième guerre, qui sépare le règne de l'image-mouvement de celui de
l'image-temps. De même peut-on invoquer la mutation des figures de l'automate, qui, du
dictateur omnipotent de Metropolis symbolisant la montée des régimes totalitaires dérive vers
l'automate cybernétique des sociétés de contrôle et de surveillance distribuée, comme celui de
2001. Est-il envisageable que les concepts de l'image actée puissent faire, aussi, office
d'analyseurs de l'état du monde contemporain ? Mon ambition, ici, est mesurée. La
proposition de "cristal présentiel", qui va suivre, est fondée, à l'évidence, sur le
développement massif de la présence à distance comme modalité d'organisation sociale. Mais
les enjeux proprement politiques d'une telle transformation me semblent encore difficiles à
thématiser. Mon intuition se limite à marquer, dans le contexte social de la téléinformatique,
quelques agencements typiques tels que la croissance des formes de vie commune mêlant l'ici
et l'ailleurs, ou bien, comme nous le verrons dans le chapitre suivant, la coexistence de
logiques temporelles hétérogènes dans l'espace public.
L'image-temps
L'une des idées maîtresses du schéma bergsonien de la perception, exposé dans son ouvrage
Matière et mémoire[92], concerne la place et la fonction du corps. Ce schéma conditionne la
conception bergsonienne du souvenir, et par conséquent du temps. La perception n'y est plus
considérée comme centripète (de la perception à l'idée) mais centrifuge. Elle va de l'idée à la
perception, par projection extérieure d'une image activement conçue, analogue à l'objet et qui
vient épouser sa forme. La perception est une prédiction mobilisant la mémoire, prédiction qui
vient chercher dans l'épreuve réelle son ajustement à l'objet : voir, c'est revoir et prévoir. On
retrouve, par exemple, cette fonction primordiale du corps dans la compréhension auditive du
langage. L'audition de la parole met en branle un "schème moteur ", c'est-à-dire des
"sensations musculaires naissantes"[93]. Comprendre une langue nouvelle, par exemple, c'est
accorder ce schème moteur aux images acoustiques fournies par l'oreille : "coordonner les
tendances motrices de la voix aux impressions de l'oreille, ce serait perfectionner
l'accompagnement moteur"[94]. Cette notion de "schème moteur" éveillé par les "images"
extérieures, se situe à la frontière du corporel et du mental. Et les "saisissements musculaires"
provoqués par les images extérieures, assurent selon Bergson, la jointure entre ces instances.
La place centrale du corps est spécialement affirmée lorsqu'on apprend un mouvement
physique, un pas de danse par exemple. L'intellect et le corporel se font alors singulièrement
écho. La répétition intérieure du mouvement qu'on souhaite apprendre, permet de donner à
chaque mouvement élémentaire son autonomie et assure sa solidarité aux autres. Le
philosophe affirme que la répétition intérieure "a pour véritable effet de décomposer d'abord,
de recomposer ensuite, et de parler ainsi à l'intelligence du corps"[95].
Dans la perception, le corps fabrique une "esquisse" de l'objet et pour donner chair à cette
esquisse, nous sollicitons nos souvenirs. Ceux-ci sont eux-mêmes inscrits dans notre corps
comme sensations. Et Bergson en distingue deux types : les souvenirs appris et les souvenirs
spontanés. Le souvenir spontané est d'emblée parfait, il s'inscrit et enregistre les éléments
constitutifs de notre existence avec leurs marquages spatio-temporels. Le souvenir appris par
répétition, en revanche, s'extériorise, tend à devenir indépendant, impersonnel et donc
toujours disponible ; comme un outil que l'on sait mobiliser. Des "souvenirs diminués" se
forment par extraction de ces épreuves rééditées. Ces souvenirs sont affaiblis en regard des
inscriptions spontanées précisément situées dans le temps et l'espace. Mais ils sont plus
mobiles. Leur abstraction les rend disponibles pour se mouler sur la perception présente.
Alors que l'image-souvenir spontanée est aussi fidèle que capricieuse, échappant à
l'application volontaire. De même dans la reconnaissance automatique (ou habituelle) : la
perception se prolonge en mouvements d'usages. Des schèmes sensori-moteurs se sont
accumulés que la vue de l'objet suffit à déclencher. Entre perception et sensation la continuité
est assurée. Ce qui préside à la reconnaissance attentive, en revanche, en diffère
considérablement, parce que la continuité entre perception et mouvements naissants est alors
brisée. On renonce à prolonger notre perception -explique Bergson- on fait retour à l'objet et
on en extrait quelques traits spécifiques. Et le philosophe dévoile le mouvement essentiel de
ce type de reconnaissance : "[...] toute perception attentive [...] suppose véritablement, au sens
étymologique du mot, une réflexion, c'est-à-dire la projection extérieure d'une image
activement créée, identique ou semblable à l'objet et qui vient se mouler sur ses
contours"[96].
La reconnaissance attentive prolonge le souvenir appris. "Nous en recréons le détail et la
couleur en y projetant des souvenirs plus ou moins lointains"[97]. Dans la perception
attentive, différents cercles de la mémoire enveloppent le premier circuit fermé qui tient en
tension "l'objet O lui-même avec l'image consécutive qui vient le couvrir"[98]. Les cercles
dérivées expriment des mouvements toujours plus vastes de productions intellectuelles. C'est
toute la mémoire qui pénètre dans ces circuits et c'est elle qui "réfléchit sur l'objet un nombre
croissant de choses suggérées, - tantôt les détails de l'objet lui-même, tantôt des détails
concomitants pouvant contribuer à l'éclaircir"[99]. À ces cercles de la mémoire correspondent
des "causes de profondeurs croissantes, situées derrière l'objet, et virtuellement données avec
l'objet lui-même"[100]. Aux plus hautes couches de la mémoire se rapportent des couches
plus profondes de la réalité. Ainsi se construit le schéma bergsonien de la perception attentive,
figuré par deux séries de cercles symétriques formant des circuits. Les cercles représentant la
dilatation progressive de la mémoire sont couplés aux cercles qui traduisent les détails
immédiats de l'objet et, ensuite, les systèmes dérivés de cet objet. Bergson s'intéressera tout
particulièrement au circuit le plus intérieur qui se forme lorsque les cercles de la mémoire se
rétrécissent, s'éloignent de leur charge personnelle et originale pour devenir mobiles et
abstraits. À ce moment "[...] le souvenir ainsi réduit s'enchâsse si bien dans la perception
présente qu'on ne saurait dire où la perception finit, où le souvenir commence"[101]. Alors,
ajoute Bergson, la mémoire perd sa mobilité fantaisiste et se règle sur le détail des
mouvements corporels[102]. Dans son travail sur le cinéma, Deleuze exploitera la
coalescence entre souvenir et perception dans une autre direction, celle où l'image cesse de se
prolonger en mouvement et cristallise dans une image bi-face, actuelle/virtuelle : l'image-
temps.
Dans cette logique, image et objet sont d'abord rendus, en tendance, équivalents. Puis l'actuel
passe au virtuel et réciproquement. Le virtuel devient alors le complément naturel de l'actuel,
son autre face. Mais d'où vient cette attirance à sublimer l'actuel dans le virtuel, à "absorber"
le personnage dans son reflet spéculaire et à lui faire rejoindre ainsi son essence (laquelle
consiste à être double : actuelle et virtuelle) ? Trouble de l'échange, accroissement d'énergie
dans la forme virtuelle et postulat d'une plus grande mobilité du virtuel, ou encore désir de
faire se rejoindre la représentation et la réalité ? (On verra que la fusion tendancielle de
l'image et de l'objet définit l'image actée, dans un processus d'autonomisation où l'image
s'approprie progressivement les qualités de l'objet). Toutes ces hypothèses se tiennent, aux
deux sens du terme. Dans l'important commentaire de La dame de Shanghai, film considéré
par le philosophe disparu, et à de multiples reprises, comme un symbole du passage à
"l'image-temps", il s'agit bien d'opérations spéculaires dans lesquelles les images sont
strictement sous la dépendance ontologique de l'objet, même si dans la scène finale il nous est
évidemment impossible de distinguer laquelle est l'objet. Dans cette scène terminale du film
d'Orson Welles, l'accroissement d'énergie s'opère en deux stades. D'abord, par la prolifération
virale des images toutes rapportées à un objet unique. Puis par la mise en abîme qui en résulte
et l'impossibilité de distinguer la série d'images de l'objet qui lui donne naissance. On retrouve
un thème cher à Deleuze (développé en particulier dans Logique du sens[109]) : le simulacre
comme impossibilité de séparer le vrai du faux, l'actuel du virtuel. Le commentaire du film de
Welles est dominé par l'idée de "puissance du faux" : "En élevant le faux à la puissance de la
vie, la vie se libérait des apparences autant que de la vérité : ni vrai ni faux, alternative
indécidable, mais puissance du faux, volonté décisoire. C'est Welles qui, à partir de La dame
de Shanghaï, impose un seul et unique personnage, le faussaire"[110]. La "puissance du
faux", est une réponse à la démarche de l'homme véridique, qui "juge la vie comme une
maladie". "Par delà le bien et le mal" s'élance la puissance créatrice, vitale, l'augmentation de
mobilité, de mutabilité. Et Deleuze fait l'éloge de la capacité à se transformer, à ne pas se
recroqueviller dans une écorce, à s'hybrider à d'autres forces vitales[111]. Ces forces se
trouvent du côté de la cristallisation actuel/virtuel. Pourtant le dénouement tragique de
l'ultime scène aux miroirs remet en jeu une vérité, un fondement "réel" : la mort. Briser un à
un les miroirs, éteindre les apparences, reconquérir l'actualité, c'est se brûler les yeux dans la
mort. Le virtuel privé d'actuel devient un élément catastrophique, d'intensité insupportable.
N'oublions pas cependant que l'image spéculaire est dans un rapport de stricte
contemporanéité avec l'objet. Le déchaînement multiplicateur efface temporairement cette
dépendance. Supprimer un à un les exemplaires virtuels assure la durée de la scène finale,
mais le dénouement tragique contracte cette durée par l'effondrement réciproque des
adversaires.
Crise de la vérité
L'éloge des puissances du faux s'accompagne d'un joyeux constat de la relativité de toute
référence stabilisée. Le cinéma de Welles redécouvre le mouvement perspectiviste et la perte
de la notion de "centre". Michel Serres et ses considérations sur le XVIIe siècle, qualifié de
"siècle baroque", viennent à l'appui : "Y a-t-il un centre quelconque ou pas du tout ?" Et
Deleuze d'ajouter : "[...] la vérité traversait une crise définitive" et "tous les centres [...]
s'écroulaient"[112]. Le perspectivisme de Welles ne se définit plus alors "par la variation des
points de vue extérieurs sur un objet supposé invariable (l'idéal du vrai serait conservé)". Au
contraire, explique-t-il, avec Welles, le point de vue est constant mais intérieur aux objets, qui
se présentent comme "métamorphose d'une seule et même chose en devenir". D'où l'allusion à
la géométrie projective : l'oeil au sommet du cône donne des "projections", cercle, ellipses,
droites, etc. "L'objet n'étant plus à la limite que la connexion de ses propres
métamorphoses"[113]. Rejoignant des vues antérieures développées dans Logique du sens, où
le simulacre est défini non pas comme une copie dégradée mais comme ce qui interdit de
discerner la copie de l'original, Gilles Deleuze affirme : "Les perspectives ou projections, c'est
cela qui n'est ni vérité ni apparence"[114].
Mais faut-il opposer vérité et apparence ? Plutôt que de concevoir les projections multiples
comme ce qui altère l'idée d'une vérité unique, pourquoi ne pas considérer la vérité, elle-
même, comme multiple. Définir l'objet comme l'ensemble de ses projections tend à confondre
appréhension perceptive et manifestation objective. Si l'objet "unique" n'existait pas, ses
projections s'éteindraient aussi. Cette vision ne dépasse qu'en apparence le conflit entre
subjectivisme et matérialisme. Sans prolonger cette controverse récurrente... et complexe, je
ferai l'hypothèse que l'expérience des images actées, ne favorise que superficiellement le
relativisme. Offrir le réglage de l'observation et de l'activation du modèle au spect-acteur,
c'est dépasser, dans un sens, l'opposition entre dispersion des références et centralité de
l'espace d'observation. Définir l'objet par l'ensemble des perceptions qu'acquiert un
observateur situé à l'intérieur, c'est une conception qui assure à la fois la mutabilité de l'objet,
"son devenir" et sa définition perceptuelle. En déduire une crise définitive de la vérité est
discutable. La vérité ne se situe pas au pôle opposé à celui de l'apparence, c'est ce qui partage
l'apparence de l'essence (dans la formule cartésienne classique). Dans la sphère des images
actées, et de manière plus restrictive, dans celle des simulations réalistes, nous verrons plus en
avant qu'on peut considérer que la "vérité" fait dériver l'apparence du modèle. La vérité, ou
plutôt une vérité expérimentale et non axiomatique, s'exprime alors dans le passage au-delà de
l'apparence, ou plus précisément dans la synthèse de l'apparence à partir de la morphogenèse
de l'objet. De multiples travaux de modélisation physico-mathématiques concrétisent cette
exsudation de l'apparence à partir des modèles. Waves d'Alain Fournier[115] en est
certainement l'un des premiers exemples aussi parlant, qui offre la vision d'une plage en
images de synthèse obtenues par modélisation physique du mouvement de la houle animant
d'innombrables gouttes d'eau formant l'étendue maritime. De la conformation des fonds sous-
marins à la vitesse du vent, des phénomènes d'écrêtage de l'écume à l'amortissement des
ondulations, tout y est simulé pour recréer l'apparence visible d'une mer parcourue par des
vagues. La vérité visuelle, unique comme scène et multiple comme perspectives réglables,
surgit alors comme la preuve de la réussite de l'opération modélisatrice. Elle en devient un
bénéfice secondaire, un cadeau "de surcroît". Ce faisant, c'est le regard qui se redéfinit : non
plus appréciation d'une surface mais recherche des dimensions cachées, invisibles, d'une
scène. L'image devenant méta-image (image qui contient et explicite ses principes de
construction), le regard devient méta-regard (regard qui observe ses propres opérations pour
deviner ce que dissimule la surface visible et comment y accéder). L'idée de Godard selon
laquelle les meilleurs films de fiction sont les documentaires sur leur propre tournage
s'applique naturellement à l'univers de l'image actée puisque chaque scène contient
explicitement ses logiques scénographiques ; logiques que le spect-acteur doit découvrir et
pratiquer pour, de manière inédite, composer le voir avec le mouvoir. (Précisons que lorsqu'on
observe Waves par le truchement d'un film vidéo, ces dimensions méta-scopiques s'assèchent
et le regard se conforme alors à ses habitudes séculaires non-interventionnistes).
La ligne d'analyse de La dame de Shanghaï, distribuant les valeurs vie/mort sur le couple
virtuel/actuel s'harmonise parfaitement à l'opérateur instantané qu'est le miroir. On peut
d'ailleurs noter qu'outre le miroir, les métaphores techniques qu'utilise Deleuze relèvent très
souvent de milieux de type optique : cristal (et cristallisation comme mouvement de
développement du cristal), transparence (vitre, fenêtre, eau gelée)[116], eau vive (le flux
vital). Peut-on mobiliser ce couple virtuel /actuel en regard des dernières générations d'images
et spécialement des créatures virtuelles (modèles simulés, avatars, clones) ? Ce genre
d'images joue, quant à elle, sur une gamme de combinaisons dans le temps beaucoup plus
vaste que l'optique, parce qu'elle travaille les opérations temporelles de manière plus mobile
(contemporanéité, simultanéité, enregistrement, reprise actuelle de modèles sédimentés par
des expérimentations antérieures, mélanges d'animation actuelle et de modèles stockés
comme dans le clonage virtuel[117]).
Il semble que Deleuze nous invite lui-même à dépasser le stade du miroir. Son commentaire
conviendrait à merveille à La rose pourpre du Caire, film qui illustre parfaitement, dans
l'ancien moule de l'image enregistrée, le stade acté de l'image, propulsé par les technologies
numériques. Séparer l'image de son support pour la faire vivre, en complète autonomie, dans
une relation avec une spectatrice, voilà ce qui advient, on le sait, à l'acteur du film de
Woody Allen, dessinant ainsi une parabole de tous les mouvements qui affectent l'image
numérique aujourd'hui. Un autre exemple me vient à l'esprit de ce qu'on pourrait appeler, cette
fois, un miroir numérique. Il s'agit du dispositif Watch yourself, de Tim Binkley[123].
Cette installation rend compte à merveille du sens profond des images actées -dont on
rappelle qu'elles enchaînent pratiquement les visions aux actions- en révélant le dédoublement
spéculaire du regardeur qu'elles induisent. Véritable machine à transporter le spectateur, et à
le capturer, ce dispositif incorpore l'image du visiteur dans les ouvertures du tableau (fenêtres,
miroir, etc.). S'il doute de la réalité de ce voyage, une imprimante, inscrit sur le papier la trace
de sa visite furtive à la Vénus au miroir de Vélasquez en lui fournissant le témoignage
irréfutable de sa présence dans le tableau. L'effet est majoré par l'emprunt à des classiques de
l'art pictural qui avaient déjà exploré, à leur manière, la recomposition de l'espace perspectif :
multiplicité de scènes, incorporation de plans décalés, thème récurrent de la fenêtre présentant
l'ailleurs de l'image dans le cadre même du tableau. La présence du miroir dans le tableau
(comme dans les fameuses Ménines), fait apparaître ce que voient les personnages dans le
tableau, mais qui demeure caché pour le peintre. Ici, c'est, de manière ironique, le regard du
visiteur qui est piégé, affirmant ainsi un nouvel âge de l'image. Par là s'affirme une
propension à animer les récits de l'intérieur de la scène : pénétrer dans l'image, devenir acteur
du spectacle et spectateur de ses actes, regarder le tableau à partir de son intériorité. Comme
l'écrivait Merleau Ponty, "la vision est prise ou se fait au milieu des choses"[124].
Deleuze : "L'écriture a pour seule fin la vie, à travers les combinaisons qu'elle tire. Le
contraire de la <<névrose>> où, précisément, la vie ne cesse pas d'être mutilée, abaissée,
personnalisée, mortifiée et l'écriture, de se prendre elle-même pour fin"[125]. Nietzsche vient
à l'appui : "Il semble parfois que l'artiste, et en particulier le philosophe, ne soit qu'un hasard
dans son siècle... À son apparition, la nature, qui ne saute jamais, fait un bond unique, et c'est
un bond de joie, car elle sent que pour la première fois elle est arrivée au but, là où elle
comprend qu'en jouant avec la vie et le devenir elle avait eu affaire à trop forte partie"[126].
Viser la vie et non la vie des signes (de l'écriture), faire coïncider la description et le paysage,
plus, révéler le paysage à lui-même grâce à sa description, voilà une critique cinglante de la
médiation. Mais dénier l'espace propre de la représentation, c'est une critique de l'opération
médiatrice symétrique à celle consistant à souligner son incapacité à décrire fidèlement la
réalité, à la doubler authentiquement. C'est l'espace créatif propre de la médiation qui est alors
dévalorisé. Il s'en suit que l'autonomie revendiquée de l'écriture ou de l'image ne vaut plus
pour elle-même, mais comme instrument mobilisé pour rejoindre la vraie vie. Ici, le paradoxe
consiste à rejoindre la vie par le truchement de son soi-disant autre (l'écriture, ou le film) tout
en affirmant la vanité et l'agressivité mortifère de ce "moyen". Or, s'il y a moyen, truchement,
outil, se compose un espace propre de vie qui ne saurait être appelé à fusionner avec un flux
vital supposé premier et essentiel, puisqu'alors, il en fait partie. C'est ce qui nous passionne
dans l'image actée, ce surgissement d'un milieu médian, ni pur objet, ni pure image et dont
l'artificialité ajoute de nouvelles dimensions à nos compositions perceptives. Cette méfiance à
l'égard d'une écriture qui viserait un espace propre d'existence est contradictoire à une
motivation que Deleuze exprime distinctement à de multiples reprises : fusionner la
représentation et la réalité pour donner naissance à un couple représentation/réalité qui
acquiert ainsi un surplus d'énergie, d'autonomie et qui le transforme en puissance quasi
vivante. Devenir toujours plus vivant, c'est-à-dire doter les images de qualités décalquées de
celles des objets, tel est bien le programme de l'ingénierie informatique, affirmation qu'il
faudrait compléter en ajoutant que ce programme va, parfois, jusqu'à les doter d'une quasi-vie
artificielle[127].
L'image actée relève donc à la fois d'une saisie imaginaire, interprétative et d'une saisie
physique, interventionniste, par interfaces interposées : cette double détermination en
constitue la singularité en regard de toutes les autres formes d'images. On connaît la théorie
antique de la vision, celle du "rayon visuel" émis par l'oeil et qui va ausculter la réalité pour
ramener à la rétine des informations vivantes sur le monde ainsi touché (au sens propre)[129].
Répudié, à juste titre sur le plan scientifique, par l'optique physique, le "rayon visuel" s'est
finalement concrétisé dans nos interfaces modernes. Et c'est par elles que nous touchons et
transformons les images actées. Elles sont devenues le lien sensible, fonctionnant dans les
deux sens, entre la noèse-haptèse (le corps sensible de la phénoménologie : voyant parce que
se voyant voir, comme dirait Merleau-Ponty), d'une part et les figures numériques actives, de
l'autre.
On pourrait conclure qu'il ne s'agit là finalement que d'une image-mouvement, au sens de
Deleuze (image prolongée par des actions). Mais on peut tout aussi bien considérer que c'est
l'inverse qui se produit, l'action prolongeant l'image. En fait l'indécision qui en résulte laisse
entendre qu'il pourrait s'agir d'un cristal -pour reprendre l'expression de Deleuze- d'un
nouveau type, non plus coalescence de l'actuel et du virtuel, mais perception dans l'image
actuelle d'une incomplétude renvoyant à une image-souvenir lancée à la recherche de l'objet.
Objet qu'elle ne peut atteindre, car ce qu'elle vise n'est plus un objet réel mais un modèle
protéiforme. On dira que l'origine de ce cristal c'est ici le modèle mathématiques, non
totalement exprimable, qu'on ne peut appréhender par l'expérience et qui se tient en retrait,
invisible comme la source réelle/virtuelle du visible et de l'expérimentable. Invisible, mais
présent en surplomb et dont on "ressent" la présence à travers toutes ses actualisations,
comme une perception sublimée et indéterminée. Ce serait la course poursuite incessante
entre l'image actuelle et l'objet en retrait (le modèle) qui manifesterait ce cristal qu'on peut
nommer image-modèle.
L'image sensori-motrice, telle que la définit Deleuze, s'incarnerait assez bien dans les
simulations interactives classiques (Conception Assistée par Ordinateur, jeux vidéo, etc.).
L'image se poursuit alors en mouvements, en actions mais demeure une image frontale, qui
sur l'écran, fait face à l'interactant. Les environnements virtuels, immergeant l'acteur,
traduiraient, eux partiellement, l'image-souvenir. Ces situations d'immersion engendrent, en
effet, une double perception. D'une part, l'écran étant brisé, la mobilité naturelle qui relie
vision, audition et action est restituée. Et de l'autre, le caractère "artificiel" -techniquement
produit- de l'univers est, simultanément, toujours perçu, ne serait-ce qu'à travers le rituel
inaugural de l'ajustement des interfaces (casques, gants, etc.), véritable sas de passage vers
l'immersion. Ces deux catégories de sensations agissent comme deux couches parallèles, pour
modeler la perception. Certains gestes et activités perceptives automatiques -pointant vers les
images-souvenirs indéfinies et mobilisables- qu'on accomplit quotidiennement sans y penser
sont ici accomplies avec la même facilité, d'autres réclament une pensée de l'usage des
interfaces, une application attentive. L'image-souvenir doublerait ainsi en surplomb l'image-
action. Les visions/auditions/préhensions d'objets dont les images flottent dans l'espace font
signe vers un univers onirique fait d'actes et de sensations mémorisés (image-souvenir) mais
qu'on mobilise pour identifier et animer ces objets-images (image-action).
Le cristal "présentiel"
On se propose ici de faire jouer cette notion de cristal actuel/virtuel sur la thématique de la
présence à distance. Au miroir, cher à Deleuze, instrument d'extraction de l'apparence à partir
de la forme, reliant ainsi l'objet réel et son image virtuelle, on substitue l'appareillage de
téléportation (transport instantané des signes de la présence à distance, sur des avatars
virtuels, par exemple). Si le transport est physiquement instantané, la perception de
l'instantanéité est, quant à elle, construite. Cette perception se constitue dans les circuits
reliant l'action et la réponse, le départ et le retour. On définirait le cristal présentiel comme le
plus petit circuit reliant présence et départ, la sensation que notre image se glisse dans les
formes d'un avatar constitué par les moyens de l'informatique, qu'elle se déplace avec lui,
dans un réseau par exemple, et ne nous appartient plus totalement. Ce plus petit écart entre
l'ici et l'ailleurs serait ce cristal où actuel résonnerait avec ici et virtuel avec ailleurs. Lorsque
l'ici télescope l'ailleurs, comme dans les Téléprésences virtuelles où un exo-squelette situé
dans l'espace interplanétaire double un opérateur à terre, le cristal présentiel s'illumine. La
présence physique est dédoublée en présence actuelle (corporelle?) et image-objet de soi, que
nous avons nommé spect- agent, doté d'une vie propre, et non pas reflet passif. Concrétisant,
pour la première fois, une forme d'ubiquité réelle, ces expériences ouvrent au dédoublement
spatial, non plus seulement audiovisuel mais proprioceptif. Cette auto-perception s'opère à
distance de soi-même, sur un autre soi-même, le spect-agent. Se percevoir percevant, telle est
l'originalité de ces déplacements, déplacement d'espaces plutôt que déplacement dans
l'espace.
En regard du sujet humain réel, le spect-agent réalise une augmentation motrice aussi bien
que cognitive (déplacement par la vue ou la voix, perception des flux aérodynamiques simulés
s'écoulant autour d'une navette spatiale modélisée). Immergé dans l'univers virtuel, l'opérateur
se voit sous la forme d'une silhouette doublant ses mouvements. Il éprouve à même son corps,
par exemple, les effets d'un déplacement dans les lignes de flux de l'écoulement
aérodynamique.
Avec le retour d'effort du virtuel sur le réel, la composition chimique des rapports
action/perception musculaire/interprétation se modifie. Les sensations physiques sont perçues
de manière corporelle, mais grâce à la médiation visuelle d'un spect-agent, image de soi à
distance. Comme si le spect-agent percevait et nous transmettait instantanément cette
perception : dédoublement réel de présence. Le cristal temporel deviendrait ici le plus petit
circuit de déplacement de présence, la plus faible perception d'un écart de soi à soi, écart
manifesté dans et par un dispositif de transport. D'où un dédoublement présentiel dans la
problématique de la dissociation du temps (faire passer le présent, conserver le passé). Ici le
passé ne passe pas, il est "rafraîchi". Le "souvenir pur" bergsonien devient le modèle
comportemental de la scène. Altération des objets, forme de présence du sujet, espace
d'interaction sont organisés par des modèles abstraits, invisibles, impalpables, qui se tiennent
en retrait, forment l'espace des possibles et constituent la source des images actées.
L'exemple matriciel de cette situation cristalline serait la vision d'une image de soi dans une
situation de Téléprésence virtuelle : partie de son propre corps qu'on aperçoit dans le casque
de réalité virtuelle lorsqu'on baisse la tête, silhouette de soi découpée selon la forme du
costume-capteur qu'on a revêtu et qu'on découvre sur une surface réfléchissante ou encore
reflet de soi-même surajouté à l'image virtuelle dans certains dispositifs en cours
d'expérimentation.
"Le présent c'est l'image actuelle, et son passé contemporain, c'est l'image virtuelle, l'image en
miroir. Selon Bergson, la <<paramnésie>> (illusion de déjà-vu, déjà-vécu) ne fait que rendre
sensible cette évidence : il y a un souvenir du présent, contemporain du présent lui-même,
aussi bien accolé qu'un rôle à l'acteur"[130]. Ce souvenir dédouble en permanence la
perception actuelle et le souvenir immédiat virtuel (passé immédiatement accolé à la
perception actuelle). On pourrait proposer une analogie -un peu forcée, peut-être- entre le
mouvement qui relie les images-souvenirs aux images purement virtuelles qui "n'ont pas cessé
de se conserver le long du temps",[131] d'une part, et celui qui enchaîne, par l'intervention
humaine, la série d'images numériques avec leur modèle abstrait, non totalement visible parce
qu'incluant toutes ses actualisations possibles, de l'autre.
Le dispositif de transport est aussi essentiel au cristal présentiel (mais peut-être pas suffisant,
nous le verrons) que le dispositif cinématographique et ses "images optiques et sonores pures"
l'est au cristal temporel de Deleuze. Avec les images numériques interactives, il s'agit
d'image-présence et non plus d'image-mouvement ou d'image-temps. L'image-présence se
prolonge en actions, mais pas de manière figurée comme au cinéma où seuls agissent les
personnages incarnés sur l'écran. Là, c'est nous-mêmes qui prolongeons la perception en
action et l'action en perception, non plus dans un circuit (perception/action ou actuel/virtuel
pour l'image-temps) mais dans un cycle (action/interprétation/perception/action). Si certains
films rendent manifeste le cristal temporel, certaines situations privilégiées de transports
concrétisent le cristal présentiel. (J'ai en vue, ici, des environnements qui interprètent, sur un
plan esthétique, ces déplacements de présence, telles que certaines oeuvres en Réalité
Virtuelle, comme Ménagerie, dont il sera question plus loin). Les cercles concentriques qui
joignent les niveaux croissants de virtualité aux profondeurs croissantes de l'objet (Bergson)
s'expriment alors sur un mode non plus seulement temporel mais aussi spatial : déplacement
dans l'espace et par conséquent dans le temps.
Deleuze attire, par ailleurs, notre attention sur le fait que l'échec de la reconnaissance attentive
est souvent plus riche que son succès[132]. En effet lorsque cette reconnaissance ne parvient
pas à rejoindre l'image-souvenir, "le prolongement sensori-moteur reste suspendu". Elle rallie
des éléments virtuels, "sentiments de déjà-vu", de passé non situé, une réminiscence (on ne
sait si l'événement s'est réellement déroulé, si on l'a rêvé ou encore si on l'a déjà imaginé).
C'est un souvenir, mais on ne sait de quoi. Plutôt que l'image-souvenir ou la reconnaissance
attentive, les troubles et les échecs de la reconnaissance constituent "le plus juste corrélat de
l'image optique-sonore"[133]. Cet échec coupe les amarres de la reconnaissance et la rend
mobile, disponible pour toutes sortes de voyages reliés à une grande variété d'autres souvenirs
virtuels. Cette augmentation de liberté, désir et projet constamment revendiqués par Deleuze,
peut-on en trouver trace dans l'image actée ? Dans cette perspective, c'est la reconnaissance
temporelle qui échoue à se maintenir distinctement. Cet événement s'est-il déroulé avant ou
après celui-ci ? Ou en même temps ? La série temporelle peine à se dévider. Le souvenir d'un
enchaînement précis se trouble et va rejoindre les autres impressions détachées de leur
contexte.
Les récits actés prolongent le genre. Dans certains exercices de narration interactive, ils font
coexister plusieurs récits, indépendants, contradictoires, ou parallèles. Mais avec une
différence de taille. Les bifurcations qui spécifient les différentes versions -on décide de
continuer la promenade sur les quais de la Seine plutôt que de pénétrer dans le jardin des
Plantes- ne sont plus compossibles, puisqu'elles deviennent alternatives. On pourra, bien sûr,
rééditer le choix et rentrer cette fois-ci dans le jardin. Mais c'est une autre expérience, et non
pas, simultanément, la même. À moins d'en appeler à une autre conception du récit où celui-ci
devient la somme de toutes les itérations effectuées cumulant des expériences actualisées dans
les cheminements suivis et totalisant les transports mentaux ainsi provoqués. Si on postule
une telle définition du récit interactif -qui ne fait que prolonger une définition classique du
récit textuel ou filmique, comme cumul des affects provoqués par sa perception[137]- alors il
réintègre la pluralité des déroulements possibles comme formant l'unité de sa composition.
Mais la perte d'énergie en regard des évocations à la Borges, est incontestable. La force
corruptrice du sens commun contenue dans la proposition de Borges provenait précisément de
la linéarité du texte, laquelle soulignait le paradoxe de l'ubiquité.
Avec le récit interactif, le paradoxe est dissout par le principe même du dispositif. On l'attend
d'emblée ; il est inscrit dans le fonctionnement du récit. Lequel met en jeu une autre forme de
transport interne. La "compossibilité" des versions du récit est une ubiquité du sens. Plusieurs
développements d'un même germe, pour certains contradictoires entre eux, inscrivent des
déplacements d'existence. On peut préférer suivre la fille sur les quais de la Seine, mais aussi,
au même moment souhaiter rencontrer le détective devant la grande serre du jardin des
Plantes. Le moment de la décision inclut alors une réédition future possible de ce choix dans
une reprise du récit. Le déroulement de l'action qui résulte d'une décision contient son autre,
comme une séquence imaginée qui, telle une ombre, s'accouple à la séquence observée.
L'existence spectrale dans cette autre séquence possible, celle qu'on a refusée, manifeste un
déplacement de présence qui double et affecte la perception de la séquence préférée. Si bien
que le récit se densifie de ces bifurcations non suivies qui, à terme, constituent un récit
fantôme et, à la limite, prennent la forme de ces souvenirs dont on ne sait s'ils réfèrent à des
événements réels, rêvés ou imaginés, rappelant l'indiscernabilité souvent éprouvée dans la
psychanalyse, entre souvenir et reconstitution imaginaire. On pourrait dire qu'alors le temps se
fractionne, non seulement il conserve le passé et fait passer le présent, mais de plus, surcharge
le présent d'un passé spectral "compossible".
Avec le cinéma parlant, le sonore est entendu comme "une nouvelle dimension de l'image
visuelle..."[142]. Il transforme l'image visuelle, "il fait voir en elle quelque chose qui
n'apparaissait pas librement dans le muet". Il s'en suit que l'image visuelle, dégagée de cette
naturalité première se met à exprimer les "interactions humaines"[143]. Elle devient une
sociologie interactionniste, ou plutôt précise Deleuze, c'est l'interactionnisme qui devient un
cinéma parlant. D'où l'importance et la récurrence des thèmes de la rumeur (qui passe entre les
personnages et les constitue, plus qu'ils ne la propagent eux-mêmes) et de la conversation,
objet non identifié qui porte les acteurs là où elle les entraîne plus qu'ils ne l'alimentent.
Avec l'image actée, l'interactionnisme devient une condition matérielle d'existence du média,
comme l'image projetée ou le son diffusé pour le cinéma. Que peut-on en conjecturer ? Par
exemple -en reconduisant ce que Deleuze dit de la sonorisation de l'image- que l'action sur
l'image est perçue comme une nouvelle dimension de l'image. Laquelle ? Si la sonorisation
intègre à l'image "une nouvelle composante de l'image", l'action sur l'image exprime le
mouvement interne aux composantes de la scène, leur vie propre. C'est donc un nouveau
régime de perception de l'image qui s'instaure incluant la capacité à deviner quels sont, à
chaque instant, les éléments qui peuvent être affectés par notre présence dans la scène. Une
vision chirurgicale se construit, non pas seulement au sens de la perception d'une profondeur
de champ (ce qu'assurait déjà la perspective). Elle ne se réduit pas, non plus, au percement de
la surface, ce qu'autorise le multifenêtrage ainsi que toutes les formes d'affichage mixant la
vision de la surface et de l'intérieur des objets ; opérations que la Conception Assistée par
Ordinateur, et bien d'autres formes d'imagerie numérique nous ont déjà habitués à décrypter.
Elle s'épanouit comme prévision des mouvements légaux et illégaux dans la scène. L'oeil au
bout de la main caresse la surface à la recherche du moindre frémissement révélant une cavité,
sonde les zones prometteuses, espère (et craint peut-être aussi) une révélation. La poursuite
des zones activables dans les mises en scène d'images actées (des jeux vidéo aux oeuvres de
l'art numérique) manifeste la présence muette d'êtres invisibles mais actifs : pouvons-nous
faire croître l'arbre, dissimuler le héros derrière ce mur, serons-nous assaillis au coin de la rue
si nous poursuivons ce chemin ?
Cette quête s'exprime dans toute sa plénitude avec les premières expériences visuelles de
communautés virtuelles et dans certaines recherches sur les déplacements virtuels dans les
univers coopératifs de travail. À ce moment-là, c'est l'interaction sociale, elle-même qui
devient une composante de l'image (déjà sonore, colorée, interactive) dès qu'elle met en scène
les relations entre les avatars présents dans l'univers virtuel. Cette interaction est guidée par
les sujets réels qui règlent les mouvements de leurs avatars. Mais elle est aussi prise en charge
par des règles comportementales internes gouvernées par des programmes automatiques. Dans
l'expérience de Téléprésence virtuelle collective DIVE, ces programmes assurent, par
exemple, on l'a remarqué, la visualisation automatique de relations telles que l'affinité entre
avatars et objets ou entre avatars eux-mêmes. L'attention sélective et toutes les opérations qui
objectivent des mouvements subjectifs d'ordinaire latents sont graphiquement et
dynamiquement inscrites, allant jusqu'à représenter visuellement des graduations d'intensités
relationnelles[144].
Dans la continuité de l'analyse des nouvelles figures de l'automate, Gilles Deleuze aborde les
"nouvelles images" (électroniques et numériques). Il pose, concernant les images
électroniques, une question lumineuse, appelant de ses voeux une "autre volonté d'art"[145],
spécifique à cet univers. Que cet art puisse se développer de manière autonome ou en
prolongeant des aspects inédits de l'image-temps, la question, pour lui, demeure ouverte. Le
philosophe a-t-il en vue, les images numériques actées lorsqu'il évoque le statut des images
électroniques ? Ou n'a-t-il pas plutôt en ligne de mire les images vidéos. Nous penchons pour
cette dernière hypothèse. Son champ de vision privilégie, en effet, le cadre formel de l'image
(organisation de l'espace, perte du privilège de la verticalité, autonomie du visuel et du
sonore, transformation de l'écran en surface opaque où l'information remplace la Nature). Il ne
s'en écarte que pour prendre en compte la matérialité de la surface d'inscription, l'écran
opaque, dans une voie suivie parallèlement par nombre d'artistes vidéastes. Malgré une
ouverture finale plus riche, il n'envisage pas la nécessité de faire prendre aux concepts propres
aux "nouvelles images" une distance non seulement spatiale mais aussi axiomatique. Ne plus
les définir comme images mais comme intermédiaires entre image et objet, ne lui apparaît pas
distinctement. Sauf dans cette formule, invitant à dépasser "l'inefficacité" dangereuse de
l'information (sa toute-puissance fondée sur sa nullité) en posant la question "godardienne" :
"quelle est sa source, et quel est le destinataire ? "[146]. À ce moment, l'espace de l'image
s'ouvre, il devient processus, et contient à la fois sa genèse et sa fin. Entre les deux,
l'interactant, celui qui perçoit et agit l'image, se voit reconnaître une place. C'est dans cette
voie qu'une analyse fructueuse des "nouvelles images" peut être poursuivie. Rappelons que
c'est encore Godard qui posait la question décisive, selon lui, du cinéma : où commencer et où
finir un plan ? Question à laquelle l'image actée apporte, par construction, pour le pire et le
meilleur, une réponse : en déléguant le choix de poursuivre, où d'interrompre, à l'interactant.
Certes, on pourra toujours invoquer la scénarisation préalable de cette possibilité par le
concepteur de la scène. Il n'en demeure pas moins que cette poursuite est toujours
potentiellement, et non pas effectivement, envisageable. Vérifier cette effectivité est devenu la
condition spect-actorielle.
Lorsque le philosophe tente de définir, sur un plan sémiotique, le cinéma comme "système des
images et des signes prélinguistiques"[147], il le rapporte à "ses vertus automatiques ou
psychomécaniques"[148]. D'où l'idée suivante : le cinéma est un automate spirituel, qu'on doit
considérer comme psychomécanique. Et son analyse rencontre les automates, non pas
accidentellement mais essentiellement. Je renforce le marquage, car une fois de plus une
épistémé s'articule sur une évocation d'une série précise de films, des films à automates, tels
que Le testament du docteur Mabuse, ou Métropolis. L'automatisme y est "devenu art
spirituel"[149]. Mais que signifie psychomécanique ? Que le cinéma est lui-même un
automate technique qui déroule mécaniquement la pellicule et que l'enregistrement est une
opération automatique ? Sans doute, mais plus essentiellement, psychomécanique renvoie au
cinéma comme "automate spirituel", voire psychologique, qui penserait à notre place et la
référence à L'homme ordinaire du cinéma de Jean- Louis Schefer est explicite.
Comment, alors, qualifier le régime de l'image actée ? Elle brise assez violemment ce
mouvement de l'automatisme psychologique. Ou plutôt, elle l'inverse. C'est la scénographie
qui se charge d'automatisme et c'est l'image qui devient active, dépositaire d'un savoir sur son
monde. Alors que l'interactant entre, lui, en confrontation avec ce monde et doit trouver sa
place par une série d'essais, d'échecs et d'ajustements. On passe de l'automate psychologique à
l'automate réflexif (comme le sont les programmes informatiques), incluant une spécificité
humaine d'imprévisibilité, certes encore balbutiante mais néanmoins palpable. Quelle serait la
psychomécanique propre à l'image actée ? Elle s'établirait dans les liens entre action effective
sur l'image, perception de cette action effective et prolongement sensori-moteur naissant. Ces
prolongements ne sont pas effectifs de la même manière qu'avec des objets de première
réalité. Ils naissent dans un espace intermédiaire, mi-imaginaire, mi-réel (réel, au sens de la
constatation de l'effet des actes sur l'image). L'automaticité passe dans l'image actée, qui
contient ses propres principes génétiques qu'elle négocie avec le sujet qui l'agit, dans une
coopération et non plus simplement une interprétation.
Pour faire émerger la notion d'image-cristal, par exemple, Deleuze sollicite, simultanément,
plusieurs plans. Celui du circuit actuel/virtuel (ou présent/passé ou encore
perception/souvenir), plan de l'instrument théorique, et celui de la description de certains
films ou scènes, requis comme traductions/exemples des mouvements théoriques. Dans La
règle du jeu de Renoir, par exemple, le philosophe fait sourdre le concept du film lui-même et
l'utilise ensuite pour y entrer à nouveau : "... quelque chose sortira du cristal, un nouveau Réel
en ressortira par-delà l'actuel et le virtuel. Tout se passe comme si le circuit servait à essayer
des rôles jusqu'à ce qu'on ait trouvé le bon, avec lequel on fuit pour entrer dans une réalité
décantée"[150]. Thématique de l'expérimentation des rôles, qui nous porte à sortir du théâtre
et entrer "dans la vie". L'indiscernabilité actuel/virtuel est exploitée ici pour recoller fiction et
vraie vie. Dans la même logique surgit le thème de la fuite, de la "fêlure" du cristal par
laquelle on "s'épanouit librement", c'est-à-dire où l'on se libère du corset des représentations,
de la finitude de la fiction, du ligotage du récit. L'analyse du récit filmique sert alors de
vérification, de validation d'une thèse -et d'un désir- qui court, rappelons-le, tout au long du
livre : le récit doit rejoindre la vie dans une indistinction libératrice. Parallèlement, des genres
cinématographiques sont sollicités pour indiquer le passage à l'ère de l'image-temps. Ainsi,
par exemple, pour illustrer la nature du cinéma d'après guerre, les images-mouvements sont
rapportées aux automates d'horlogerie ou aux moteurs, d'où la référence à Walter Benjamin,
lequel, rappelle-t-on, établit une correspondance entre la reproduction automatique
(photographique et cinématographique) et l'automatisation des masses dans l'hitlérisme[151].
Le passage à la deuxième phase du cinéma, celle de "l'image-temps", s'exprime dans
l'émergence (et Deleuze cite aussi bien Alphaville de Godard que 2001 de Kubrick), d'une
"nouvelle race" d'automates, informatiques et cybernétiques, automates de régulation, de
traitement, diluant le pouvoir dans des réseaux que des décideurs régulent au lieu de le faire
converger vers un chef suprême[152]. Le recours aux états affectifs, sentimentaux (violence,
pessimisme, flux vital) s'ajoute aux autres couches pour étayer l'analyse.
D'où les obstacles qui se dressent si l'on veut mobiliser les concepts deleuziens dans l'univers
des images actées. La difficulté consiste à devoir faire abstraction de la fonction narrative, de
ce que les images transmettent comme récit et dont Deleuze fait un abondamment usage dans
son analyse des opérations proprement cinématographiques. L'image-temps naît, on l'a vu,
dans de multiples descriptions, narrations de scènes de films, où les contenus sont métabolisés
et viennent étayer les concepts. Un exemple : "la narration cristalline" opposée à celle de
l'image-mouvement, nommée "organique"[153]. Dans la narration "cristalline", on le rappelle,
les situations optiques et sonores pures ont fait place à des situations sensori-motrices. Les
personnages sont essentiellement "voyants", leur mouvement "peut tendre à zéro", les
anomalies du mouvement deviennent essentielles. Et Deleuze étaye son analyse en renvoyant
à une opération proprement cinématographique. Le plan fixe est redécouvert, tout comme les
faux raccords (Dreyer)[154]. Autre exemple : référant à Resnais ou Ozu, il montre comment
le temps apparaît directement dans "les pointes de présent désactualisées"[155] en s'appuyant
sur la tendance à la disparition du montage au profit du plan-séquence. On pourrait facilement
poursuivre la liste des allers-retours entre "concepts" et films particuliers.
Avec l'image actée, cette possibilité de renvoi aux procédés narratifs (montage, coupe, plan
fixe) disparaît, car la continuité narrative elle-même s'est évanouie, tout au moins dans sa
forme séquentielle. Quels seraient les équivalents du montage, de la coupe ou du plan fixe ?
C'est dans la scénographie de l'expérience interactée qu'on doit les rechercher. La visibilité de
l'image se révèle dans le rapport entre les mouvements propres du programme (les
événements naturels, qui arrivent d'eux-mêmes) et les perturbations possibles fondées sur la
présence d'un spect-acteur, telles que la survenance d'une question qui lui est adressée,
l'apparition d'un acteur dans la scène, le changement d'échelle d'un élément ou l'accélération
de l'action. La collaboration entre le programme et le spect-acteur dans la construction du
récit peut révéler ce genre de distorsions, de telle manière que le temps soit suspendu, comme,
par exemple, dans la recherche d'un élément de la scène dont l'activation va permettre de
rompre l'immobilité présente. Les interfaces, notamment en programmant les mouvements
corporels, supportent ces messages muets qui conditionnent les enchaînements de l'aventure
exploratoire. La conception de l'espace d'interaction participe aussi de ces mouvements
temporels, par exemple lorsque s'ajustent des espaces libres de navigation avec des
contraintes prescrites par le programme.
Quelles seraient donc les outils appropriés à l'analyse des cadres perceptifs et affectifs propres
aux modèles numériques actés ? Où trouver l'équivalent du miroir, et des actes proprement
cinématographiques tels que le montage ou le cadrage ? On fera l'hypothèse que c'est la forme
même de ces images-objets qui concrétise le jeu de poursuite entre action, perception et
souvenir. Une forme pure de cristal, délivrée du souci narratif, ou indépendante de ce souci,
une forme image pure qui tendrait à rejoindre celle qui apparaît dans l'espace magique, les
fantasmes, le rêve, une forme dotée de pouvoirs, d'un pouvoir de principe, sans concrétisation
particulière, sans préoccupation d'utilité, de fonctionnalité, uniquement intéressée à son
opérativité génétique. Génétique, parce que l'image numérique actée est construite à partir
d'un principe d'opérativité. Plus que d'un "devenir" objet de l'image -formule qui pourrait
convenir aux images enregistrées, par exemple- il s'agit d'un être objet de l'image. Au-delà
d'une indistinction image-objet, l'image et objet coexistent, non pas alternativement, mais
simultanément (ce qui ne veut pas dire forcément pacifiquement).
"[...] En avançant ou en courant à des vitesses différentes, les animaux à quatre pattes
réagissent à un champ gravitationnel simulé. Instinctivement, ils peuvent prévoir des prises
sur le terrain, donnant ainsi l'impression d'être en équilibre dynamique. Des algorithmes de
vol et de regroupement sont utilisés pour les modèles de flux des animaux en groupe. Tous les
animaux gardent cependant un degré d'autonomie. Ils modifient leur déplacement selon
l'environnement et évitent d'entrer en collision entre eux ou avec l'utilisateur de
l'environnement virtuel"[157]. Dès qu'on plonge son regard dans l'espace virtuel en collant
nos yeux sur les lunettes du système BOOM[158], une curieuse impression de flottement nous
saisit. L'espace est ténébreux, l'horizontalité est à peine marquée par la ligne d'horizon et le
spectacte commence. Des chiens l'un après l'autre, des oiseaux en groupe font leur entrée en
scène à travers des portes, venant de l'arrière-monde virtuel. Cavalcade volatile, étrange ballet
aérien qui mène ces animaux vers d'autres portes par lesquelles ils disparaissent. Bientôt
d'autres les remplacent. Mais l'interface de réalité virtuelle va nous projeter dans le spectacle.
Sitôt esquissé un déplacement dans l'espace, on s'aperçoit que les animaux ressentent cette
intrusion et s'écartent, s'enfuient ou accélèrent leur course. La dimension sonore accentue
l'effet de présence. Les émissions sonores émanent de sources spatialisées, synchronisées
selon les mouvements relatifs de l'observateur et des personnages de l'environnement virtuel.
Notre existence dans leur univers n'est plus fictive, organisée par des mouvements
psychologiques projectifs et imaginaires, comme au cinéma. Elle devient aussi pragmatique,
s'exprimant par la perception des effets concrets de nos propres déplacements. Mais surtout
s'inaugure ici un dédoublement de présence absolument inédit. On est simultanément et
effectivement présent dans la scène et hors de la scène, spect-acteur et non pas témoin,
transporté corporellement par le truchement des actions effectuées : zoom, panorama,
inclinaison, modifications d'angles d'observations avec à chaque fois la perception des
incidences de ces gestes. L'extrême simplicité de la scénographie et le minimalisme figuratif
favorisent puissamment cet effet de déplacement spatio-temporel. La perception d'une quasi-
vie installée dans la scène, à la fois indépendante et sensible aux perturbations que provoque
notre présence, densifie encore l'ubiquité. Cette pluri-présence spatiale se traduit par un
trouble temporel qu'on peut rapprocher de la présentation directe du temps, d'une situation où
l'image virtuelle s'ajustant aux mouvements sensori-moteurs (c'est là une différence notable
avec "l'image cristal" cinématographique, fondée, elle, sur leur dissociation) déstabilise
d'autant plus les repères temporels : le départ vers l'environnement simulé et le retour au corps
du spect-acteur ne rime plus avec avant et après. Le souvenir immédiat du présent coagule
avec le présent lui-même parce que ce présent à la forme d'une expérience corporelle. La
durée de l'expérience (activer une interface n'est jamais un acte instantané) disparaît dans la
perception continue de ses effets. Allers et retours permanents, le franchissement continuel de
la barrière représentative du spectacte annule la distance qui sépare la perception présente du
souvenir. Fondu dans l'enchaînement de l'un avec l'autre, le temps -dont on se rappelle que
Bergson affirmait que sa formule consistait à se dédoubler pour faire passer le présent et
conserver le passé- ne conserve qu'un passé provisoire, toujours en passe d'être remplacé par
d'autres investigations pratiques. L'expérience de l'image actée, à la différence de l'expérience
cinématographique, consomme naturellement la durée parce qu'elle entrelace la vision et
l'action. Elle rend plus improbable l'oubli de soi caractéristique de toute présence dans un
récit. Si bien que, lorsque cet oubli survient, et c'est surtout affaire de sensibilité et
d'intelligence scénographique -comme dans Ménagerie- il cristallise d'autant plus fortement le
trouble présentiel ; Deleuze dirait peut-être l'échec de la reconnaissance. Le plus petit circuit
temporel joignant départ et retour se relie alors avec le plus grand dédoublement entre
présence corporelle externe et présence virtuelle interne au spectacte. Ce dédoublement
devient alors une co-présence et non pas une présence alternative extérieur/intérieur. On se
situe aux deux pôles simultanément, et, à ce moment, la dissociation impossible nous
confronte au sentiment de suspension du temps.
[82] Je renvoie à des ouvrages déjà publiés tels que Les chemins du virtuel, Centre
Georges Pompidou, Flammarion, Paris, 1989 ou "Sous les vagues, la plage" in Paysages
virtuels, Dis-Voir, Paris, 1988.
[83] On différencie ainsi l'image actée à la fois des images de synthèse calculées et affichées
sur support stable (papier, film, etc.), et des images enregistrées, numérisées et traitées à des
fins scientifiques ou esthétiques.
[87] Gilles Deleuze, L'image-mouvement, Les Éditions de Minuit, Paris, 1983, p. 278.
[88] Maurice Merleau-Ponty, particulièrement dans L'oeil et l'esprit, mais aussi dans Le
visible et l'invisible, invente un cadre d'interprétation de la vision à la fois comme interaction
des perceptions (et notamment avec le toucher) mais aussi comme présence à distance. Ainsi
nous conseille-t-il de "prendre à la lettre ce que nous enseigne la vision : que par elle nous
touchons le soleil, les étoiles" (Maurice Merleau-Ponty, L'oeil et l'esprit, Gallimard, Paris,
1964, pp. 70/71). Et aussi : "la peinture réveille...un délire qui est la vision elle-même,
puisque voir c'est avoir à distance" (op. cit., p. 26/27). On comprend pourquoi j'ai placé ces
citations en exergue de ce livre.
[89] Voir "Virtualités réelles : une phénoménologie appliquée", in Chimères, n°16, été 1992,
pp. 35/46.
[90] Ce lien fondamental entre technologie et perception, -et plus précisément cet effet retour
des technologie sur la perception- est à la source des travaux les plus stimulants de
Walter Benjamin puis de Marshall McLuhan, qui, les premiers, ont montré que les
technologies ne sont pas simplement des instruments de production mais qu'elles façonnent
nos sens.
[107] Gilles Deleuze, L'actuel et le virtuel in Dialogues, Champs, Flammarion, Paris, 1996
[109] Gilles Deleuze, Logique du sens, Les Éditions de minuit, Paris, 1969.
[115] Voir "Sous les vagues, la plage" in Paysages virtuels, op. cit.
[117] Pour une discussion sur les modalités de mixage des images analogiques et numériques
et sur les régimes temporels inédits qui en découlent, voir notre article "Images hybrides :
virtualité et indicialité", in Image & média, sous la direction de Bernard Darras, MEI n°7,
L'Harmattan, Paris, 1998.
[118] Gilles Deleuze, L'actuel et le virtuel, in Dialogues, Champs, Flammarion, Paris 1996,
p. 180.
[119] La note 5, p. 184 fait allusion aux notions d'objet et d'image virtuels de l'optique.
Remarquons cependant, que dans l'optique géométrique, les notions d'objet et d'image sont
définies en fonction de la perception visuelle humaine : là où les rayons convergent se trouve
l'objet et il est réel si cette convergence se produit devant le miroir, virtuel derrière. Les
concepts fondamentaux sont "réel" et "virtuel" (et non pas actuel et virtuel).
[120] Gilles Deleuze, L'actuel et le virtuel, in Dialogues, Champs, Flammarion, Paris 1996,
p. 184.
[125] Gilles Deleuze, Claire Parnet, Dialogues, Champs, Flammarion, Paris 1996, p. 12.
[126] Nietzsche, Schopenhauer éducateur, cité par Gilles Deleuze, loc. cit.
[127] Les exemples abondent d'oeuvres dont la formule consiste à installer des cadres
scénographiques où des créatures du calcul, mues par des programmes génétiques,
développent, avec la coopération des spect-actants, des formes de "vie artificielle". Certes ces
oeuvres explorent le plus souvent la situation morphogénétique elle-même sans être dupes de
leur production. Mais les commentaires qui les accompagnent ne souligne que rarement cette
différence. On rappelle des exemples déjà cités, tels que la littérature génétique de Jean-
Pierre Balpe ou dans le domaine de l'image calculée, les productions morphogénétiques de
Karl Sims simulant "l'évolution darwinienne" de strates générationnelles d'images
(installation présentée à la Revue virtuelle, Centre Georges Pompidou en mars 1993).
[128] J'emprunte cette double caractérisation (noématique et haptique) à Jean Clément, qui
l'applique aux hypertextes, dans une perspective assez similaire.
[129] Voir l'indispensable livre de Gérard Simon sur la question : Le regard, l'être et
l'apparence dans l'Optique de l'Antiquité, Le Seuil, Paris, 1988.
[135] Gilles Deleuze, loc. cit. (Borges, Fictions, <<Le jardin aux sentiers qui bifurquent>>,
Gallimard, p. 130)
[137] Dans la littérature "classique" aussi, ces perturbations de la linéarité sont fréquentes. Je
renvoie aux deux articles déjà cités au chapitre V de Christèle Couleau, "Balzac interactif ou
la virtualisation du sens" et de Jocelyn Maixent, "Diderot, Kundera et les romans virtuels : le
récit des mondes possibles" in La voix du regard - Aux frontières du virtuel, n° 10, E.N.S. de
Fontenay/Saint-Cloud, mars 1997.
[144] Nous avons décrit le projet DIVE au Chapitre I en mettant en perspective des horizons
inédits qu'il ouvre. Le risque existe, bien sur, d'un surcodage conventionnel des
comportements de nos avatars virtuels. Mais ce risque n'est pas congénital. Ce qui nous
intéresse ici, ce n'est pas l'appréciation des qualités esthétiques ou dramatiques des
scénographies d'images actées aujourd'hui proposées (jeux vidéo, récits interactifs, visite de
musée par CD-Rom, circulation dans les sites du Web). Ce que nous visons c'est l'élaboration
des concepts appropriés pour les apprécier.
[147] Gilles Deleuze, op. cit., p. 343. Dans cette partie finale du livre, il affirme que le cinéma
n'est pas une langue, ni universelle, ni primitive, ni même un langage, mais qu'il "met à jour
une matière intelligible, qui est comme un présupposé, une condition...à travers lequel le
langage construit ses propres <<objets>>", p. 342.
[158] Le dispositif BOOM (pour Binocular Omni-Orientation Monitor) a été mis au point par
la société américaine Fake Space Labs. Il se présente comme une paire de jumelles offrant
une vision stéréoscopique interactive dans des environnements générés par ordinateur grâce à
une optique grand angle et deux petits écrans cathodiques couplés dans les viseurs. Des
manettes et des boutons permettent d'orienter le point de vue, d'effectuer des zooms et des
panoramas.
Table des matières
Chapitre VII
Les paradoxes de la téléinformatique
Une société de l'immatérialité et de la vitesse : cette apparente constatation m'apparaît être une
hypothèse discutable. Ce chapitre montrera en quoi. La réflexion proposée se donne pour
objectif d'examiner les incidences culturelles des technologies intellectuelles actuelles basées
sur la programmatique (disponibilité et diffusion de programmes informatiques) et la
Téléprésence, que nous regroupons sous le vocable de téléinformatique. Dans cette voie, nous
nous confrontons à la notion même de culture, dont toute tentative de définition met en abîme
les concepts qu'elle mobilise. Nous nous en tiendrons donc au sens commun qui considère la
culture comme l'ensemble des connaissances, croyances, représentations et pratiques qui
structurent "l'être ensemble" d'une société. Nous espérons que la suite du propos contribuera à
poursuivre une définition de la culture dans ses rapports aux télé- technologies.
Si l'on considère que l'effet majeur d'une technologie intellectuelle inédite est d'instituer,
d'ouvrir une nouvelle manière d'accomplir certaines activités et de résoudre des problèmes,
alors on comprend que son extension est une conquête, une colonisation mentale, à la
différence près qu'il ne saurait y avoir de décolonisation. Il n'y a pas de possibilité de "dés-
alphabétisation" ni de "dé-numérisation". Affirmer l'universalisme des télé- technologies
procède précisément de cette observation. Précisons qu'il s'agit là d'un tout autre débat que
celui qui concerne le caractère occidental de la raison, ou l'unicité de la logique. Avec les
technologies intellectuelles, nous ne nous confrontons pas à une matière formelle ou
axiomatique, mais à des pratiques culturelles collectives, à l'incubation de paradigmes, à
l'intériorisation d'horizons qui façonnent notre être au monde. Si nous nous arrêtions à cette
affirmation, nous renforcerions la doctrine de l'efficacité culturelle unilatérale (c'est-à-dire se
déployant sans contradictions) des technologies intellectuelles en général et, aujourd'hui, de la
téléinformatique en particulier. Nous tenterons de montrer, a contrario, que ce postulat
d'efficacité unilatérale doit être discuté.
On trouve, par exemple, dans l'ethnométhodologie une approche qui tranche avec les logiques
techno-centristes. Elle insiste, en effet, sur la manière dont les acteurs plient le matériel
cognitif qui leur est offert à leurs jeux d'intérêts, à leurs mythes, à leur monde affectif et
construisent ainsi leur éco-système culturel et technique. Cette thèse a souvent été invoquée,
par exemple, à propos de la télévision pour rendre compte des multiples modalités à travers
lesquelles des récits identiques sont interprétés par des cultures locales. Une étude a montré,
par exemple, comment la réception du même feuilleton, Dallas, dans plusieurs pays du Tiers-
monde, se moule selon des filtres locaux. La nocivité ou la bienfaisance des différents
personnages s'apprécient différemment selon les structures familiales dominantes[159]. (Mais
la télévision est- elle, à proprement parler, une technologie intellectuelle) ? Pour
l'ethnométhodologie, la question du caractère structurant des technologies intellectuelles ne se
pose pas ; on dira, par méthode. Focalisant son attention sur la manière dont les acteurs
construisent socialement leur réalité, elle ne peut -ni ne veut- présupposer la manifestation
"d'universaux", et notamment technologiques. Mais c'est justement cette éviction, "par
méthode", de la question de l'universalisme technique qui résout le problème avant de l'avoir
posé.
Les propositions qui tendent à nous persuader que nous sommes entrés dans une culture de
l'immatériel, de la vitesse et de l'instantanéité abondent. Elles nous assurent à la fois de
l'efficacité majeure des technologies intellectuelles dans le paysage culturel et de sa
propension à s'imposer comme logique transcendant les diversités culturelles. Elles en
appellent à des sentiments partagés qui reposent sur un jeu de renvois entre des évidences
incontestables et leur surévaluation. Que la visée "dromologique" (logique de l'accélération,
pour reprendre le néologisme de Paul Virilio) orientent nombre d'activités relationnelles,
productives, logistiques, éducatives, etc., cela, bien sûr, ne saurait être négligé. Mais que ces
observations soient érigées en quasi-théorèmes qui régleraient le devenir de notre monde,
relève plus d'une certitude de principe -ou au mieux de hâtives généralisations- que
d'observations soucieuses de la pluralité des logiques en cours.
La plupart des pensées du changement provoqué par la téléinformatique ne font que rééditer,
en les prolongeant mécaniquement, les effets des bouleversements technologiques antérieurs.
On découvre que l'auteur individuel est un sous-produit de la culture du livre. Qu'à cela ne
tienne, on annonce que la culture du réseau provoquera sa disparition. L'idée selon laquelle
l'écriture et le livre organisent une temporalité de la différance (au sens où Jacques Derrida a
constitué ce concept) fait désormais partie de notre héritage culturel. On affirme donc que les
réseaux numériques y substituent le règne du temps réel. Ainsi procède la mécanique quasi
mystique du bouleversement culturel adossée au constat de l'accélération techno-scientifique.
Nous souhaitons inquiéter ces considérations qui semblent faire consensus et attirer l'attention
sur la difficulté de déduire des technologies intellectuelles contemporaines, un modèle
culturel univoque.
Nous creusons l'hypothèse qu'avec ces technologies, se diffuse non pas une culture, ou des
logiques culturelles, mais une méta-culture avec des incidences contradictoires enclenchant
des dynamiques moins lisibles qu'il n'y paraît de prime abord. Tisser le nouveau avec, et non
pas contre, l'ancien, faire resurgir au coeur des conjectures actuelles d'anciens principes qu'on
a pu croire obsolètes, telle est l'observation commune qui réunit les différents parcours
proposés. Bref, par-delà la problématique des résistances, suivre les contradictions
constitutives des nouveaux paysages culturels en émergence. Nous tenterons de faire
apparaître ces incidences contradictoires, manifestant une distorsion de la problématique des
effets culturels, et cela selon six interrogations principales :
- La retraite de l'auteur ?
Le transport de la présence à distance -l'un des principaux paradigmes qui justement orientent
les cultures contemporaines et pour lesquels l'informatique crée simultanément l'offre et les
moyens de la satisfaire- interroge le rapport au territoire. Toutes les cultures modernes sont, à
des titres divers, imprégnées de cette tendance technique universelle fondamentale, même si
les déclinaisons locales prolifèrent. L'informatique, on l'a vu, a radicalisé cette tentative,
comme jamais aucun autre projet ne l'avait fait auparavant. (Les premières expériences de
calcul à distance précèdent même l'invention, stricto sensu, de l'ordinateur).
Lorsqu'on examine les premiers effets des réseaux comme Internet, on en déduit que la
croissance du transport de la présence se traduit par une déterritorialisation conçue comme
mise entre parenthèses du territoire, voire comme sa négation. Une attention plus mobile
permet de faire l'hypothèse que, loin de dissoudre l'importance de la localisation, les réseaux
ne font que l'accroître. Par exemple, les communautés qui voient leurs liens les plus affectés
par Internet sont des collectifs de proximité territoriale. Les communautés scientifiques,
thématiques par nature, étaient déjà reliées par d'autres canaux (documents postés, courrier,
colloques, etc.). En revanche, on peut faire l'hypothèse, vérifiée par quelques
observations[160] que des collectifs territoriaux trouvent dans Internet un moyen de renforcer
leurs liens, d'augmenter l'intensité et la fréquence de leurs rencontres de visu. À travers une
localisation dans l'espace informationnel, on renforce donc souvent, et paradoxalement,
l'importance de la localisation géographique.
Par ailleurs, signalons à nouveau, qu'à Paris, les entreprises du Web se regroupent aujourd'hui
dans le même quartier -le Sentier- et que les activités boursières, éminemment
consommatrices de réseaux, se localisent géographiquement, sur toute la planète, dans les
quartiers d'affaires des grandes villes. Faire de la présence à distance son métier exige et
engendre des communautés fondées sur la proximité géographique ; et ceci, plus que toute
autre activité, peut-être. Le développement des systèmes cartographiques informatisés, du
repérage spatial et de la communication mobile permettent de conforter ces premières
hypothèses.
Dès lors, on pourrait penser que le territoire a été colonisé par l'univers informationnel, qu'il
se manifesterait, donc, comme simple substrat, nourriture de base alimentant l'espace
informationnel qui tendrait à l'oblitérer. Plutôt que de suivre cette voie -celle du recouvrement
du territoire par la carte- il me semble plus intéressant de mettre l'accent sur la
reterritorialisation des informations, d'interpréter la croissance des S.I.G. comme l'indice
d'une force qui pousse vers la spatialisation de l'information (et tout particulièrement pour la
consultation d'informations qui n'ont pas d'attaches spécifiques avec le territoire, comme
certaines données commerciales apparaissant visuellement sous forme de zones colorées). De
cette inscription territoriale, on espère qu'elle ajoute quelque chose aux informations produites
: la saisie d'un détail moléculaire significatif, la manifestation de causes dissimulées que la
vision spatiale révélerait, la perception directe des grandes tendances qui orientent un paysage
de données.
Mais au fait, quels types d'informations ne se prêtent-elles pas à une vision spatiale ? Assez
peu échappent à cette injonction territoriale notamment dans les domaines commerciaux,
militaires, médiatiques, logistiques en général. Où a lieu un événement ? La réponse est
rarement indifférente. Mais ce qu'ajoute ce type de vision, c'est la puissance de traitement
informatique : par exemple, dans quelles rues habitent les lecteurs d'un journal, à bas salaires
et qui achètent leur quotidien tôt le matin ?
Mobilité et localisation
"Ubiquité" n'est pas synonyme de mobilité, mais désigne au sens strict, le partage simultané
de plusieurs lieux. C'est par assimilation de la continuité temporelle du lien communicationnel
à une pluri-localisation instantanée, qu'on peut parler d'ubiquité à propos de la communication
mobile. Ce qui en dit long sur l'insistance avec laquelle l'affiliation au réseau persiste à situer,
non plus dans un espace strictement territorial, mais dans un hybride territoire/réseau
communicationnel. Par ailleurs, même si "l'omniprésence" permet de s'affranchir de la
localisation unique, on peut considérer qu'elle accroche les lieux de labeur aux épaules du
travailleur nomade, multipliant ainsi les localisations possibles. Tout en pointant une
incontestable relativisation de la localisation spatiale, ces notions d'ubiquité et d'omniprésence
signalent, en creux, la persistance d'une préoccupation territoriale.
Le réseau ne dissoudrait donc pas la notion de lieu, mais il la retravaillerait en mêlant uni-
présence physique et pluri-présence médiatisée. D'ailleurs une description fine des rapports
entre l'ici et l'ailleurs ne devrait que rarement opposer présence et absence. Elle mériterait
d'être attentive aux multiples strates qui jalonnent les liens entre participants à un même
réseau : échange épistolaire entre chercheurs partageant les mêmes locaux, entre Internautes
se rencontrant épisodiquement, préparation d'une réunion par télé-relations, etc.
Jacques Perriault, dans son étude sur la formation à distance, le montre bien. À propos des
dispositifs de formation actuels qui intègrent les nouvelles techniques de communication, il
écrit : "Contrairement à ce qui a été fait dans le passé, ces systèmes n'opposent plus présence
et distance, mais intègrent les deux. Tout se passe comme si un processus d'hybridation était
en train de se développer"[165]. Le spécialiste de l'enseignement à distance souligne, à
plusieurs reprises et notamment à propos des réseaux d'échanges de savoir, l'importance des
formules mixtes associant communications à distance et rencontres collectives[166]. Les
étudiants, en présence d'un tuteur, utilisent, en groupe, les techniques de communications
telles que messageries, fax, téléphone pour se former à leur usage sur des études de cas. La
communication à distance est ainsi préparée et ponctuée par des exercices collectifs en
proximité. Il s'agit là d'un des nombreux exemples où présence et télé-relation se
combinent[167]. De même, l'expérimentation des mediaspaces (espace de travail commun
entre des collectifs à distance, mobilisant éditeurs partagés, visiophonie, équipements vidéos
des locaux, notamment) concerne tout autant des équipes séparées par l'Atlantique[168] que
des communautés de travail occupant les bureaux d'un même laboratoire, par exemple. Dans
un cas comme dans l'autre il s'agit bien d'effacer les séparations pour créer un espace collectif
unique muni, bien sûr, de fonctions séparatrices réglables (protection, disponibilité, etc.). La
tentative de rapprocher le lointain s'étend à la réorganisation du proche dans le même
mouvement qui a rendu évident l'usage local de la communication à distance (courrier interne,
réseau téléphonique et messagerie locaux, etc.).
La notion de glocalisation a justement été forgée pour désigner l'usage local d'un média
"global". Elle rend compte d'un des multiples agencements possibles entre le partage de l'ici-
et- maintenant et la pure télé-relation. Plus radicalement encore et aux antipodes du "village
global", le concept de "ville numérique" tend à désigner un moteur de recherche sur Internet
repérant les prestataires de services situés à proximité géographique du demandeur (syndicats
d'initiative, mairies, commerces, presse locale, météo locale, trafic local, etc.)[169].
La terminologie utilisée sur Internet (site, salle, salon...) n'a sans doute pas qu'une valeur
métaphorique. Elle indique que le marquage de la nature de l'espace désigné (public, privé,
intime) demeure une condition sociale de repérage des acteurs engagés dans l'échange à
distance. Au terme de ces mixages, ce sont les concepts de proximité, de localisation, de
territoire qui sont redéfinis, et non annihilés, par les nouvelles mises en relation du proche et
du lointain. La présence cesserait totalement d'être territoriale si le transfert à distance
devenait duplication de la présence et si la proximité pouvait, de ce fait, se jouer totalement
des confrontations corporelles. On en est bien loin.
L'une des sources où Internet puise son dynamisme est, nous l'avons déjà mentionné dans le
chapitre consacré à l'auto-médiation sur Internet, le désir d'une communication transparente
où les acteurs maîtrisent à la fois l'information et le média qui la fait circuler. Un exemple
parmi cent autres : présentant le site Parthénia, dans une émission de télévision[170], Mgr
Gaillot explique ce qu'il apprécie dans Internet:"[...] c'est le réseau horizontal qui se tisse, sans
passer par les pouvoirs, sans passer par les hiérarchies". Faire de chaque acteur aussi bien un
récepteur qu'un émetteur : en ce sens le réseau des réseaux est bien une réaction au principe
des massmedia. Il témoigne, dès sa prise main par les chercheurs américains dans les années
soixante-dix, d'une volonté de se rendre "maître et possesseur" d'un appareil
communicationnel, contre l'état et ses tendances naturelles à l'inquisition, aussi bien qu'en
opposition aux entreprises et institutions qui souhaitent privatiser la communication sociale.
Tisser le réseau par coopération, progressivement à partir des acteurs, en faire une
construction collective, organiser sa croissance, toutes ces dispositions, rappelons-le affirment
un modèle institutionnel ascendant, immanent ayant pour finalité son auto-développement.
"La connectivité est sa propre récompense" affirme A. Rutkowski, directeur exécutif de
l'Internet Society en 1995[171]. Connecter entre eux tous les ordinateurs du monde apparaît
comme un projet social où se dessine la figure d'une transparence informationnelle, d'une
communication immanente supprimant les intermédiaires spécialisés (éditeurs, groupe de
presse, institution de l'audiovisuel).
On définira, ici, la séquentialité (ou la linéarité) comme une structure d'appropriation fondée
sur la succession d'expression orales ou écrites, de figures, de sons, d'images contraintes par
un support. Ces expressions relèvent d'une spatialisation (comme dans l'écriture alphabétique
basée sur la ligne ou l'imprimé organisé en pages numérotées) ou d'une linéarité temporelle
comme dans le flux cinématographique, radiophonique ou télévisuel... et dans le langage, ce
qui n'est pas le moindre des enjeux. La séquentialité s'oppose à la présentation parallèle d'un
ensemble d'informations telle que la page d'un quotidien -contenant simultanément plusieurs
articles de poids éditorial équivalent ou inégal- en donne un premier exemple et les
conversations d'une réception mondaine, un autre. Séquentialité rime avec ordre univoque,
continuité, linéarité, accès par exploration systématique du support (comme sur une bande
vidéo) et s'oppose à parallélisme, simultanéité, accès direct (comme sur un disque
numérique).
Cette structure séquentielle serait, à première vue, bousculée par l'hypermédiation (parcours
chaîné de d'informations sur le Web par hyperliens, consultation interactive de CD-Rom, etc.).
Nous souhaitons montrer que la structure linéaire n'est peut-être pas si obsolète qu'on le dit
souvent et que les modalités de fréquentation des corpus numérisés soulignent assez
distinctement les qualités qu'elle véhicule, surtout lorsque ces qualités se combinent à la
puissance des outils de recherche issus de l'informatique documentaire. On en déduira que les
formes contemporaines d'organisation et de présentation des connaissances, décuplant la
puissance des dispositifs de circulation dans les corpus, se doivent d'articuler -et non
d'éliminer- les mérites propres de la séquentialité avec ceux de l'hypermédiation.
- la circulation hypermédiatique,
Mais quel intérêt présente une activation continue des multiples liens qui rapprochent des
thématiques dont les rapports, au bout de trois ou quatre générations de sélection de liens,
deviennent opaques ? Suivre tous les liens est, bien sûr, impossible. Finalement, le lecteur
pondérera les chemins suivis, retrouvant la nécessaire sélection, plus ou moins volontaire, qui
est à la base de toute construction cognitive. L'idée d'une décontextualisation totalement
explicitée et que l'on pourrait s'approprier complètement rabat la question du contexte sur la
pure matérialité de son inscription. Elle ignore le volet subjectif, intentionnel et non
intentionnel, de toute circulation dans un ensemble de connaissance.
Bernard Stiegler aborde, lui aussi, la question de la contextualisation, mais à partir des médias
fondés sur le flux instantané : "Les objets temporels industriels (les produits des industries de
programmes : radio et télévision principalement) dans la simultanéité et la mondialité de leur
réception, tendent à suspendre toute contextualité. L'industrialisation de la mémoire accomplit
la décontextualisation généralisée"[174]. Ses analyses procèdent par comparaison avec des
problèmes similaires engendrés par la pratique de l'écriture. On sait que la décontextualisation
provoquée par l'écriture entraîne une recontextualisation des interprétations par la lecture.
Cette structure en deux temps, différant le moment de la réception, est bouleversée par
l'instantanéité des télécommunications modernes. Mais doit-on dénier, pour autant, toute
composante herméneutique à la réception des flux médiatiques sous prétexte que le
destinataire ne peut plier le déroulement temporel du flux à son interprétation ? Négligeant le
fait que toute réception, y compris celle d'une émission de télévision opère aussi par tri,
pondération, rétention sélective, Bernard Stiegler a tendance à projeter la délocalisation de
l'émission sur le destinataire ("...une rythmique quasi-intégralement délocalisée, provenant,
par les réseaux de télécommunications, d'un ailleurs anonyme, satellitaire, sans ici ni
maintenant..."[175]) comme si la réception n'était pas aussi une activité dans laquelle est
impliquée le tout de l'histoire d'un sujet et des communautés qui le constituent. Et surtout, le
contexte actuel de la crise de confiance, dont on s'est déjà expliqué, majore fortement cette
activité, oeuvrant à l'encontre d'un couplage mécanique du récepteur avec l'industrie
télévisuelle normalisée. À la figure du grand tout, totalement et librement offert des prosélytes
du réseau, Bernard Stiegler oppose, dans le champ de la télévision, celle du grand "autre",
tyrannique et prescripteur. Bien sûr, il laisse entendre, à raison, que les "idiotextes" en cours
d'émergence (textes, hypertextes, hypermédias conçus et décryptés selon des situations
singulières, locales) possèdent une dynamique relocalisante, recontextualisante, hétérogène à
celle des produits de la culture de flux. On suivra ici Bernard Stiegler, en considérant que la
réception de la connaissance hypermédiatique -qui consiste à métaboliser le traitement de
l'information pour en s'en fabriquer de nouvelles connaissances- relève d'un nouveau régime
de construction de la croyance, marqué par l'expérimentabilité, et dont nous avons tenté
précédemment de situer les enjeux. La numérisation hypermédiatique peut, formellement,
contester la linéarité d'un récit, d'une explication, d'une circulation dans un ensemble
d'informations. Mais la circulation hypermédiatique par liens associatifs va probablement
renforcer le caractère stratégique de l'énonciation séquentielle, parce que le choix d'une
succession, l'élection d'un chemin unique enchaînant des idées et constituant une
démonstration, va revêtir un caractère "luxueux", en rapport avec l'affirmation d'un regard,
d'un point de vue, qui donne sens à la multitude des propositions qu'offre un hypermédia,
selon toutes les combinaisons possibles[176].
Ces affirmations reposent sur l'un des enseignements à forte teneur heuristique issus de la
problématique des technologies intellectuelles. Leur capacité à augmenter des connaissances
ne procède jamais par une libération des contraintes qui président à leur inscription. Bien au
contraire, c'est dans un travail contraint indexé sur ces inscriptions que gît leur vertu
d'accroissement cognitif. C'est parce que Mendeleïev classe spatialement les éléments
chimiques selon deux critères, et deux seulement, qu'il peut prévoir l'existence d'éléments non
encore découverts. La force des contraintes, la concision de l'expression est dans un rapport
direct avec la puissance d'élucidation obtenue. La séquentialité, sous cet angle, est une figure
imposée, expressive en tant que telle. Ce texte, par exemple, pourrait fort bien être présenté
sous forme d'ensembles d'énoncés reliés par des liens hypertextuels. L'effort du rédacteur s'en
serait trouvé notablement allégé. Il n'est pas sûr, en revanche, que le lecteur y gagnerait en
compréhension des idées développées et de leur articulation. Les écrire les unes après les
autres -et l'ordre adopté n'est jamais le seul possible- transcrit un choix d'enchaînement ainsi
que des pondérations qui expriment le sens, pour l'auteur comme pour le destinataire, des
propos présentés. Pour le lecteur, s'affranchir de ces contraintes de séquentialité au profit
d'une circulation/vagabondage dans des ensembles corrélés d'informations n'est pas une
garantie d'augmentation cognitive, si tant est que l'intérêt d'une recherche dépend de la
consistance des orientations qui y préside.
Il est vrai qu'une lecture est aussi une recherche et que les orientations qui guident cette
recherche peuvent, bien sûr, être modifiées par les cheminements empruntés. Mais, pour
conserver leur productivité intellectuelle, ces orientations doivent, sinon préexister
formellement, du moins procéder d'une interrogation préalable et se construire dans
l'exploration. Sinon une lecture devient un vagabondage sans principe. Chaque passage dans
un site se réduit à une commutation vers un autre et "surfer" dans des sites et des banques de
données devient assez rapidement compulsif ou ennuyeux.
Afin d'offrir des outils intellectuels synthétisant les explorations de grands corpus de
connaissances, de nombreuses recherches portent sur la visualisation tridimensionnelle de
"paysages de données". À Montréal, des chercheurs ont mis au point une interface qui, par
"copier/coller" permet d'associer à une requête, une portion du graphe de circulation dans des
sites Web, afin de la renouveler automatiquement. Au Medialab du M.I.T. à Boston, c'est une
interface de visualisation du Web en réalité virtuelle qui est étudiée. WW Movie Map présente
des informations organisées sous forme de "paysages de données" : Galaxy of News pour la
presse, Financial View Point pour la finance, Geo Space pour la géographie. Toujours dans le
Massachusetts, mais à l'Institut de la visualisation et de la recherche sur la perception de
l'Université Lowell, R. Pickett développe des programmes d'appréhension sensorielle de
grands gisements de données, qu'il invite à parcourir en utilisant à la fois l'ouïe, la vue et le
toucher (grâce à des interfaces à retour d'efforts qui permettent de ressentir physiquement des
objets virtuels)[177]. L'idée centrale est d'appliquer à de grandes quantités d'informations
brutes des procédures qui les organisent pour elles-mêmes et de constituer ainsi
automatiquement des systèmes d'interprétation qui préparent la reconnaissance et l'exploration
humaine. Exploitant des capacités humaines, telles que celles qui nous permettent de
reconnaître facilement une personne, ces chercheurs préconisent de transformer, par exemple,
des ensembles de données en visages afin qu'on puisse facilement les identifier et les
regrouper en familles. D'autres recherches, relatives au séquençage du génome, visent à
traduire en musiques spécifiques certaines séquences d'images d'acides aminés. Le système
CAVE, développé à l'Université de l'Illinois, affiche, dans un environnement de réalité
virtuelle, des images de données avec lesquelles on peut interagir.
D'autres outils, de facture plus simple, expriment aussi avantageusement la richesse de ces
médias. Se fait jour, en particulier, la nécessité de cataloguer les liens en précisant leur degré
d'intérêt et surtout la nature de l'association dont ils sont porteurs. Un site -ou une
information- peut, en effet être associé à un autre selon une multitude de relations (caractère
exemplaire ou au contraire généralisation, connexité faible ou forte, etc.). Celui qui consulte
ces informations gagnerait à se voir préciser le type d'associativité mobilisé. Certains langages
hypertextuels le permettent, notamment par l'ouverture de fenêtres associées au lien. Il serait
très productif aussi -en conception de sites comme en navigation- de pouvoir graduer
l'intensité du lien reliant une connaissance à une autre, une image à une autre, etc. L'objectif
consiste à faire sentir, dans le graphe ou la carte d'un ensemble hypermédia, les chemins
structurants, les colonnes vertébrales essentielles. On devrait pouvoir tester différents
systèmes de catalogage des liens hypertextuels. Des cartographies d'ensembles d'informations
feraient alors apparaître, non pas des items massivement interconnectés, mais des autoroutes,
des nationales et des chemins vicinaux reflétant la vision subjective des concepteurs. Ces
possibilités commencent à se concrétiser sur le Web[178].
Par de multiples canaux, la séquentialité qu'on a cru pouvoir chasser par la porte fait retour
par la fenêtre. L'inscription des chemins suivis de site en site par la mobilisation de liens
hypermédiatiques, en est un témoignage. La "traçabilité", ainsi que l'on nomme cette
mémorisation, reconduit une forme de séquentialité sécrétée au coeur même de
l'hypermédiation, puisqu'elle manifeste l'intérêt reconnu à conserver une trace de passage dans
le foisonnement des sites parcourus. Bien entendu, à la différence d'autres supports (pages
numérotées de livre ou bande vidéo, par exemple), cette linéarité est éminemment subjective,
puisqu'elle inscrit la succession des choix propres à un parcours et disparaîtra ensuite, sauf
action volontaire visant à la conserver. Ce marquage automatique ne sera vraiment exploité
que si une orientation directrice préalable fonde le cheminement. Sinon, la trace inscrite
n'aura d'autre fonction que de témoigner du papillonnage effectué. La vogue récente des
"anneaux" -groupements thématiques par affinité de sites dans lesquels on passe
nécessairement d'un site à son successeur dans la chaîne bouclée[179]- est sans doute aussi à
verser au dossier de la résurgence de la linéarité.
De la même manière, l'intérêt d'une ligne directrice se fait particulièrement jour dans le cadre
des consultations "savantes" sur Internet. S'y exprime le désir de pouvoir bénéficier d'une
visite commentée par un spécialiste, des sites qu'il a sélectionnés, décrits, hiérarchisés et dont
il a précisé les relations avec la thématique centrale. Prolongement de la bibliographie
commentée, ce type de site devient, pour certains domaines, d'une urgente nécessité. On
découvre, à nouveau, dans le contexte de l'hypermédiation, la pertinence d'un méta-parcours
séquentiel. Apparaissent, ainsi, de nouveaux alliages entre linéarité et hypermédiation qui
renforceront probablement les deux qualités, sans substituer la deuxième à la première.
Fondamentalement il s'agit de résumer, de compacter, d'exprimer les structures organisatrices
d'un champ de connaissances dans un schéma qu'on peut saisir par le regard. En effet, il ne
faudrait pas penser cette question de la linéarité de manière régressive, en la rabattant, par
nostalgie, sur la culture de l'imprimé, transformant celle-ci en horizon indépassable. Bien
qu'épousant en apparence l'écoulement fléché de la temporalité, la linéarité n'est en rien
"naturelle", comme en témoigne l'intense parallélisme de nos activités mentales, y compris
intellectuelles. Et c'est précisément cette "artificialité" qui doit être exploitée comme
contrainte heuristique. La question de la séquentialité est intimement liée à celle de la
causalité : "après" sous-entend souvent "par conséquence". Le caractère fondamental de la
linéarité tient au rapport entre la structure temporellement fléchée de notre perception et la
malléabilité temporelle de nos mises en scène mentales individuelles et collectives. Sous cet
angle, la linéarité est une force de rappel, trop souvent ignorée dans l'enthousiasme
hypermédiatique actuel. Comme contrainte, elle assure une tension productive entre ces deux
structures. Si l'on prétend l'ignorer, cette tension disparaît et sa productivité avec elle.
La carte, par exemple, est, apparemment, l'autre du guidage linéaire. Elle se consulte par
saisie globale, parallèle, simultanée. Mais exploiter une carte, c'est aussi se construire des
chemins, pratiquer des enchaînements de cause à effet, y compris si cette exploration s'opère à
travers une saisie multi-sensorielle et s'ouvre à une multiplicité de séquences linéaires. Les
outils cognitifs qui offrent des traductions cartographiques intensives par traitements
automatiques répondent, à leur manière, aux exigences de causalités locales et générales tout
en respectant la pluralité des inférences possibles.
Dans le domaine de la recherche documentaire sur de vastes corpus, Alain Lelu assure qu'on
ne saurait se contenter d'interfaces de navigation définie une fois pour toutes, comme sur les
CD- Roms, et qu'il sera donc indispensable "que l'utilisateur final puisse maîtriser l'appel aux
diverses ressources, qu'il pourra paramétrer à sa guise ; il en ira ainsi de l'appel à des outils
d'indexation automatique ou assistés, de la possibilité de sélectionner certains sous-ensembles
de documents et de termes en fonction de divers critères..."[180]. Il insiste tout
particulièrement sur le fait que la navigation à travers des corpus textuels étendus exige de
cartographier ceux-ci en offrant à la fois une vue d'ensemble ainsi que des cartes locales.
Les outils d'analyse automatiques mis au point dans ce cadre (indexation et génération de
mots-clés, cartographie) ont ceci d'original qu'ils appellent une intervention ultérieure de
l'utilisateur pour éliminer ou filtrer certains résultats ou encore ajouter facilement des
documents sans remettre en cause l'analyse déjà effectuée. Le mode de navigation est ainsi
réglé par l'utilisateur qui peut combiner requêtes booléennes classiques, calculs statistiques de
proximité, calcul de cartographie sémantique selon les requêtes composées, etc. ; bref, un
véritable arsenal d'outils d'ergonomie cognitive, destinés à compacter le corpus documentaire
selon plusieurs modèles possibles.
D'où le projet d'une transmission infra-langagière transcendant les cultures nées de l'écriture
et promettant un paradis communicationnel sans codes ni règles. Marshall McLuhan traçait
déjà, à partir des caractéristiques de l'électricité, des perspectives similaires : "La technologie
électrique n'a pas besoin de mots, pas plus que l'ordinateur numérique n'a besoin de nombres.
L'électricité ouvre la voie à une extension du processus même de la conscience, à une échelle
mondiale, et sans verbalisation aucune..."[183].
La culture des réseaux rend-elle obsolète le statut de l'auteur individuel ? On sait que la notion
d'auteur individuel et le souci de l'attribution personnelle des oeuvres (écrites ou picturales)
prennent leur essor à l'ère de l'imprimerie[185]. On a vu comment, élargissant cette démarche,
des courants de l'épistémologie contemporaine ont mis en lumière l'importance de la
mobilisation de réseaux sociaux dans l'élaboration des connaissances nouvelles (l'étude, par
Bruno Latour, de la découverte du vaccin par Pasteur est un modèle du genre). On rappelle,
que dans cette perspective, l'auteur, le découvreur devient un noeud singulier par lequel
passent des groupes sociaux ; il se réduit à une interface entre des réseaux, au mieux un agent
capable de potentialiser la rencontre de lignages hétérogènes. Réactualisant une forme de
pensée structuraliste (le locuteur prête ses lèvres au langage, ici l'inventeur prête son cerveau
et ses instruments aux réseaux socio-techniques), ces courants s'en séparent cependant dans la
mesure où ils n'ont pas recours à des structures universelles qui "surdétermineraient" les
acteurs. Dans la "sociologie de la science", l'idée des grandes Idées fait place à l'étude des
bricolages astucieux et des manipulations rusées qui permettent de contrôler et d'enrôler
d'autres réseaux d'acteurs. L'acteur lui-même perd son individualité anthropologique. Il
devient un élément composite, un alliage humain/non-humain mêlant des personnes, des
stratégies de prélèvements sur la "nature" et des systèmes techniques.
Une vue superficielle pourrait laisser croire, qu'à travers les réseaux, l'auteur singulier
disparaît au profit d'agencements collectifs qui seraient devenus la seule source productrice
des connaissances[186]. Nous avons déjà discuté la validité de cette assertion. Qu'il faille
prendre la mesure du caractère culturellement et techniquement distribué de toute création
(artistique, scientifique, etc.), on ne le contestera évidemment pas. En revanche, doit-on tenir
pour argent comptant l'idée que les télé-technologies annihilent le sujet créateur sous sa forme
personnelle ? Ces vues -qui font signe (de manière nostalgique ?) vers l'époque classique où
l'auteur, vu comme sujet individuel, n'a pas d'espace propre- font de la création un processus
d'émergence absolument collectif.
À l'ère des réseaux et de la complexification des alliages numériques façonnant notre outillage
intellectuel, le sujet individuel me semble devenir, a contrario, un point de passage
stratégique, plus nettement même qu'à l'époque de l'imprimerie triomphante ou de
l'audiovisuel conquérant. La profusion des sources de production d'informations et la
densification -hypermédiatique, notamment- des relations entre ces corpus majore
l'importance du moment de la synthèse individuelle, du jugement subjectif personnel, de la
production d'idées réorganisatrices originales. Que ce moment soit pris et produit dans un
chaînage techno-culturel, on l'accordera sans peine. Que les maillages actuels des réseaux
densifient ces chaînages comme jamais auparavant et qu'ils mobilisent l'automaticité des
programmes informatiques à un degré inédit, on ne saurait trop le souligner. Mais
diagnostiquer, pour autant, la disparition de l'auteur, c'est aller bien vite en besogne.
Il n'est que de constater à quel point notre époque est amoureuse des génériques -et en
particulier dans le multimédia- pour s'en convaincre. Dans le moindre CD-Rom, dès qu'un site
sur le Web semble relever de la création artistique, personne ne doit être oublié (comme dans
l'audiovisuel). L'importance croissante de la signature des articles scientifiques -de la
hiérarchie des signatures, plus exactement- ainsi que le développement des logiques
citationnelles (comptage du nombre de citations faites à un auteur dans les publications d'un
domaine) abondent dans le même sens. (Certains logiciels sur Internet s'attachent même à
débusquer les renvois systématiques d'ascenseurs pour éviter que des légitimités s'établissent
sur le dénombrement automatique des références). Parallèlement à la systématisation de la
coopération productive, plutôt qu'un évanouissement, c'est bien une hypertrophie de la
signature qui se propage. Le contexte de l'hypermédiation devrait plutôt inciter à penser un
concept d'auteur en collectif (et non d'auteur collectif) qui dépasse la dénégation de
l'individualité au profit d'un renforcement parallèle des deux pôles.
Face à un écran géant, on tient la terre entière sous sa main, grâce à une manette de
commande. La planète numérisée offre chacun de ses continents à une descente (aux enfers ?)
par un zoom continu (ou presque, car les cartes qui correspondent aux différents niveaux de
vision se raccordent avec un certain temps de latence). Le dispositif T-Vision[187] se
rapproche progressivement d'une carte régionale, puis locale, enfin d'une vue aérienne (issue
d'images satellitaires mapées sur ces cartes), dans laquelle on pénètre jusqu'à apercevoir des
détails tels que des immeubles, des carrefours et des rues. Les Systèmes d'Informations
Géographiques mettent en oeuvre les mêmes procédés. Par zooms ou agrandissements d'une
rue, d'un quartier, d'une ville, on circule, en continuité, du plan local à la carte de France.
Comme dans le film Les puissances de dix, la plongée dans l'image ressemble plus à un
survol, depuis l'espace, et à un atterrissage qu'à la saisie d'un panorama. L'effet de simulation
réside ici dans l'irréalité d'un franchissement accéléré des échelles de vision, depuis
l'observation à partir d'un satellite jusqu'à la focalisation rapprochée. Il ne s'agit pas seulement
de l'hétérogénéité des échelles. À cela, les dispositifs optiques nous avaient déjà habitué. Ici,
en revanche, le lissage est continu entre ce que le regard humain peut saisir (une rue, une
place) et ce qui exige un artifice technique (voir simultanément la rue et le plan de la ville ou
contempler la terre depuis l'espace, par exemple). L'élision de la frontière entre ces deux types
de saisie dessine un espace lisse et partout disponible, ouvert à tous les trajets visuels, à
l'image de la métaphore de la "toile", enserrant le globe dans ses mailles en constante
densification. Une fois que toutes les données cartographiques et topographiques terrestres
seront réunies et stockées dans la mémoire de la machine -ce qui est loin d'être le cas- le
mythe panoptique sera-t-il réalisé ?
Le CD-Rom "Paris"[188] poursuit, à l'échelle d'une ville le même type de projet. Ici, on se
ballade dans Paris ; sorte de flânerie urbaine sur écran, avec des fonctions de déplacement et
de vision assez évoluées, prenant comme modèle la libre déambulation dans un espace urbain.
Cette déambulation est assistée par les fonctions propres au visionnage numérique
(déplacement sur plan, signalétique surimprimée par des flèches, fenêtres d'informations sur
les sites, monuments, etc.). Face au plan de la ville, le promeneur choisit son point de départ :
le pont Neuf, par exemple. À chaque carrefour, le flâneur peut choisir sa direction. Rotation
d'un tour sur soi-même pour découvrir le panorama, zoom avant dans la direction indiquée par
une flèche, la visite se poursuit selon ses inclinations. D'où la promesse de cette réalisation :
un déplacement, par zoom, en un infini plan-séquence qui nous amènerait, à partir d'un site,
en tous points de l'espace visible.
Mais est-il possible de s'engouffrer dans une ruelle entr'aperçue au détour d'une promenade,
ou d'entrer dans l'échoppe, là juste à droite ? Fameux désir de transcrire l'infinie profondeur
de la réalité dans un média nécessairement fini. Car les capacités de stockage limitées du CD-
Rom ne permettent pas d'emmagasiner toutes les rues de Paris. Et la génération des DVD-
Rom, reculant les limites, ne parviendra pas plus à capturer toutes les cours d'immeubles avec
leurs recoins, tous les escaliers et tous les intérieurs d'appartements. Un système mondial
omniprésent de Webcams, d'une densité aussi serrée qu'on voudra n'y suffirait pas plus. On
comprend qu'il ne s'agit pas là d'une limitation de l'espace- mémoire des supports ni de la
quantité d'équipements de transmission télécommandés nécessaire, mais de l'impossibilité
constitutive d'envisager l'explosion fractale des curiosités potentielles : curiosités qui se
révèlent, non pas en tant que projets préalables à l'exploration, mais dans son cours même.
Faire reculer sans cesse les contraintes qui enserrent nos déplacements, augmenter sans répit
nos latitudes exploratoires, nourrit parallèlement notre insatisfaction face à des promesses qui,
se voulant approcher la vraie vie, nous font miroiter toujours plus de libertés. La frustration en
est d'autant plus vive ; ce faisant, elle devient un moteur pour relancer une quête que l'on sait
sans fin.
Avec Place-A User's Manual[189], l'artiste Jeffrey Shaw renouvelle, avec les moyens de
l'imagerie interactive, le genre "diorama" et imagine ainsi une nouvelle formule panoptique.
Placé sur une plate-forme, au centre d'un cylindre, le visiteur manipule une caméra-interface
qui fait tourner la plate-forme motorisée. Sa rotation délimite une portion de l'écran circulaire,
toujours en face de lui. L'image projetée représente une série de cylindres (une dizaine en
tout) sur lesquels des panoramas (numérisés à partir de photographies prises avec de très
grands angles), eux-mêmes circulaires, sont affichés[190]. La caméra-interface permet de
contrôler le déplacement, deux boutons commandant les zooms dans les panoramas. Arrivé
très près du cylindre, une rupture se produit et on se retrouve à l'intérieur du panorama
circulaire, découvrant le paysage sur la surface englobante du cylindre devenu enceinte. Mais
en arrière-fond, derrière le paysage affiché, se dessinent les autres cylindres aperçus
précédemment. Un autre zoom et l'on franchit à nouveau la surface pour retrouver le paysage
panoramique initial des cylindres.
Le CD-Rom "18h39" propose de consulter "un instant photographique" présenté sous forme
d'un quadrillage en seize pavés, chacun d'eux se prêtant à des avancées possibles sur quatre
niveaux de profondeurs[191]. Le spect-acteur s'aperçoit très vite que le photogramme de
départ est, en réalité, plus un sommaire multimédia qu'une surface opaque. Un sommaire et un
instrument d'exploration tout à la fois, puisque que la photographie centrale contient les
moyens de sa propre dissection. Le viseur photographique (ou celui de l'arme de précision)
sert de pointeur et on peut, en effet, découvrir et actionner, à l'intérieur de l'image, des
instruments de visionnage (dénommés "machine de vision" tels que panoramas, visionneuse
de diapositive, séquences vidéo, plans de situation, cartes, etc.). La photographie apparaît
alors comme une lucarne dont il est possible de déplacer les limites : repousser les bords,
changer de point de vue pour découvrir ce qui se cache derrière un personnage ou un meuble,
faire fonctionner un objet. Les limites temporelles sont, elles aussi, mobiles puisque certaines
informations glanées au cours de l'exploration (films vidéo, par exemple) présentent des
événements antérieurs.
Le regardeur acquiert des indices relatifs aux événements qui ont abouti à la vue de départ :
séquences vidéo, analyse spectrale d'objets, sonogrammes d'un tir de fusil, fiches
signalétiques d'objets, analyse d'empreintes digitales, par exemple. Cumulant tous les formes
d'archives (fiches documentaires, photographies, vidéos, simulation d'objets), l'explorateur
raccorde certaines bribes et établit des chaînes associatives reliant événements, objets et
personnages. Fouille archéologique, enquête policière, criminologie scientifique, les genres se
mêlent pour tenter de comprendre ce qui s'est passé à 18 h 39 (1839 est, rappelons-le, l'année
où la photographie fut inventée). Il n'y a pas de trame narrative, mais on s'aperçoit que des
indices appartiennent à des familles de faits. D'où l'idée qu'une histoire se tient en arrière plan,
laquelle orienterait la succession des signes mis à jour. Mais cette histoire n'existe pas. On
peut -on ne manque pas de- s'en fabriquer une. (Même si ce n'est pas son objectif, cette
proposition résout de manière astucieuse, la contradiction entre narration et interactivité. Pas
d'histoire, mais des matériaux, des trames, des associations pour s'en fabriquer autant qu'on
veut. Toutes sont valides et consistantes puisque c'est nous qui les imaginons, avec leurs
incongruités éventuelles, et qu'aucune n'a été conçue en particulier. C'est, en creux, tout
l'intérêt de la réalisation : montrer qu'un moteur narratif fonctionne toujours en nous). La
scénographie d'ensemble combine astucieusement des plongées qu'on peut croire infinies dans
des détails avec un retour régulier à l'image initiale. Si bien que le sentiment d'une réalité de
complexité insondable, provoqué, en particulier, par la multiplication des niveaux d'analyses,
ce sentiment est tempéré par le rappel constant à une représentation centrale. La grille
matricielle en fil de fer, appliquée sur cette image symbolise assez bien l'alliance entre
l'autonomie de chacune de ses parties d'une part, et le maintien d'un certain contrôle
panoptique global, de l'autre. Mais, bien sûr, il s'agit là d'un panoptisme original qui nous
confirme qu'une image dissimule autant qu'elle révèle.
Un panoptisme distribué
Nous avons volontairement choisi des champs d'activités hétérogènes (oeuvres artistiques et
outils d'informations logistiques) pour questionner le statut de l'espace tel que les technologies
numériques le modèlent et le présentent. Mais comment comprendre ces diverses propositions
? Quel cadre d'analyse permet d'en révéler les mouvements princeps ? On se souvient que
Foucault symbolisait la société de surveillance par le panoptisme. Lequel supposait un centre
unique de vision, lieu du pouvoir. Ici, le "tout visible" cher au projet panoptique est remplacé
par une autre formule, le tout réglable, pénétrable, mais grâce aux décisions du regardeur. Et,
surtout le centre panoptique est potentiellement démultiplié puisqu'il se confond avec la
disponibilité du dispositif. Il est vrai que T-Vision reste un prototype nullement appelé à
s'installer dans nos foyers. Mais d'autres équipements, notamment de guidage routier,
s'apprêtent, eux, à offrir largement leurs services. Ètudiés selon les mêmes principes, ils
permettent, outre la localisation dynamique, de régler les échelles de vision.
En revanche, l'unicité de l'espace -que symbolisaient les cartes imprimées - n'est plus une
donnée évidente. Elle devient un horizon abstrait : la même Terre, la même ville mais qui se
déforme selon les inclinations de chacun. Les trajets sont multiples, subjectifs, seul leur
champ d'opération est maintenu commun (le globe, Paris ou une zone géographique). Au tout
visible, à partir d'un lieu unique et surplombant, fait place un panoptisme collectif, truffé
d'instruments de navigation à l'image de la possible commande par tout un chacun, via
Internet, d'une photographie satellitaire de n'importe quel point du globe avec une précision
digne des services de renseignements militaires[192]. Le panoptisme moderne est distribué.
Ce n'est plus l'oeil du maître qui en est le siège, chacun peut s'y exercer. Mais, différence
fondamentale, en sachant qu'une portion seule de l'espace lui est visible ; celle, finie,
correspondant à ses trajets.
On pourrait, à première vue, affirmer que le nouveau panoptisme qui s'invente illustre
parfaitement l'omniprésence du réglage individuel des parcours. Mais alors pourquoi
continuer à parler de "panoptisme" et ne pas y substituer la diffraction individuelle de
l'observation ? Une telle interprétation ne rendrait pas compte d'un phénomène essentiel :
l'obsession d'une saisie commune de l'espace, de son rassemblement dans une même vue
techniquement organisée. L'interprétation orwellienne (le contrôle absolu par un regard
anonyme et omniprésent), tout comme la perspective strictement individualiste,
monadologique, ne semblent pas rendre compte des scénographies spatiales qui s'installent
dans nos modernes fenêtres.
Les Webcams[193] sur Internet, sortes de viseurs démultipliés par lesquels chacun peut voir
ce qu'un autre a décidé de lui montrer, relèvent d'une exposition généralisée. Mais ces
lucarnes ouvertes à qui veut bien s'y glisser délivrent une vue fragmentée de l'espace. Et
l'exhibitionniste, même s'il autorise la manipulation, par l'Internaute, de la caméra, conserve le
contrôle des champs de vision. La multiplication des Webcams fait signe vers une couverture
instantanée complète des vues possibles sur la planète, une improbable saisie de toutes les
images du monde où chacun met son regard à la disposition de tous. Cet exercice "d'omni-
diffusion", est le pendant visuel de la conversation multipolaire, éclatée qui s'alimente sans
cesse sur le réseau. "Vu sans savoir qui voit" (et non plus seulement "voir sans être vu")
pourrait en résumer le fonctionnement ; idéal d'un panoptisme réparti en autant de volontés
assurant la diffusion d'un morceau infime du grand puzzle non-totalisable.
Paul Virilio, dans son article "OEil pour oeil, ou le krach des images"[194], interprète
unilatéralement le développement des Webcams dans une perspective de contrôle généralisée.
Les Webcams deviendraient "des régies vidéo des comportements", "postes de contrôle de la
perception du monde". Le panoptisme est logiquement sollicité dans une version inquisitrice
classique, avec le "marché du regard" ouvrant au "panoptique de télésurveillance généralisée".
Mais ce diagnostic présuppose qu'un oeil unique est en position sommitale pour totaliser
toutes les observations (et symétriquement qu'un corps unique produit toutes les exhibitions).
Or c'est bien à l'opposé du rassemblement des points de vues qu'oeuvre la diffraction des télé-
regards par Webcams interposés. Et si l'on osait une prédiction socio-technique, il faudrait
postuler l'émergence d'une industrie du rassemblement des images de Webcams, aujourd'hui
indépendantes, à l'aide de puissants robots- chercheurs visuels organisant l'affichage gradué
des visions du local, au régional puis au mondial, avec toutes sortes de focalisations spatiales,
thématiques, etc. La dialectique diffraction/réunion -autre manière de nommer la question du
mode de collectivisation de l'expérience sociale- n'a probablement pas fini de nous étonner
L'oeuvre de Jeffrey Shaw (Place) manifeste, elle aussi, l'impossibilité d'un point de vue
unique dès lors qu'aucune position ne permet une véritable vision panoptique, impliquant le
contrôle d'un espace devenu réversible. Sous les espèces de la fusion de l'intérieur et de
l'extérieur, là aussi, l'obsession de la clôture de l'espace est évidente. Bien qu'on y voyage
librement et indéfiniment, on ne sort pas du paysage. Tous les lieux de la Terre rassemblés
dans une même base de données et liés continûment les uns aux autres, tous les sites d'une
ville accessibles par les mêmes procédures, tous les réseaux fonctionnels d'une commune
mémorisés sur un même support : comment ne pas y déceler la marque d'une inquiétude, celle
d'une fuite des repères communs ? Mais aussi une réponse assez forte à cette inquiétude, sous
la forme d'un compromis ingénieux maintenant le cadre collectif tout en organisant la
dispersion des saisies et des trajets.
L'usage du concept de "temps réel" révèle, tout particulièrement, les doutes qu'on peut avoir
sur ces diagnostics. Mûri, au cours des années cinquante dans les arcanes du M.I.T., à travers
les recherches militaires d'automatisation de la couverture radar du territoire américain (le
fameux programme SAGE), la notion de "temps réel" s'est socialisée dans l'univers de
l'informatique des années soixante-dix lorsque la mise en oeuvre des programmes est devenue
"conversationnelle". Cette désignation qualifie des applications (machines et logiciels) dont le
temps de traitement est compatible avec le phénomène à contrôler (quelques secondes pour
une billetterie automatique, quelques millièmes de secondes pour des dispositifs de sécurité
dans les transports, par exemple). En caractérisant le régime temporel contemporain par ce
concept de "temps réel", on identifie la quasi-instantanéité du calcul informatique avec les
conditions d'usage des programmes. Or, si le traitement interne s'effectue bien en "temps
réel", le traitement externe -qu'on nomme aussi interaction- épouse une toute autre logique,
celle de la temporalité humaine de saisie, de questionnement, parfois de doute, de décision et
finalement d'action.
On fait trop souvent un usage décalé du concept de "temps réel". En fait, il exprime
parfaitement le régime des télécommunications dès lors que la réception coïncide avec
l'émission. Dans la communication de flux (radio, télévision), l'adéquation est parfaite. Sur un
plan temporel -et non sémiotique ou affectif- la réception épouse l'écoulement linéaire de
l'émission. (On pourrait d'ailleurs faire remonter la notion de temps réel au processus
"indiciel" de la prise d'empreinte, avec la capture photographique de l'apparence, dès que les
temps d'exposition eurent été réduits à la commutation de l'objectif). Avec l'installation
massive des procédures informatiques, le régime temporel dominant s'infléchit à nouveau en
redécouvrant des modalités de différance, d'espacement, d'attention propre au traitement de
l'information, modalités qui exigent une durée et non pas une simple affiliation à un flux.
Mise en oeuvre de logiciels de traitement de texte, exploration interactive de CD-Rom,
activation de jeux vidéo, navigation sur Internet, pour ne citer que quelques activités phares
de l'ère du traitement de l'information : toutes pratiques qui nécessitent une série de choix, de
réglages, de manipulation d'interfaces. Ces fréquentations se déroulent dans une durée qui
n'est plus programmée par un flux indépendant des acteurs, mais qui dépend du jeu de
l'interaction.
L'automatisation (dont Gilbert Simondon nous a appris qu'elle ne simplifie pas les processus
auxquels elle s'applique mais les complexifie) accélère le traitement de l'information mais
ralentit son appropriation. La formalisation des savoirs dans des logiciels spécialisés a pour
conséquence d'augmenter la longueur et la difficulté de leur mise en oeuvre. Du traitement de
texte à l'usage d'un photocopieur, tout le monde a pu se convaincre que le perfectionnement
des versions -rimant avec automatisation grandissante- était dangereusement chronophage.
Survivance de la logique de l'enregistrement et parfaite expression de la télédiffusion (de
textes, de sons et d'images), l'instantanéité ne caractérise plus le paradigme temporel qui
émerge à l'ère du traitement de l'information et des connaissances. La toute-puissance du
"temps réel", la prédominance de l'immédiateté s'altèrent progressivement au profit de
régimes qui renouent, par certains aspects, avec ceux de la lecture/écriture et des logiques
éditoriales : temps différé, variabilité des durées, ajournement des effets immédiats d'une
diffusion de programmes dont il appartient à chacun d'actualiser les règles.
Nous avons proposé de nommer "présentielle" cette confrontation locale, par opposition à la
culture du "temps réel" fondée sur une sollicitation -jamais totalement réalisée- d'absence à
soi exprimée dans une invitation projective. Par opposition, aussi, à la lecture où les
dimensions de "présence" dans le récit sont quasi-exclusivement interprétatives, imaginaires
(si on fait abstraction du rapport mécanique, automatique à la conformation matérielle du livre
ou d'autres supports imprimés). Avec la posture interactive, on l'a vu, le transport imaginaire
s'articule plus nettement avec les dimensions corporelles (enchaînements de gestes, de vision,
d'audition propres à l'exercice de l'interaction). Dans l'univers des récits interactifs, par
exemple, les transports obligent le spect-acteur à se prendre comme objet de questionnement,
l'assignent au choix, à la décision, où encore à l'exploration de l'écran, tout ceci ordonné par
un moteur narratif organisant la pluralité des parcours possibles. Cette confrontation fait
alterner les phases d'adhésion/pénétration dans le récit, et de décrochage -recherche aveugle
par cliquages exploratoires- ou de prise de décision dans une série explicite d'enchaînements
possibles. Toutes ces postures provoquent une interpellation beaucoup plus nette qu'avec le
récit audiovisuel et donnent une vigueur nouvelle à la durée locale.
Nous n'ignorons pas qu'un pan entier des usages de la programmatique vise à augmenter la
réactivité (c'est-à-dire la vitesse de réaction) des acteurs et des systèmes engagés dans les
mêmes activités (automatisation industrielle, organisation des entreprises en réseau,
interconnexion mondiale des places boursières, etc.). Faut-il en conclure que dans la sphère
productive et commerciale la recherche de l'instantanéité orienterait fondamentalement les
restructurations en cours, alors qu'elle déclinerait dans l'espace public organisé par les
médias ? C'est une hypothèse plausible.
Une autre approche permet de rendre compte de cette apparente disjonction de formes
temporelles dans ces champs sociaux. Tout en reconnaissant la spécificité des régimes de
durée propres aux sphères médiatiques et productives, elle offre l'avantage de ne pas les
opposer. En effet, si on prend un peu de recul face à la scène de l'instantanéité telle que les
opérateurs tétanisés sur les marchés financiers nous en offrent un spectacle exemplaire, on
découvre une organisation temporelle où le moment de la décision, de l'action est préparé par
un gigantesque compactage temporel, que l'on nomme habituellement "programme
automatique". Le nez collé sur les transactions boursières déclenchées automatiquement par
un Program trading basé sur l'analyse instantanée des différences de cotations entre les
Bourses de New-York et Chicago, et nous voilà prêt à signer toutes les thèses sur la
prédominance de l'immédiateté. Ce faisant, on néglige peut-être l'essentiel : le temps passé à
réaliser et à tester les programmes d'interventions automatiques, véritables réserves, sous
pression, de données, de calculs et de raisonnements formalisés, qu'un diagnostic adéquat
libère dans une fulgurance. La précession programmatique, dont chacun imagine la quantité
d'hommes-années qu'elle rassemble, est la condition du déchaînement instantané. (Un
programme aussi couramment utilisé que Word représente environ deux cents hommes-
années de travail).
Paul Virilio avait déjà attiré notre attention sur ces mécanismes à propos des stratégies
militaires de la dissuasion. La planification de la machine militaire précède le déclenchement
des opérations et le moment stratégique se déplace de l'actualité du champ de bataille vers
l'antériorité de la programmation militaro-économique des systèmes automatiques qui, en
assumant l'engagement, disqualifient les capacités humaines de décision. On le sait, tout le
régime politico-militaire de "l'équilibre de la terreur" a reposé sur ces déplacements de
primauté.
On peut discuter cette vision d'une guerre d'automates pré-programmés (les plus récentes
doctrines militaires américaines semblent, en revanche, redonner une place importante à
l'initiative sur le terrain). Mais elle recèle incontestablement une part importante de vérité, que
l'automatisation de l'observation géographique, du déroulement des missions aériennes et du
dépouillement de l'information acquise confirme. De même, croît le caractère stratégique de la
maîtrise des communications. Le vocabulaire législatif suit la même logique d'accumulation
lorsque les parlements votent régulièrement des lois de "programmation militaire" à cinq, dix,
voire vingt ans.
Les mêmes principes sont à l'oeuvre dans toutes les activités fondées sur la réactivité quasi
instantanée des systèmes ou des organisations : commutations automatiques dans les réseaux
de télécommunications, programmes d'investissement boursier, intégration industrielle des
fonctions de conception, de production, de marketing, de commercialisation, ou encore
dispositifs de sécurité industrielle[195]. Ainsi voit-on émerger une temporalité dissociée où la
rapidité de la décision-action est en rapport avec l'immensité du temps passé à la préparer.
La réévaluation que nous proposons n'implique pas que l'instantanéité soit appelée à
disparaître de notre horizon et soit systématiquement remplacée par l'épaisseur temporelle
d'un traitement. Loin de nous, l'idée que le modèle de l'émission/réception immédiate soit
balayé par les formes programmatiques émergentes. Ce modèle est puissamment installé dans
notre paysage et il ne s'évanouira pas dans un avenir prévisible. En revanche, il ne recèle plus
la puissance irradiante qu'il possédait à l'ère de la télédiffusion triomphante. Aujourd'hui, sa
capacité à organiser la structure temporelle de l'espace public, tout en demeurant notable, n'en
est pas moins déclinante. Et cela n'est pas sans rapport, on l'a vu, avec la crise de confiance
qui affecte les massmedia et la croissance corrélative des principes d'expérimentabilité qui en
prennent la relève. Notre espace public voit émerger, sur les réseaux notamment, des formules
de mixité des régimes temporels du "temps réel" et du "temps différé". Internet, par exemple,
fait coexister plusieurs régimes temporels. Le réseau peut accueillir l'émission de flux
radiophonique ou télévisuel. Avec la conversation écrite -lorsque les partenaires sont
connectés simultanément -il héberge une semi-instantanéité (semi-instantanéité, car l'écriture
télé-textuelle s'opère en deux temps : rédaction puis validation). Et enfin, il abrite une
temporalité du traitement différé s'étageant des formes classiques de lecture aux circulations
hypermédiatiques les plus raffinées. (On pourrait affiner les distinctions en analysant plus
précisément, par exemple, la temporalité différée propre à l'usage des robots chercheurs,
temporalité qui procède de la logique de l'accumulation/décharge, que nous avons mise à jour
plus haut, à propos de la programmation militaire ou industrielle).
Ce passage en revue rapide des régimes temporels du réseau mondial ne constitue pas encore
une typologie organisée. Des formules d'hybridation absolument inédites, hétérogènes à la
séparation "temps réel"/"temps différé", font, en effet, leur apparition. Des applications sont
aujourd'hui proposées qui mixent l'intervention instantanée convoyée par réseau, avec des
traitements locaux sur supports opto-numériques (CD-Rom, aujourd'hui en attendant le DVD
et autres "galettes" démultipliant les volumes d'informations stockées). Le Deuxième
monde[196] illustre parfaitement ce type de mixage. L'expérience débute par l'auto-
composition d'un avatar : choix d'un visage, d'un costume, éventuellement d'un appartement,
modelage des espaces, installation des ameublements... Elle se poursuit par la libre
déambulation dans le centre de Paris, modélisé en trois dimensions de manière étonnamment
réaliste. On y rencontre d'autres avatars connectés au même moment sur Internet. Les fichiers
transmis ne contiennent qu'une information limitée décrivant leur aspect physique et leur
position géographique. L'ordinateur qui réceptionne ces fichiers se charge de construire
l'image affichée sur l'écran puisque le CD-Rom local contient déjà tous les matériaux
nécessaires à cette reconstruction (formes de visages, costumes, lieux visités, etc.). Ici, le
"temps réel" ne se juxtapose pas au traitement différé, il s'y mélange. L'expérience d'une
interaction allie, en effet, la confrontation avec une présence instantanée, convoyée par le
réseau avec un travail sédentaire, momentanément isolé. La mixité des sources
événementielles sous-tend une dialectique entre processus pré-programmé local et événement
inattendu sur le réseau. L'univers maîtrisé de la scénographie interactive locale s'expose à
l'irruption intempestive des spect- - agents branchés au même moment sur le site d'Internet.
Nous avons déjà évoqué, dans une autre partie de ce travail, l'apparition de chaînes
multimédias distribuées sur Internet (Webcasting), en soulignant la rupture qui s'ensuit avec le
mode de réception habituel de la télévision. Ainsi, par un accord, conclu en juillet 1997,
DirectTV (leader américain de la diffusion numérique par satellite) et Microsoft ont annoncé
la mise sur le marché d'un ordinateur-récepteur mariant la réception télévisuelle et la
navigation sur le Web. Par exemple, en visionnant un film, le télénaute pourra rechercher les
biographies des acteurs ou des indications sur son tournage. Dans une perspective voisine, une
firme américaine met au point un projet de "CD-Rom infini" contenant mille cassettes vidéo,
actualisé en permanence, et dans lequel l'abonné peut faire son marché.
Avec le Webcasting, l'usager sélectionne des thèmes qui alimentent des moteurs de recherches
lesquels lui ramèneront une information préalablement triée et parfois même évaluée[197].
Prolongeant cette forme d'usage, les push technologies inaugurent une nouvelle forme
médiatique, transformant l'écran de l'ordinateur en récepteur de chaînes multimédias
thématiques (météo, sports, finances, etc.). Outre la diffusion de chaînes, ces logiciels
permettent, par exemple, la mise à jour directe de logiciels sur les disques durs des abonnés au
service. Mariant l'instantanéité de la télévision avec la navigation multimédia, ces techniques
combinent les outils de recherches (type moteurs) avec le téléchargement en continu
d'informations. Mais ce faisant, le Webcasting redistribue les polarités temporelles en
bousculant l'opposition classique entre l'instantanéité propre à la culture de flux et la
temporisation de l'hypermédiation. Ces alliages temporels sont d'ailleurs loin d'être figés.
L'apparition de nouvelles normes d'édition de documents appelées à succéder à H.T.M.L.
[198], rendront encore plus complexe la consultation des sites. L'utilisateur pourra, par
exemple, modifier la composition des pages qu'il reçoit, les dynamiser, y ajouter des
informations personnelles et s'y déplacer de manière intuitive[199]. Instantanéité de la
réception, rapidité de la navigation et temps de réglage de la composition personnelle se
combineront d'autant plus.
Alors que les flux de l'émission de la radio et de la télévision se diffractent dans leur mise en
ligne, la diffusion électronique de l'écrit est sujette à un mouvement inverse. Dans le on line
l'écrit connaît une mise un mouvement qui le rapproche, dans certains contextes, de
l'information audiovisuelle. La version électronique du Wall Street Journal est réactualisée
quatre à six fois par jour. Et il ne s'agit pas seulement des cours de la Bourse, une part
significative des articles sont réécrits au fil de l'actualité. "Le Web, ce n'est pas la télévision,
ce n'est pas le journal, c'est entre les deux" affirme M. Garcia, l'un des spécialistes mondiaux
du design des journaux électroniques. Ici, la permanence de l'écrit s'allie à son
rafraîchissement instantané. L'horizontalité de la page imprimée se moule dans le flux de la
diffusion temporelle. Mais rien n'est consolidé en la matière et les premiers enseignements de
la presse électronique ne permettent pas d'affirmer avec certitude que le renouvellement des
informations séduira plus les lecteurs que, par exemple, la recherche "motorisée" dans des
banques de données. Autre témoignage des mixages en cours entre les logiques éditoriales
(stock) et de consultations en ligne (flux) : l'abonnement à des services spécialisés
téléchargeant à date fixe, l'intégralité d'un site afin de permettre une consultation locale hors
connexion[200].
[159] Voir la revue Réseaux, Dallas et les séries télévisées, n° 12, CNET, 1985, et notamment
l'article de J. Bianchi, Dallas, Les feuilletons et la télévision populaire, pp. 21/28.
[160] Howard Rheingold, dans son livre, Les communautés virtuelles, (Addison- Wesley,
Paris, 1995) véritable hymne à la vie virtuelle, multiplie les exemples où l'usage des réseaux
consolide, voire même engendre, des collectifs locaux. Howard Rheingold mentionne
notamment le rôle social du réseau WELL (pour Whole Earth Electronic Link), village virtuel
en vogue dès les années 87, fréquenté essentiellement par des Internautes habitant autour de la
baie de San Francisco.
[161] Depuis septembre 1997, deux services de guidages -Carminat Infotrafic et Skipper
développés respectivement par Renault et Europe Grolier- sont commercialisés. Dans sa
version complète, Carminat intègre un récepteur G.P.S. localisant le véhicule. Collectant, en
temps réel, toutes les informations sur le trafic (et la disponibilité des parkings), il propose un
trajet optimisé et calcule sa durée.
[162] Que la carte puisse être lue comme une préfiguration de l'hypermédiation, voilà
d'ailleurs la pénétrante suggestion de Françoise Agez dans son article, "La carte comme
modèle des hypermédias", in Catalogue d'Artifices 4, Ville de Saint-Denis, 1996, pp. 54/59.
[163] Voir l'intéressant article de Pierre Alain Mercier, Dopo ze bip... Quelques observations
sur les usages du répondeur téléphonique, in Réseaux, n° 82/83, mars/juin 1997, CNET. Il y
montre, en particulier, que les fonctions de protection (simuler l'absence) et de filtrage des
répondeurs sont progressivement devenues essentielles.
[166] "Les institutions de formation à distance connaissent aujourd'hui, on l'a vu, une
demande de regroupement de plus en plus forte " (Jacques Perriault, op. cit., p. 227).
[167] Certains usages d'Internet illustrent aussi, d'une autre manière, ces mixages de relations
à distances et de déplacements géographiques. Un industriel des pellicules photos propose,
depuis 1997, d'accéder par Internet au fichier de la pellicule envoyée au laboratoire pour
développement. L'utilisateur peut accéder, via Internet, aux vignettes composant sa pellicule,
les retravailler sur son ordinateur, corriger les dominantes de couleurs, les cadrages ou
assembler plusieurs images. Une nouvelle connexion, et il renvoie les images modifiées qui
corrigeront automatiquement les fichiers haute définition détenus par le laboratoire. Il lui
restera à aller chercher les tirages papiers dans son quartier... en attendant, bien sûr, la haute
définition à domicile.
[168] Le mediaspace d'Euro PARC en Angleterre couplé à celui de Xerox PARC à Palo- Alto
en Californie, organise aussi les relations locales des chercheurs anglais.
[169] Voir Bernard Prince, Les paradoxes de l'Internet, in Terminal, n°74, L'Harmattan, Paris,
été-automne 1997, pp. 89/96.
[171] Cité par Christian Huitema, Et Dieu créa l'Internet..., Eyrolles, Paris, 1996, p. 34.
[173] Pierre Lévy est l'un de ceux qui ont thématisé, d'une manière radicale, cette idée de gain
cognitif par disparition d'une concrétisation du contexte. Ainsi écrit-il : "La structure en
collecticiel permet en effet de faire une fantastique économie d'écriture. En effet les tenants et
aboutissants d'un énoncé n'ont plus à être explicités par du discours puisqu'ils sont impliqués
dans des liens hypertextuels. Le contexte et les références sont toujours déjà là..."
L'intelligence collective, La Découverte, Paris, 1994, p. 98.
[176] L'écriture multimédia recherche toujours un équilibre -variable selon les genres et les
auteurs- entre libre exploration et axes directeurs structurants.
[177] Sur ces questions voir Sally Jane Norman, L'empire des sens, in Le Monde de
l'éducation, avril 1997, p. 46.
[178] Le logiciel Umap Web, déjà cité au chapitre V, édite au fur et à mesure de la
consultation de pages Web, des cartes répertoriant les proximités entre thèmes ou concepts, à
partir des sélections effectuées par l'utilisateur. Les zones contenant des mots principaux y
apparaissent grossies.
[179] La circulation dans un "anneau" est une alternative au surfing ainsi qu'à l'usage souvent
imprécis des moteurs de recherche. Ici, tous les sites concernent le même sujet. Un simple clic
suffit pour passer immédiatement au site suivant (et ainsi de suite jusqu'à revenir au départ),
supprimant ainsi les temps d'attente inévitables lors de l'activation des liens classiques. On
estimait, en septembre 1998, à plus de 700 000 le nombre de sites fédérés en près de 50 000
"anneaux".
[183] Marshall McLuhan, Pour comprendre les média, Le Seuil, Paris, 1968, p. 102.
[184] Pour une critique plus détaillée de ces hypothèses, voir notre article, Nouvelles
technologies intellectuelles, pensée et langage, in Terminal n°68, Paris, L'Harmattan,
pp. 69/80.
[185] Elisabeth L Eisenstein, dans La révolution de l'imprimé dans l'Europe des premiers
temps modernes, (La Découverte, Paris, 1991) montre que la notion d'auteur est typiquement
typographique. Elle cite notamment saint Bonaventure, lequel nous rappelle, qu'à l'ère du
manuscrit, il y a au moins quatre manières de faire des livres : le scribe qui copie, le
compilateur qui croise différents écrits, le commentateur qui ajoute des explications, et enfin
l'auteur qui cite d'autres textes (voir p. 109). "Les nouvelles formes d'attribution de la qualité
d'auteur et les droits de la propriété littéraire sapèrent les idées anciennes d'autorité collective
non seulement en matière de composition des livres bibliques mais aussi de textes
philosophiques, scientifiques et juridiques" p. 110.
[186] Yves Maignien, dans son article,"La bibliothèque de Michel Foucault" sur le projet de
"Poste de Lecture Assistée par Ordinateur " à la BNF (in Rencontres Médias 1, BPI, Centre
Georges Pompidou, Paris 1997, pp. 83/105) convoque à nouveau l'antienne foucaldienne de la
disparition de l'auteur-sujet au profit de l'auteur-actualisateur de "nappes discursives".
L'activité bibliologique privilégie par nature la "transdiscursivité" où l'émergence de
convergences, d'épistémés traverse les auteurs plus qu'elle ne les suscite. Mais le regard
archival, intensifié par l'informatique documentaire, n'est pas le seul possible. Érigé en vérité
ultime d'un texte particulier, il ignore, par constitution, les dimensions subjectives singulières
qu'il exprime, privilégiant, non sans légitimité, la tectonique des flux discursifs. (Question
structurellement identique à celle du regard unilatéralement socio-technique porté par la
nouvelle anthropologie des sciences sur l'activité scientifique). Substituer "l'ordre du
discours" à l'irruption intempestive d'une pensée réorganisatrice relève d'un parti pris peu
explicité. Foucault se réduit-il à la "nappe discursive" structuraliste ?
[187] T-Vision a été installé dans l'exposition Voyages virtuels, 4/8 octobre 1995 à Paris.
[191] Réalisation de Serge Bilous, Fabien Lagny et Bruno Piacenza, Flammarion "Art &
Essais", Paris, 1997.
[192] On peut désormais mobiliser de chez soi, via Internet, le satellite Earlybird I, lancé
depuis décembre 1997 par une société américaine. Moyennant quelques centaines de dollars,
on obtiendra une photographie d'une précision de l'ordre de 3 mètres (les prochains
succcesseurs d'Earlybird promettent de descendre à 1 mètre). Le monopole militaire du
renseignement spatial est ainsi brisé.
[193] Une Webcam diffuse en permanence l'image d'une scène (carrefour, intérieur privé, etc)
sur un site Internet. Par exemple, le tournage, à Franconville, du film La Patinoire s'est
accompagné de la création d'un site, où l'on pouvait consulter le scénario in extenso mais aussi
la feuille de service quotidienne, et à intervalle régulier, les images des trois Webcams
installées. Le son, en revanche, a été coupé pour préserver l'intimité des rapports entre le
réalisateur et les acteurs. L'expérience a été rééditée sur le tournage de Regarde mon père, ma
mère, film de Charlotte de Turckheim. Une nouvelle forme de promotion ?
[194] Article paru dans Le Monde diplomatique, mars 1998, pp. 26/27.
[195] Par exemple, la sécurité du métro VAL est assurée par un logiciel comportant quelque
dix mille lignes de codes dans les équipements au sol et cinq mille dans la rame.
[196] Laissons son promoteur Philippe Ulrich, co-fondateur de Cryo Interactive, présenter le
projet : "Le CD-Rom, qui proposera une connexion à Internet, contiendra un Paris
contemporain entièrement redessiné... Une fois connectés, les abonnés pourront se promener
de l'île de la Cité à Notre-Dame, des Champs- Elysées aux quais en passant par la place de
Grève. Évoluer dans Paris, dialoguer, visiter les monuments, aller dans les cabarets de jazz ou
au cinéma..." Le visiteur compose son apparence grâce à une bibliothèque de formes : visage,
peau, yeux, cheveux, costumes. Il séjourne dans un appartement conforme à son style.
L'obsession du doublage va jusqu'à imaginer une monnaie, une circulation financière, la
perception d'aide sociale voire une Constitution et des codes de comportement moraux. Il est
même envisagé de pouvoir faire "naître" un enfant qui sera incarné par un nouvel avatar.
Tenant à la fois du jeu vidéo, du jeu de rôle, de la messagerie visuelle et de l'agora, ce
"deuxième monde" est appelé à se perfectionner constamment. On pourra emprunter des sas
pour déambuler dans d'autres métropoles (Berlin, New York...). (Interview au supplément
multimédia de Libération, 24 mai 1996, p. I ). Seul Canal + continue le Deuxième monde.
Cryo a préféré prendre son autonomie et s'attache plutôt, sur ce terrain, à diffuser SCOL (voir
note 41).
[197] Fishwrap, par exemple, mis au point au M.I.T. à Boston, est l'un des logiciels de
personnalisation les plus perfectionné. Il permet à l'utilisateur de sélectionner des rubriques
composant son journal (politique nationale, théâtre, basket-ball, etc.). Le serveur actualise
constamment sa base documentaire à partir de quotidiens californiens et des dépêches
d'Associated Press. On peut, à tout moment, afficher la dernière édition du journal, en
perpétuelle transformation, car continuellement rafraîchi par de nouvelles informations et
nettoyé des nouvelles obsolètes. Par ailleurs, un système de vote, article par article, est à la
source de la production d'un journal unique reflétant les goûts majoritaires des lecteurs. Enfin,
le logiciel détecte l'ordre dans lequel l'abonné lit les articles et affichera donc, par exemple,
dans la rubrique culture, les concerts avant les films et les critiques de livres.
[198] Ces langages déclineront la norme X.M.L. (eXtensible Mark up Language), définie
comme métalangage. Elle permettra aux concepteurs de pages de définir leurs propres
langages de programmation selon qu'ils mettent en ligne des partitions musicales, des plans
industriels, des représentations spatiales de molécules ou des parchemins antiques. (Voir
Michel Alberganti, L'introduction de nouvelles normes enrichit le contenu d'Internet, in Le
Monde, 14/10/97, p. 29).
[199] Le logiciel SCOL, par exemple, développé par la société Cryo devrait permettre aux
Internautes de créer assez facilement leurs propres mondes virtuels en 3D et d' y déposer leur
avatar en scannant une photo, par exemple. Toutes les composantes des scènes conçues sont
cliquables et peuvent renvoyer par liens à d'autres lieux, afficher des sources documentaires
ou lancer des applications. Voir Yves Eudes, Scol, une multitude de mondes indépendants...,
in Le Monde, supplément multimédia, 1 et 2/03/1998, p. 34.
[200] Par exemple, le magazine Les enfants du Web à destination des 8-12 ans, est téléchargé
automatiquement chaque mois, moyennant un abonnement, avec une panoplie de fonctions
connexes : contrôle des sites reliés, limitation de la durée de connexion...
Conclusion
Une culture de la relativité élargie s'annonce. Une autre localisation est provoquée par la
déterritorialisation. La suppression des intermédiaires engendre l'apparition de mécanismes
médiateurs. On redécouvre la puissance de la linéarité grâce à la luxuriance de
l'hypermédiation. Le réglage individuel des prises de vues donne naissance à une formule
panoptique inédite. Le ralentissement de la communication est l'autre face de l'augmentation
des vitesses de computation. Et on pourrait allonger la liste des paradoxes repérables dans
l'horizon des technologies numériques[202]. De tels effets paradoxaux pouvaient déjà être
décelés avec les technologies intellectuelles classiques. (L'originalité, l'unicité de l'oeuvre
écrite, par exemple, est un effet de la multiplication à l'identique des imprimés et non pas son
origine). Il n'y a pas lieu de s'étonner que de tels processus soient aussi à l'oeuvre aujourd'hui.
Qu'il s'agisse de la suppression des intermédiaires dans l'espace public, du statut du récit dans
le contexte de l'hypermédiation, de la saisie de l'espace, du régime temporel propre à la
programmatique, les incidences culturelles des technologies numériques sont donc souvent
paradoxales, voire contradictoires. Peut-on identifier des principes généraux qui permettraient
d'appréhender le statut du nouveau milieu qu'érige la téléinformatique ? Quelques conjectures
peuvent être, en effet, formulées. Nouveau milieu ne signifie pas effacement des anciens, mais
reprise, redéfinition. On fait ici l'hypothèse que les nouvelles technologies intellectuelles ont
une efficacité paradoxale qui consiste, non pas à redéfinir l'ancien par négation, mais par
relativisation généralisée : relativisation de l'espace par la mise en proximité, relativisation de
la temporalité par l'obsolescence de la vectorisation passé/présent/futur au profit d'une
temporalité de la simulation, u-chronique, locale, expérimentale, ou encore relativisation du
récit unique par l'injection du destinataire dans le moteur narratif, etc.
Si, dans ces exemples, relativisation est synonyme de passage en position surplombante et
d'inclusion des différences, cela n'épuise pas les significations potentielles de ce processus. Il
ne faut pas exclure, par principe, l'apparition de contradictions fortes telles que, dans le
cyberespace les oppositions frontales entre principes commerciaux et logiques d'espace
public, entre propriété intellectuelle et domaine public ou encore entre intégration, refus et
détournement des propositions d'innovation. L'hypothèse de la relativisation généralisée ne
s'identifie donc pas à celle de l'obtention de consensus. Elle ne prétend pas, non plus, livrer la
formule ultime des enjeux de la programmatique, mais décrire l'un de ses mouvements
majeurs.
On sait que toute culture est une méta-culture en ce que les contenus élaborés ne peuvent
s'abstraire des chaînes matérielles, matrices méta-culturelles par lesquelles ils se créent, se
conservent, se modifient et se transmettent. Mais ces rapports entre matrices et contenus ne
sont pas mécaniques. À propos de l'écriture, par exemple, nombre d'études portant sur les
conséquences intellectuelles de l'inscription du langage ménagent une zone d'indétermination
bien éloignée de toutes les tentations réductionnistes. Ainsi, Jack Goody, interrogeant, dans
La raison graphique, les incidences de l'écriture sur les processus cognitifs, notait
immédiatement dans une parenthèse : "quoique à mon avis la nouvelle technique fournisse
seulement des outils sans pour autant déterminer les résultats"[203]. L'ethnologue nous
prévient donc d'un usage du concept de technologie intellectuelle qui déduirait, directement,
les fruits du travail intellectuel à partir de ses équipements : pratique coutumière, qui relève
d'une démarche réflexe, déduisant sans ambages, une forme culturelle à partir d'un système
technique.
C'est le travers auquel prête le flanc, par exemple, Jacques Derrida, pourtant en général
attentif à ces dangers, lorsqu'il fait l'hypothèse que "...dans le passé la psychanalyse (pas plus
que tant d'autres choses) n'aurait pas été ce qu'elle fut si le E mail, par exemple, avait
existé"[204]. Et Derrida d'insister sur les "raisons historiques et non accidentelles" qui ont
relié l'institution psychanalytique à la forme courrier manuscrit, à sa vitesse de circulation
dans l'Europe d'avant-guerre ; "rien n'est jamais indépendant de ce délai"[205]. Parle-t-on des
dimensions "pratiques", "théoriques" de la psychanalyse, ou de la construction de ses
institutions ? Autant, la technologie "courrier manuscrit" conditionne le fonctionnement de
l'institution, autant n'interfère- t- elle pas directement dans les cures, dont la technologie est
basée sur la parole, ni même peut-être, principalement, dans l'édification théorique
freudienne. S'il est vrai que les "délais" conditionnent l'échange épistolaire, il resterait à
montrer comment précisément, l'instantanéité de ces transferts aurait modifié, quant à sa
nature, l'émergence de la pratique et de la théorie psychanalytique. Rien n'est évident en la
matière et, que l'on sache, à l'heure d'Internet, les "technologies" des cures ne se distinguent
pas fondamentalement de celles élaborées dans la Vienne d'avant guerre, même si le
fonctionnement des écoles`psychanalytiques, les conditions de production des livres, l'accès
aux corpus sont touchés par la téléinformatique. Jacques Derrida souligne, à juste titre,
quelques lignes plus loin, que le développement du courrier électronique "ne peut pas ne pas
s'accompagner de transformations juridiques donc politiques"[206] de l'espace public. Mais la
psychanalyse ne s'insère pas directement dans cet espace, elle fait même de cet écart
tendanciel l'un de ses fondements. Demeure l'idée générale et invérifiable que si le passé avait
été différent, alors la psychanalyse l'aurait, sans doute, aussi été.
L'appréhension de la sphère des "outils", des méthodes devrait respecter une certaine
autonomie qui interdit d'en inférer directement des formes de pensée. Qui n'a jamais éprouvé
un malaise, par exemple, lorsque l'on tente de dessiner les traits saillants de la "culture
informatique" et que l'on répond : culture du calcul, de la combinatoire, de la formalisation.
Le même malaise nous saisit quand on essaie de caractériser une pensée propre aux réseaux
en suggérant des notions telles que décontextualisation, collectivisation, perte de la
séquentialité. Ces propositions méritent un examen plus soucieux de la préservation d'une
certaine autonomie des processus cognitifs et des champs disciplinaires dans leur rapport aux
technologies qu'ils mobilisent. Et aujourd'hui, cette autonomie relative serait -c'est notre
hypothèse- majorée, et non amoindrie, par l'ingénierie informatisée de la connaissance.
Nous conjecturons que la culture programmatique et hypermédiatique accroît les traits méta-
culturels de nos cultures et augmente leur réflexivité[207]. En effet, l'ingénierie informatique
consiste essentiellement en la diffusion de machine de production de micro-mondes. Cette
ingénierie s'apparente à une méta-machine, dont la mise en oeuvre produit d'autres machines
d'écriture, de création d'univers, de déplacements dans des récits, de déplacements de
présence. Une certaine unification procédurale se concrétiserait alors à travers une
diversification des pratiques. Pour faire image, on dira que les modes de repérage s'unifient
sous les logiques de la délocalisation, de la numérisation et de la programmatique, mais que
cette homogénéisation des méthodes engendre, plus qu'avec les anciennes technologies
intellectuelles (imprimerie, massmédia, télévision) une multiplicité d'accomplissements
singuliers ainsi que des affirmations identitaires différenciées. On sait qu'au XVIe siècle, des
langues vernaculaires se sont conservées et parfois même créées, grâce à l'essor de
l'imprimerie (laquelle, il est vrai, provoquera aussi une déperdition des langues littéraires non
imprimées). La malléabilité de la téléinformatique pourrait, paradoxalement, consolider des
cultures locales, tout en les faisant passer par l'orbite de la programmatique et de la
Téléprésence. Ceci n'empêche pas que naissent des collectifs déterritorialisés, effets propres
de la tendance à l'augmentation de la présence à distance. Mais ces collectifs ne sont que
rarement totalement émancipés de leurs attaches territoriales.
De même que toute formalisation procédurale engendre un ajustement par négociation entre
les acteurs, ajustement indispensable pour injecter de la souplesse dans des mécanismes
formalistes risquant de devenir, sinon, trop rigides, de même la diffusion mondiale de la
programmatique et de la Téléprésence n'est pas mécaniquement homogénéisante. Elle secrète
une diversification qui est son double. Tout comme le bricolage est le fils de
l'algorithmisation et non une survivance anachronique, la différenciation est la fille de la
mondialisation télé-technologique.
Dans Transmettre, Régis Debray développe une analyse voisine, en pointant l'hétérogénéité
des temporalités propres aux "aires de civilisation" et aux logiques techniques[208]. Peut-être
a-t-il raison de dissocier ainsi l'héritage culturel, fruit d'une transmission symbolique, de la
réception de la technique obéissant à la logique de la communication (bien que cette
perspective risque d'engager une pensée de la technique dissociée de l'univers culturel : "deux
régions de l'être irréductibles l'une à l'autre"[209] où l'on retrouve les fameuses dichotomies
éthique/technique, relativisme culturel/universalisme technique, convergence
technique/divergence ethnique).
L'idée à laquelle nous tentons de donner forme ne contredit pas formellement cette conception
de l'hétérogénéité des temps techniques et culturels. Elle insiste, en revanche, sur les
distorsions culturelles internes à l'aire technique, et plus précisément à l'aire télé-
technologique. Il n'est peut-être pas indispensable de requérir un pôle intemporel de
l'existence humaine (le relativisme de la culture, de l'art, de la morale) pour contrebalancer un
supposé universalisme technique réglé par la performativité. Si on oppose la mondialisation
des objets et des signes à "une tribalisation des sujets et des valeurs"[210], point n'est besoin
de localiser la tribalisation à l'extérieur de la sphère technique. On peut discerner, en son sein
même, les mouvements qu'on repère d'ordinaire dans sa périphérie culturelle :
vitesse/ralentissement, déterritorialisation/localisation, etc. Notre culture, comme les
précédentes, se définit par un couplage entre l'équipement techno-intellectuel hérité et les
nouvelles propositions émergentes. Si l'on retient l'hypothèse de la longue durée chère à
Bernard Miège[211], on conjecturera que ce couplage est un processus ni linéaire, ni
uniforme. Aujourd'hui, l'alliance de la programmatique et des réseaux convoyant la présence
à distance aboutit à une configuration inédite. La diffusion mondiale accélérée de méta-
conception du monde fondée sur ces environnements socio-techniques provoque finalement
une crise de la problématique des effets culturels des technologies. Comme si le niveau
d'efficience atteint par l'intensification cognitive avait pour résultat d'injecter les anciennes
modalités intellectuelles (temps différé de la lecture/écriture, notamment) et formes de
rapports sociaux (échange en face à face, présence corporelle) au coeur des espaces cognitifs,
sensibles et relationnels actuels. On a coutume d'affirmer que la photographie n'a pas détruit
le dessin à la main, mais qu'elle a contraint les peintres à redéfinir l'acte de vision (et aussi le
mouvement), donc la peinture elle-même qui s'est dès lors attachée à rendre visible l'invisible
(ce qui, par effet retour, a influencé la vision ordinaire). On s'accorde à considérer que l'image
de synthèse ne se substituera pas aux techniques d'enregistrement, mais que l'enregistrement
tend à devenir numérique.
Dans ces effets en retour d'une technologie nouvelle sur celles qui la précèdent on sauvegarde
la coexistence des deux formes, tout en reconnaissant les contraintes inédites qui pèsent sur la
première. Notre hypothèse concernant l'incidence des technologies intellectuelles
contemporaines ne se limite pas à noter ces effets de réinterprétation. Elle affirme que ces
agencements n'oblitèrent pas les anciennes organisations cognitives mais les revivifient dans
de nouveaux costumes. Il est vrai, par exemple, qu'une séquence de lecture d'un texte -ou
d'une vidéo- dans un hypermédia reconduit la linéarité de la lecture d'un imprimé. Mais cela
n'autorise pas à confondre un hypermédia avec un livre et à oublier sa puissance organisatrice.
Ce module linéaire s'accouplera, en effet, à des débranchements volontaires bouleversant la
structure ordonnée du livre. Ce faisant une vie nouvelle s'ouvre à la linéarité. Cet exemple
montre comment, dans les nouveaux contextes installés par la téléinformatique, non
seulement se manifestent, mais se renforcent certains traits (séquentialité, durée, différance)
propres aux technologies classiques (écriture, imprimerie, photographie, etc.).
- la translation apparemment inerte (comme ce qui s'est produit entre le CD et le disque vinyle
et qui relève de la traduction/réinterprétation puisque la musique enregistrée coule maintenant
dans le lit du fleuve numérique et nourrit donc le multimédia, on le voit en particulier sur
Internet),
- le renforcement de certains traits antérieurs dans les nouveaux contextes : le numérique
redonne vigueur au temps différé de la lecture/écriture, la vitesse de la communication sociale
décroît, l'exigence de linéarité se renforce,
- et enfin, l'hybridation des traits inédits avec les anciens, tels que les alliages entre linéarité et
hypermédiation.
Loin de tout fixisme, cette perspective ne saurait se confondre avec on ne sait trop quel
paradoxe circulaire dans lequel les nouvelles conditions équivaudraient aux anciennes.
Renforcer certains caractères temporels hérités d'anciennes technologies provoque de
nouveaux agencements dans les environnements cognitifs et sensibles actuels. Ce sont donc
des alliages inédits qui s'instaurent, par exemple, entre linéarité et hypermédiation,
fragmentation et unicité de la perception spatiale, instantanéité et différemment, séquence de
flux insécable et libre navigation. En fait, ces observations -à propos de la temporalité, de la
linéarité et de l'hypermédiation, du panoptisme et de l'individualisation de la saisie, etc.-
conduisent à penser un concept de position surplombante sans domination, où les logiques de
la téléinformatique envelopperaient celles de l'oralité, de l'écriture, de l'imprimerie, de
l'enregistrement et des télécommunications sans les assujettir. Suivre ces chevauchements et
rebroussements, en façonner une cartographie est un jalon indispensable pour comprendre les
mouvements complexes qui animent notre techno-culture ; c'est aussi une aventure
intellectuelle passionnante.
Pour suivre
Traiter de la Téléprésence, comme de toute question à caractère général, tend à la faire passer,
du statut de sujet d'investigation, à celui d'instrument d'observation. Ausculter notre société à
l'aide de cet outil engendre mécaniquement une opération de sélection et un effet de loupe.
Entendons-nous bien. Il ne s'agit pas de tempérer l'importance de la tendance culturelle à la
présence à distance, par on ne sait trop quel mouvement de balancier. Mais d'articuler plus
finement cette tendance aux autres processus à l'oeuvre. Par exemple, nous avons maintes fois
insisté sur la méfiance nécessaire face aux affirmations unilatérales pronostiquant une
substitution des conditions habituelles de "l'être ensemble" par la Téléprésence. Mais
certaines hypothèses et observations fragmentaires relevées dansce mémoire gagneraient à
faire l'objet d'études de terrain plus systématiques afin de mieux comprendre comment les
relations de proximité interagissent avec les nouveaux rapports à distance : enseignement,
travail coopératif, etc. De même, dans le domaine politique, de nombreuses questions à peine
effleurées restent à approfondir. Il faudra, en particulier, comprendre quelles peuvent être les
incidences de la situation de "multi-présence" -être à la fois ici et partiellement ailleurs- sur
les formes d'exercice du pouvoir fondées, jusqu'à présent, sur la séparation physique des
représentants et des représentés.
Approfondir les enjeux de la Téléprésence, affiner les outils méthodologiques proposés ; bref,
vérifier ou infirmer des conjectures, ce travail appelle prolongements. Les commentaires qui
précèdent ne forment, en réalité, une conclusion de ce livre que parce qu'elles surgissent,
chronologiquement, à la fin de sa rédaction. Il serait quelque peu artificiel de leur faire jouer
un rôle de clôture logique, au sens où elles en délivreraient la signification condensée.
Enregistrons-les donc comme une incitation à poursuivre l'enquête.
[203] Jack Goody, La Raison graphique, Les Éditions de Minuit, Paris, 1979, p. 143. Jack
Goody est souvent cité, à juste titre, comme l'auteur de travaux majeurs sur l'invention de
l'écriture comme technologie intellectuelle.
[208] "Un système technique traduit les cohérences qui se tissent, pour chaque époque
donnée, entre ses différents appareillages - et en tous les points de l'espace ; un système
culturel assure, pour un lieu donné et un seul, les cohérences qui se tissent entre les époques et
les générations". Régis Debray, Transmettre, Odile Jacob, Paris, 1997, p. 83.
[211] Sur cette question de la temporalité propre aux techniques de communication, Bernard
Miège suggère de prendre en compte la question de la "longue durée". Il attire, en effet notre
attention sur la nécessité de ne pas céder à l'idéologie de l'explosion -qui se donne libre cours
dans la quasi-totalité des analyses- pour envisager les transformations d'usages mais aussi de
façonnages des objets communicationnels sur une longue période, par définition inaccessible
à notre regard actuel. Ainsi écrit-il : "...Les usages sociaux des techniques connaissent
rarement de brutales modifications, tout simplement parce qu'ils restent en "correspondance"
avec l'évolution des pratiques sociales, et pour le cas qui nous intéresse présentement, avec les
formes prises par la médiation sociale. Ainsi, une fois encore s'impose à nous l'intérêt d'une
approche par le temps long qui seul peut nous permettre d'inscrire les changements observés
dans le cadre de mouvements de la société repérables." Bernard Miège, La société conquise
par la communication, Tome II : La communication entre l'industrie et l'espace public, Presse
Universitaire de Grenoble, 1997, p. 167.
Table des matières
Index
J
Jarre, Jean-Michel, 190 (note)
Jörg, Cristoph, 74
Joubert, Isaac 19 (note)
Juppé, Alain, 68
BIBLIOGRAPHIE
Avertissement :
Ouvrages collectifs
ARNHEIM Rudolph, La pensée visuelle, Flammarion, Paris, 1976. AUMONT Jacques, L'oeil
interminable, Séguier, 1989. BARBOZA Pierre, Du photographique au numérique - La
parenthèse indicielle dans l'histoire des images, L'Harmattan, Paris, 1996.
BARBOZA Pierre, Les nouvelles images, Somogy - Cité des Sciences et de l'Industrie, Paris,
1997.
BARTHES Roland, La chambre claire, Les Cahiers du cinéma/Gallimard/Le Seuil, Paris,
1980.
BELLOUR Raymond, L'entre-Images, La Différence, Paris, 1990.
BELLOUR Raymond, DAVID Catherine, VAN ASSCHE Christine, Passages de l'image,
Centre Georges Pompidou, Paris, 1990.
BESANçON Alain, L'image interdite, Fayard, Paris, 1994.
CADOZ Claude, Les réalités virtuelles, Flammarion, Paris, 1994.
COUCHOT Edmond, Images, de l'optique au numérique, Hermès, Paris, 1988.
COUCHOT Edmond, La technologie dans l'art, Jacqueline Chambon, Nîmes, 1998.
DAMISCH Hubert, L'origine de la perspective, Champs- Flammarion, Paris, 1993.
DANEY Serge, Devant la recrudescence des vols de sacs à main, Aléa, Lyon, 1991.
DEBRAY Régis, Vie et mort de l'image, une histoire du regard en Occident, Gallimard, Paris,
1992. DELEUZE Gilles, L'image-temps, Les Éditions de Minuit, 1985.
DELEUZE Gilles, L'image-mouvement, Les Éditions de Minuit, Paris, 1983. DERRIDA
Jacques, STIEGLER Bernard, échographie de la télévision, Galilée, Paris, 1996.
JULLIER Laurent, L'écran post-moderne, L'Harmattan, Paris, 1997.
KING David The Commissar Vanishes, Metropolitan Books, New- York, 1997.
MARIN Louis, De la représentation, Gallimard-Le Seuil, Paris, 1994. MERLEAU-PONTY
Maurice, L'oeil et l'esprit, Gallimard, Folio, Paris, 1964. MONDZAIN Marie-José, Image,
icône, économie, Seuil, Paris, 1996.
QUÉAU Philippe, Virtuels, vertus et vertiges, Champ Vallon/INA, Paris, 1993.
SAUVAGEOT Anne, Voirs et savoirs, PUF, Paris, 1994.
SIMON Gérard, Le regard, l'être et l'apparence dans l'Optique de l'Antiquité, Le Seuil, Paris,
1988.
WEISSBERG Jean-Louis (et al.), Paysages virtuels, Dis-Voir, Paris, 1988. WEISSBERG
Jean-Louis (sous la direction de), Les chemins du virtuel, Centre Georges Pompidou,
Flammarion, Paris, 1989.
Ouvrages collectifs
Destins de l'image, Nouvelle revue de psychanalyse, ndeg. 44, Gallimard, Paris, automne
1991.
Nouvelles technologies - Un art sans modèle ?, sous la direction de Norbert HILLAIRE et
Michel JAFRENNOU, Art Press spécial, ndeg.12, 1991.
Vers une nouvelle pensée visuelle, Réseaux, ndeg.61, CNET, sept. 1993.
Icône Image et Image & média sous la direction de Bernard DARRAS, MEI ndeg.6 et ndeg.7,
L'Harmattan, Paris, 1997. Images numériques - L'aventure du regard (sous la direction de
Odile BLIN et Jacques SAUVAGEOT), École régionale des Beaux- arts de Rennes, Rennes,
1997. Le déplacement virtuel de Lascaux (sous la direction de Jean- Louis WEISSBERG),
Fédération des oeuvres laïques de la Dordogne, Périgueux, 1994`.
Philosophie - Épistémologie
Articles cités
AGEZ Françoise, La carte comme modèle des hypermédias, in Catalogue d'Artifices 4, Ville
de Saint-Denis, 1996.
ASCHER François, Dynamiques métropolitaines et enjeux socio-politiques, in Futur
Antérieur, ndeg. 29, 1995/3, L'Harmattan, Paris.
BALPE Jean-Pierre, Un roman inachevé, in Littérature ndeg.96, Larousse, Paris, décembre
1994.
BIANCHI Jean, Dallas, les feuilletons et la télévision populaire, in Réseaux ndeg. 12, Dallas
et les séries télévisées, CNET, 1985.
BOUGNOUX Daniel, Bis ! ou l'action spectrale, in Les Cahiers de médiologie, ndeg.1,
Gallimard, Paris.
CARRÉ Dominique, Les technologies mobiles, quels enjeux, AFETT-EUROCADRES, Lab.
SIC Université Paris-Nord, fév. 1997.
CHARTIER Roger, Médiologie, sociologie des textes et histoire du livre, in Le Débat, ndeg.
85, mai - août 1995, Gallimard, Paris.
COULEAU Christèle, Balzac interactif ou la virtualisation du sens, in La voix du regard -
Aux frontières du virtuel, ndeg. 10, E.N.S. de Fontenay/Saint- Cloud, mars 1997.
de GOURNAY Chantal, Le deuil de l'image, in Réseaux ndeg. 61, L'Harmattan, 1993.
DEBRAY Régis, à propos du spectacle, in Le Débat, ndeg. 85, Gallimard, Paris. DELEUZE
Gilles, L'actuel et le virtuel in DELEUZE Gilles, PARNET Claire, Dialogues, Champs -
Flammarion, Paris, 1996. DENEL Francis, Les archives de radiotélévision, patrimoine et
objet/sujet de recherche, in Rencontres Médias 1, B.P.I., Centre Georges Pompidou, Paris,
1997,
GOUJON Philippe, Les limites de la vie artificielle "forte", in Raison Présente "Autour du
chaos", ndeg. 115, N.E.R., Paris, 1995.
LAUFER Roger, Mort ou résurrection de la médiologie ?, in Le Débat, ndeg. 85.
LE BOT Marc, L'art ne communique rien à personne" in Art et communication, Osiris, Paris,
1986.
LEBLANC Gérard, Happy ending, in Esprit 1, janvier 1993.
LELU Alain, Interfaçages automatiques d'hypertextes, in Rencontres Médias 1, B.P.I. (sous la
direction de Jean- Pierre BALPE), Centre Georges Pompidou, 1997.
LÉVY Pierre, Métamorphoses de l'écriture, in Communication et lien social, Éd. Descartes et
Cie et Cité des Sciences, Paris, 1992
MAIGNIEN Yannick, La bibliothèque de Michel Foucault, in Rencontres Médias 1, BPI
(sous la direction de Jean-Pierre BALPE), Centre Georges Pompidou, Paris 1997.
MAIXENT Jocelyn, Diderot, Kundera et les romans virtuels : le récit des mondes possibles,
in La voix du regard - Aux frontières du virtuel, ndeg. 10, E.N.S. de Fontenay/Saint- Cloud,
mars 1997.
MERCIER Pierre Alain, Dopo ze bip... Quelques observations sur les usages du répondeur
téléphonique, in Réseaux, ndeg. 82/83, mars/juin 1997, CNET. NEGRI Toni, La première
crise du postfordisme, in Futur antérieur, Paradigmes du travail, ndeg. 16, 1993/2. NORMAN
Sally Jane, L'empire des sens, in Le Monde de l'éducation, avril 1997.
PRINCE Bernard, Les paradoxes de l'Internet, in Terminal, ndeg.74, L'Harmattan, Paris, été-
automne 1997. REGAYA Kamel, Du cinéma à la télévision : quel régime perceptif ? in
Télévisions - La vérité à construire, L'Harmattan, Paris, 1995. ROSKIS Edgar, in Le Monde
diplomatique, Mascarades (décembre 1996), Mensonges du cinéma (novembre 1997) et La
deuxième vie de l'image (avril 1998).
SIMS Karl, Images génétiques, in Revue Virtuelle, Carnet 5, Centre Georges Pompidou, mars
1993.
VIRILIO Paul, OEil pour oeil, ou le krach des images, in Le Monde diplomatique, mars 1998.
WEISSBERG Jean-Louis, La simulation de l'autre, approche de l'interactivité informatique,
in Réseaux ndeg.33, janvier 1989, CNET, Paris.
WEISSBERG Jean-Louis, Virtualités réelles : une phénoménologie appliquée, in Chimères,
ndeg.16, été 1992.
WEISSBERG Jean-Louis, Nouvelles technologies intellectuelles, pensée et langage, in
Terminal ndeg.68, Paris, L'Harmattan, été 1995.
WEISSBERG Jean-Louis, L'augmentation tendancielle du taux de présence à distance, in
Terminal, ndeg. 69, automne 95, Paris, L'Harmattan.
WEISSBERG Jean-Louis, Internet, un récit utopique, in B.P.I. en Actes (sous la direction de
Jean-Pierre BALPE), Actes de l'Observatoire des lectures hypermédias, Centre Georges
Pompidou, Paris, 1997.
WEISSBERG Jean-Louis, Images hybrides : virtualité et indicialité, in MEI, ndeg.7,
L'Harmattan, Paris, 1998.
ZARAFIAN Philippe, Travail industriel, socialisations et liberté, in Futur antérieur,
Paradigmes du travail, ndeg. 16, 1993/2.
ZINN-JUSTIN Jean, L'influence des nouveaux outils informatiques sur la publication des
travaux en physique, in Terminal, ndeg.71/72, 1996.
ALMANETTI Gilles, CHIFFOT Jacquy, DUFOUR Frank, "Sale temps", Drame interactif,
CD-Rom édité par Microfolies, 1997.
AMKRAUT Susan et GIRARD Michael, Ménagerie, OEuvre en Réalité Virtuelle présentée
notamment à La Revue Virtuelle, Centre Georges Pompidou, Décembre 1992.
BALPE Jean-Pierre, Un roman inachevé, Roman génératif présenté à la "Revue parlée",
Centre Georges Pompidou, 1996.
BENAYOUN Maurice, Dieu est-il plat ?, Installation présentée à Artifices 3, St Denis,
novembre-décembre 1994.
BILOUS Serge, LAGNY Fabien, PIACENZA Bruno, 18h39, CD-Rom, Flammarion "Art &
Essais", Paris, 1997. BINKLEY Timothy, Watch yourself, installation présentée au Festival
"Vidéoformes" à Clermont-Ferrand en 1994. COUCHOT Edmond et BRET Michel, La
plume et le pissenlit, installation d'image de synthèse interactive, présentée à l'Espace
Landowski, Boulogne-Billancourt, décembre 1998.
HEGEDÜS Agnes, Handsight, installation en Réalité Virtuelle réalisée au Zentrum für Kunst
und Medien de Karlsruhe (Allemagne) et présentée à Artifices 3, Saint - Denis, décembre
1994.
SHAW Jeffrey, Place-A User's Manual installation présentée à Artifices 4, Saint - Denis,
novembre 1996.
SIMS Karl, Genetic Images, installation présentée à la "Revue virtuelle" au Centre Georges
Pompidou, 4 mars 1993.
Croisades, CD-Rom, Index+, 1997.
T-Vision, installation présentée à l'exposition "Voyages virtuels II", 4/8 oct. 1995, Paris.
Paris, CD-Rom, Hazan et 3e Vague, 1995. Le deuxième monde, CD-Rom et site Internet,
Canal+, Paris, 1997.