Jean-Louis WEISSBERG

PRÉSENCES À DISTANCE Déplacement virtuel et réseaux numériques : POURQUOI NOUS NE CROYONS PLUS LA TELEVISION

ÉDITIONS L'HARMATTAN 5-7, rue de l'École-Polytechnique 75005 Paris Tél 01 40 46 79 20 email : harmattan1@wanadoo.fr 304 pages Prix : 160 F

Présentation
Ce livre propose une analyse des incidences culturelles de la cyber-informatique autour de la présence à distance, selon trois idées directrices - Tendance anthropologique fondamentale (indissolublement culturelle et technique), la Téléprésence voit augmenter son caractère incarné Désormais, c'est avec notre corps entier que nous communiquons à distance ou avec des environnements virtuels (jeux vidéo, par exemple) Au-delà de l'opposition entre présent et absent, se construisent de fines graduations qui incitent à repenser la relation aussi bien lointaine qu'immédiate - L'incarnation dans la présence à distance, alimente la crise de confiance envers la télévision, en particulier Téléprésents, nous exigeons désormais des images incarnées, vivantes : des moyens pour expérimenter l'actuel -ou le passé- et non plus pour en reproduire de simples traces Les médias numériques offrent naturellement leurs services pour cette expérimentation directe de l'information modélisée Mus par un puissant attracteur techno-culturel, nous substituons progressivement, à l'ancienne figure "cru parce que vu", la formule "cru parce que expérimentable" - Les incidences culturelles de la téléinformatique sont paradoxales Et les visions convenues (catastrophe du "temps réel" ou, à l'inverse, suprématie du savoir comme fondement du lien social) sont, au mieux, simplificatrices En effet les réseaux numériques fabriquent une forme de localisation Le temps différé se tisse à l'instantanéité La linéarité est vivifiée par l'hypermédiation et l'accélération nourrit le ralentissement de la communication Loin de dessiner un paysage univoque, la téléinformatique métisse anciennes et nouvelles logiques Ces trois questions offrent autant de vues sur le statut de l'interactivité informatique, les enjeux politiques de l'apprentissage des langages hypermédias, l'automatisation de la médiation sur Internet, ou encore certains aspects de l'art numérique en passant par une relecture de L'image-temps de Gilles Deleuze Jean-Louis Weissberg est Maître de conférences en Sciences de l'Information et de la Communication à l'Université Paris XIII Il enseigne aussi en INFOCOM et au département HYPERMÉDIA de l'Université Paris VIII

Table
Présentation Remerciements Introduction Chapitre I : Entre présence et absence A - Éléments pour une archéologie de la Réalité Virtuelle C - Les interfaces : la commutation homme/univers virtuel D - Le retour du corps E - Graduations de présence F - Simulation, restitution et illusion Chapitre II : La crise de confiance des massmedia et le principe d'expérimentation A - Du spectacte au spectacte B - La crise de confiance des massmedia C - La demande de participation traduite par le système télévisuel D - Vers l'expérimentation de l'information E - Une expérimentation véridique, sans mise en scène ? Chapitre III : L'auto-médiation sur Internet comme forme politique A - L'auto-médiation versus autonomisation B - L'auto-médiation versus automatisation C - L'auto-médiation, un concept paradoxal D - Scénographie de l'auto-médiation Chapitre IV : La téléinformatique comme technologie intellectuelle A - Technologies intellectuelles, activité scientifique, dynamiques sociales B - Réseaux, information, travail symbolique et travail "immatériel" C - Archive virtuelle, archive "spectrale" Chapitre V : Retour sur interactivité

A - L'interactivité : quelques réévaluations B - Éloge des savoir-faire intermédiaires ou le home multimédia, un enjeu politique C - Récit interactif et moteur narratif Chapitre VI : Commentaires sur l'image actée, à partir de L'image-temps de Gilles Deleuze A - De Matière et mémoire au concept de cristal dans L'image-temps B - De L'image-temps aux concepts de l'image actée, versus de l'image virtuelle du miroir à l'avatar virtuel C - Image-temps et image-présence : l'hypothèse du "cristal présentiel" Chapitre VII : Les paradoxes de la téléinformatique A - Réseaux et présence à distance : une disparition de l'inscription territoriale ? B - Internet : l'évanouissement des intermédiaires dans l'espace public ? C - L'univers de l'hypermédiation : une éclipse de la séquentialité ? D - La retraite de l'auteur et l'amour des génériques E - Panoptisme et réglage individuel des trajets F - Le régime temporel des télé-technologies : ralentir la communication Conclusion Index Bibliographie

Table des matières À Rose REMERCIEMENTS J'adresse mes remerciements à Jean-Pierre Balpe dont les judicieux commentaires m'ont permis de clarifier certaines questions alors que cet ouvrage était encore dans une phase intermédiaire. De plus, ses travaux ont inspiré certaines de mes réflexions, ainsi qu'en témoigne l'un des chapitres de ce livre. Ma gratitude va aussi à mes collègues et amis de l'I.U.T. de Villetaneuse, Pierre Barboza, Frédéric Dajez et Patrick Delmas. Le cadre de travail élaboré en commun pour imaginer et mettre en place de nouvelles formations au multimédia a été une incitation permanente pour ouvrir de nouvelles directions de recherche et préciser mes analyses. Je remercie aussi Claude Poizot pour son travail de correction de ce livre. Enfin, je ne saurais oublier à quel point au cours de ces dernières années de réflexions communes, les vues pénétrantes de Toni Negri m'ont, latéralement, fait entrevoir de nouveaux horizons pour penser à la fois la dynamique propre des télétechnologies et leur efficacité dans les mutations sociales en cours.

"Il faut prendre à la lettre ce que nous enseigne la vision : que par elle nous touchons le soleil, les étoiles, nous sommes en même temps partout, aussi près des lointains que des choses proches, et que même notre pouvoir de nous imaginer ailleurs - "Je suis à Pétersbourg dans mon lit, à Paris, mes yeux voient le soleil" [Robert Delaunay, Du cubisme à l'art abstrait] - de viser librement, où qu'ils soient, des êtres réels, emprunte encore à la vision, remploie des moyens que nous tenons d'elle." "La peinture réveille, porte à sa dernière puissance un délire qui est la vision même, puisque voir c'est avoir à distance, et que la peinture étend cette bizarre possession à tous les aspects de l'Être, qui doivent de quelque façon se faire visibles pour entrer en elle." Maurice Merleau-Ponty, L'oeil et l'esprit

Introduction
Pourquoi mettre Présences au pluriel dans le titre de ce livre ? Les "présences à distance" visent une région particulière, celle des déplacements fluides gérés par les technologies numériques, mais conçus dans leur dépendance aux "machines" intellectuelles et corporelles (langage, vision, audition, geste, etc.). Il ne s'agit, ici, ni d'une lecture généalogique, ni d'une description fidèle du paysage technique et politique des télécommunications. Nous explorons, en revanche, quelques logiques homogènes aux procédés actuels de déplacements des signes de la présence en les comparant à celles qui ont gouverné leurs prédécesseurs. Nous ne présupposons pas que la Téléprésence est appelée à se substituer aux rencontres charnelles dans les activités humaines. D'où le pluriel qui affecte le terme "présence", exprimant le développement de solutions intermédiaires entre l'absence et la présence strictes : les modalités de la présence à distance se multiplient, et surtout, le coefficient corporel augmente dans ces transports. La Téléprésence agit comme une "forme culturelle" qui redéfinit la notion même de rencontre (comme d'autres, telles que la photographie ou la télédiffusion audiovisuelle, l'ont déjà accompli). Nous aurons bien sûr, à nous expliquer sur cette notion de "forme culturelle" dans ses rapports à la technique en général et aux techniques particulières qui la sous-tendent. Ainsi -c'est l'une des propositions principales de ce livre- la Téléprésence

transforme l'exercice de la croyance telle qu'elle se concrétise aujourd'hui encore dans la télévision, parce qu'elle affecte les conditions du déplacement de la présence. La crise de confiance qui taraude les massmedia dans leur fonction informative entretient, en effet, des rapports explicites avec la Téléprésence, si l'on admet que la croyance, quel qu'en soit le vecteur, exige un transport de l'événement (article de presse, enregistrement vidéo, etc.). On est présent par procuration en lisant un article de presse qui décrit un affrontement militaire, par exemple. On est témoin par oeil et oreille interposés quand on regarde un reportage sur ce même conflit. Avec les vecteurs numériques, on est présent aussi, mais de manière à la fois plus distante et plus intime, dès lors qu'il devient possible d'expérimenter l'événement par le truchement de son modèle, et non plus d'apprécier la transposition écrite ou la capture audiovisuelle pratiquée par autrui. Transporter suppose alors de modéliser préalablement l'événement. Et c'est là qu'interviennent les technologies numériques, non pas seulement pour transporter l'information mais pour la mettre en forme et la rendre ainsi expérimentable. Et l'on voit bien que ces questions pourraient être prolongées dans le domaine politique puisque le système de la démocratie représentative repose sur la séparation entre représentants et représentés. Quelles formes politiques pourront-elles bien correspondre à une situation où l'on peut être à la fois ici et ailleurs ? À ce commerce entre le technique (la maturation, la disponibilité des techniques de modélisation numérique) et le culturel (l'exigence d'expérimentation que personne n'exprime en propre et que tout le monde partage), la notion de "forme culturelle" vient apporter un cadre. Il s'agit bien d'un lieu de mixage où se négocient, s'interpénètrent et se contraignent mutuellement, dispositifs, usages sociaux et désirs collectifs. On pourrait aussi bien parler de "forme technoculturelle". Ce serait, au plan épistémologique, parfaitement justifié ; la "culture" se constitue fondamentalement dans le technique, et doit-on les différencier ? Je préfère, cependant, conserver la notion de "forme culturelle" pour ne pas laisser entendre que la Téléprésence relève essentiellement de techniques, éléments indépendants avec lesquels nos sociétés devraient négocier comme avec une contrainte imposée de l'extérieur. Notre monde, en effet, secrète les appétits que les dispositifs viennent satisfaire. Et c'est au niveau le plus général, la culture (orientations, visions du monde, modes de travail, habitudes, croyances, désirs collectifs, comme on voudra) que le frayage s'opère. Dans l'étude de la présence technologique à distance, le terme "technologique" pourrait être supprimé, si on admet que la notion même de déplacement de présence l'inclut implicitement. On le conservera néanmoins pour marquer la spécificité des technologies dures face aux technologies mentales "molles" (imagination, fantasme éveillé, etc.), la séparation entre elles, pour réelle qu'elle soit, pouvant accueillir des voies de passages. Nos investigations tentent, notamment, de relier les segments durs de circulation des signes (écriture, imprimerie, enregistrement, numérisation) aux transferts et traitements propres à l'activité mentale (imagination, mémoire, souvenir). Le chapitre VI, consacré à une discussion du travail de Gilles Deleuze sur le cinéma, tente, en particulier de concrétiser cette direction d'étude. Dupliquer non seulement l'apparence de la réalité mais sa mise en disponibilité -c'est-à-dire le mode d'accès à cette réalité transposée-, telle pourrait être la définition de la Téléprésence. S'ouvre dès lors la controverse sur l'ampleur et l'intensité possible de cette mission. Doit-on appréhender la réalité transposée comme une réalité en compétition globale avec notre monde empirique habituel ? Ce qui est en cause dans cette discussion concerne d'abord la notion de

déplacement dans ses rapports à la présence. Cette question est d'une grande complexité dès qu'on refuse d'identifier présence corporelle et présence psychique et qu'on dissocie l'unité de lieu et de temps dans la multiplicité des espaces-temps mentaux[1]. L'ordinaire de notre existence se tisse dans d'extraordinaires enchevêtrements de voyages imaginaires, de déplacements identificatoires, de migrations incorporelles. C'est dire la difficulté d'élaborer une réflexion sur les rapports entre présence corporelle et déplacement des signes de la présence, rapports auxquels il faudrait ajouter ceux que nous entretenons avec des objets intermédiaires, remplaçant sur un plan imaginaire, la présence[2]. Nous y sommes aidé par une série de recherches et d'acquis sur les déplacements des signes dans leurs rapports à la production matérielle et intellectuelle. Certains travaux fondamentaux, historiques et philosophiques, sur la naissance de l'outil, de l'écriture, ou des télé-technologies inspirent nos investigations. Nous croiserons dans cette tentative des perspectives variées, de la tentative médiologique au concept de "technologie intellectuelle", de l'histoire des techniques de représentations à la phénoménologie. L'objectif est d'en approfondir certaines logiques, à la faveur de l'incontestable accélération du mouvement de Téléprésence. De les relire rétrospectivement, en quelque sorte. De ce mouvement, on ne proposera pas une cartographie précise. Notre ambition est autre. Elle consiste à proposer quelques outils méthodologiques pour en saisir les enjeux. Mais sans doute est-il temps de montrer comment s'articulent les différentes parties composant ce livre dans leurs rapports, parfois indirects, à la Téléprésence. L'invention, à la fin du siècle précédent, des techniques d'enregistrement avait déjà suscité une prémonition de leur dépassement. Archéologie de la Réalité Virtuelle, ces visions s'étaient asséchées avec la sédimentation de la radio et de la télévision. Les techniques de simulation numérique les ont fait passer de l'état de fictions à celui de premières réalisations. Dans un premier chapitre, nous proposons une définition du mouvement actuel de Téléprésence dans ses relations aux formes antérieures de déplacement des signes de la présence (écriture, imprimerie, téléphone, etc.). L'hypothèse centrale d'une augmentation tendancielle du caractère incarné du transport de la présence y est affirmée en regard de ce qu'offrent les technologies numériques. Numérisation, modélisation, mise en réseau constituent en effet la chimie de base de la Téléprésence. Nous centrons notre enquête sur la commutation entre l'activité humaine et les univers virtuels, c'est-à-dire sur la notion d'interface. Nous tentons en particulier de montrer que loin d'éliminer le corps et les sensations physiques dans une supposée fuite en avant de l'abstraction, la Téléprésence les réinjecte au centre de l'expérience humaine. Cependant, ce retour du corps dans l'expérience virtuelle s'accompagne d'une redéfinition de la kinesthésie. La Téléprésence ne restitue pas à l'identique les performances que nous accomplissons habituellement. Elle invente un autre milieu perceptif dans lequel se concrétisent notamment des mouvements relationnels entre objets et sujets humains, particulièrement sensibles dans le travail coopératif à distance. Entre la présence en face à face et l'absence, se construisent donc des graduations sans cesse plus fines qui incitent à repenser nos conceptions héritées, relatives au partage commun de "l'ici et maintenant" et corrélativement à la séparation. Comment, dans ces conditions, apprécier les craintes d'une possible confusion des registres "réels" et "virtuels" ? Peut-on imaginer des transactions à distance qui rendraient transparents les procédés relationnels au point de les effacer de la perception des acteurs ? Nous esquissons, pour clore cette partie, une réponse à ces questions. Le deuxième chapitre, qui offre son sous-titre à ce livre, propose de relier la crise actuelle des médias de masse à l'accentuation de l'incarnation de la communication. On l'a dit, le développement de nouvelles formes de présence à distance (réseaux, supports numériques interactifs) permettent, en effet, un rapport plus intime avec l'événement. Les modalités de la croyance sont alors recomposées sous la pression de ces exigences de participation plus

intime. Les formules reliant croyance et mise en forme visuelle du monde, qui ont assuré les beaux jours des techniques d'enregistrement, entrent en crise, inassouvies par la restitution inerte des prélèvements opérés par les divers systèmes de l'ère de la capture directe (photographie, radiodiffusion, télévision, etc.). Au prélèvement événementiel, succède l'épreuve d'une animation simulée de modèles, prolongeant les dynamiques vivantes auxquelles ils réfèrent. L'hypothèse développée affirme, à l'encontre des discours érigeant la télévision en pouvoir fascinant absolu, que les massmedia ne souffrent pas d'un trop-plein de participation mais d'un déficit, et que progressivement se mettent en place, grâce à la Téléprésence, les moyens d'une expérimentation plus directe de l'information. D'où l'avènement d'un spectacte, succédant au spectacle. On comprend la multiplication des tentatives d'intégration, par le système télévisuel, de cette demande participative, de même que l'on constate les limites intrinsèques des réponses fournies à la quête de réalisme. Est-ce à dire qu'il n'y aurait plus de mise en forme de l'information, qu'un accès pur de toute médiation serait désormais possible ? La propension expérimentatrice trouve-t-elle son origine dans l'existence de technologies qui lui fournissent l'occasion de s'exprimer ? Peut-on relire d'anciennes analyses élaborées à propos de la photographie, à la lumière de l'importance prise, aujourd'hui, par les "télé- contacts" ? D'où l'occasion d'avancer quelques hypothèses sur les nouvelles scénographies qui se construisent dans le contact à distance, dont les "avatars virtuels" sont l'une des illustrations. Le chapitre III est spécifiquement consacré à Internet, sous un angle particulier : la question de la médiation. Poussé par une puissante vague visant à supprimer les intermédiaires traditionnels (édition, distribution, recherche d'information, etc.), ce nouveau média peut-il tenir les promesses qui le soutiennent ? Peut-on, en effet, considérer Internet comme un modèle politique d'organisation sociale anti-hiérarchique, valorisant les relations latérales ? On discutera, sous trois éclairages différents, la tendance à l'affaiblissement des médiations. D'abord en observant qu'un autre type de médiation émerge avec le développement du réseau mondial : l'auto-médiation, fondée sur l'alliance de l'autonomisation et de l'automatisation de la médiation, alliance que l'espace Internet suscite et fortifie. Ensuite, Internet sera envisagé comme espace politique propre. Comment les principes démocratiques prônés dans le réseau sont-ils appliqués au gouvernement du réseau lui-même ? Enfin, sur un tout autre plan, nous comparerons les deux grandes postures de la navigation interactive (CD-Rom et réseau) dans leurs rapports à l'idéal d'une autonomie revendiquée. Quel sens donner à l'utopie Internet ? Et de quel type d'utopie s'agit-il ? Il nous a semblé nécessaire, avant d'aborder la question de l'efficacité culturelle de la Téléprésence, de préciser, dans le quatrième chapitre, nos positions quant au statut des technologies intellectuelles en général, et de la téléinformatique en particulier. Cette délimitation réfère aux travaux de l'école épistémologique d'anthropologie des sciences et des techniques, laquelle privilégie les réseaux sociaux dans l'étude du fait techno-scientifique. Nous essayons d'en évaluer l'apport, mais aussi les limites, à la faveur d'exemples d'usages d'Internet. L'idée que les technologies intellectuelles sont les facteurs décisifs du dynamisme social global s'accorde, apparemment, parfaitement avec le caractère stratégique de l'informatique et des réseaux numériques. Internet serait, en quelque sorte, la parabole de la mondialisation, non seulement de par sa diffusion planétaire, mais surtout comme illustration de la sociologie constructiviste. La suprématie souvent accordée depuis Marshall McLuhan, à la sphère du traitement des signes alimente les thèses convenues sur la société de l'information et du travail immatériels. Nous les discutons en insistant sur la difficulté de séparer, dans le travail symbolique lui-même, les segments durs (machines, réseaux, etc.) des segments "mous" (idée, pensée, affect).

Le développement des scénographies interactives est l'un des cadres où s'expérimente une forme de présence. Non pas dans la séparation géographique, mais dans l'inscription interne à un cadre d'action, que ce soit un musée formalisé, un jeu vidéo ou un récit fictionnel. Qu'estce qu'être présent dans un tel cadre ? Comment thématiser les configurations, dites interactives, qui permettent d'intervenir pratiquement dans des scénographies narratives installées ? Telles sont les principales questions abordées dans le chapitre V. Notre attention est, en particulier, attirée par le développement, dans l'aire du multimédia, de solutions de continuité entre réception et production. Cette observation est de la plus haute importance pour reconnaître et développer les savoir- faire intermédiaires de l'hypermédiation. Après avoir réexaminé, de manière critique, certaines tentatives de formalisation du concept d'interactivité, nous examinons l'évolution de la notion d'interface dans ses rapports à la posture interactive. De même nous attacherons-nous à l'une des dimensions prometteuses de l'interactivité : l'animation autonome de scénarios évolutionnistes. Les programmes "génétiques" en sont un parfait exemple. Par ailleurs, le savoir accumulé en matière d'inscription du spect-acteur dans le récit s'est concrétisé dans de nombreuses réalisations. Celles-ci affrontent, avec des réponses différenciées, quelques questions communes. Par exemple, comment la succession des choix dans une scénogaphie peut-elle orienter le déroulement futur d'une trajectoire ? La proposition d'une littérature génétique -en décalage avec l'interactivité- apporte une réponse originale à cette interrogation. Nous la discutons en montrant comment différents modes de construction de récits se rattachent implicitement à des conceptions de la vie. Le chapitre VI a un statut particulier. Plus philosophique et d'une lecture moins facile, il expérimente quelques hypothèses plus qu'il ne propose des résultats. J'y ai poursuivi une direction d'analyse sur l'image simulée, ponctuée notamment par les écrits d'Henri Bergson, de Maurice Merleau-Ponty, et que les livres de Gilles Deleuze sur le cinéma sont venus revivifier. Il m'est, en effet, apparu que la tentative, à propos du cinéma, d'en "faire la théorie comme pratique conceptuelle", pouvait être mise à profit sur le terrain des images actées. La place qu'accorde le philosophe à Bergson pour bâtir sa théorie de l'image-temps ne pouvait que m'inciter à m'engager dans cette direction. La question de la perception est en effet au coeur de cette interrogation sur les enjeux de l'image actée, sur la manière dont elle suscite et traduit une posture perceptive. Une orientation très riche s'en dégage pour aborder les rapports technologie/perception dans la lignée des propositions de Walter Benjamin ou de Marshall McLuhan. L'enquête phénoménologique ouvre une voie précieuse pour apprécier comment la liaison de l'action et de l'image -l'image actée- redéfinit la vision, laquelle chez Maurice Merleau Ponty est explicitement une présence tactile à distance. La direction bergsonienne exploitée par Gilles Deleuze pour rendre compte du cinéma d'après-guerre exprime les mouvements abstraits à l'oeuvre dans la vision, mouvements relatifs à la temporalité, et qu'un certain cinéma révèle distinctement. Une telle démarche est-elle concevable à propos de l'image actée ? Peut-on dégager des concepts spécifiques à cette expérience ? Notre proposition de "cristal présentiel", répondant à "l'image-cristal" de Gilles Deleuze, est une indication dans cette direction. Elle tente de thématiser les déplacements de présence qui fondent certaines oeuvres télé-technologiques. Elle se heurte, cependant, au caractère encore mal délimité du genre. Gilles Deleuze analyse des films singuliers d'une période historique, et non pas le cinéma comme technologie en général. Cela dit, ses remarques, par exemple, sur l'adjonction du son à l'image lors de la naissance du cinéma sonore, peuvent, je crois, être prolongées lorsque l'action se compose à l'image sonore dans l'image actée. Poursuivre ces constructions conceptuelles en se tenant au plus près possible des propositions artistiques qui émergent, telle est, on le verra, la direction qu'indiquent les défrichages fondateurs de Gilles Deleuze.

Il s'agira enfin, dans le dernier chapitre, de reprendre de manière unifiée les principaux résultats obtenus auparavant, autour de la question des enjeux culturels de la téléinformatique. L'hypothèse centrale consiste, à la différence de nombreuses analyses, à affirmer qu'il n'y a pas d'incidences culturelles unilatérales et globales repérables dès lors qu'on examine attentivement les différentes strates dans lesquelles les télé-technologies inscrivent leurs opérations. Somme-nous vraiment confrontés à une déterritorialisation radicale, à une suppression galopante des intermédiaires, à l'accélération absolue et à la conquête achevée de l'instantanéité, à l'éclipse évidente de la linéarité, au déclin manifeste de l'auteur individuel ou encore à l'affaissement du panoptisme ? Sur ces différents plans, nous tentons de montrer que, loin d'oeuvrer dans un sens univoque, la télé-informatique engendre elle-même des tensions entre des logiques antagonistes : délocalisation et inscription locale, temps différé et temps réel, séquentialité et hypertextualité, accélération et ralentissement. Il ne s'agit pas là essentiellement de gestion des survivances, ni de manifestations de résistances. Réinterprétant les situations héritées, les technologies conservent souvent les anciennes logiques en les hybridant aux nouvelles plutôt qu'elles ne les effacent totalement. Et ces manifestations semblent particulièrement virulentes dans l'univers des télé-technologies. Nous faisons effectivement l'hypothèse que la télé-informatique diffuse plutôt une méta-culture, qu'une culture, disjoignant, plus que d'autres grandes vagues technologiques passées, les méthodes et les contenus, les logiques et les manifestations. Elle laisserait donc croître et se diversifier, sous sa portée, des logiques hétérogènes, voire antagonistes, mais surtout, hybriderait anciens et nouveaux principes. [1] Dissocier lieu et temps : l'état de rêverie éveillée nous en donne l'expérience. Souvenirs, fantasmes et rêves déclinent toute la gamme des combinaisons possibles. Dans ses formes extrêmes, cette dissociation devient pathologique. Dans une intervention orale au séminaire "Pratiques - Machines - Utopie" (Université Européenne de la recherche - Département des Sciences politiques de l'Université Paris VIII, Paris, 1994), le psychiatre Jean Oury éclairait la psychose en la décrivant comme un trouble de la présence : un patient qui parlait avec lui dans son bureau, était, en fait, resté près de l'étang, à côté des canards. [2] Toute une dimension mythologique et fantasmatique de la téléprésence symbolique pourrait ici être invoquée, de la "téléprésence" divine incarnée dans un messager, à la côte tissée par Pénélope, et aux "objets transitionnels" chers à la psychanalyste Mélanie Klein.

Chapitre I Entre présence et absence
La Téléprésence moderne se caractérise par l'augmentation du coefficient charnel dans la communication à distance. Les signes de la présence dans de telles situations s'incarnent, en effet, toujours plus. La Téléprésence n'a pas attendu les réseaux numériques pour se déployer. Mais le mouvement qui augmente, aujourd'hui, la proportion charnelle dans les canaux expressifs est très lisible. L'écriture manuscrite, premier transport à distance du langage, formalise à l'extrême la corporéité de l'auteur, ne la laissant transparaître qu'à travers la calligraphie. L'expansion de l'imprimé réalise ce que l'invention de l'écriture annonçait, mais uniquement comme promesse abstraite : la formation de communautés de lecteurs éparpillés sur un territoire et réunis par les mêmes livres [1]. L'instantanéité de la transmission orale -sans la réactivité- est atteinte grâce au télégraphe. Avec le téléphone qui assimile les canaux vocaux et auditifs, la simultanéité de l'émission et de la réception épouse un peu plus le modèle de la communication en "face à face". L'émission de l'image, et sa réception instantanée, charge la relation d'une dimension visuelle incontournable. Sur les réseaux numériques s'expérimente, pour la première fois, une communication collective, éventuellement anonyme, rappelant l'échange multipolaire des groupes rassemblés dans un même lieu et rompant avec le modèle pyramidal des massmedia. Enfin, dans le sillage de la Réalité Virtuelle, la télévirtualité immerge les partenaires dans le même espace virtuel. Elle ajoute le canal gestuel au canaux visuels et sonores et ouvre à l'échange kinesthésique. Le partage commun de "l'ici et maintenant", modèle principal de la relation humaine, se transpose ainsi dans l'espace et devient la référence de la communication à distance. Ce partage, on le sait, ne se limite pas à l'échange de signes verbaux et non verbaux. Il est tissé de gestes, de contacts corporels concrets ou potentiels et de manipulations conjointes d'objets. Cette dimension "haptique" (du grec haptein, toucher) lutte contre l'affadissement inévitable d'une communication contrainte à ne s'extérioriser que par le texte, le son, l'image sans pouvoir s'appuyer sur une interaction corporelle, directe ou indirecte. L'enjeu n'est alors plus seulement communicationnel, mais relationnel. Il ne s'agit plus de transmettre des informations mais de créer les conditions d'un partage mutuel d'un univers. Après avoir posé, dans une première partie, quelques jalons pour une archéologie de la Réalité Virtuelle, nous préciserons les conditions de ce partage, et ceci dans deux directions, le perfectionnement des interfaces de communication et la naissance de nouveaux milieux de présence partagée, tirant profit des ressources abstraites de la télévirtualité. Nous prolongerons, ensuite, cette enquête en interrogeant les craintes d'un éventuel doublage virtuel de notre environnement ; craintes qui, tout en créditant la simulation numérique d'un pouvoir imitatif probablement démesuré, méconnaissent les dimensions proprement créatives des télétechnologies. A - éléments pour une archéologie de la Réalité Virtuelle [2]

L'essai pamphlétaire de Jean Brun, Le rêve et la machine [3] contribue à dégager une archéologie de la Réalité Virtuelle. Sa thèse centrale se résume ainsi : la science et la technique sont filles de l'activité onirique, tentative de dépassement -vouée à un échec dramatique, selon l'auteur- des cadres spatiaux et temporels propres à l'humain. L'opérationalité des applications, tout comme les motivations apparemment rationnelles des acteurs ne servent, selon lui, que d'alibis à cette tentative. Ce qui est remarquable dans le développement de l'argumentation, c'est l'identification des traits essentiels de la tentative de déplacement sans fin des limites marquant l'existence humaine. Tentative désespérée, pour Jean Brun inspiré par la théorie chrétienne du salut [4]. Le chapitre intitulé "Télé-présences et réalités virtuelles" concentre assez bien les enjeux de l'épopée technicienne considérée comme tentative de sortie de la condition humaine. Se tenir à distance de soi, réaliser l'ubiquité, approcher une transsubstantiation, une désincarnation voire une réincarnation, voilà les objectifs aussi vains (selon Jean Brun) qu'affirmés par la saga technicienne [5]. "Le désir de l'homme de métamorphoser son temps et son espace pour aller habiter d'autres moi, se défaire à nouveau de ceux-ci pour toujours recommencer, témoigne de la détresse de celui qui voudrait s'arracher à lui-même afin de pouvoir tout savoir et pouvoir tout posséder" [6]. L'essence de l'entreprise technologique réside précisément dans la tentative de vivre "plusieurs existences ayant pour auditorium des espaces multidimensionnels" [7] afin d'échapper à l'unicité de la localisation dans l'espace et à la linéarité du déroulement temporel. La dénonciation des transgressions qui en résultent s'accompagne d'une piquante revue d'essais littéraires préfigurant l'actualité des télé-transports et de la Téléprésence. Au XIXe siècle finissant, la naissance des techniques d'enregistrement (photographie, phonographie et cinéma) féconde l'imaginaire littéraire et lui fait entrevoir de somptueuses perspectives. Ce qui est remarquable dans ces fictions, c'est l'anticipation sur le stade, tout juste atteint, de la capture d'empreinte. Comme si l'horizon découvert autorisait tous les vagabondages visionnaires, espérances tangibles d'une poursuite de la vague innovatrice vers toujours plus de réalisme dans la concrétisation des représentations. Avec le développement de la diffusion radiophonique, la prémonition rencontre la réalisation technique. Paul Valéry en tirera immédiatement, et magistralement, les leçons. Dans le cadre du mouvement de la cybernétique, on s'attachera aussi à imaginer des formes de télé-déplacement de substance. On quitte alors le terrain de la fiction ou de l'extrapolation pour investir celui du projet scientifique. Quelques années plus tard, avec les premiers simulateurs numériques de pilotage d'avions, l'informatique commencera à concrétiser ces pressentiments. D'Apollinaire à Saint-Pol-Roux Guillaume Apollinaire imagine un procédé d'enregistrement et de transmission d'existence, non plus de l'apparence mais de la vie même. Dans Le toucher à distance, Apollinaire décrit l'étrange appareil qu'utilise le baron d'Ormesan : "De même que la voix peut se transporter d'un point à un autre très éloigné, de même l'apparence d'un corps, et les propriétés de résistances par lesquelles les aveugles en acquièrent la notion, peuvent se transmettre, sans qu'il soit nécessaire que rien relie l'ubiquiste aux corps qu'il projette" [8]. Le baron avait disposé dans huit cent quarante grandes villes des récepteurs de présence (et particulièrement sur les façades des synagogues, puisqu'il souhaitait se faire passer pour le messie). Grâce à son émetteur de présence, il pouvait retrouver sa maîtresse tous les mercredis à Paris alors qu'il se trouvait à Chicago, Jérusalem ou Melbourne. Tout cela finit mal, huit cent quarante fois mal, car le baron assassiné mourra autant de fois que ses doubles délocalisés.

À propos du cinéma, Saint-Pol-Roux poursuit les mêmes desseins avec sa conception "idéoréaliste". Ils s'inscrivent dans le cadre d'un rejet affirmé de l'écrit et d'une valorisation de l'oral que véhiculent les techniques d'enregistrement (phonographie, cinématographie). SaintPol-Roux, dans son essai Cinéma vivant : "...le cinéma en est aux Ombres de Platon, il doit sortir de la Caverne. Le prisonnier doit se libérer" [9] et donc le cinéma actuel n'est que "le Cro-Magnon du cinéma futur" [10], "le Destin va se cristalliser, va se corporiser. Le cinéma sera organique" [11]. Son "idéoréalisateur" devrait pouvoir créer des "êtres-images" et les déplacer à distance sous forme d'"ondes carnifiées". "Puisqu'on est parvenu à la photographie à distance, pourquoi n'atteindrait-on pas l'apparition de son original, pourquoi à la chambre noire ne succéderait pas une chambre blanche ?" Le cinéma s'emploiera "à capter le désir collectif et à en objectiver le motif" [12]."On surcréera les autres, on se surcréera soi-même" [13]. L'"idéoplastie" ouvrira le champ du transport spatio-temporel : "on invitera des célébrités chez soi, "dans nos meubles, à notre table, il y aurait à domicile des soirées César, Dante". On peut noter l'inspiration organique de "l'idéoréalisme". Il s'agit bien d'incarnation, voire de réincarnation. La perspective de Saint-Pol-Roux est en fait assez éloignée d'une recréation artificielle, d'une synthèse. C'est plutôt en radicalisant la photographie qu'il espère engendrer une "surcréation" tridimensionnelle. On soulignera aussi l'énergie révolutionnaire issue du "miracle" photographique, irriguant d'autres projets de transport bien plus audacieux, comme si la séparation de l'apparence et de la forme autorisait l'espoir d'extraire la forme elle-même par un procédé similaire [14]. De Paul Valéry à Norbert Wiener Jean Brun aurait pu également solliciter Paul Valéry qui a, bien entendu, lui aussi anticipé la télévirtualité. La construction même du célèbre article, La conquête de l'ubiquité, recèle une vision prémonitoire. Avant de décrire et d'analyser la télé-diffusion de la musique et du son, il commence par abstraire la forme fondamentale du phénomène : "Sans doute ce ne seront d'abord que la reproduction et la transmission des oeuvres qui se verront affectées. On saura transporter ou reconstituer en tout lieu le système de sensations (italique ajouté par le rédacteur), -ou plus exactement, le système d'excitations- que dispense en un lieu quelconque un objet ou un événement quelconque" [15]. Pressentant la continuité entre le développement des réseaux énergétiques (eau, gaz, électricité) et des futurs réseaux informationnels, il désigne, après la musique [16], le prochain milieu candidat à la télé-exportation : les images visuelles. "Un soleil qui se couche sur la Pacifique, un Titien qui est à Madrid ne viennent pas encore se peindre sur le mur de notre chambre aussi fortement et trompeusement que nous y recevons une symphonie. Cela se fera" [17]. En cela, Paul Valéry ne se situe plus, comme Apollinaire, sur le terrain de la fiction littéraire mais sur celui de l'extrapolation sociotechnique, soutenu par une intelligence profonde du phénomène. Radicalisant encore son pressentiment, il s'interroge : "Je ne sais si jamais philosophe a rêvé d'une société pour la distribution de Réalité Sensible à domicile" [18]. Les majuscules élèvent l'intuition au rang de concept, rejoignant, cinquante ans auparavant, les mêmes marquages typographiques qui affectent la Réalité Virtuelle lorsque les ingénieurs américains des années soixante-dix la baptisèrent et signifièrent ainsi l'invention d'un nouveau milieu de "Réalité Sensible". Dans Cybernétique et société, paru aux États-Unis en 1950, Norbert Wiener, l'un des principaux créateurs du mouvement de la cybernétique, propose une argumentation visant à établir la possibilité théorique de l'enregistrement et de la transmission du vivant. Il s'agit là d'un tournant dans le projet de transfert de présence, car pour la première fois c'est une

argumentation scientifique, et non une spéculation visionnaire, qui est avancée. Indépendamment du degré de pertinence du propos, ce changement de registre mérite d'être souligné. Wiener ne décrit pas simplement le projet, il indique comment il faut le réaliser. L'idée maîtresse, conforme à l'esprit conquérant de la cybernétique, repose sur une conception "immatérielle" du corps, sa définition informationnelle, énergétique. "L'individualité du corps est celle de la flamme plus que celle de la pierre, de la forme plus que celle d'un fragment matériel ; cette forme peut être transmise ou modifiée, ou doublée" [19]. La définition énergétique de la matière annonce sa définition informationnelle : "Nous ne sommes que les tourbillons d'un fleuve intarissable, non-substance qui demeure, mais modèles qui se perpétuent, [...] l'idée selon laquelle on pourrait imaginer non seulement le voyage par train ou par avion, mais aussi par télégraphe, n'est pas absurde en soi, si loin qu'elle doive être de sa réalisation" [20]. L'idée générale est de remplacer un corps humain par son double informationnel, de le transmettre et de le reconstituer à distance par une sorte de synthétiseur de présence. Affirmant que l'obstacle technique n'est que provisoire, il ajoute que cette reconstitution totale d'un organisme vivant ne serait pas "plus radicale que celle subie effectivement par le papillon au cours de sa métamorphose" [21]. Un tel projet se rapproche clairement de la synthèse numérique. Il demeure partiellement organisciste : on s'attache à la constitution d'une matière modélisée, -la comparaison avec la chrysalide atteste qu'il s'agit toujours de mutation organique- et on l'expédie grâce à une transmission substantielle. Mais l'évocation de la synthèse informationnelle rapproche le projet de la logique numérique et même de la Réalité Virtuelle. Observons que les voies imaginées par Wiener ne sont pas du tout, actuellement tout au moins, celles qu'empruntent les ingénieurs de la Téléprésence. Ils oeuvrent dans le champ de la synthèse de la présence perceptive (image, son, tactilité, effort) et n'envisagent pas le moins du monde de se lancer dans des projets de synthèse et de transport substantiel du vivant (aujourd'hui, ils en seraient, de toute manière, bien incapables). La présence à distance : un concept charnière La présence est une notion à la fois évidente et floue. Unité de lieu et de temps définissent la présence physique, et encore [22]. Mais les espaces-temps mentaux -ce à travers quoi on est physiquement présent- sont, eux, multiples. Leurs topo- chronologies ne sont pas descriptibles. On n'est jamais là et à l'instant où l'on croit. On s'expatrie continuellement... surtout à l'état immobile. Pour élargir les fondements d'une archéologie de la Réalité Virtuelle, ces quelques références devraient être complétées par de plus amples investigations, relatives notamment : - à l'espace langagier : mise en commun entre des sujets s'opérant toujours par le détour abstrait d'un tiers symbolisant, et rendant de ce fait illusoire tout espoir d'une communication im-médiate, - à la notion de marché, ajustement plus ou moins spontané des acteurs économiques sans qu'ils soient directement en contact, -à la présence divine (vue comme présence à distance) dans ses différentes versions : prophétique et donc portée par le discours ou le texte (tradition juive), incarnée et imagée (tradition chrétienne en n'oubliant pas la position jésuite, moderne avant la lettre : image qui se donne comme telle appelant à être appréciée pour ses qualités sensibles et non pour sa signification).

- au fétichisme : prendre la partie pour le tout est une forme de présence à distance opérant par mobilisation d'un objet partiel remplaçant la totalité (qu'il s'agisse de satisfaction sexuelle, d'opération langagière ou de substitution maternelle grâce à un "objet transitionnel"), - à l'action à distance : la notion physique de champ de forces (gravitationnel, électrique, magnétique, etc.) concrétise une projection, de la cause, à distance. Dans notre enquête, nous rencontrerons certaines de ces directions même si nous privilégions plutôt les traits socio- techniques de la Téléprésence. B - La Téléprésence, une définition Wiener avait vu juste lorsqu'il préconisait de réaliser le doublage informationnel d'un corps pour, ensuite, le télé-déplacer. Il prévoyait ainsi l'interdépendance entre la simulation informatique et l'expansion des réseaux numériques, qui constituent aujourd'hui les deux cas d'emploi du terme "virtuel" [23]. Mais le cybernéticien, tout comme ses prédécesseurs de l'avant-dernier siècle, demeurait prisonnier d'une vision réaliste du doublage. Il s'agissait bien de reconstitution à l'identique. Or les réalisations actuelles démontrent que la virtualisation ne réplique pas des univers de référence, elle invente, à partir d'eux, de nouveaux mondes. Ainsi exprime-t-elle sa puissance générative. Notre investigation de la Téléprésence est fondée sur un mouvement en quatre temps qui explicite la notion de déplacement informationnel et caractérise ses phases : - la production d'une représentation formelle de l'objet à déplacer pour qu'il puisse passer par le filtre d'un réseau numérique, - l'accroissement des caractères incarnés des représentants ainsi obtenus (ajout de l'image au son pour accéder à la visiophonie, passage à la troisième dimension dans Internet, par exemple), - l'impossibilité, toutefois, de faire coïncider le représentant et l'original, mais poursuite du mouvement pour s'en approcher, - dans cette tentative mimétique déjouée, naissance d'un espace propice à la création de formes hybrides soumettant le double informationnel de l'objet source -rendu transportable- à de nouvelles modalités cognitives et actives (comme le multifenêtrage, hybride entre la multiplicité des espaces d'un bureau réel et la bi-dimensionalité de l'écran ou encore l'usage du regard pour se déplacer dans les espaces de Réalité Virtuelle). Il s'agit donc de préciser et d'illustrer ces quatre opérations. Nous envisageons les relations entre les phases d'imitation et d'invention comme une manière d'analyser les réalisations et les projets en cours, de les soumettre à une même interrogation discriminante. Cette interrogation, relève, par ailleurs, d'une problématique beaucoup plus vaste, que nous ne ferons que suggérer, englobant le champ de la dynamique technique, comme mouvement de création en tant que telle : imitation, détournement, inflexion de la nature, par d'autres moyens que la nature, et donc création, de fait, d'un nouveau milieu naturel/artificiel [24]. Modéliser et transporter

La première opération de la Téléprésence consiste à traduire numériquement les composantes appelées à être déplacées (voix, image, éventuellement efforts physiques) [25]. De même, les éléments de l'environnement sujets à interactions sont transcrits (espaces documentaires, lieux de travail comme dans la Bureautique virtuelle). Enfin, les interfaces spécifiques nécessaires sont installées pour animer ces univers (de la définition des zones sensibles dans l'écran aux organes de commandes gestuels tels que les souris et joysticks - jusqu'aux interfaces de Réalité Virtuelle comme les gants de données, casques d'immersion, etc.). Ce premier mouvement s'adosse à la simulation informatique qui affine sans cesse ses capacités à produire des modèles numériques fonctionnels des objets et systèmes qu'elle prend pour cible. Dans un deuxième temps, on transporte, via des réseaux adaptés, ces éléments modélisés. Une grande variété d'applications concrétise cette double opération qui, de l'enseignement à distance au télétravail en passant par le déplacement d'oeuvres ou de musées et les facultés inédites de travail coopératif à distance, combine différents composants (textes et graphismes avec ou sans image de l'interlocuteur, réception des efforts physiques à distance, etc.). On ne fera pas ici la typologie de ces configurations, nous réservant par la suite d'approfondir certains exemples, en particulier dans le domaine de la Réalité Virtuelle, qui concentre le plus grand nombre de canaux perceptifs. Déplacement d'existence et déplacement de présence Simuler et déplacer, ces deux opérations recouvrent les deux cas d'emplois du terme "virtuel". Le premier, la modélisation numérique, désigne une variation d'existence. De la réalité de premier ordre, empirique, on passe à une réalité de deuxième ordre, construit selon les règles de la formalisation physico-mathématique. La deuxième acception du terme"virtuel" relève d'une variation de distance, et c'est là que prend place le transport par réseau. On parle d'entreprises, de casinos, ou de communautés virtuels pour désigner des institutions, ou des personnes, éloignées et qu'on ne peut atteindre qu'à travers le réseau. Et cet éloignement est le fruit de leur modélisation numérique préalable, condition pour qu'ils puissent se glisser dans les mailles du réseau. On entre en rapport effectif avec un ensemble de signes traduisant leur présence (textes, voix, images, etc.) dans une forme mue par des programmes informatiques. Cette animation automatique par programmes donne consistance à l'appellation "virtuel". Sinon, il s'agirait d'une simple télé-communication, comme avec le téléphone. (On peut parler, par exemple, de "casino virtuel" sur Internet parce qu'un modèle de casino fonctionne sur un serveur, à distance). Le "virtuel" de la simulation ne s'oppose pas au "virtuel" des réseaux, il le prépare. Ces accommodations numériques ne sont certes pas anodines et il ne faudrait pas laisser croire qu'elles se contentent de répliquer les phénomènes et les relations situés à leur source. Elles ne se limitent pas à filtrer la communication à distance. Elles sélectionnent, surtout, les matériaux qui se prêtent à une transmission (ainsi l'odorat, malgré les récentes recherches en cours, est couramment délaissé au profit de l'image plus valorisée culturellement et... facilement modélisable). La forme des entités déplacées, tels les "avatars virtuels", est strictement dépendante de ces sélections opérées. Tel "avatar" privilégiera la qualité graphique des costumes, un autre la qualité sonore, un autre encore la conformité photographique du visage. C'est dire si ces transpositions altèrent et redéfinissent les acteurs engagés ainsi que leurs relations. C - Les interfaces : la commutation homme/univers virtuel Avec le développement des organes intuitifs de commande des ordinateurs, dans les années quatre-vingt, la notion d'interface a d'abord désigné les organes matériels de communication

homme/machine (tels que le clavier, la souris ou les leviers de commande) ainsi que l'organisation dynamique des affichages à l'écran (multi-fenêtrages et menus déroulants). Dix ans plus tard, avec la vague du multimédia, la diffusion du CD-Rom et d'Internet, une autre signification s'y est adjointe, dès lors qu'il devenait possible d'activer directement les objets sur l'écran. La notion d'interface graphique est apparue, désignant à la fois les outils de navigation dans un programme multimédia ainsi que l'organisation logique de l'application, telle qu'elle apparaît sur l'écran. Nous réservant de reprendre plus avant cette dernière acception de la notion d'interface, nous centrerons, ici, notre analyse sur son versant externe, matérialisé par les équipements de commutation entre l'expression humaine et les univers virtuels, tels que : éditeurs partagés, affichage vidéo, visio et audio-casques, gants capteurs, costumes de données, senseurs, exosquelettes, systèmes à retour d'efforts ou leviers de commandes multi-usages. Espaces de travail partagés Le travail de groupe sur les mêmes sources numériques (architecture, dessin industriel, etc.) a rendu nécessaire la mise au point d'<<éditeurs partagés>> assurant la collectivisation de toute modification individuelle apportée au projet, ceci afin d'échapper à l'imbroglio résultant de la circulation simultanée (par disquette ou courrier électronique) de plusieurs versions d'un même travail. Manipuler des objets communs est une chose, échanger à propos de cette activité en est une autre. Comme l'explique Michel Beaudoin-Lafon, directeur du Laboratoire de Recherche Informatique à l'Université Paris-Sud : "En effet, le processus de production de l'objet est aussi important que le résultat de ce processus, particulièrement dans les tâches à couplage fort (nécessitant une très forte interaction entre les participants, comme dans le brainstorming). Par exemple, lorsque l'on fait un croquis pour expliquer une idée, on fait constamment référence à cette figure par des gestes. Il faut donc donner les moyens à chacun de percevoir les actions des autres et pas seulement le résultat de ces actions" [26]. Plusieurs systèmes prennent en compte cette dernière faculté en affichant sur les documents, les positions des pointeurs activés par les participants ou encore en délimitant, par des dégradés de couleurs, les zones que chacun affiche sur son écran, de telle manière que chacun puisse voir ce que regardent les autres. Le partage, à distance, d'espace de travail est aussi l'objectif visé par le système ClearBoard [27]. L'image vidéo de l'interlocuteur est superposée à la surface de travail sur l'écran de l'ordinateur, si bien que les deux personnes ont l'impression de travailler à modifier un plan, par exemple, en étant situées de part et d'autre d'une vitre transparente sur laquelle s'affiche ce plan. L'espace de travail se confond alors avec l'espace de communication. C'est l'une des concrétisations de la notion de mediaspace, espace commun de travail à distance sur des ressources multimédia, mobilisant principalement ordinateur, caméra vidéo et microphone, prolongeant des équipements habituels (courrier interne, téléphone, messagerie, etc.). Ces recherches ont mis en lumière la nécessité de respecter les échelles de disponibilité de chacun des participants à un médiaspace, en particulier lorsque tous partagent des locaux contigus (laboratoire, ensemble de bureaux d'un service, etc.). Dans ces conditions, autant les espaces communs (cafétéria, bibliothèque) sont toujours accessibles, autant les postes de travail personnels peuvent alors être protégés d'une incursion intempestive par de subtiles procédures qui vont de l'affichage d'une porte sur l'écran (ouverte, entrouverte -il faut alors frapper- ou fermée) au "coup d'oeil" lancé vers l'écran d'un collègue pour le saluer brièvement ou vérifier qu'il est disponible. D'autres codes sociaux gouvernant l'établissement d'un contact,

telle la graduation de l'approche permettant progressivement l'installation de la relation, se révèlent plus difficile à reproduire. Avec les écrans, les transitions sont difficiles à ménager : l'image apparaît soudainement. Des propositions sont à l'étude pour y remédier. En tout état de cause, on peut déjà observer que le doublage des relations de proximité ordinaire par des dispositifs techniques, tout en tenant compte des contraintes sociales locales, les modifie en instaurant un double système de relation. Ces systèmes imprégnés des contraintes dues à la séparation physique, inventent de nouvelles mises en forme des espaces de travail ; c'est cela qui les distingue d'une simple télétransmission et qui rend indispensable une modélisation préalable du fonctionnement des interfaces élaborées. On retiendra, de plus, que les mediaspaces -a priori conçus pour donner la sensation d'un espace commun entre des équipes éloignées- sont aussi expérimentés dans des institutions à localisation unique. Réalité augmentée, réalité ajoutée, doublage virtuel des interfaces Toute invention d'interface est un nouveau circuit reliant réalité de premier ordre et réalité modélisée. Les exemples qui suivent indiquent différentes voies par lesquelles la commutation réel/virtuel s'établit. On ne saurait trop souligner l'importance de l'une de ces directions : l'alliage de l'objet matériel et de sa modélisation virtuelle. Le projet Karma, développé par une équipe de l'Université de Columbia (New-York) permet d'ajouter à la vision ordinaire d'un équipement, une vue synthétique tridimensionnelle permettant de faire fonctionner celui-ci. L'imprimante tombe-t-elle en panne ? Il suffit de mettre une paire de lunettes, forme simplifiée d'un casque de vision de Réalité Virtuelle. Le squelette fonctionnel apparaît. Il ne reste plus qu'à manoeuvrer les boutons, leviers et autres manettes virtuelles permettant d'ouvrir un capot, faire glisser un tiroir, activer un mécanisme et en observer les conséquences ; le tout en simulation, bien entendu [28]. Ainsi, la Réalité Virtuelle surimpose à la vision ordinaire de l'objet une vue chirurgicale fonctionnelle, autorisant la manipulation simulée de l'objet. Les interfaces matérielles (organes de commandes de l'appareil) ont ainsi été doublés par leurs équivalents virtuels. Dans le même registre, d'autres recherches ont pour objectif la disparition du support d'affichage lui-même : plus d'écran à regarder ni de lunettes à porter. Dans la filiale européenne du P.A.R.C. de Xerox, installée à Cambridge (Grande-Bretagne), P. Wellner dirige un projet nommé Digital Desk qui élimine les interfaces habituelles (clavier, souris, etc.). Sur le bureau s'affichent directement les données issues d'un projecteur numérique en surplomb relié à un système élaboré de vision artificielle capable d'interpréter certains gestes et de reconnaître des données montrées du doigt sur le bureau, par exemple. Les activités médicales constituent aussi un important champ d'expérimentation pour ces interfaces plus naturelles. Ainsi, un institut allemand a conçu une table de consultation destinée à l'initiation à l'anatomie [29]. Plusieurs étudiants, équipés de lunettes à cristaux liquides, peuvent observer l'un d'entre eux, disposant d'un "gant de données", manipuler une image tridimensionnelle d'un corps humain projeté sur la table lumineuse. Squelette, système circulatoire, respiratoire, etc. peuvent être, tour à tour et simultanément, visionnés ou auscultés. Ici, l'écran individuel a été remplacé par un équipement permettant de collectiviser l'apprentissage. Réalité animée Les "réalités prolongées" assouplissent des objets qu'on plie selon nos quatre volontés, c'est-àdire incorporent certaines dimensions subjectives humaines dans leur mode de manipulation. Dépositaires d'une réactivité, d'un réglage comportemental, ils s'ajustent à nos comportements

et s'auto-définissent dans un rapport adaptatif. Les recherches sur les smart rooms et smart clothes élargissent ainsi la notion d'objets interactifs. Citons Alex Pentand, l'un des responsables de ce programme de recherche au Medialab du M.I.T. à Boston : "It is now possible to track people's motion, identify them by facial appareance, and recognize their actions in real time using only modest computational resources. By using this perceptual information we have been able to build smart rooms and smart clothes that have the potential to recognize people, understand their speech, allow them to control computer displays without wires or keyboards, communicate by sign language, and warn them they are about to make mistake" [30]. Au-delà de l'usage d'ordinateurs, de vastes perspectives sont ouvertes pour élaborer des objets sensibles, cartes de crédit qui reconnaissent leur propriétaire, sièges qui s'ajustent pour nous garder éveillés et à l'aise, chaussures qui savent où elles se trouvent. Transformer les objets qui nous entourent en assistants personnels, tel est l'objectif poursuivi. C'est ce même objectif que visent les "robots chercheurs", dans le domaine documentaire, afin de doter des programmes de capacités à reconnaître et à interpréter les actions de l'opérateur dans le balayage de banques d'informations. On demande, par exemple, à un programme de traiter une requête telle que : "Trouvez-moi les trois livres les plus intéressants sur les nouveaux projets d'interfaces". Connaissant les centres d'intérêt du demandeur, la nature de ses requêtes récentes, les articles qu'il écrit, celui-ci parcourra un ensemble de banques de données, consultera les "abstracts" et autres listes de mots-clés dans les bases de données qu'il jugera les plus appropriées. La mise au point de tels agents "intelligents", dont nous utilisons des versions simplifiées sur Internet, est, depuis plusieurs années, au centre des activités de l'Advanced Technology Group d'Apple visant à enrichir les interfaces graphiques -basées sur le multifenêtrage et les menus déroulants- popularisés par le bureau du Macintosh. Le maître mot est celui de délégation. Ajoutons "de compétence". Il faut pour cela que des programmes puissent avoir accès à nos habitudes et soient en mesure d'acquérir des informations sur nos centres d'intérêt sans que nous soyons obligés de leur faire subir un fastidieux apprentissage sur le modèle des systèmes experts actuels. Eric Hulten, responsable du Human Interface Group dans ce laboratoire d'Apple, explique : "De fait, nos ordinateurs savent déjà bien des choses sur nous : leurs disques durs contiennent les coordonnées de nos interlocuteurs, notre agenda, nos ressources et dépenses... Ils pourraient en apprendre encore plus dans notre courrier électronique" [31]. Ces recherches sont à rapprocher de celles entreprises dans un autre cadre : l'intelligence artificielle distribuée. Il s'agit de fournir à des agents autonomes certaines compétences limitées leur permettant de conduire une activité de manière autonome, l'association de ces conduites pouvant aboutir à résoudre des problèmes (comme le jeu du pousse-pousse ou le Rubix's cube). Dans cette approche, point n'est besoin d'un programme de résolution global. On installe une scénographie et un jeu d'acteurs qui, une fois définies les conditions initiales et l'objectif souhaité, enchaînent eux-mêmes les actions nécessaires pour résoudre le problème. Ces méthodes, dites de programmation multi-agents, sont utilisées, en particulier, pour modéliser l'évolution d'une situation aussi complexe que la vie d'une fourmilière ou étudier la dynamique d'évolution de robots adaptatifs dont la morphologie évoluera en rapport avec l'accomplissement plus ou moins réussi de certaines tâches comme la recherche dans leur environnement et le transport de certains matériaux (minerai, débris, etc.). Symbolique amplifiée Parallèlement aux dimensions strictement fonctionnelles, toute une symbolique spécifique s'élabore pour amplifier la portée cognitive des systèmes conçus. Comme l'explique

Bertrand Duplat, directeur de Virtools, il faut "...inventer des métaphores intuitives qui permettent une utilisation pragmatique de la réalité virtuelle. Car c'est la simplicité d'utilisation, plus que le recours systématique à l'immersion, qui garantira le développement de ces nouvelles interfaces et donc des applications professionnelles de cette technologie" [32]. Par exemple, dans la transposition virtuelle de la navette spatiale réalisée par la NASA, des flèches stylisées viennent figurer l'écoulement, invisible, de l'air autour de la navette spatiale. Les ingénieurs qui circulent, par immersion virtuelle, au voisinage de cette navette visualisent ces écoulements aérodynamiques sous la forme d'êtres mathématiques répartis dans l'espace. Autre exemple, l'Institut Français du Pétrole utilise une interface de navigation permettant de circuler dans une base de données scientifiques tridimensionnelle. L'interaction avec un modèle virtuel abstrait permet, en effet, de mieux comprendre le fonctionnement de systèmes complexes tels que la modélisation moléculaire (utilisé chez Glaxo) ou l'analyse de données financières, affichées dans un espace tridimensionnel. La mise au point de ce type d'outil peut ainsi faciliter l'analyse de systèmes à plusieurs paramètres, ce qui est impossible avec tout autre moyen. L'objectif est de maîtriser des systèmes d'informations complexes et de grande dimension (supervision de processus industriel, outils de vigilance ou de décision pour les contrôleurs aériens, etc.) [33]. Ces outils symboliques, loin d'imiter la réalité empirique, donnent forme à des mixages de représentation réalistes et d'espaces cognitifs, radicalisant ainsi ce qu'ont préparé, avant eux, nombre de techniques d'inscription (dessins d'architecture, dessin industriel, etc.). Mais ici la fonction représentative est augmentée d'une mission directement opérationnelle. Recherches spécialisées, mais orientation généralisable Nous avons décrit et commenté des recherches avancées qui donnent le sentiment, justifié, qu'il s'agit de prototypes nullement stabilisés sur le plan technique et dont la large diffusion est loin d'être garantie. Nous savons bien que les voies qui conduisent une innovation de laboratoire à un usage étendu sont impénétrables. Mais notre recension n'a pas un objectif prospectif. Elle indique une direction générale, laquelle se concrétisera selon des trames encore mal dessinées. Les jeux vidéos sont, évidemment, l'un des principaux vecteurs de diffusion de l'augmentation sensorielle. Nous en voulons pour preuve, par exemple, la mise sur le marché des jeux vidéos, d'interfaces de " retour d'effort" qui étaient, il y a peu encore, l'apanage de laboratoires ou de professionnels spécialisés [34]. Ainsi, pour les courses d'automobile, le constructeur américain ACT Labs propose un volant sensible qui transmet les moindres cahots du bolide engagé dans l'épreuve. Microsoft, pour sa part, commercialise depuis décembre 1997, le dispositif SideWinder -manche à balai rétroactif contrôlé par repérage de position optique et muni de deux moteurs- qui vibre si l'on roule sur une chaussée déformée et oppose une résistance croissante dans les virages si la vitesse augmente. En simulation de vol, il propage les efforts selon les conditions de vol et le type d'avion utilisé et, dans les jeux guerriers, provoque un recul variable selon qu'on actionne une arme à répétition ou un canon. Dès 1998, une société américaine mettait sur le marché The Intensor Tactile Chair, chaise conçue pour les jeux vidéos. Équipée de haut-parleurs, elle réagit aux différentes phases du jeu grâce à ses vibreurs disposés dans le dos et sous le siège. Dans la même perspective générale, les systèmes de Réalité Virtuelle qui jusqu'à présent demeuraient l'apanage de laboratoires scientifiques ou de lourds équipements de jeux d'arcades, semblent pouvoir se répandre dans les foyers. Des améliorations techniques notables (suppression des retards d'affichage des images lors des mouvements brusques, par exemple) ainsi qu'une spectaculaire baisse des prix [35] laissent entrevoir l'ouverture des marchés grands publics.

Déjà en Novembre 1998, IBM présentait un micro-ordinateur portable (moins de trois cents grammes) contrôlable à la voix, avec des lunettes spéciales en guise d'écran d'affichage. Et en décembre 1998, Sony annonçait la mise sur le marché de Glasstron, écran visuel portatif connecté à un DVD, récréant à quelques centimètres des yeux l'impression d'une écran de plus de plus d'un mètre de large, situé à deux mètres de distance ; l'image est paraît-il de grande qualité et l'impression saisissante [36]. Au delà de la maturation et de la sélection des systèmes qu'assure le champ des jeux vidéos ainsi que l'expansion des technologies mobiles (téléphonie évoluée, postes légers de connexion à Internet, etc.) ce qui nous semble pouvoir être retenu, c'est la direction générale prise vers le prolongement virtuel des objets quotidiens d'une part et la multi-sensorialité de l'autre. D - Le retour du corps On a souvent mis l'accent sur le versant "immatériel" des technologies du virtuel. En fait, rien de tout cela n'est vraiment immatériel, c'est le type de matérialité qui se modifie : miniaturisation, approche de certaines limites physiques des composants, flux opto-électromagnétique, vitesse de commutation des états (avec le méga-hertz comme unité), fluidité de l'imagerie informatique. Avec la Réalité Virtuelle, un tout autre volet se découvre. Une partie majeure du savoir-faire des ingénieurs s'investit dans l'invention et la mise au point d'interfaces destinées à assurer la conjonction entre les univers virtuels et notre corps. La liste est longue des trouvailles et autres ingénieux dispositifs qui assurent ces fonctions [37]. Chaque projet d'envergure se doit d'inventer l'équipement de commutation approprié. Par exemple, lorsque les chercheurs de l'Université de Caroline du Nord ont réalisé leur prototype de visite virtuelle d'un vaste espace architectural -en l'occurrence, un hall d'hôtel- ils ont imaginé un tapis roulant, capteur du déplacement longitudinal, muni d'un guidon enregistrant les inflexions directionnelles. Cette solution -la "patinette immobile"- permet de visiter, dans un laboratoire de taille modeste, des espaces de très grande dimension (hall d'exposition d'aéroport, etc.). Ils auraient pu se contenter d'un levier manuel de commande, mais auraient alors perdu la dimension corporelle déambulatoire, indispensable à la restitution des sensations éprouvées lors d'une visite d'un bâtiment. Bien que ne relevant pas directement de la Réalité Virtuelle, signalons que des logiciels de simulation permettant l'exploration sensible de la résistance d'objets tridimensionnels grâce à la souris sont déjà expérimentés. Équipés de systèmes à retour d'effort, la souris restitue les sensations de résistances lors de l'auscultation d'objets modélisés apparaissant à l'écran. C'est bien notre corps, considéré comme sujet de la perception, qui revient au centre de ces recherches. La mise en correspondance généralisée avec les environnements simulés par la Réalité Virtuelle souligne l'importance des équipements de connexion, hybridant nos sens aux expériences virtuelles. L'extrême malléabilité des productions simulées (sons, images, mouvement, perception tactile, efforts physiques, etc.) exige des interfaces matérielles, on ne peut plus visibles et palpables. On doit ici faire mention d'une tendance des recherches actuelles visant à diminuer la lourdeur de ces interfaces : caméras analysant la position tridimensionnelle des mains, dispositifs déterminant la direction du regard, etc. Ce qui retient l'attention, c'est la prise d'information directe sur le flux perceptif : capteurs bio-électriques destinés à enregistrer la contraction des

muscles et à en déduire les trajectoires gestuelles, caméras alimentant des réseaux neuronaux pour reconnaître la disposition des mains devant un écran, enregistrement des mouvements oculaires, lasers inscrivant directement l'image sur la pupille. Même s'ils s'allègent, ces appareillages ne pourront s'effacer totalement, car ils organisent la commutation de nos actions perceptives avec les mondes virtuels. Plus on souhaitera affirmer le réalisme des interactions avec ces mondes (et ceci est une logique majeure), plus cette commutation occupera le centre de la scène virtuelle. D'où la vitalité des recherches en matière d'interfaces, recherches qui, dans le même mouvement, inventent des modalités inédites de fréquentation d'univers virtuels. Il n'est pas étonnant que les investigations artistiques de l'univers de la Réalité Virtuelle, privilégient l'invention, l'adaptation ou le détournement de telles interfaces. L'intelligence sensible de nombre d'artistes s'investit ainsi dans la création de situations propices à induire une suspension du temps ou un trouble dans la situation spatiale. Ces interventions ont souvent en commun d'échanger ou de combiner, grâce aux interfaces conçues, les activités perceptives. Citons, à titre d'exemple, l'installation Handsight d'Agnes Hegedüs [38]. Le visiteur introduit, avec sa main, un globe oculaire dans un globe en Plexiglas vide et transparent. Le globe est, en fait, un capteur qui explore un univers virtuel, décalé d'une bouteille "de patience" de la tradition hongroise (exposée à coté). Les déplacements manuels provoquent le calcul d'images affichées sur un grand écran. Tenir son oeil au bout de sa main, tel est le collage perceptif que nous propose l'artiste, indiquant ainsi qu'un vaste mouvement d'échange et de combinaison des perceptions est aujourd'hui en cours, sous l'impulsion de leur traduction numérique. Des applications à caractère fonctionnel, dans la communication dite "multi-modale", exploitent les mêmes directions : saisir avec l'oeil (tir des pilotes de chasse) ou commander à la voix. Avec La plume et le pissenlit d'Edmond Couchot et Michel Bret [39,] le souffle, métaphore de la vie corporelle s'il en est, devient l'interface d'effeuillage de l'image numérique. On aura compris qu'il s'agit de souffler sur un capteur pour détacher les fleurs du pissenlit ou faire s'envoler la plume, qui retombe conformément aux lois de la résistance de l'air. Le souffle, comme le dit Edmond Couchot, "implique le corps de manière discrète mais très profonde". Le geste et le sens [40] Claude Cadoz, dans une très intéressante étude sur la place des sensations physiques dans la communication avec l'ordinateur, rappelle les trois fonctions principales du canal gestuel [41]. Outre une mission sémiotique évidente (le geste accompagnant la parole afin de situer la nature du propos), le canal gestuel possède aussi des fonctions épistémiques et "ergotiques". La fonction épistémique prend en charge la "perception tactilo-proprio-kinesthésique". Elle permet d'apprécier des qualités telles que la température, la forme, la texture, les mouvements d'un corps. La dimension "ergotique" (de "ergon", travail en grec) tient à ce que le rapport à notre environnement n'est pas exclusivement informationnel, il est aussi énergétique. Si l'on serre un gobelet en plastique, on le déforme. La spécificité du canal tactile est de modifier l'état de la source qui le stimule. On semble ici aux antipodes d'une réflexion sur le statut des images si tant est que ce qui caractérise notre relation aux images optiques (aussi bien qu'à celles qui sont faites à la main), c'est précisément l'intégrité dont elles bénéficient lors de tout acte contemplatif. La Réalité Virtuelle assure, de manière emblématique, la jonction entre l'univers informationnel et

l'univers énergétique/mécanique, relativisant ainsi la coupure que la cybernétique des années cinquante avait établie entre énergie et information. Les notions d'interaction, de retour d'effort du virtuel vers le réel [42] illustrent notamment ce mouvement. "Il existe des situations communicationnelles où la dépense d'énergie est nécessaire" [43] comme la communication musicale, rappelle Claude Cadoz. De même, dans certaines activités, comme la danse, la fonction ergotique du geste ne peut être séparée de sa fonction sémiotique. Il est vrai que le toucher, comme le geste, souffre de connotations négatives qui mêlent les interdits sexuels à cette dimension, peut être encore plus fondamentale, d'altération de l'objet. Le primat du contemplatif, de la présence à distance non interventionniste, au détriment du contact physique va de pair avec un certain puritanisme qui n'est plus de mise. L'iconophilie contemporaine se soutiendrait donc, aussi, de ce que la vue est une présence à distance qui respecte, par définition, son objet. L'image actée, -si l'on appelle ainsi une image chaînée avec des actes- constitue un compromis ingénieux entre l'accès direct à l'objet (en fait, à son modèle) et la sauvegarde d'une réalité tenue en retrait. Nouvel âge des représentations, elle renoue avec l'interventionnisme de l'image, stade magique des temps anciens (non totalement révolus), où l'image est une médiation active dans l'accomplissement d'un acte : vengeance, satisfaction d'un désir, aide pour surmonter une épreuve, etc. E - Graduations de présence Mobilisant nécessairement des interfaces, aussi simplifiées soient-elles, les transpositions virtuelles échouent à rendre compte pleinement de la simplicité des interactions ordinaires, notamment lorsqu'elles revêtent un caractère collectif. Elles découvrent, en revanche, de nouveaux modes de relation combinant : - la transmission plus ou moins dégradée des vecteurs de communication (comme la représentation des intervenants par un "avatar" schématique), - et des procédures abstraites (comme le simple adressage automatique par liste de diffusion sur Internet, jusqu'à l'affichage de la cartographie des échanges entre plusieurs participants). L'impossibilité d'imiter les relations ordinaires des humains entre eux et avec leur environnement matériel s'allie avec ces procédures abstraites pour donner forme à de nouveaux milieux où la présence ne se conjugue plus au singulier mais selon des graduations. Celles-ci étagent des niveaux de présence selon deux lignes non exclusives : - une direction extensive (d'une présence, encore assez dégradée, dans les réseaux actuels -téléphone, Télétel, Internet- aux figures plus expressives promises par la Réalité Virtuelle en réseau [44]), - une direction intensive, avec l'invention d'indicateurs abstraits de présence. Que sont ces indicateurs ? Il est bien connu que toute communication à distance nécessite des marqueurs spécifiques qui suppléent aux incertitudes nées de l'absence de contacts directs. L'écriture mobilise ses codes graphiques et sémantiques pour diminuer la flottaison du sens (mise en page, respect plus strict de la grammaire, etc.). La communication téléphonique majore les caractères formels de l'échange et use abondamment de la redondance. On le sait, les réseaux actuels (Télétel, Internet) sont encore faiblement incarnés. Mais la tendance à l'augmentation s'affirme nettement [45]. La Téléprésence, quant à elle, met à profit

l'ingénierie numérique pour intensifier la présence (capteurs corporels, retour d'effort) en inventant de nouveaux marqueurs. Or, le phénomène le plus radical est encore d'un autre ordre : c'est la combinaison des deux lignes extensives et intensives, aboutissant à la création d'hybrides, mélanges de présences physiques et de traitements abstraits. L'exemple du projet DIVE aidera à les situer. DIVE ou l'invention de marqueurs relationnels abstraits Le projet DIVE (Distributed Interactive Virtual Environment), développé au S.I.C.S. en Suède, est un système multi-utilisateur de télévirtualité qui expérimente des mécanismes d'interaction pour des tâches effectuées, en coopération, par des acteurs éloignés. Il vise aussi bien à reconstituer un cadre de travail de bureau (muni des outils bureautiques) qu'un laboratoire de recherche, par exemple. Ainsi que le déclare, Lennart E. Fahlen, l'un des responsable du projet : "Nous proposons un modèle d'interaction qui utilise la proximité dans l'espace, la position et l'orientation comme des mécanismes de traitement de l'information. Nous pensons qu'un système qui correspond aux métaphores naturelles du monde réel sera facile et naturel à utiliser" [46]. Les concepteurs parlent à la fois "d'ensemble de mécanismes fortuits" et de "conventions sociales classiques qui relèvent du <<monde réel>>". L'objectif est de reconstituer un espace de travail commun pour des acteurs humains éloignés, équipés de systèmes de Réalité Virtuelle. DIVE gère leur signalisation respective dans l'espace sous la forme d<<'avatars>> (dans la version actuelle, ils apparaissent avec des corps schématisés surmontés d'une vignette photographique affichant leur visage). Mais DIVE organise aussi les interactions entre des acteurs humains et des objets (livres, documents, sources audiovisuelles). Ces derniers sont dotés de propriétés qualifiant leurs modalités d'interactions avec les usagers, et entre eux. Des concepts-clés ont été forgés. Par exemple, l'aura est un sous-espace lié à l'objet qui augmente le potentiel d'interaction entre objets. Le focus est le centre d'attention qui agit comme sélecteur d'informations. Le nimbus est "le lieu où un objet met à la disposition des autres objets un aspect de lui-même. Cela peut être une projection de qualité ou de propriété comme la présence, l'identité ou l'activité. Par comparaison avec le monde réel, nimbus rayonne du <<je ne sais quoi>> qui émane de la star de cinéma -ce qui fait que chacun s'arrête et que tous portent attention sur elle" [47]. Des programmes particuliers peuvent transformer les sous-espaces pour amplifier, atténuer ou étendre certains champs. Ces opérations rapportées au monde réel consisteraient, par exemple, à utiliser un microphone pour amplifier la voix, monter sur une estrade pour se rendre plus facilement visible. Notre ambition n'est pas de décrire, dans le détail, le fonctionnement -complexe- de cet espace coopératif de travail. Elle vise plutôt à montrer en quoi ce travail est exemplaire. Les concepts, assez abstraits, qui gouvernent DIVE restituent nos habitudes de fréquentation d'univers socio-topologiques. Ils explicitent des mouvements abstraits, ou plus exactement mentaux, qui gouvernent nos rapports à un environnement matériel et humain. Ainsi en est-il de la notion de "centre d'intérêt", ou d'horizon de recherche. Lorsque nous recherchons un dossier dans un bureau, c'est l'image de ce dossier que nous projetons, tel un faisceau lumineux, sur l'environnement. À ce moment, les autres objets (chaise, livres, ordinateur...) se fondent dans un décor vague. Les autres dossiers dispersés, de couleur différentes, jouiront en revanche d'un coefficient de présence plus soutenu. C'est ce genre de rapports que les concepteurs de DIVE tentent de matérialiser dans l'espace commun, et c'est cela qui est novateur. Car il ne s'agit plus de restitution mais d'invention de marqueurs abstraits

d'interaction (signes graphiques, protubérances visuelles, accrochées aux "avatars"), pouvant être affiché par programmes informatiques. Par exemple, s'adresser à quelqu'un nécessite d'intercepter son champ visuel -augmenter le potentiel d'interaction avec cette personne, dirat-on dans le vocabulaire de DIVE. Plus les champs visuels sont interpénétrés, plus l'affinité est importante. Les relations d'usages, d'intérêts, de même que la fréquence des rapports sont concrétisées, alors que d'ordinaire ces mouvements sont intégrés automatiquement dans notre perception spontanée de la situation. Les acteurs -humains et non-humains- de ce monde virtuel possèdent un différentiel de présence qui traduit la nature et l'intensité des relations qui les unissent (ou les séparent). On voit s'ébaucher une démarche visant à objectiver, à imager métaphoriquement des mouvements subjectifs latents. Une sorte de couche relationnelle est projetée sur la scène matérialisant graphiquement les interactions à l'oeuvre. Cette couche abstraite traduit -partiellement, bien sûr- des investissements psychologiques habituels. Mais elle les exprime à travers des jeux scénographiques agençant les propriétés modélisées des différents acteurs (objets et humains), et ce, grâce à des traitements par programmes. On peut tirer quelques enseignements à caractère plus général de ce projet. Les concepteurs auraient pu se contenter de dupliquer les conditions du travail coopératif. Ils ont finalement inventé un nouveau milieu d'interaction sociale dont il serait absurde d'imaginer qu'il traduise la souplesse des interactions ordinaires d'une communauté en co-présence mais qui, en revanche, crée des outils formels pour une cartographie dynamique relationnelle. Telles sont bien les limites et la portée de la Réalité Virtuelle, car ici encore faute de reproduire on invente. En effet, on ne peut traduire à l'identique nos activités perceptives (vision, préhension, etc.). Encore moins peut-on espérer restituer ce qui est le plus mobile et fugitif, nos états mentaux. Plutôt que de s'y essayer, les créateurs de DIVE ont défini des instruments, nécessairement rigides et peu malléables, mais qui offrent l'énorme avantage de se prêter au calcul par programme et de se surajouter ainsi à la perception spontanée, qui, il ne faut pas l'oublier, continue à interpréter et à ajuster les interactions à l'oeuvre. On peut prédire un bel avenir à cette direction de recherche. Restituer les dimensions affectives dans la communication à distance est un objectif partagé par de nombreuses recherches, des désormais célèbres "émotikons" sur Internet au modelage expressif des "avatars" des communautés virtuelles (comme dans l'expérience HABITAT au Japon). Comment traduire un désir d'en savoir plus, une envie, une aversion, une habitude d'usage ? Un passionnant champ de recherche s'ouvre aux "psychomécaniciens" des environnements communautaires afin de traduire la diversité de nos mouvements relationnels. Peut-être leur faudra-t-il spécifier les formes matérielles de ces mouvements selon le degré d'opérationalité souhaité (travail, formation ou relation libre) bien qu'un strict partage entre ces postures soit difficile à imaginer. Il se confirme, en tous cas, que pour faire coopérer des communautés à distance de manière régulière et fructueuse, on ne saurait se limiter à convoyer des informations. Cela exige de prendre en compte les dimensions psychosociales des relations de travail [48], pour ensuite cartographier les interactions à l'oeuvre, en imaginant une ingénierie infographique socio-topologique. On est donc conduit à densifier les fonctions de présence et à ne pas se contenter de les transporter. Les spect-agents L'ingénierie de simulation, dans sa quête de densification des relations à distance fait naître une génération d'avatars, doubles, spectres, substituts, représentants numériques, dont la

caractéristique essentielle consiste à être animée, à la source, par un agent humain. Nous regroupons ces créatures sous le vocable de spect-agent. Le vocable spect-agent exprime l'alliance de la fluidité du spectre et du caractère actif du représentant lié à son origine humaine mais aussi aux automatismes qui l'animent (on a vu comment des "représentants" peuvent exprimer des fonctions abstraites de présence). Ce néologisme désigne ce qui n'est ni un double, ni une copie dégradée, mais une graduation d'existence. C'est donc une dénomination plus respectueuse de la spécificité de ces représentants que le terme "avatar" (signifiant "copie dégradée") fréquemment employé. Les spect-agents procèdent d'une coconstruction, synthétique (mue par les programmes informatiques) et humaine (alimentée par l'activité immédiate d'un sujet), où il s'agit de doubler la vie réelle, et, pour ce faire d'inventer une générativité, due, pour une part, à la résistance qu'oppose le réel à sa duplication mimétique. Ainsi, dans des projets tels que DIVE, HABITAT au Japon [49] ou "Deuxième monde" en France [50], (intervention par "avatars" interposés), et plus généralement dans les récents travaux utilisant le langage V.R.M.L. [51] sur Internet, on retrouve très nettement les trois mouvements constitutifs de la dynamique inventive : la tentative d'imitation, l'impossibilité intrinsèque d'un tel projet de duplication à l'identique et en dernier lieu, l'ouverture d'un espace de possibles dynamisé par la confrontation avec ces obstacles rédhibitoires. Ces applications et recherches combinent, actuellement, la restitution formelle et empirique (imitation de l'apparence tridimensionnelle et simulation comportementale d'objet) avec la construction inédite d'un milieu cognitif et relationnel objectivé (inscription graphique des relations, des émotions, invention de marqueur des qualités des rapports entre les acteurs et avec les objets). La ductilité du milieu virtuel permet ces agencements qui allient plusieurs composants. On pourrait parler de greffes mêlant des génotypes différents. Les premiers types de composants sont des formes (agents humains, scènes, objets, dispositifs) analogues à notre niveau de réalité, ainsi que des comportements à vocation imitatifs ou prédictifs (la simulation réaliste, la C.A.O., la modélisation scientifique). Les deuxièmes sont constitués par des interactions ouvrant à ce qu'on pourrait appeler une perception synthétique. Celle-ci associe librement les vecteurs perceptifs et effectifs de l'action humaine (déplacement par le regard, vision qui se poursuit en action comme dans le tir par viseur tête haute où repérer la cible sur la visière virtuelle permet de déclencher le tir par la voix). Enfin, les troisièmes types de composants pour la synthèse en milieu virtuel sont les dimensions affectives, cognitives, relationnelles entre spect-agents d'une part, objets et dispositifs simulés de l'autre, matérialisant ainsi certains états mentaux (intention, disposition affective comme les Kansei d'HABITAT [52]). Signalons que dans le domaine des jeux vidéos, les game designers ne jurent plus que par l'autonomie comportementale des acteurs virtuels injectés dans la scène. Le joueur les rencontrera et il devra comprendre, pragmatiquement, leurs caractères (recherche d'affection, par exemple) et leurs spécificités comportementales (serviabilité,agressivité, etc.) ; ceci pour s'en faire des alliés, par exemple. L'intelligence des dimensions socio-affectives deviendra alors un enjeu essentiel pour participer au jeu... et gagner. De même, dans une perspective d'apprentissage, les premières réalisations de séquences de formation mobilisant des "enseignants virtuels" dits "intelligents", promettent de renouveler les relations entre apprenants et systèmes informatiques. Créatures anthropomorphes, ces agents incarnent -au sens propre du terme- des formateurs présents dans la scène et médiatisent les démarches cognitives. Capables de répondre aux questions de l'élève, possédant une "intelligence" du domaine (dépannage d'un dispositif, diagnostic et intervention

médicale, apprentissage d'une langue, par exemple), "l'enseignant virtuel" devient un véritable tuteur personnalisé, toujours disponible. L'un des objectifs consiste même à inverser le processus afin de faire apprendre à l'agent de nouvelles tâches en observant les gestes d'un instructeur humain. De même, s'agira-t-il de permettre à "l'enseignant virtuel", de percevoir et de réagir aux comportements non-verbaux de l'élève (expressions du visage, attitudes, gestes, etc.). Conçus en Réalité Virtuelle, sur plate-forme locale, ces agents commencent à être déclinés, de manière simplifiée, pour être accessibles à distance, via Internet [53]. D'une manière générale, les communautés virtuelles ainsi réunies sont, comme toutes les associations humaines, des assemblées d'agents humains et non humains (objets, environnements, etc.). La communication médiatisée par des spect-agents transcrits -de manière souvent encore assez frustes- des actions humaines (comme le ferait la visioconférence, par exemple) mais ajoute la plasticité de la sphère non-humaine (modifications de l'environnement, expérience à distance sur les mêmes objets, etc.). Un ingrédient original -des oxymores spect-agents, qui naissent dans, et par, le milieu virtuelvient donc s'ajouter à la scénographie, déjà complexe, de la communication à distance. F - Simulation, restitution et illusion Produire, avec les moyens actuels de l'ingénierie numérique, une représentation formelle du monde pose tout simplement la question de son caractère prétendument illusoire. Aucun esprit occidental ne confond le portrait photographique d'une personne avec cette personne ellemême, ni n'envisage d'adresser la parole à un acteur sur l'écran dans une salle de cinéma. (La suppression de cette impossibilité est précisément la trame du chef-d'oeuvre de Woody Allen, La rose pourpre du Caire). Il faut à la fois établir la différence radicale de l'imagerie informatique interactive avec les techniques d'enregistrement, et penser cette distance comme un écart non moins important avec notre niveau habituel de réalité. L'émergence du "virtuel" dans la culture visuelle contemporaine mêle deux évolutions simultanées, coordonnées et parfois divergentes. Le mouvement d'imitation exacte de la réalité, initié par le dessin perspectiviste et radicalisé par la photographie, trouve dans la numérisation un outil providentiel. Mais le stade numérique (digitalisation de la réalité visuelle, et aussi, symétriquement, simulation de modèles idéels rendus ainsi visibles) manifeste une rupture avec le stade "indiciel" propre à l'enregistrement. L'image affaiblit son lien privilégié avec le passé, sa fonction de témoignage -témoignage mental, travaillé par l'imaginaire dans le dessin et la peinture, plus instrumental avec l'invention des techniques d'enregistrement- pour devenir une forme de contact avec une néo-réalité numériquement modélisée. Elle constitue alors une interface de manipulation d'objets virtuels, dont elle affiche des vues contrôlables. L'image de synthèse, une extinction du référent ? Si on prend pour argent comptant la vocation substitutive du "virtuel", comme nous y invite une vulgate répandue, on est conduit à durcir la ligne qui sépare la simulation numérique de l'enregistrement indiciel. Par exemple, s'interrogeant sur les rapports respectifs qu'entretiennent la photographie et l'image de synthèse avec la mort, Chantal de Gournay se demande : "Car si l'image (photographique, cinématographique) est ce miroir de l'invisible qui nous aide à faire le deuil de nos morts, de nos terreurs, de nos ethnocides ou de nos crimes contre la nature, de quoi peut-on faire le deuil avec une image de synthèse ?" [54] Le présupposé de cette question affirmative consiste à considérer qu'une image de synthèse

serait, par essence, totalement réductible aux procédés logico-mathématiques qui la constituent, et par là, à l'abri de toute contagion référentielle. La gestation algorithmique tracerait une barrière définitive avec l'autre régime de l'image, indiciel, qui enregistre la réalité, telle qu'elle est, avant même tout regard, toute mise en forme langagière. L'indicialité, serait la seule modalité où les scories du réel, ce qui échappe à toute formulation, viennent s'inscrire, s'imprimer sur le support, et s'offrir, subrepticement, à notre appréhension. Le mode de production de l'image informatique, réductible à la maîtrise technique, la projetterait hors du cycle vivant et de l'altération qui en résulte. Il y a lieu de douter de telles vues. D'où viendrait ce statut d'exception de l'image informatique qui, production humaine, pourrait miraculeusement effacer cette origine pour sembler ne provenir que de froides procédures (elles aussi absolument auto-engendrées, inhumaines ?). C'est ignorer le singulier commerce qu'entretiennent les réalisateurs d'image de synthèse avec leur production [55]. Maîtrise ? Peut-être, mais singulièrement malaisée. Comment peut-on imaginer une telle activité où s'abîmerait, par miracle ou par décret, l'imaginaire du réalisateur, ses évaluations intermédiaires, ses hésitations. Croit-on à l'automatisation intégrale d'une telle production ? (Et encore, serait-elle automatisée, qu'il conviendrait de remonter la chaîne des investissements, d'interroger le choix du dispositif, des logiciels, le travail de programmation, etc.). Mais ici nul automatisme à l'oeuvre dans le dessin des formes, le choix des textures, la réalisation éventuelle de maquettes en dur, la sélection des éclairages, des points de vues, etc. Pas plus d'automatisme dans les arrangements temporaires, les graduations de finitions possibles et la décision d'arrêt. Il ne s'agit pas, pour autant, de dissoudre la spécificité des images ainsi obtenues, de négliger les moments de dépossession, de surprise. Il ne faudrait pas non plus sous-estimer l'automaticité partielle de la production (lancer une procédure de calcul d'une ombre, animer une forme par un programme, etc.) et surtout tenir pour négligeable l'usage de procédures programmatiques [56]. Mais pourquoi décider de supprimer les moments d'évaluation humaine et de choix, moments omniprésents dans une telle élaboration ? S'il faut invoquer un deuil impossible, ce serait bien, paradoxalement, celui de la tentative de se passer d'une référence à la réalité. Si tant est que la simulation n'est pas effacement du réel mais seulement tentative. Affirmer sa réussite est un acte de foi aussi arbitraire que commode, car ainsi le grand partage entre réel et virtuel devient possible. Tout comme avec l'image enregistrée, on fait, ici aussi, le deuil de l'invisible source des projets, de l'impossibilité de les terminer, des mille décisions qui président à leurs naissances et qui demeureront opaques. Qui se tient attentif au processus de création d'une "image de synthèse", ne peut ignorer à quel point elle métabolise "les scories du réel" qui l'assaillent de toutes parts et ceci à toutes les phases de sa constitution. Ces scories, on les pressent dès le projet initial (toujours une idée accrochée au fil d'une histoire individuelle et collective). On les sent dans les méthodes et outils : lancer de rayon et autres artifices constructifs, morphogénétiques. Ces méthodes matérialisent des théories expérimentales sur le fonctionnement de la réalité qu'il s'agisse de croissance de plantes ou de vagues croulant sur une plage. On insiste, parfois à juste titre, sur le versant abstrait de l'opération modélisatrice. Il est vrai que l'étude de phénomènes non visibles en tant que tels -comme le comportement d'équations mathématiques- trouve, dans la mise en image des modèles, un vecteur d'étude irremplaçable. Mais bien souvent, aussi, la simulation informatique, loin de se borner à étudier le comportement futur d'un système, devient une manière d'éclairer, d'ausculter la réalité, et non pas de construire une néo-réalité à vocation substitutive [57]. Enfin, on ressent les "scories" dans le résultat final, livré à l'appréciation de sensibilités humaines. Ajoutons enfin, qu'une image de synthèse peut sombrer dans l'oubli ou le mystère d'une intangibilité pour peu qu'on ait laissé s'éteindre les

lignées technologiques (ordinateurs, systèmes d'exploitation, interfaces) qui permettent de l'afficher, ce qui arrive plus souvent qu'on ne le croit. L'imagerie numérique joue avec la notion de limite, multipliant les actualisations, décuplant les cheminements. Comme dans une fête foraine, on ne sait où donner de la tête, mais dont quelques heures plus tard et après moult déambulations, on s'est mentalement fabriqué un plan. Assouplissant les repères, ces scénographies intensifient la question. Toujours déçu, mais toujours en quête de recul des bornes, nous ne finissons pas d'éprouver les paradoxes croisés du désir de liberté, des sentiments d'inquiétude devant ces conquêtes et aussi des déceptions face aux contraintes ressenties. Croire en l'immanence des montages numériques, c'est les magnifier, leur attribuer un surcroît de puissance, celui d'abolir les limites. Oserait-on suggérer qu'ainsi s'investit l'espoir qu'ils détiendraient un tel pouvoir ? Le pouvoir faustien de nous placer hors d'atteinte de la ruine, de la mort si, comme l'affirme Chantal de Gournay, " [...] le monde virtuel de l'ordinateur, régi par la logique de la simulation et du simulacre, est un monde placé hors d'atteinte de la mort [...]" [58]. Résultat considérable, si toutefois c'était le cas. Mais là encore, heureusement, nous serons déçus. Du souci d'imitation à l'invention d'un nouveau milieu perceptif Malgré les apparences, ce n'est pas l'illusion du réel que visent les techniques de Téléprésence -elles en sont bien incapables- et surtout, on manquerait leur spécificité en leur assignant cet objectif. À première vue, on viserait une restitution, au plus près possible de la réalité. Mais, sa réalisation, on l'a vu, se heurte à des obstacles permanents et surtout découvre des horizons inattendus, engageant la construction d'ordres spécifiques de réalités plutôt que la substitution du niveau empirique. La notion de dimension offre une entrée intéressante dans la thématique de l'imitation. Cette fameuse troisième dimension, présentant la profondeur sur la surface est au fondement de l'illusion. Mais pourquoi parle-t-on d'<<illusion perspectiviste>> ? Est-ce parce que la troisième dimension est figurée sur le tableau ou bien, plutôt, parce que le tableau se rapproche de l'image visuelle ? "L'illusion" se situerait plus en référence à l'acte de vision qu'à son objet, la réalité. Comme le signale Louis Marin [59], l'enjeu de la perspective n'est pas de donner l'illusion de la présence, en trois dimensions, des personnages couchés sur la toile, mais de former son regard dans la vision d'autrui, en référence à une organisation "transcendantale" de la vision qui permet la formation d'une communauté d'observateurs. Tout en semblant viser une "construction légitime" de l'image respectant le fonctionnement de la vision, la perspective invente un autre monde visuel, et par là une expérimentation potentielle de l'espace. Elle devient alors machine à fabriquer d'autres machines intellectuelles et matérielles (de la géométrie descriptive au dessin industriel). La Réalité Virtuelle poursuit ce programme en le radicalisant puisqu'elle fonctionne selon les principes dynamiques de la vision. Même pour ce qui est des fonctions purement "mécaniques" -car la vision humaine est avant tout un acte mental -c'est, évidemment, grâce au corps qu'une saisie oculaire est possible. Notre vision s'effectue par le déplacement corporel dans l'épaisseur d'une durée et elle s'hybride aux autres acquisitions perceptives effectuées simultanément (audition, olfaction, toucher, etc.). On oublie trop souvent que tout l'intérêt de la Réalité Virtuelle réside dans un transfert de support : de la réalité vers le visiocasque, pour le dire sommairement. Et, dans ce transfert, les interfaces sont le véritable lieu de la transubstantialisation. Nourrit par le projet d'imitation, un nouveau milieu perceptif

s'invente qui outrepasse cet objectif initial pour inaugurer d'autres configurations liant vision, action, perception et connaissance. L'hypothèse domiciliaire Affirmer la croissance de la Téléprésence n'implique nullement d'augurer une vie sociale totalement organisée par des télé-relations, substituant progressivement le contact à distance à la co-présence hic et nunc. Nous rejoignons Bernard Miège lorsqu'il écrit : " [...] ce qui frappe dans les approches contemporaines, c'est la conviction fortement partagée que nous serions entrés dans une ère nouvelle (ou en tous cas que le processus serait bien engagé), caractérisé désormais par la prégnance des techniques de l'information et de la communication et corrélativement par la réduction des occasions de communiquer en face à face... Il nous apparaît que cette perspective est, stricto sensu, indémontrable, [...]" [60]. Bernard Miège a parfaitement raison de signaler qu'il ne peut s'agir d'une perspective quantitative où des relations in situ seraient systématiquement substituées par des contacts à distance. S'il fallait tenir une comptabilité, elle serait extraordinairement complexe et des études récentes ont montré qu'évidemment, les groupes sociaux qui font le plus fréquemment usage de techniques de communication sont aussi ceux qui ont des relations sociales les plus denses. Il est significatif qu'un quartier central de Paris comme le Sentier, carrefour des entreprises de la confection depuis longtemps, devienne la plaque tournante des entreprises du Web. Proche de la Bourse et des grandes agences de presse (dont l'A.F.P.), le Sentier est le quartier de Paris où s'échange le plus d'information. Nul étonnement à voir les moteurs de recherche Yahoo, Lokace, Lycos ou Nomade s'y installer aux côtés d'une myriade de petites entreprises du multimédia. Trier et fabriquer de l'information dans le cyberespace déterritorialisé exige de fréquenter les mêmes cafés et restaurants, c'est-à-dire d'être physiquement aux côtés les uns des autres. Dans la même perspective, Marc Guillaume signale, par exemple, que l'activité de salles de marché, structurée par le recours permanent aux réseaux spécialisés, est néanmoins localisée dans les quartiers d'affaires. Les agents ne peuvent se passer des rumeurs, échanges et confrontations ; aliments indispensables pour prendre le pouls d'une situation [61]. Plus généralement, le constat du développement de la Téléprésence et l'intensité croissante des relations à distance, engage à s'interroger sur les incidences de cette situation en regard des relations de visu, c'est-à-dire sur la combinaison des deux modalités de rapport et non pas leur prétendue équivalence. "Double réalité" de l'image et métaprésence Platon définissait l'art comme mimesis, imitation qui a conscience d'elle-même. On peut étendre cette conception au principe de la représentation, qui, espace clivé, présente toujours simultanément le contenu et le procédé, l'illusion et ses moyens. Perspective, photographie, cinéma et aujourd'hui image numérique relient, à chaque fois singulièrement, sujet humain et dispositif scénographique. Toute présence s'appuie sur un horizon de métaprésence combinant présence et oubli du lieu de la présence, savoir et sensation mêlés de la mise en scène spectaculaire, accommodation au dispositif artificiel [62]. Dans toutes les formes de présence à distance, ce savoir/sensation est actif. Une sorte d'arrière-fond de l'expérience du dispositif transactionnel (lecture, téléphone, groupe de discussion sur Internet, Réalité Virtuelle), non directement perceptible, à la fois constamment rappelé et oublié. Expérience du dispositif qui, par exemple, permet le transport dans le récit selon des modes différents selon qu'il s'agit d'un livre, d'un film ou d'un multimédia.

Avec le déplacement de la présence par réseau numérique, il ne s'agit donc pas d'une immédiation. Dans le réseau, le média tente de se faire oublier par toutes sortes de perfectionnement (adjonction du son, de l'image animée, puis de l'immersion et de la synthèse des perceptions kinesthésiques). Mais, plus la médiation mime la transparence, plus la prégnance de sa fonction est massivement ressentie et plus ses logiciels et ses matériels deviennent complexes et substantiels. C'est pourquoi la présence à distance n'est pas une réalisation de la présence. Se tenir en contact passe toujours par une médiation. Et si on recherche la transparence, on interposera toujours plus d'interfaces sophistiquées pour concrétiser cette transparence. Chaque pas qui fait avancer ce projet éloigne alors d'autant la cible. La Téléprésence, une donnée anthropologique On peut établir une analogie de principe entre le mouvement de naturalisation des représentations et la notion de "tendance technique" qu'élabore André Leroy-Gourhan [63], comme mouvement universel traversant les cultures et les ethnies et que chacune d'elles interprète et développe à leur manière. Mais au delà de ces variations, la tendance déploie ses principes et "pousse le silex tenu à la main à acquérir un manche" [64]. On pourrait affirmer que, de la même manière, la tendance à l'incarnation croissante pousse la photographie à se doter du mouvement et celle-ci à s'émanciper de l'enregistrement en devenant, avec la simulation, une libre exploration de l'espace puis un univers d'expérience physique. Rappelons que l'une des idées maîtresses qui orientent le travail du célèbre préhistorien, mais aussi anthropologue, établit que le processus d'hominisation se caractérise par la domestication du temps et de l'espace grâce à la symbolisation, elle-même chevillée à l'émergence de l'outil et du langage. Si l'on entend par symbolisation la capacité de faire valoir une chose pour une autre, on comprend en quoi le langage (mettre des sons à la place des choses), l'outillage (mettre des instruments à la place du corps) ou encore la figuration graphique (dessiner des formes à la place des animaux) sont des processus solidaires et qui expriment une proto-Téléprésence. Le rôle du piège du chasseur est à cet égard paradigmatique. On peut certes considérer le piège comme un pur système opératoire, mais on laisse alors de côté l'essentiel. Installer un piège engage le chasseur dans une pratique de substitution. Le piège fonctionne à sa place, le libère du contrôle de l'espace, de l'assignation territoriale ainsi que de l'affectation temporelle. C'est le premier dispositif automatique de l'humanité, qui plus est, cybernétique, puisque c'est l'énergie potentielle ou cinétique de l'animal qui permet son auto-capture. Le piège suppose et secrète une symbolisation portant sur le sujet humain lui-même (remplacer le chasseur). Là, avec l'inscription dans un dispositif artificiel d'un projet formé à l'avance, pré-vu, s'originent, par exemple, les principes de la programmation, au sens littéral (pro-gramme signifie "inscrit à l'avance") [65]. Le système artificiel de capture est un puissant instrument de Téléprésence, qui à la fois engage -dans une perspective téléologique, on dirait "qui secrète automatiquement"- les pratiques de contrôle du temps et de l'espace et les intériorise comme horizon de la conscience humaine. Affirmer que l'hominisation est co-extensive à la Téléprésence n'est en rien céder à un effet de mode, tout au plus ajuster le vocabulaire à ce que les temps actuels développent de manière extrême. Promesses de la Téléprésence

Lorsqu'on porte un regard rétrospectif sur l'histoire des technologies de Téléprésence, on peut y découvrir un principe d'analyse liant les étapes successives : chaque invention majeure tient la promesse de la précédente et annonce une promesse qu'elle ne peut tenir. L'écriture étend la mémoire sociale que la phonation langagière tenait emprisonnée dans les capacités mnésiques individuelles (avant qu'on la note, conserver la parole exigeait de la mémoriser, souvent en la liant à des séquences de gestes). Par la multiplication à l'identique d'un original, l'imprimerie tient la promesse d'une inscription permanente que l'écriture manuscrite, faiblement distribuée, n'avait qu'esquissée. La photographie concrétise l'exactitude de la prise de vue exprimée par la peinture réaliste et concrétise l'instant comme élément du mouvement. Par l'animation, le cinéma amplifie la saisie vivante du monde que la photographie maintenait figée, tout en annonçant (grands écrans, spatialisation du son, etc.) l'immersion dans l'image. L'image tridimensionnelle interactive réalise la promesse de la perspective et des techniques d'enregistrement, d'un libre parcours à l'intérieur de l'image. La simulation numérique matérialise la sortie hors de la représentation audiovisuelle vers l'expérimentation empirique de l'environnement. Le réseau multimédia ne peut tenir la promesse de l'expérience corporelle partagée, ce que la Réalité Virtuelle en réseau laisse entrevoir. Pour rendre cette lecture rétrospective plus affinée, il conviendrait d'y ajouter quelques boucles historiques : par exemple, bien avant les écrans panoramiques du cinéma, la perspective circulaire antique pratiquait déjà l'immersion dans l'image. Ce travelling historique ne présente aucun caractère téléologique. Tout au plus permet-il de questionner les développements actuels. Quelle promesse la Téléprésence actuelle ne peut-elle tenir ? Elle demeure, par exemple, prisonnière de la modélisation préalable des univers d'interaction, si bien que toute surprise est déjà inscrite dans les formes de transpositions choisies qui déterminent les genres d'imprévisibilités possibles. Il faudra suivre, ici, les développements futurs de la modélisation automatique d'objets, de scènes déjà engagée dans certains domaines (comme la capture tridimensionnelle automatique d'objets architecturaux, de sites préhistorique ou...de formes corporelles [66]). Passera-t-on au stade de l'enregistrement automatique de modèle comportementaux de systèmes en évitant leur formalisation physicomathématique ? La Téléprésence maintient une distance entre description informationnelle et existence concrète des objets qu'elle manipule et transporte. Ces limites sont-elles inamovibles ? On retrouve ici, les espoirs d'un Norbert Wiener prophétisant l'analyse et la reconstruction moléculaire, à distance, des corps. Mais peut-être la formulation de la question sur les promesses de la Téléprésence véhicule-t-elle une métaphysique du redoublement à l'identique, que je dénonce, par ailleurs, comme une aporie ? [1] Dans son remarquable travail sur l'imprimerie, (La révolution de l'imprimé dans l'Europe des premiers temps modernes, La Découverte, Paris, 1991), Elisabeth L. Eisenstein analyse les effets de mise à distance provoqués par le livre imprimé. Elle cite par exemple Isaac Joubert, professeur de médecine à Montpellier au XVI [e] siècle, qui parlant des livres les qualifient "d'instructeurs silencieux qui, de notre temps, portent plus loin que les cours publics" (op. cit., p. 118) ou encore Malesherbes, dans son discours de réception à l'Académie : "Les Gens de Lettres sont au milieu du public dispersé ce qu'étaient les orateurs de Rome et d'Athènes au milieu du peuple assemblé "(op. cit., p. 120). Elle signale aussi, que, a contrario, les évangélistes et autres discoureurs publics virent leur public s'élargir du fait de la disponibilité d'annonces imprimées. [2] Cette amorce d'archéologie de la Réalité Virtuelle provient d'une partie d'un article déjà publié : L'augmentation tendancielle du taux de présence à distance, in Terminal ndeg. 69, automne 95, L'Harmattan, Paris, pp. 69/83.

[3] Jean Brun, Le rêve et la machine, La Table ronde, Paris, 1992. [4] Il n'entre pas dans nos objectifs de réfuter, ici, les thèses de Jean Brun sur la signification du fait technique. Disons, pour faire court, que nous nous situons dans une perspective assez différente de celle de cet auteur. Nous analysons plutôt la tentative de débordement, par la technique, des cadres spatio-temporels hérités, comme constitutifs, et non corruption, du monde humain. Il n'en demeure pas moins que le livre de Jean Brun nous intéresse parce qu'il présente et radicalise, de manière richement illustrée, la thèse de la corruption. [5] On ne peut s'empêcher de penser que Jean Brun discrédite, par avance, toute forme réalisée de Téléprésence, baigné qu'il est par une Téléprésence divine autrement prometteuse. [6] Op. cit, p. 221. [7] Op. cit, p. 224. [8] Guillaume Apollinaire, L'hérésiarque et cie, "L'amphion faux messie ou histoires et aventures du baron d'Ormesan". Cité par Jean Brun, op. cit., p. 226. [9] Saint-Pol Roux, Cinéma vivant, Rougerie, 1972, p. 96 - cité par Jean Brun, op. cit., p.229. [10] Op. cit., p. 58. [11] Op. cit., p. 62. [12] Op. cit., p. 63. [13] Op. cit., p. 94. [14] Certains dispositifs actuels de numérisation automatique de formes tridimensionnelles par auscultation laser concrétisent, timidement encore, cette voie. [15] Paul Valéry, La conquête de l'ubiquité, In Œuvres II, Bibliothèque de la Pléiade, NRF Gallimard, Paris, 1960, p. 1284. Rappelons que Paul Valéry écrit cet article en 1928, quelques années seulement après les premières expériences de diffusion radiophoniques. [16] Nulle incitation romantique dans l'évocation de la nouvelle mobilité de la musique. Mais plutôt le sentiment que la disponibilité d'écoute conquise rapproche des conditions vivantes de la création du compositeur. Paul Valéry écrira même que le travail de l'artiste musicien trouve dans l'enregistrement "la condition essentielle du rendement esthétique le plus haut", op. cit., p. 1286. [17] Paul Valéry, op. cit., p. 1286. [18] Paul Valéry, op. cit., p. 1285. [19] Norbert Wiener, Cybernétique et société, coll. 10-18, 1962, p. 212 cité par Jean Brun, Le rêve et la machine, p. 231. [20] Op. cit., pp. 118,126.

[21] Op. cit., pp. 128. [22] Le travail effectué par Henri Bergson, notamment dans Matière et mémoire, est ici incontournable. Il montre à quel point, dans l'attention présente, le souvenir et la perception se co-définissent sans qu'il soit possible, à la limite, de les distinguer. Nous y reviendrons au chapitre VI, à propos de l'étude de Gilles Deleuze sur le cinéma, L'image-Temps, où nous verrons comment la notion de cristal actuel/virtuel s'appuie sur la théorie bergsonienne de la temporalité dans ses rapports à l'action, la perception et la mémoire. [23] L'une des premières recherches pour la Réalité Virtuelle, réalisée par la NASA à la fin des années soixante-dix, fut la télé-robotique spatiale basée sur le couplage des mouvements d'un opérateur au sol et de son exo-squelette virtuel dans l'espace. Dans ce projet, simulation numérique interactive et déplacement informationnel étaient déjà condition l'un de l'autre. [24] Le courant de recherche pratique et épistémologique autour de la "vie artificielle" porte aujourd'hui cette interrogation à un point critique. [25] Certaines activités se limitent à une phase de traduction/codification numérique pour rendre possible une télé-relation. Par exemple, un groupe de musiciens dispersés aux quatre coins du monde, peuvent jouer ensemble en se connectant à Internet, réseau à bande passante pourtant faible. Il leur faut utiliser un logiciel d'interconnexion musicale, tel que Distributed Real Groove Network, véhiculant des compositions réalisées sur un clavier aux normes Midi. [26] Michel Beaudoin-Lafon, Les habits neufs du travail en équipe, Collecticiels et médiaspace au service de la communication formelle et informelle, in L'ordinateur au doigt et à l'oeil, Spécial La Recherche, ndeg. 285, Mars 1996, p. 50. [27] Ce système a été développé par H. Ishii aux laboratoires de N.T.T., au Japon. Voir l'article de Michel Beaudoin-Lafon déjà cité. [28] Voir l'interview de Steven Feiner, in SVM MAC, avril 1994, ndeg. 50, p. 130. [29] Ces travaux ont été réalisés par le département de "visualisation scientifique" du Supercomputer Center au German National Research Center for Computer Science, près de Bonn. [30] Alex Pentand, "Smart rooms, smart clothes", in Actes d'Imagina, Monaco, 21 au 23/02/1996, p. 176. (Il est maintenant possible de suivre les mouvements de quelqu'un, de l'identifier en reconnaissant son visage et de reconnaître ses actions, en temps réel, en ne mobilisant que de modestes ressources informatiques. En utilisant cette information perceptive, nous avons pu mettre au point des "chambres intelligentes" et des "vêtements intelligents" qui peuvent reconnaître des gens, comprendre leur langage, leur permettre de contrôler des affichages sur écran sans câbles ni claviers, de communiquer par signes, et de les avertir lorsqu'ils sont sur le point de commettre des erreurs.) Sans doute peut-on rapprocher ces recherches de celles, encore plus prospectives menées au Xerox Center de Palo Alto, sur les "sensors", mini-puces communiquantes dotées de capteurs, micro-machines et autres piézo-matériaux, qui pourraient se fondre dans les composants élémentaires d'un pont pour éviter qu'il ne s'effondre lors d'un tremblement de terre ou revêtir les ailes d'un avion d'une sorte de peau capable de stabiliser l'appareil en toute circonstance. Il s'agit, en fait, de diffuser l'informatique au coeur même de la matière pour que les objets s'adaptent d'eux-

mêmes aux conditions ambiantes par des ajustements "intelligents" sans dépendre d'un ordinateur central. [31] L'ordinateur, délégateur zélé, in SVM MAC, avril 1994, ndeg. 50, p. 127. [32] Franck Barnu, Programmer le virtuel, in La Recherche, mai 1994, p. 506. [33] Avec le Dataland, le M.I.T. a développé depuis le début des années quatre-vingt, une interface gérant des sources d'informations multiples et complexes. [34] Ces interfaces ont été présentées à Electronic Entertainment Exhibition, Salon international du jeu vidéo à Atlanta (États-Unis), 17/20 Juin 1997. Signalons aussi la Feedback Racer de Guillemot International, comportant 14 boutons de contrôle et des capteurs qui repèrent la position des mains sur le volant et transmet les chocs côté gauche ou droit de la route ou encore les sensations de cisaillage provoquées par les joints métalliques lorsqu'on franchit un pont. [35] La société californienne au nom évocateur de Retinal Displays prépare la commercialisation, qui sera assurée par Philips et des industriels japonais, d'un appareil léger et performant pour environ 800 dollars. Elle travaille déjà à la prochaine génération de systèmes immersifs, prévue pour l'an 2000, qui inscrira l'image directement sur la rétine grâce à un dispositif de projection holographique. À voir... [36 ]Ce dispositif est connectable à un micro-ordinateur ainsi qu'à une console Playstation. Philips propose pour sa part Scuba, casque de Réalité Virtuelle qui s'adapte sur les principales consoles de jeux. [37] On en trouvera une description détaillée sous la plume de Jean Segura, La panoplie du virtuel, in La recherche, Mai 1994, Ndeg. 265, p. 499/503. [38] Réalisé au Zentrum für Kunst und Medien de Karlsruhe (Allemagne), Handsight a été présenté à Artifices 3, Saint-Denis, décembre 1994. [39] Installation présentée à l'Espace Landowski à Boulogne-Billancourt, décembre 1998. [40] Cette partie provient de notre article "Les images hybrides : virtualité et indicialité, in Image & média, sous la direction de Bernard Darras, MEI ndeg.7, L'Harmattan, Paris, 1998. [41] Claude Cadoz, "Réintroduire les sensations physiques", in La Recherche, ndeg. spécial, ndeg.285, Mars 1996, p. 80. [42] Plusieurs laboratoires utilisent de tels systèmes. Citons le programme GROPE, à l'Université de Caroline du Nord : un bras articulé à six degrés de liberté permet de manipuler des objets virtuels sur un écran et de restituer les forces d'interaction entre les objets déplacés, tels que des molécules par exemple. A l'Université de Rutgers dans le New Jersey, le projet "Rutgers Portable Force Feedback Master" permet à un ordinateur de régler la pression dans des petits pistons à air comprimé afin d'exercer une force entre la paume et l'extrémité des quatre doigts. En fin le Laboratoire ACROE à Grenoble a développé plusieurs systèmes à finalité musicale dont le clavier rétroactif modulaire (CRM). Des informations détaillées sont fournies sur ces recherches dans l'article précité.

[43] Claude Cadoz, op. cit., p. 82. [44] La spatialisation du son est un bon exemple de ce mouvement extensif, c'est-à-dire qui vise à imiter toujours au plus près la communication hic et nunc. Le téléphone, comme la télévision restitue le son de manière directionnelle, à partir de haut-parleurs. La stéréophonie, et d'autres procédés comme le Dolby, le dote d'un certain relief. Mais seule la Réalité Virtuelle parvient à spatialiser réellement le son, c'est-à-dire à calculer, en temps réel, la position relative de l'auditeur et des sources d'émission dans l'espace, pour diffuser, dans chaque oreille, des sons modulés selon ces positions. [45] La possibilité de créer des espaces interactifs tridimensionnels sur Internet grâce aux applications V.R.M.L. en est un exemple frappant. [46] Lennart E. Fahlen, Actes d'Imagina 1994, INA, p. 218. [47] Lennart E. Fahlen, Op cit., p. 219. [48] Cette prise en compte entre en résonance avec l'importance que de nombreux courants de la sociologie du travail attachent aujourd'hui au facteur subjectif dans les relations de travail. D'où le développement de recherches sur ces dimensions subjectives exigées et valorisées dans la nouvelle configuration productive post-fordiste, marquée par l'accentuation du caractère coopératif du travail, l'importance des ajustements interindividuels et la croissance du travail intellectuel. Citons, à titre d'exemple, Philippe Zarafian, La nouvelle productivité, Paris, L'Harmattan, 1991, le très stimulant livre de Christian Marazzi sur le rôle directement productif du travail linguistique, La place des chaussettes, L'éclat, Paris, 1997 ainsi que le Ndeg.16 de Futur antérieur, Paradigmes du travail, Paris, L'Harmattan, 1993/2. [49] L'expérience HABITAT au Japon, "communication médiatisée par ordinateur" ainsi que la définisse ses concepteurs, a initié la présence visuelle des intervenants sur un réseau. Ceuxci composent leur "avatar", sortes de marionnettes graphiques, habillées, personnalisées, sexuées. Pour une description approfondie de ce projet, patronné par Fujitsu, voir Alsuya Yoshida et Hajime Nonogaki, Habitat, in Actes d'Imagina 1994, pp. 249/254. [50] Cette application, réalisée par Cryo Interactive, modélise le centre historique de Paris sur un CD-Rom et permet, via une connexion Internet, à plusieurs participants d'entrer en relation dans cet espace par l'intermédiaire "d'avatars" graphiques. L'objectif est de concrétiser, dans un monde virtuel parallèle, la plupart des relations sociales urbaines (rencontres, commerce, éducation, participation politique, etc.). [51] Devenu une "coqueluche" du Web, V.R.M.L. (pour Virtual Reality Modeling Language) est un langage qui permet de créer des espaces virtuels tridimensionnels interactifs dans lesquels on peut circuler, que l'on peut meubler d'objets avec lesquels une interaction collective devient possible. Voir notre article : "Internet, un récit utopique", in B.P.I. en Actes (sous la direction de Jean-Pierre Balpe), Actes de l'Observatoire des lectures hypermédias, Centre Georges Pompidou, Paris, 1997. [52] Le kansei désigne, dans HABITAT, une "personnalité électronique", basée, de manière très sommaire, sur les expressions non-verbales, mimiques faciales et marques intentionnelles.

[53] Voir Michel Alberganti, "Steve et Adele, enseignants virtuels", in Le Monde interactif, supplément au Monde, 13/01/99, p. IV. [54] Chantal de Gournay, Le deuil de l'image, in Réseaux Ndeg.61, L'Harmattan, 1993, p. 129/130. [55] Voir à ce sujet notre article déjà cité, "Les images hybrides : virtualité et indicialité" (revue MEI, Ndeg.7, L'Harmattan, Paris, 1997) où sont distingués les différents types d'accouplement entre les images produites par capture indicielle et les traitements numériques. La Réalité Virtuelle, notamment, y est soumise à un questionnement sémiotique où il apparaît qu'un certain type d'indicialité trouve, indirectement, à s'y exprimer. [56] Procédures qu'on désigne souvent par le terme ambigu de "langage de programmation", l'ambiguïté tenant à ce qu'il leur manque l'essence d'une langue naturelle, sa polysémie et sa transformation permanente par l'usage social. [57] Jean-Louis Boissier est l'un des premiers qui ont éclairé cette importante question. Voir par exemple, "Bambous : pour que poussent les images", in Les chemins du virtuel, Centre Georges Pompidou, Flammarion, Paris, 1989. [58] Chantal de Gournay, loc. cit. [59] Louis Marin, De la représentation, Gallimard - Le Seuil, Paris, 1994. [60] Bernard Miège, La société conquise par la communication, Tome 2 : La communication entre l'industrie et l'espace public, Presses Universitaires de Grenoble, 1997, p. 142. [61] Marc Guillaume (sous la direction de), Où vont les autoroutes de l'information ?, Descartes et Cie, Paris, 1997. Voir en particulier p 111/128, où il est montré qu'en milieu urbain les réseaux ajoutent des fonctions de "commutations" à celles qui existent déjà (transports, équipements culturels, etc.). De ce fait, ils augmentent le pouvoir attracteur des grandes métropoles. [62] Voir Jacques Aumont : "Ce que nous dit cette théorie (celle de la double réalité de l'image) par conséquent, c'est que le spectateur a affaire principalement à l'espace illusoire de la représentation ; mais que cela n'est complètement possible que s'il garde en même temps, et subsidiairement, conscience des moyens de cette illusion." L'oeil interminable, Séguier, 1989, p. 142, cité par Kamel Regaya, Du cinéma à la télévision : quel régime perceptif ? in Télévisions, L'Harmattan, Paris, 1995, p. 35. Sur la même question et traité d'un autre point de vue, voir aussi le passionnant article d'Octave Mannoni, Je sais bien, mais quand même... in Clefs pour l'Imaginaire, Points-Seuil, Paris, 1969. [63] André Leroy-Gourhan, L'homme et la matière, Albin Michel, 1973. [64] André Leroy-Gourhan, op. cit., p. 27. [65] Bernard Stiegler a consacré les deux tomes de La technique et le temps, à la discussion approfondie de ces questions (Galilée, Paris, T. I, 1994 et T. II 1996).

[66] Il n'est pas sans intérêt de remarquer qu'une véritable industrie de la capture volumique est en passe d'éclore avec les cabines d'essayage qui, scannant notre corps, permettent de le revêtir de vêtements virtuels, en haute résolution. La marine française a déjà utilisé ce procédé pour réaliser les uniformes de 70 000 marins. Une nouvelle vie pour le sur-mesure... Voir Clive Cookson, La prêt-à-porter veut en finir avec les cabines d'essayage, in Courrier International, ndeg. 425-426, 23/12/1998, p. 47.

Table des matières

Chapitre II La crise de confiance des massmedia et le principe d'expérimentation
Un nouveau paradigme -l'expérimentation- tend à fonder la croyance dans les régimes actuels de la communication. Il s'agira d'abord de spécifier ce nouveau principe en regard de ceux qui le précèdent, et notamment en le comparant au régime de croyance issu de l'enregistrement optique. Nous préciserons ensuite comment il contribue à défaire les évidences qui fondaient nos régimes de vérités à l'heure de la télévision triomphante, c'est-à-dire comment il corrompt le théorème central de cette période : "cru parce que vu". Nous verrons que la crise du spectacle n'est pas celle d'un trop- plein de participation mais d'un déficit. Se dégagera alors l'axe principal de ce chapitre`, montrant comment les régimes d'expérimentation portés par les médias numériques tentent de combler ce passif. En témoignent certaines analyses actuelles sur la photographie, comme celle de Jacques Derrida en particulier, qui souligne à quel point la question du contact direct, du toucher devient une dimension majeure de l'assurance réaliste. Il s'ensuit qu'à l'instantanéité propre à la télédiffusion, succèdent d'autres régimes temporels engageant le passage à l'ère du spectacte. A - Du spectacle au spectacte On instruit assez souvent le procès de la fonction informative de la télévision en l'accusant d'un excès de subjectivité. Elle serait un porte-parole trop peu fiable parce que travesti par l'idée que se font les responsables de leur propre mission. Manipulation procédant moins d'un travers idéologique que d'une propension à mettre en scène l'information comme un spectacle envoûtant qui invite à une participation charnelle. Le diagnostic de Régis Debray est, à cet égard, emblématique d'analyses fréquemment produites. "Le problème aujourd'hui n'est nullement la distance spectaculaire, mais les communions englobantes et charnelles du nonspectacle, je veux dire du direct, du live et de la "performance". Le passage du cinéma à la télévision, d'un dispositif de projection domestique, de l'oeuvre en différé au document en temps réel, marque précisément le moment où l'image cesse d'être un spectacle pour devenir un milieu de vie, supprimant la différence fondatrice entre le vu et le vécu"[1]. Nous proposons d'inverser la perspective en montrant comment de nouveaux rapports à l'événement tentent de tenir les promesses que les massmedia ont murmurées sans pouvoir les assumer pleinement. Dans cette hypothèse, le reproche fondamental que nous adresserions collectivement à la télévision, c'est précisément de ne pas réussir à faire suffisamment coïncider l'information et l'événement, c'est de ne pas constituer, malgré tous ses efforts, un "milieu de vie". Ce dont elle souffre, à nos yeux, ce n'est pas d'un excès d'intimisme mais plutôt d'un défaut de proximité. La déception viendrait de son incapacité à tenir les promesses d'incarnation, d'engagement en maintenant le destinataire séparé de l'émetteur. Dans cette perspective, ce qu'on nous offre comme dispositif projectif est bien trop plat, trop plein et insuffisamment malléable. On lui fait grief de ne pas contenir une pluralité de point de vue, voire tous les points de vue possibles. Ce dont se rapproche évidemment un peu plus la représentation virtuelle dont l'interactivité constitutive implique nécessairement qu'elle soit expérimentable. Le règne du spectacle céderait alors sa place à celui du spectacte.

Fusionner le spectacle et la vie Le désir de fondre ensemble la vie et le spectacle, la vie et la littérature, la vie et l'art a inspiré nombre de courants philosophiques et artistiques. Mais dans une perspective quasiment symétrique de celle que Régis Debray dénonce dans la télévision. Qu'il s'agisse du mouvement surréaliste, du situationnisme ou encore des positions exprimées par Gilles Deleuze dans toute son oeuvre, la séparation représentation/réalité est toujours vécue comme un frein à l'augmentation de liberté, comme une camisole enserrant le mouvement vital. Supprimer la distinction entre la vie, et tout particulièrement la vie de la pensée d'une part, et la représentation de l'autre, définit l'une des visées essentielles du mouvement surréaliste. André Breton, dans le Manifeste du surréalisme, l'exprime clairement dans sa définition. "SURRÉALISME, n.m. Automatisme psychique pur par lequel on se propose d'exprimer, soit verbalement, soit par écrit, soit de toute autre manière, le fonctionnement réel de la pensée. Dictée de la pensée, en l'absence de tout contrôle exercé par la raison, en l'absence de toute préoccupation esthétique ou morale"[2]. Et quelques lignes plus loin : "le surréalisme repose sur la croyance à la réalité supérieure de certaines formes d'associations négligées jusqu'à lui, à la toute-puissance du rêve, au jeu désintéressé de la pensée"[3]. Breton projette des rapports entre réalité et surréalité qui dépasseraient la problématique contenant/contenu, repoussant toutes les tentatives de "soustraire la pensée de la vie, aussi bien que de placer la vie sous l'égide de la pensée"[4]. Habiliter les vertus d'une pensée directe, libre de toute mise en forme, de toute contrainte logique telle est la charge du Manifeste. Sur ce chemin, se dressent évidemment la pesanteur des artifices de toutes sortes, la présence incontournable des instruments d'extériorisation de la pensée ainsi que les pressions contraignantes des techniques. Ces médiations, Breton les assigne à convoyer la tradition, à exprimer l'ordre du monde, le poids de la réalité, dont la seule forme digne d'intérêt, pour l'inspirateur du mouvement, est de s'appliquer au fonctionnement de la pensée. La métaphysique négative de l'artifice, du média, s'oppose à la glorification d'une expression pure de tout intermédiaire ("l'enfance qui approche le plus de la vraie vie"[5]). Breton hésite, bien sûr, à rejeter le langage et la communication et il s'exprime dans une forme syntaxique excellente, très éloignée des "associations libres" préconisées dans son essai. Le premier manifeste se termine par cette phrase : "L'existence est ailleurs"[6]. Pour parvenir à cette autre "existence", deux chemins se dessinent : la poésie et la politique. La politique transformera le monde et la poésie exprimera directement la pensée, sans détour sémantique. Forme indicielle -au sens de Charles S. Peirce[7]- de la pensée, la récitation intérieure du poème fait surgir immédiatement le sens par le jeu des motifs sonores et des analogies émotionnelles engendrées. Elle rend immédiatement présente la signification par les distorsions de la langue, sans avoir à la représenter par le recours systématique aux significations déposées dans les règles grammaticales et les usages sociaux du langage. Mais s'émancipe-t- on vraiment de la représentation dès lors qu'on s'impose pour ce faire une forme (un média), le poème, par lequel on fait jaillir affections, émotions et visions intérieures ? Qui plus est, en déniant le monde de la sémantique par l'intermédiaire de mots[8]. On pourrait poursuivre la même discussion à propos du situationnisme et de son rejet du "spectacle", médiation corruptrice propre au capitalisme contemporain, comme on le sait. Je renvoie, sur ce point, à la pénétrante mise en parallèle, proposée par Régis Debray, entre la métaphysique situationniste de la séparation vie/spectacle et la logique feuerbachienne d'une essence humaine aliénée dans l'illusion religieuse[9]. Gilles Deleuze, lui aussi, fait courir tout le long de son oeuvre une ligne conductrice glorifiant la rencontre, voire la fusion entre

production conceptuelle et flux vital, écriture et pouvoir de la vie, ou encore description et nature. Dans le chapitre 6, nous retrouverons ce mouvement particulièrement sensible dans son travail sur le cinéma. Viser la vie et non la vie des signes, extraire les concepts du cinéma pour rejoindre les personnages du film et aller vivre avec eux : le projet -d'inspiration explicitement nietzschéenne- est clairement affirmé. Le paradoxe consiste à rallier la vie par l'intermédiaire de son double (l'écriture, ou le film) tout en affirmant la violence mortifère de ce détour. Or s'il y a un instrument, un moyen pourquoi ne pas lui reconnaître une vie propre, non réductible à l'extinction de la séparation représenté/représentant, mais en tant que tel, comme espace médian valant pour lui-même et participant du flux vital général ? Un risque de dispersion ? L'analyse de la présence à distance se confronte à la critique de la communication, vue comme corruptrice du lien social. Dans cette perspective, les institutions et techniques de communications contemporaines sont désignées comme responsables de la montée de l'individualisme et la réflexion politique qui accompagne leur essor est accusée de s'inspirer et de nourrir exclusivement une idéologie anarcho-libérale. Dans la défense des principes "autogestionnaires" d'Internet, on voit bien effectivement les courants technolibertaires et libéraux, favorables à la dérégulation, s'allier contre le contrôle étatique. Le mouvement de Téléprésence est donc dénoncé comme brisant les liens sociaux et séparant les collectifs. Ce point de vue est défendu, par exemple, par Philippe Breton[10] qui convoque Guy Debord comme visionnaire de ce mouvement séparateur. Dans La société du spectacle, l'inspirateur du situationnisme conclut en effet : "[...] de l'automobile à la télévision, tous les biens sélectionnés par le système spectaculaire sont aussi des armes pour le renforcement constant des conditions d'isolement des foules solitaires". (Et Philippe Breton d'acquiescer : "On peut ajouter sans peine Internet et les futures "autoroutes de l'information" à cette liste"). Faut-il être sensible à la critique et suivre Guy Debord dans sa charge contre la corruption des solidarités ? Sommes-nous toujours dans la même période marquée conjointement par la consommation de masse et la montée de l'idéologie individualiste ? La perspective présentée ici s'écarte de ce schéma. Elle explore une autre hypothèse où l'ère flamboyante de la séparation serait progressivement asséchée par cela même qui la nourrit, où les promesses d'une communion à distance commenceraient à se concrétiser, où la disjonction dans l'espace ne serait plus synonyme de séparation, et où, enfin, l'enveloppe individuelle s'écarterait, par moments, de l'environnement immédiat pour se mettre en prise directe avec le lointain. La séparation, l'isolement s'assouplissent alors progressivement -sans disparaître totalement- dans un continuum de liaisons sensibles avec l'éloigné ; liaisons qui diminuent, partiellement, l'obstacle à l'expérience conjointe hic et nunc. Ajoutons, enfin, que ce type de critique de la séparation prend finalement à la lettre les mots d'ordre de ce qu'elle dénonce. Elle crédite les réseaux d'une véritable puissance de substitution aux relations de proximité. Elle laisse, ce faisant, de côté tout un pan des télé-relations ; celui où le lien à distance se combine au contact direct, et parfois le fonde. Nous aurons l'occasion de cerner plus en avant ces rapports inédits qui se tissent entre proche et lointain. La vidéosphère : une évidence discutable La discussion sur la crise de crédibilité dont souffre la télévision peut être utilement éclairée à partir d'une discussion des propositions de Régis Debray pour qui le petit écran symbolise le nouveau régime médiatique dominant, la vidéosphère. Deux controverses polarisent la discussion des thèses du "médiologue". La première porte sur le nombre ainsi que sur le

découpage des médiasphères. Nous ne ferons que l'évoquer. La deuxième concerne la pertinence de l'idée selon laquelle la vidéosphère -dont les caractéristiques (pouvoir englobant de l'image télévisuelle, etc.) ont été rappelées plus haut- définirait le régime médiatique actuellement dominant. Sur ce point, nous tenterons de montrer en quoi l'hypermédia constitue un régime médiatique à part entière, réductible ni à la graphosphère, ni à la vidéosphère. La controverse portant sur le nombre de médiasphères est intéressante, car elle montre que la tripartition proposée (logosphère, graphosphère, vidéosphère) n'est pas aussi évidente qu'il y paraît. Roger Chartier apporte des vues qui complexifient notablement les frontières[11] en distinguant deux régimes de la vidéosphère : celui où l'image se singularise sans co-présence du texte (cinéma et télévision) et celui "du texte donné à lire dans une nouvelle représentation (électronique), sur un support nouveau (l'écran) et selon des modes de contextualisation et de maniement sans précédent dans l'histoire longue des supports de l'écrit". Ainsi, les deux mutations fondamentales qui caractérisent la vidéosphère seraient "la prolifération des images sans écrit, mais aussi la transformation de la représentation de l'écrit"[12]. Ce détour par la critique de l'organisation des médiasphères intéresse notre enquête parce qu'il débouche précisément sur le statut de la numérisation du texte, comme changement radical des pratiques de lecture et d'écriture. Modifications qui bouleversent l'unité même de ces activités en les mélangeant directement aux pratiques d'inscriptions, en général, aussi bien textuelles qu'illustratives, imagées ou sonores. La numérisation des signes distingue notre époque comme étant la première où tous les types d'informations transitent par les mêmes codages (binaire), les mêmes équipements (ordinateur) et surtout les mêmes types de traitements (programmes informatiques). Il s'agit d'un saut où le technique renvoie au symbolique dans un sens fort du terme, c'est-à-dire qui a trait aux langages. Les pratiques d'écriture et de lecture sont alors plongées dans des agencements d'une grande variété (dessins, schémas, tableaux, images numérisées, séquences sonores, etc.). La gestion de la circulation dans ces inscriptions devient une question centrale. Une nouvelle "grammatologie du document hypermédia" -selon l'expression pertinente de Henri Hudrisier- s'élabore à partir d'un travail collectif et international de définition de normes. Dans l'écriture multimédia, par exemple, cette activité radicalise les opérations d'organisation et de recherche des contenus déjà sédimenté dans la conception des textes (sommaires, notes, index, etc.). Cette grammatologie dessine notamment une carte des circulations possibles dans les corpus (arborescences, liens hypermédias, gestion des balises sur le Web) et mobilise des instruments informatiques de recherches adaptés à ce nouveau milieu, tels que les "moteurs", "agents intelligents" et autres logiciels d'indexation automatique. Dans ce nouvel état du texte, la frontière avec les autres types de signes n'est plus aussi bien dessiné qu'à l'ère de l'imprimé. Parallèlement de nouveaux régimes temporels d'appropriation s'annoncent. Mis en mouvement par la numérisation, le texte est, paradoxalement, ralenti par une appropriation hésitante, hachée, où immobilisations, relectures et flux rapides se succèdent, où les respirations se règlent sur la matérialité de la mise en espace et des scénographies dynamiques du texte, brisant le flux uniforme de la disposition régulière le long des pages d'un livre. D'autant que le texte numérisé peut s'accoupler à des messages sonores ou imagés dans une perspective multi- ou hypermédiatique. Il ne s'agit pas ici de supposer que le rythme de la lecture individuelle s'accordait mécaniquement à la linéarité du texte sur support stable. La lecture obéit à des inflexions temporelles évidentes, fruits d'une traduction d'un texte stable en discours intérieur fluctuant selon la subjectivité du lecteur. Mais la matrice séquentielle régulière qui ordonne l'inscription typographique forme néanmoins la structure objective principale du texte auquel toute lecture se confronte, serait-ce pour la

contester. Le régime médiasphèrique-roi de la vidéosphère, le "temps réel", serait ainsi, bizarrement, plus en adéquation avec le temps continu, régulier de l'imprimé qu'avec les ruptures (zapping), les arrêts et finalement le ralentissement des flux propre à l'ordre numérique ; nous y reviendrons. Une virtuosphère ? La vidéosphère, définie comme "l'ère du visuel" dans le livre que Régis Debray consacre à l'image, place -à travers sa dénomination même- l'audiovisuel moderne, et principalement la télévision, en institution-reine distribuant nos régimes de croyances et de vérité. "Telle serait l'hallucination-limite de l'ère visuelle : confondre voir et savoir, l'éclair et l'éclairage"[13]. Le postulat implicite sur lequel est fondé toute l'analyse se construit sur la suprématie d'une vision devenue "ère du visuel" plaçant en position sommitale une modalité particulière de l'appareil médiatique : l'image vidéo et son vecteur institutionnel et technique central, la télévision. La thèse défendue consacre le dispositif télévisuel en ordonnateur de la vérité, en fondateur de l'espace public ainsi que du lien social. Cela justifiera qu'ultérieurement, un livre entier, L'état séducteur[14], soit consacré au renversement de sujétion entre télévision et pouvoir politique. L'hypothèse que nous mettons à l'épreuve, énonce que précisément le régime télévisuel connaît une crise de légitimité profonde qui interdit d'en faire l'attracteur principal de nos régimes de vérité comme de notre espace public[15]. Les modalités technoculturelles qui dérivent de l'image numérique interactive, tracent des lignes de fuite qui contredisent celles qui s'originent dans la télévision. Il est symptomatique que dans les pages où Régis Debray appréhende les enjeux de l'image numérique[16], il n'est quasi exclusivement question que des techniques de traitement d'image (imagerie scientifique, médicale,...), lesquelles n'instaurent pas, fondamentalement, une nouvelle modalité de fréquentation des images. Une image numérique satellitaire se regarde comme une photographie prise d'avion. Sont délaissées, de fait, toutes les régions (jeux vidéo, multimédias de visites virtuelles ou d'apprentissage, circulation dans les réseaux, télévision interactive, etc.) où des pragmatiques inédites s'installent, bouleversant les modes antérieurs d'approche de l'image, régions que nous regroupons sous le vocable d'image actée. (Je préfère, en effet, la dénomination image actée à celle, plus courante -et valide- d'"image interactive". Elle marque, en effet, plus nettement l'existence d'un acte intentionnel comme fondement d'existence de ces images, signifiant par là qu'elles s'enchaînent à partir d'actions accomplies par un sujet provoquant, en retour, d'autres actions). L'univers de l'action sur l'image est ainsi ignoré. Le primat de l'immédiateté propre à la logique de "temps réel" des médias de flux (radio, télévision) est considéré comme l'ultime -et dramatique- visage de la temporalité réglant les fonctionnements de l'espace public. Il ne vient pas à l'esprit du "médiologue" que l'ordre numérique véhicule une autre distribution temporelle chevillée aux règles de mise en oeuvre des programmes informatiques. Dans sa réponse aux critiques qui lui sont faites, Régis Debray admet, en règle générale, leur pertinence mais il ajoute une croyance : celle selon laquelle "le message sans code (l'image électronique), fore et ratisse plus large que l'autre ("la transmission numérique des textes"), unimédia ou non"[17]. Dans ses travaux antérieurs, l'auteur avait déjà crédité l'image d'un don qui se pare du costume de l'évidence. "La preuve par l'image annule les discours et les pouvoirs"[18]. Considérant que la capture vidéographique supprime le travail d'élaboration, de mise en forme, caractéristique des régimes d'inscriptions antérieurs, il affirme la naturalité de la puissance de l'enregistrement : "La vérité en vidéosphère est originelle, non finale"[19]. Ainsi la force de conviction du message visuel semble être fondé sur un critère quasi physique : le privilège de l'indicialité -peircienne- de la capture optique sur toute attitude réflexive. Ce

serait donc quasiment un fait naturel qui expliquerait le lien entre vérité et vision. Notre désaccord, sur ce point, est total. Et, comme souvent, ce sont précisément les dynamiques actuelles qui, fissurant l'ancien pacte de croyance, en révèle la contingence. Elles le découvrent alors comme une construction sociale et altèrent sa supposée naturalité. Notre critique est donc double. Elle porte d'abord sur l'idée que la télévision -média déclinant dans ses formes actuelles- puisse continuer à assumer, ad vitam eternam, une fonction structurante de notre espace public. En deuxième lieu, elle conteste la possibilité de réunir sous un même vocable -vidéosphère- les logiques contradictoires de la vision basée sur l'enregistrement indiciel avec celle de l'expérimentation basée sur celle du traitement par programme. Comment conviendrait-il de nommer cette deuxième composante de notre "médiasphère" ? Dans la même livraison de la revue Le Débat consacrée à la médiologie, Roger Laufer insiste sur les linéarités partagées de la télévision et de l'écrit, en y opposant l'hypertexte dans lequel "commence à se développer aujourd'hui un mode d'organisation non linéaire de la pensée, au coeur de la logo-graphosphère informatisée"[20]. Le terme de numérosphère vient à l'esprit. Il est d'ailleurs évoqué par Régis Debray lui-même accordant crédit aux remises en cause de Roger Laufer et amorçant ainsi la reconnaissance du nécessaire clivage interne à la vidéosphère entre les logiques du "temps réel" et celles du temps différé. La proposition est alléchante. Elle possède l'avantage de souligner l'importance d'une codification désormais commune à tous les types de signes (manuscrit, imprimé, sonore, imagé, etc.). Mais le numérique n'est qu'un codage, un moyen, une forme technique (et c'est bien ce à quoi s'intéresse la médiologie) dont la fantastique explosion est la conséquence directe de l'informatisation. Le codage numérique existait bel et bien avant l'invention de l'informatique. Mais sans l'ordinateur, et donc la possibilité de traitements par programmes automatiques, ce code est un fardeau inutile. Ce qui est central à notre époque, ce n'est pas tant la victoire du code binaire, mais la disponibilité généralisée de machines fiables capables d'exécuter des programmes automatiques. Bien que la notion de programme soit bien antérieure à celle d'informatique, tout comme celle d'automatisme, on peut postuler qu'aujourd'hui une accélération définitive a été enclenchée par la délégation de traitements intellectuels à des programmes d'ordinateur. On proposerait donc volontiers, malgré la sonorité disgracieuse, "programmosphère". Mais, outre l'insuffisante spécificité du concept général de programme pour désigner l'informatique, l'inconvénient d'une telle proposition réside dans le message qu'elle véhicule, tendant à certifier qu'avec l'informatique, des logiques univoques de partage spatio-temporel sont à l'oeuvre. On verra, plus en avant, en quoi une telle proposition est discutable. Alors virtuosphère ? Mais peut-être faut-il se résigner à ne pas inscrire la complexité du régime actuel de la communication dans une seule sphère. B - La crise de confiance des massmédia Nous commenterons ici quelques faits et controverses qui sont autant d'indices assez explicites, de la crise qui affecte les massmedia. Nous soulignons tout particulièrement le défaut d'expérimentation qui transparaît dans les reproches adressés à tel ou tel projet, et mettons en perspective les premières réalisations qui prennent le relais des médias handicapés par leurs difficultés à assumer des missions expérientielles. L'état de méfiance On se souvient de l'effondrement de l'émission La preuve par l'image sur France 2, retirée de l'antenne après que furent révélées les conditions douteuses de tournage d'un reportage censé saisir sur le vif un épisode de ventes d'armes dans les caves d'une cité de la banlieue

parisienne. Daniel Schneidermann, à l'époque journaliste au Monde, commentait ce tête-àqueue, en expliquant, à juste titre, qu'il est emblématique d'un état d'esprit "[...] sans doute parce que la conscience est désormais solidement ancrée que les images de télévision ne sauraient constituer quelque preuve que ce soit"[21]. Quelques fameux scandales (faux massacre de Timisoara, images d'archives lors de la guerre du Golfe, fausse interview de Fidel Castro, etc.) ont puissamment façonné cette conscience. Elle constitue, en tant que telle, un symptôme. Cette crise de confiance ne peut être mise sur le compte de l'existence des trucages, ni sur leur multiplication. Même si l'aisance qu'offrent les technologies numériques nourrit la tentation d'en abuser, il ne faut pas oublier, en la matière, le passé chargé de la photographie et du cinéma. L'enregistrement du mouvement (Lumière) engendre immédiatement l'illusion (Méliès). En revanche, la culture contemporaine du montage photographique et cinématographique nous a rendus disponibles à toutes les distorsions visuelles et a peut-être rendu moins coupables les travestissements qui nous choquent aujourd'hui[22]. Mais là n'est pas l'essentiel. Car, répétons- le, les mises en scènes et mensonges audiovisuels ont toujours été, plus ou moins - il faudrait distinguer les périodes et les régimes politiques-, l'ordinaire des pratiques de reportages[23]. Que "la preuve par l'image" devienne la preuve que l'image trompe, nous signale qu'un ancien régime de légitimation décline sous la poussée de nouvelles exigences. Ici, à la différence du conte, c'est parce que le pouvoir du roi est vacillant qu'on peut s'écrier "le roi est nu". D'où le démontage en cours des anciens mécanismes qui assuraient, non pas l'objectivité de l'information, mais l'efficacité de la formule "cru parce que vu". Les artifices, les tromperies, les arrangements, bref la mise en scène de la vérité télévisuelle est désormais sous le feu du soupçon et le chroniqueur intitule précisément son propos : "L'état de méfiance". On retiendra l'hypothèse que la méfiance n'est pas le produit de la tromperie, mais qu'à l'inverse la tromperie est débusquée parce que règne désormais "l'état de méfiance". Le soupçon généralisé ne porte pas tellement sur la conformité des images enregistrées à leur référent -où s'apprécierait un défaut d'indicialité de la capture optique, rongée par le trucage et la mise en scène- mais plutôt sur l'incapacité des images enregistrées (ou transmises en direct, là n'est pas la différence essentielle) à offrir un instrument d'expérimentation. Et les massmedia ont déjà perçu cette limite, sans toutefois pouvoir la déjouer. D'où l'affectation un tantinet masochiste avec laquelle ils se plaisent à souligner leurs propres erreurs d'appréciation : victoire programmée de Balladur à la présidentielle du printemps 1995, accueil enthousiaste du plan Juppé sur la Sécurité sociale à l'automne de la même année, par exemple. On pourrait, dans la même perspective, interpréter le culte nostalgique que vouent régulièrement des émissions à l'histoire de la Télévision[24]. S'agit-il d'y vénérer un agonisant ou déjà un disparu ? Si le chroniqueur du Monde constate que "La France ne croit plus ce qu'on lui montre" et que "quiconque prétend s'adresser à elle, quiconque inscrit son visage sur l'écran familier, est d'emblée suspect"[25], c'est parce que le soupçon précède toute présentation purement audiovisuelle désormais trop affaiblie pour établir une référence solide. La vérité exige aujourd'hui de pouvoir la vérifier soi-même. Précisons que cette vérité "expérimentale" ne saurait posséder un caractère ultime. Ce n'est évidemment qu'un régime particulier et actuel de vérité plus adéquat à nos attentes culturelles que la conformité indicielle, laquelle provient d'un prélèvement direct à la source de l'événement, comme dans toutes les formes d'enregistrement. On précisera cela ultérieurement. Instantanéité et véracité

Christiane Amanpour, reporter phare de CNN, affirmait en octobre 1998, que la baisse d'audience de la chaîne était due à la montée en puissance des sites d'informations en ligne sur Internet. Voici ce que déclarait, en décembre 1998, Howard Rosenberg, critique de télévision au Los Angeles Times : "Les infos à la télé n'ont jamais été aussi mauvaises [...] les télévisions se ruent sur le spectaculaire, comme les courses d'hélicoptères [poursuites policières transmises en direct] et sur les sujets les plus faciles à couvrir : les meurtres. Un cadavre encore tiède, un flic et c'est dans la boîte. De plus en plus de gens préfèrent regarder le câble et s'informer sur Internet"[26]. Ces déclarations jouxtent un article qui présente Newsblues -site Web impertinent- exutoire, où les journalistes américains racontent pour la première fois à cette échelle et le plus souvent de manière anonyme, les turpitudes de leurs directions : sensationnel à tout-va, malhonnêteté financière, etc. Cent vingt mille visites dès le premier jour : cette expression publique est un signe évident de la crise de confiance, exprimée cette fois de l'intérieur de l'appareil télévisuel. En France, il n'est pas certain que la grande messe du vingt-heures attirera toujours autant de fidèles. Plus que la baisse d'audience, tendancielle, pour ce rendez-vous quotidien, c'est la transformation de la réception qui doit être soulignée. Désormais, on regarde le "vingt-heures" aussi comme un spectacle. On peut s'en désoler où s'en réjouir, mais force est de constater que la valeur "cultuelle"[27] cède la place au décodage distancié. Et cette attitude évaluatrice, pratiquée collectivement, tend à devenir la condition spectaculaire. Le sentiment commun du partage de la retransmission de l'événement tend à faire de la retransmission un événement en tant que tel. Cette question de la valeur "cultuelle" de la télévision risque d'être fortement déplacée sous l'effet des profondes modifications du système de diffusion. La perspective, en France, de pouvoir recevoir, notamment grâce à la numérisation, plus de cent chaînes risque de transformer considérablement la notion de partage collectif de l'événement. Notons que cette situation, effective depuis des années aux États-Unis, n'a pas jusqu'à présent supprimé les quelques occasions où les téléspectateurs se trouvent rassemblés par dizaines de millions pour suivre simultanément des retransmissions à valeur fusionnelle[28] : super-bowl aux étatsUnis, Jeux Olympiques, débat entre les candidats à l'élection présidentielle, etc. La persistance de telles télé-rencontres de masse nous interroge sur leur fonction. Le partage simultané d'événements, serait-ce par télé-relation, participe aujourd'hui à la structuration de toute communauté. Observons que l'instantanéité d'un tel partage constitue encore un gage de confiance dans la véracité du reportage, c'est-à-dire dans sa capacité à oblitérer tout questionnement sur ses effets de mise en scène. Si un événement est télédiffusé instantanément à un vaste public, il paraît être à l'abri des soupçons de montage ou de trucage. Cette observation semble pérenniser la télévision dans sa fonction de principal instrument du lien social à distance. Ainsi, dans son étude sur "l'Histoire du regard en Occident"[29], Régis Debray affirme-t-il que la question de l'authenticité des images, c'est-à-dire de leur conformité au référent va être déplacée vers celle de leur "vraisemblance" et que "...celle-ci ne sera plus garantie que par leur rapidité de transmission : plus bref le délai, moins de possibilité de truquage (qui demande des machines et du temps)"[30]. Or des traitements numériques d'images qui permettent d'hybrider, quasi instantanément, des images optiques enregistrées avec des images totalement calculées sont d'ores et déjà en fonctionnement. Citons, à titre d'exemple le procédé Epsis mis au point par Matra qui permet d'incruster, en "temps réel", des images de synthèses dynamiques dans des reportages de télévision ; ce procédé est utilisé aujourd'hui pour des publicités virtuelles lors de retransmissions sportives, par exemple[31]. Instantané

n'est plus synonyme de vérifiable. Bref, il va falloir faire notre deuil d'une confiance inébranlable dans la vérité "indicielle" et du sentiment d'authenticité qu'assurait la télétransmission instantanée. Et ce tournant, déjà sensible dans notre suspicion à l'égard des massmedia, loin de renforcer les duperies médiatiques ouvre à une mise en doute généralisée de toute information rapportée. Désormais pour croire, il va falloir mettre la main à la pâte. Une pâte malléable, ductile, que l'on veut tester, éprouver, bref une pâte virtuelle. Ce qui ne veut pas dire -on s'en doute- véridique, infalsifiable ou irresponsable. Entre l'enregistrement et la simulation Depuis mars 1998, l'Agence France Presse propose un nouveau service d'information infographique tridimensionnelle destiné aux chaînes de télévision. Chaque jour une animation en images de synthèse 3D leur est soumise, relevant d'un événement particulier de la journée, accident, fait divers, sport... Ces animations sont destinées à compléter des séquences tournées et peu compréhensibles (accident, attentat, par exemple) ou à clarifier des images confuses comme un départ de course automobile enfumé par les gaz d'échappement. Parmi les premières images réalisées en 3D à titre de test, on a pu voir comment, lors de la course Vendée Globes 96, le skipper Bullimore se trouvait incarcéré sous la coque de son voilier retourné. De même a-t-on vu la localisation du bateau naufragé au milieu de l'Atlantique. La chaîne qui achète le document peut l'obtenir dans sa version standard, ou bien dans une version "châssis d'image" qu'elle peut ensuite personnaliser. Elle peut également solliciter l'A.F.P. pour lui fournir la même scène, mais sous un angle différent. On voit donc se construire une industrie de "l'arrangement", intermédiaire entre la prise de vue et la synthèse d'images, dont on ne peut affirmer qu'il s'agit d'un trucage pur et simple, puisqu'il s'agit d'être plus près de l'événement ; beaucoup plus près que ne le permet la capture optique. D'où les distorsions qui découlent de ces opérations qui mixent capture optique et synthèse numérique. Et la logique veut, qu'à une phase ultérieure, les fichiers numériques sources puissent être transmis par réseau à des fins de mise en scène directe par le téléspect-acteur à son domicile. "L'expert" : l'éveil de l'image enregistrée Après s'être investi dans la fabrication d'un néo-réalité à vocation réaliste, l'image numérique, démontrant peut-être ainsi sa maturité, se tourne vers son passé immédiat, l'image vidéo. Le film numérique L'expert[32] est en effet, totalement bâti à partir d'un corpus, lourd s'il en est, formé par les trois cent soixante-dix heures de bandes du procès Eichmann, à Jérusalem ; bandes que personne pour ainsi dire n'avait jamais revues[33]. Ces documents inédits ont donné à Egyal Sivan et à Ronis Brauman (l'ex-Président de Médecins Sans Frontières) l'idée de se pencher sur la personnalité de l'ancien chef nazi à la lumière du livre-reportage sur le procès, publié en 1963 par Hannah Arendt : Rapport sur la banalité du mal[34]. Leur intention est de faire revivre le regard que portait la philosophe sur Eichmann. Non pas un bourreau sanguinaire, mais un citoyen ordinaire obéissant à un appareil de pouvoir. À partir des centaines d'heures composant les archives, un film de deux heures est né qui mobilise des techniques de retraitement numériques originales[35]. Les images d'archives ont été tournées par quatre caméras fixes, opérant alternativement. Tout travelling, zoom ou effet optique étaient donc impossibles. Ces images forment une sorte de banque de données à partir de laquelle de nouvelles prises ont été reconstituées (ce dont les spectateurs seront avertis dès le début du film). Des mouvements virtuels de caméras (panoramiques, travellings), par exemple, ont été calculés en tenant compte de la géométrie de la salle (qui existe encore à Jérusalem). Les acteurs du procès, témoins, juges, avocats et accusé sont réinsérés dans une

maquette tridimensionnelle des lieux. Des effets complexes (modifications d'éclairage et de texture) affectent les images. Des changements virtuels de focales modifient les vues. Des images des témoins s'affichent, en réflexion, sur la vitre blindée de la cage de verre qui séparait Eichmann du tribunal alors qu'elles n'apparaissent pas dans les bandes originales. Le son est aussi retravaillé, pour faire coïncider, par exemple, les réactions d'Eichmann aux témoignages, en gommant le temps de latence pris par la traduction. L'image de synthèse réinterprète ainsi l'image enregistrée. Trouant les surfaces, elle lui donne une profondeur de champ que celle-ci s'était vu confisquer par le caractère indélébile de la prise d'empreinte. Elle remonte l'entropie de la pente temporelle en recomposant à volonté les durées et les enchaînements déposés une fois pour toutes dans la succession des prises de vues. Le matériau de base de la refonte numérique devient l'image enregistrée isolée, capturée, sculptée, mise en série pour devenir un méta-film. Du "ça a été" on est passé au "ça pourrait être ça aussi". Le rêve ancestral consistant à obtenir d'une image plus qu'elle n'en exhibe de prime abord, à la faire exsuder ses constituants dissimulés, commence à se concrétiser. Il se vérifie que l'image numérique révèle (au sens photographique) l'image enregistrée, comme celle-ci révèle son référent réel. La redéfinition de l'espace (et du regard) concerne la finitude de la capture optique dans ses rapports au temps. L'image enregistrée nous a habitués à sa stabilité qui renvoie elle-même à l'immuabilité apparente du passé. Ce régime est révolu. L'expert en est l'un des plus purs témoignages. La trace du passé est, à la manière d'une fouille archéologique, relancée dans l'actuel, comme ces photographies d'enfants disparus que des logiciels font vieillir au fur et à mesure que le temps passe[36]. On creuse derrière l'enregistrement pour en extraire une autre actualisation, non pas fausse, mais compossible. Ce qui a été capturé n'est que l'un des possibles que sa mise en traitement numérique va libérer de son inscription, auparavant définitive, sur la pellicule. La démonstration est, ici, paradoxalement renforcée par le fait que le résultat est un film : le numérique est, en l'occurrence, un rebond qui ramène à la forme filmique initiale. (Pas d'interactivité dans ce cas ; les réalisateurs de L'expert ont, en effet, soigneusement sélectionné et mis en scène certains effets signifiants illustrant leur thèse). Mais la portée de cet étonnant travail va bien au delà de cette constatation. S'il est possible de tirer des images enregistrées de leur torpeur, c'est bien, qu'aujourd'hui, un principe d'expérimentabilité les domine. Désormais, tout film classique est, potentiellement, une matrice d'où peuvent naître des séries. C - La demande de participation traduite par le système télévisuel Des fictions réalistes toujours décevantes Les affaires judiciaires sont un filon inépuisable pour tenter de rapprocher le spectacle et la vie... et transformer un reportage en instrument destinée à modifier le cours de la justice. D'où l'exemple suivant de justice-fiction, mais cette fois avec le vrai supposé coupable. R. Agret avait été condamné pour un double meurtre dans les années soixante-dix. Il avait été ensuite gracié, puis acquitté. Sur le plateau, les acteurs du drame : parents et proches de l'accusé, expert médecin légiste, les avocats de la partie civile et de la défense, un gendarme partie prenante de l'enquête, un juré. L'émission débutait par une fiction réaliste reconstituant le cadre familial et social. L'animatrice s'appuyait sur la contre-enquête entreprise par l'équipe qui avait préparé l'émission, repérant les incohérences et les faiblesses du dossier pouvant conduire à réviser le procès. Mais, au grand désespoir du principal protagoniste et de Philippe Alphonsi, TF1, flairant peut-être la chausse-trappe, renonçait à la diffusion. Bref, les fictions réelles commençaient à sentir le soufre. Mettre en cause le pouvoir judiciaire en le doublant

par une reconstitution, aussi professionnelle soit-elle, semblait dangereux pour la chaîne, en particulier dans une période fertile en démêlés juridiques. Proposons une autre hypothèse, non contradictoire. La télévision aurait désormais tiré les leçons de son échec à proposer l'expérimentation de la réalité par les moyens du spectacle. La disgrâce des reality shows creuse, de manière symptomatique, ce déficit. Mais l'échec n'est apparemment jamais considéré comme définitif. Régulièrement, de nouvelles réalisations viennent tenter de recoudre la vie et la fiction. Les "feuilletons documentaires" -docusoaps comme les nomment les réalisateurs anglais après les avoir importés de leurs homologues néerlandais, inventeurs du genre- en sont les derniers avatars. Faire jouer à l'infirmière ou à la vendeuse de grand magasin sa vie sociale réelle en la ponctuant d'intrigues ou de gags : ainsi se rejoignent la réalité "brute de décoffrage" avec "l'humour et l'émotion", comme l'explique Christoph Jörg[37], chargé des docusoaps sur Arte. Nous ne sommes pas surpris de voir, dans le dossier de presse, qu'il s'agit de "construire des histoires au plus près de la vie". Les fictions réalistes sont, en effet, la réponse exacerbée à cette soif de réalisme et d'implication qu'une puissante vague culturelle fait déferler. Mais ils ne peuvent l'étancher. Comme le dit Gérard Leblanc : "Rien n'a absolument changé avec les reality shows, sinon qu'ils renforcent le désir, faute de l'avoir satisfait, d'une ouverture sur le réel qui ne serait pas jouée d'avance"[38]. Le reality show est cardinal, non pas comme genre télévisuel, mais en tant que métaphore de la recherche de réalisme. Ainsi Jean-Claude Soulages montre comment, depuis sa naissance, les informations à la télévision sont sujettes à cette tension. On débute, nous dit-il, après guerre, avec le modèle spectaculaire des actualités cinématographiques. Puis le langage se délie dans les années 1960 et vers les années 1980, on reconnaît la prise de parole du citoyen (micro-trottoir, débats en direct, etc.). Enfin, aujourd'hui, "le but de la scénarisation est d'immerger le téléspectateur dans le réel selon trois méthodes : filmer en direct, reconstituer le fait comme il a eu lieu, ou scénariser l'événement en suivant des personnages"[39]. Ajoutons que s'il s'agit d'"immerger le téléspectateur", des moyens autrement plus efficaces que le petit écran se font jour. On l'a compris, nous prolongeons le diagnostic par un pronostic. Déplacer les limites, élargir l'espace du jeu avec le réel : tel serait le projet que les médias numériques promettent de concrétiser. Mais là gardons-nous de tout emportement mécaniste. Élargir ne signifie pas supprimer les limites. Dans les micro-mondes simulés, celles-ci n'ont pas disparu. En revanche, elles deviennent le produit de l'action et de la perception et non plus leurs présupposés, tels qu'ils se figent dans la construction et la rhétorique de l'émission de télévision. Ces limites relèvent d'une double définition. D'une part, elles sont perçues comme barrières infranchissables, bornes déposées par les concepteurs du micro-monde simulé. Je ne peux pas sortir du musée pour aller me promener dans la rue si les concepteurs ne l'ont pas "joué d'avance". D'autre part, elles sont construites par l'interactant. Toute décision, à un moment donné d'un parcours, inscrit une limite irréversible. Si on revient en arrière, c'est une autre séquence temporelle qui s'ouvre. Si j'ai poursuivi la visite du deuxième étage de l'aile Richelieu au Louvre, j'ai perdu -peut-être définitivement, et en tous cas pour ce parcoursl'accès à l'escalier vers le troisième étage. On peut faire l'hypothèse que l'assouplissement des bornes de la présentation, comme le réglage du hors-champ[40] par le spectateur, loin d'assouvir le désir de participation et de rupture de la barrière représentationnelle, ne renforce, au contraire, l'appétence pour un jeu ouvert avec le réel et n'aiguise encore plus le goût du franchissement de la barrière représentative. Ainsi se révéleraient les fondements de la tendance à l'incarnation croissante des représentants (la prochaine étape étant, avec la Réalité Virtuelle, la généralisation de l'immersion pluri-sensorielle individuelle, puis collective).

Les premières armes de la télévision interactive La télévision interactive exprime la recherche, dans le cadre télévisuel, d'un compromis entre émission collective et réception personnalisée. Avec FSN (Full Service Networks : "réseaux de services complets", nom donné à l'expérimentation de télévision numérique d'Orlando), on a vu se profiler de nouveaux alliages entre émission et réception[41]. L'un des services du FSN -TNX News Exchange- conçu avec la rédaction de Time, permettait d'effectuer une sélection thématique automatique en compilant un ensemble de sujets diffusés par les grandes chaînes de télévision ou les stations locales. Ces émissions étaient numérisées, compressées, découpées par thèmes et stockées sur les batteries d'ordinateurs du centre informatique. Il ne restait plus aux abonnés qu'à choisir le (ou les) thèmes : Bourse, Bosnie, économie, météo, tourisme, arts, etc.[42]. Sports-on-demand offrait, sport par sport, les matches de la journée ou de la semaine ou, si l'abonné le désirait, les entretiens avec sa vedette préférée, l'affichage de photographies ou d'informations en vidéotexte. La chaîne NBC Sports envisageait d'offrir aux téléspectateurs l'équivalent d'une régie à domicile. Suivre tel joueur plutôt qu'un autre, voir le match en surplomb ou derrière les filets de l'équipe adverse, revoir des séquences passées, déclencher un ralenti... Très logiquement, la télévision numérique offre un accès à des univers simulés simplifiés, expression plus nette encore de la formule spect-actrice en gestation. Toujours sur FSN, Shoppervision, centre de télé-achat virtuel, exhibait ses galeries tridimensionnelles. On pénétrait dans les boutiques, on consultait des catalogues, on manipulait des objets pour les observer sous toutes leurs coutures. Mais, retour au réel oblige, tout cela finissait par un bon de commande sur lequel la frappe d'un code d'identification réalisait l'achat et déclenchait la future livraison à domicile. Mais la maîtrise technique ne décide pas de tout, loin s'en faut. Le marketing, les réactions des publics ainsi que la maturation d'autres solutions techniques[43] détermineront les rythmes de mise en service de ces innovations (L'abandon, par exemple, de l'expérience FSN montre que rien n'est encore vraiment stabilisé dans ce domaine). En recul en Floride, la télévision interactive a refait surface à Hongkong où l'opérateur de téléphone Hongkong Telecom lançait, à l'automne 1997 et après trois années d'expérimentation, de véritables services de télévision interactive[44] tels que vidéo à la demande (plus de cent films dès l'ouverture), télé-achat (six mille produits) puis, progressivement, programmes éducatifs et connexion à Internet. Enfin, prolongement logique, la publicité interactive s'apprête à offrir ses écrans sur les chaînes numériques câblées[45], non sans illustrer immédiatement la contradiction fondamentale qui oppose média de flux et réception à la demande ; en effet si un spot est retenu, son exploration interactive mordra sur les autres messages publicitaires qui lui succèdent, au grand dam des responsables des régies. Télévision et multimédia en ligne Quelles qu'en soient les formes, la convergence entre l'univers de la télévision et celui du multimédia en ligne est une orientation majeure que la plupart des industries de ces secteurs concrétisent à leur manière. En France, les opérateurs de chaînes par satellite proposent, pour les uns, des chaînes interactives de jeu ou d'opérations bancaires et, pour les autres, la consultation de sites Web avec hauts débits via le satellite pour l'arrivée et téléphone pour le départ. Symétriquement, France Télécom étudie différents moyens d'acheminer de la vidéo de bonne qualité sur les écrans des ordinateurs. L'opérateur national développe des canaux multimédias à grande vitesse et des accès rapides à Internet. Des modem-câbles sont proposés qui devraient permettre d'afficher des séquences vidéos sur Internet de qualité similaire à celle de la télévision.

Alors que les réseaux télévisuels tentent de conquérir l'interactivité des réseaux numériques, ceux-ci convoitent, à l'inverse, de devenir l'un des supports de télédiffusion. Sous la pression des push technologies, des chaînes multimédias spécialisées, et à diffusion permanente, apparaissent sur Internet. Il s'agit bien, dans la logique des médias de flux, de "pousser" l'information vers l'utilisateur et non de "tirer" celui-ci vers l'information, comme dans la navigation classique. Bref, entre chaînes de télévision, câblées ou par satellites, services sur le Web et opérateurs du téléphone des alliances mouvantes se trament. De nouveaux alliages temporels entre réception de flux et navigation interactive apparaissent, dont il nous appartiendra d'évaluer, ultérieurement, la nature. L'interactivité est l'une des principales directions visées. Depuis le mois de mars 1997, suivre une course de Formule 1 sur CanalSatellite revient à sélectionner, avec la télécommande, six canaux diffusant simultanément la tête de la course, le pilotage (grâce à des caméras embarquées dans le cockpit) ou encore l'activité dans les stands. On ne regarde plus la transmission de l'épreuve, on prélève -par un zapping permanent- un reportage personnel. Avec l'ajout de reportages sur les pilotes et les écuries, le zapping s'approche un peu plus de la navigation dans un hypermédia (CD-Rom ou Web). Dans la même perspective, signalons que la nouvelle génération de supports numériques (DVD-Rom) incite des réalisateurs à inclure, dès la conception du film, la possibilité de choisir un angle de prise de vue ou d'influer sur le déroulement d'une intrigue. Ce support, démultipliant la quantité d'information inscrite sur le disque[46], pousse déjà les éditeurs à offrir, outre des films d'une très grande qualité visuelle et sonore, une navigation pour visionner des interviews des acteurs, des "making of" du film, voire des séquences non montées dans le film original, de même que des prises non retenues ou encore des fins différentes de la version connue. Les abonnés à la chaîne C:, diffusée jusqu'en 1998 sur CanalSatellite, ont pu télécharger des logiciels sur leur ordinateur (jeux, logiciels en promotion, etc.) et recevoir des véritables magazines multimédias en liaison avec les émissions vidéo diffusées sur la chaîne (sciencefiction, BD par exemple)[47]. Apparaît une nouvelle forme de télévision à deux couches en quelque sorte. La couche multimédia fait office de fenêtre approfondissant le sujet de l'émission. Un concert, par exemple, est accompagné, sur le supplément multimédia, d'une discographie, d'articles de presse ou d'extraits d'autres enregistrements. Cette évolution affecte aussi la radiodiffusion. Ainsi, la programmation, totalement numérisée, de la nouvelle station de Radio-France -Le Mouv'- est d'emblée conçue pour être déclinée en ligne sur Internet. Outre l'écoute directe sur le site, la sélection possible des textes des chansons tout comme l'affichage des jaquettes des disques ou la sélection des reportages récemment diffusés transforment la station en chaîne multimédia, que seule la spécificité musicale marque comme station de radio. Des liens hypermédias permettent de parcourir la base de données, constamment alimentée par les nouveaux reportages effectués, et donnent accès, selon les thèmes retenus, à des sites extérieurs. Enfin, un forum de discussion rassemble les auditeurs et les animateurs de la chaîne. Il n'est pas jusqu'à l'existence d'une Web- cam (caméra vidéo installée en permanence dans le studio) qui ne permette à l'auditeurInternaute curieux de s'introduire à tout moment dans les locaux de la station. Enfin, dernier, et non des moindres, exemple, la nouvelle chaîne multimédia audiovisuelle éditée, en 1997, par CNN (CNN Custom-News), approfondit le Webcasting dans des proportions inégalées. L'abonné commence par répondre à une centaine de questions portant

sur ses domaines de prédilection et, dans chacun de ces domaines, il peut préciser jusqu'au détail ses préoccupations. La chaîne est bien sûr alimentée par l'énorme fond documentaire de CNN. Elle est aussi reliée aux principales agences de presse, à quelques grands titres de la presse quotidienne et à une quarantaine de magazines thématiques (des sciences et techniques à la chasse en passant par l'alpinisme et l'arboriculture). Balayant ces gigantesques sources documentaires, la chaîne affiche un journal personnalisé qu'il est encore possible d'affiner en indiquant quelques mots clés supplémentaires. Ce journal multimédia combine textes, courtes vidéos et séquences sonores. Alors qu'il consulte son journal, l'abonné voit défiler, en bas de page, des nouvelles fraîches, "poussées" sur son écran, en rapport, avec ses centres d'intérêt. En octobre 1998, Reuter annonçait le lancement de NewsBreaker, chaîne multimédia à destination aussi bien des opérateurs de chaînes de télévision que des particuliers via Internet. Netscape et Microsoft[48] ne sont pas en reste, qui proposent dans les dernières versions de leurs navigateurs, des abonnements à des bouquets de chaînes. Même si, dans un premier temps tout au moins, ce sont les entreprises, via les réseaux Intranet, qui formeront la clientèle principale des technologies push, une extension progressive aux particuliers semble, à terme, probable. D'autant que les nouvelles générations de langage de conception de site (X.M.L.) succédant à H.T.M.L., renforceront la liberté de mise en forme des pages reçues, et permettront d'y insérer des informations élaborées par l'internaute lui-même. Ces évolutions, que nous aurons l'occasion de retrouver pour en apprécier les formes temporelles inédites, montrent assez clairement, que le média télévision (comme la radio) est en redéfinition sous la pression des réseaux numériques. Cela ne signifie pas qu'il va être absorbé dans les réseaux numériques et perdre toutes ses spécificités, notamment sa valeur "cultuelle" (rassemblement autour d'événements phares assurant une participation sociale commune). Mais son unité technologique est en passe de se fractionner et ses modes d'usages en seront sans aucun doute redessinés[49]. D - Vers l'expérimentation de l'information Balbutiements d'expérimentation politique Dans la dernière campagne présidentielle américaine, de multiples observateurs ont souligné l'importance nouvelle d'Internet. Certes, l'usage du réseau ne fait que translater, pour une part, des formes antérieures de propagande (spots télévisés, etc.). Sur les sites ouverts par les deux concurrents, la défense et l'illustration des programmes respectifs ont redoublé les classiques moyens de propagande. Interroger les candidats et recevoir des réponses circonstanciées relève déjà d'une circulation d'information moins unilatéralement polarisée. Mais l'éclosion de multiples sites accueillant des forums de discussions transversales entre citoyens signe l'émergence d'autres modalités de participation[50]. Le média devient lui-même un terrain d'affrontement entre les militants qui créent des sites et rivalisent d'ingéniosité pour afficher leurs convictions, pourfendre les idées adverses et convaincre les hésitants. Il n'est certes pas anodin, c'est le moins que l'on puisse dire, que ces demandes d'information, contacts et confrontation se déroulent sans déplacements physiques. Baigné dans l'atmosphère éthérée du cyberespace, un conseiller spécial de Clinton tire de cette économie de mobilité, des conclusions radieuses : "En plus, tout le monde, où qu'il soit, peut les obtenir [les brochures, tracts et lettres] sans aller à une réunion électorale ou passer au siège de la campagne. L'Internet a créé un nouvel espace de débat politique, et il permet d'amener à la politique des gens qui ne s'y intéressaient pas par le passé..."[51]. Fortes de cette nouvelle démonstration, les idées -anciennes- de référendum gouvernemental électronique refont surface.

Faut-il en conclure que l'ère des grands rassemblements qui font vibrer à l'unisson des milliers de supporters, est terminée ? Rien n'est moins sûr. Mais désormais l'argumentation dans la controverse politique se voit renforcée grâce aux médias qui facilitent les relations personnalisées, la discussion publique et les initiatives locales. Et, dans de multiples domaines de la vie sociale, ce goût renforcé pour une expérimentation directe des propositions, pour des liens moins hiérarchiques est sans doute l'une des principales raisons du succès d'Internet. D'ailleurs, on voit se multiplier des extrapolations, où les formes même de la vie politique serait redéfinies par Internet, et précisément par ses modes internes de gouvernement[52]. (Nous aurons l'occasion d'approfondir ces questions dans le chapitre suivant qui traite plus spécifiquement d'Internet comme modèle politique). Nous n'avons pas encore d'exemples frappants de simulations de scénarios politiques proposées au grand public. Parions que ceci ne saurait tarder. Trois sources d'activités peuvent venir donner chair à cette perspective : les simulations stratégiques militaires, les jeux de gouvernement (dans la lignée de Sim City) et les jeux vidéo[53]. La "pulsion" expérimentatrice s'exprime, bien entendu dans d'autres sphères que l'information politique, et notamment dans le domaine judiciaire. Les tribunaux, aux états-Unis, par exemple, ont de plus en plus fréquemment recours à des simulations en images de synthèse tendant à démontrer, par exemple, l'inanité d'une légitime défense invoquée par la Police alors que la victime, à terre, avait déjà été atteinte. Une autre reconstitution virtuelle a prouvé qu'un accident de circulation ne pouvait qu'impliquer la responsabilité du conducteur. La modification interactive des paramètres de vision des scènes (vue subjective, déplacement de point de vue, etc.) assure une confrontation concrète des thèses opposant les parties. Le développement d'une véritable industrie de la preuve expérimentale par reconstruction simulée -une cinquantaine d'entreprises s'y sont déjà spécialisées[54]- est d'autant plus remarquable qu'elle est souvent sollicitée par les procureurs eux-mêmes. Ces développements sont loin de convaincre systématiquement les jurys, mais parfois ils jouent un rôle de premier plan. Ils posent, bien entendu quantité de problèmes (notamment financiers et d'égalité face à la loi), mais le dynamisme du marché de "l'animation judiciaire" peut nous persuader que la démarche expérimentatrice est dans l'air du temps. La création de sites Web ou l'édition de CD-Rom, à l'occasion de grandes affaires judiciaires, bien que de nature plus informative, le confirme. "L'affaire Simpson" Le traitement télévisuel des affaires judiciaires de moeurs exercent, on le sait, un attrait considérable aux États-Unis. Sur ce terreau fertile, l'expérimentation de l'information commence à investir les supports adaptés à ses logiques. La reconstitution du procès relatif à "l'affaire Simpson" a considérablement accéléré le processus. CNN a édité, fin 1994, un CDRom édifiant[55]. A coup de clic, on chemine dans des vidéos montrant l'état sanglant des lieux découverts après le meurtre. S'y bousculent la foule, la police. Deux clics sur le dossier "L'arrestation", et s'affiche la course poursuite sur les autoroutes de Los Angeles. On peut aussi écouter une ancienne bande audio où la femme du footballeur, terrorisée, appelle les urgences policières. Le spect-acteur poursuit son exploration entrant dans les méandres de la procédure, examinant, par exemple, les réponses des experts aux questions juridiques posées. Les abonnés à Compuserve pouvaient aller chercher directement les documents publics de l'affaire sur des bases de données : photos officielles, dessins des médecins légistes incluant les traces de coups de poignard ainsi que le texte intégral des comptes rendus du procès. Des conversations directes avec des experts leur étaient proposées. Sur America On Line, l'autre

grand service d'informations en ligne, on trouvait aussi les questionnaires que les jurés avaient dû remplir, portant sur la connaissance qu'ils avaient de l'affaire, préalablement à leur nomination. On pouvait aussi accéder à des banques de données juridiques ou participer à des groupes de discussions. Des clips audio des moments forts du procès (témoignages, plaidoiries, réquisitoires) étaient disponibles ainsi que, à la demande, des pièces du dossier telles qu'une photographie du visage tuméfié de la victime après l'une de ses confrontations musclées avec son mari. Hors services privatifs, de nombreux groupes de discussions ont vu le jour, et la controverse y a battu son plein, spécialement autour de la fameuse question du supposé parti pris raciste des enquêteurs. épreuves érotiques Demeurons dans l'aire "sulfureuse" en élargissant le champ de l'épreuve interactive aux CDRom pornographiques. On constate que, fatalement, ce marché est soumis à une pression innovatrice pour la mise au point d'interfaces idoines. Les CD-Rom érotiques deviennent une plate-forme d'essai pour des interfaces et des scénographies beaucoup plus "impliquantes" que la simple navigation dans des images ou des séquences vidéos. Exploitant la dimension naturellement interactive de l'échange langagier, des ingénieurs spécialisés en Intelligence Artificielle, ont adapté un logiciel pour converser librement avec une créature à l'écran, l'interroger et lui donner des ordres (dont on devine la teneur). Des concepteurs américains préparent d'autres jeux roses très interactifs, et, pour ce faire, conçoivent des interfaces adaptées : bracelets qui permettent de diriger les mouvements des belles virtuelles, bagues fixées sur le doigt dirigeant une main modélisée qui parcourt l'image à volonté[56]. Et des prothèses encore plus proches des organes sexuels sont à l'étude, comme des sexes virtuels clonés à distance, conçus selon la logique des systèmes à retour d'efforts expérimentés dans les applications d'arrimage moléculaire en Réalité Virtuelle, par exemple. Nul étonnement à ce que l'activité sexuelle soit l'objet de recherches visant la présence à distance. Le cybersex, ici aussi, prolonge les formes antérieures de transports sexuels (contes, récits littéraires, bandes dessinées, photographies, films, communications téléphoniques, Minitel rose, images de synthèse interactives, et, à terme, Réalité Virtuelle en réseau). Que le fantasme puisse être considéré comme une" technologie" érotique ne surprendra personne. Mais faut-il conserver les guillemets à "technologie" ? On peut aussi appréhender le fantasme, ainsi que le souvenir ou encore l'imagination comme des technologies de mise à distance et de transport qui empruntent les voies tressées du langage et du souvenir perceptif inscrit. (Revivre le passé, c'est le redéfinir : toute remémoration est aussi une interprétation actuelle). On pourrait d'ailleurs construire une histoire des transports sexuels à distance, échelonnée sur chacun de ces supports (contes, films, etc.) et qui distinguerait les modes de sollicitation fantasmatique dans leurs rapports aux différents types d'inscriptions et à leur mise en jeu fantasmatique. La production "multisupport" Développée notamment par l'INA, la production multisupport brise la finitude de l'émission de télévision. À terme, le téléspectateur pourra accéder, au delà de l'émission diffusée, à la production "grise", c'est-à-dire à l'ensemble des rushes, archives et images associées, dont une infime partie seulement est diffusée, faute de temps, à l'antenne. Bref l'équivalent "audiovisuel" de la consultation de l'environnement documentaire dans la presse en ligne (dossiers, rapports, publications qui "entourent" l'article publié dans le titre papier et devienne accessibles dans l'édition électronique). Ainsi Bernard Stiegler, directeur du département

Innovation à l'INA explique : "Si nous avons dix heures d'interview de Nathalie Sarraute, par exemple, pourquoi ne pas les proposer aux téléspectateurs intéressés ? Une bonne partie pourrait être mise en ligne en accompagnement de l'émission de 45 minutes, en organisant pour cela une navigation documentaire. Lors de la présentation du programme sur une banque d'images, un indicateur pourra signaler que, derrière telle séquence, un sujet plus long est disponible, qui lui-même renvoie à un ensemble de documents"[57]. Dès la phase de production, l'objectif n'est plus de produire des émissions mais des ressources documentaires déclinables dans plusieurs directions : films, CD-Rom, banque d'images, etc.[58]. Il s'agit là d'une réorientation majeure pour les auteurs qui devront, non plus sélectionner des matériaux pour servir un propos unique dans un format délimité (le fameux 52 minutes, par exemple), mais construire des scripts exploitant les ressources documentaires rassemblées, grâce aux logiciels idoines disponibles. (On peut se demander, sur ce point, si la "patte" d'un réalisateur, parviendra aussi bien à s'imprimer dans ce nouveau système de contraintes : un excellent auteur de films peut se révéler un piètre concepteur de CD-Rom. Miser sur "l'auteur collectif" est peut-être, de ce point de vue, un raccourci trompeur. Mais sans doute aussi faut-il imaginer une redistribution plus collective du travail dans un tel cadre, tirant profit des compétences de chacun). Évidemment dispositions inédites, aussi, pour le téléspect-acteur qui passera d'un régime réglé sur le flux linéaire temporel à une proposition d'exploration en profondeur rejoignant celle qui s'impose avec les hypermédias (CD-Rom et sites Internet). Plus radicalement encore, il est envisagé qu'à terme, le public puisse avoir accès aux outils utilisés par les auteurs afin de fabriquer d'autres programmes hypermédias avec le stock de matériaux rassemblé par l'équipe initiatrice. Le partage, même inégal, des outils logiciels entre professionnels et amateurs avertis[59] est, en effet, source de remaniements profonds dans la structure des rapports auteurs/public et l'expérimentation de l'information trouverait, avec ces propositions, un large espace d'expansion. Le cadre scénographique de l'image actée L'expérience interactive s'impose comme scénographie hors de l'aire strictement informative. Et c'est bien cette structure d'appropriation largement diffusée dans les champs narratif, ludique, éducatif ou... érotique qui se répand aujourd'hui dans les domaines de l'information socio-politique et culturelle. À cet égard, les jeux vidéos ont servis de plate-forme expérimentale diffusant, auprès de dizaines de millions d'adeptes, les composantes élémentaires de la culture de l'image actée. Aujourd'hui apparaissent des propositions qui signent une radicalisation de cette scénographie de l'interaction. L'exemple du jeu Pod illustre parfaitement cette évolution. Pod est, au départ, un jeu de course automobile d'un réalisme surprenant déployant l'arsenal du décorum des circuits (seize circuits évoquant les univers de Blade Runner, Mad Max, etc.) et multipliant les degrés de réglage des engins (accélération, adhérence, braquage, etc.). Les voitures concurrentes sont dotées d'une "intelligence propre" de la course assez évoluée. Mais l'innovation fondamentale réside ailleurs. Un forum sur Internet, permet aux "mordus" de concevoir de nouveaux circuits dans lesquels ils peuvent inviter des concurrents. Gagner la course n'est plus alors l'unique objectif. S'éloigner du circuit et visiter les paysages présente, pour certains, autant d'intérêt. De nouveaux véhicules peuvent aussi être fabriqués avec des caractéristiques techniques propres. Et finalement, bouclant le circuit, les créateurs de Pod vont concevoir les nouvelles versions du jeu en s'inspirant de l'imagination des adeptes du site. Ainsi, on est passé, par touches successives, d'un jeu vidéo à une expérimentation collective d'un cadre scénographique, où les participants sont à la fois acteurs de leur spectacle et spectateurs de leurs actes. E - Une expérimentation véridique, sans mise en scène ?

Le spectacte est-il à l'abri du soupçon ? Doit-on lui reconnaître une meilleure aptitude à convoyer la vérité grâce à son expérimentabilité ? Peut-on considérer que l'ingénierie interactive serait, par nature, plus véridique, qu'elle approcherait de plus près l'événement qu'une narration ou un reportage filmé ; bref, qu'elle ne recèlerait aucune mise en scène ? Non, elle est tout simplement plus adéquate à l'esprit du temps, expérimentateur en diable. Évitons de distiller l'illusion qu'avec ces formules d'expérimentation, on parviendrait à une présence directe -im-médiate- dans la vie réelle, et que la séparation entre l'information et l'événement serait abolie. Dissipons toute croyance en la possibilité d'une expression directe de la réalité, qui, sans médiations, sans travail de construction, viendrait s'inscrire, transparente, sur l'écran des ordinateurs. Gardons-nous des mirages objectivistes qui assimileraient vérité et expérimentabilité, authenticité et réalisme des doubles, exactitude et similarité des représentants. L'expérimentation virtuelle est aussi une médiation, la présence à distance demeure une scénographie, l'interactivité se joue dans un théâtre. Mais ces formes obéissent à de nouvelles distributions de rôles ainsi qu'à des systèmes de valorisation inédits. Ce qui diffère dans le nouveau régime de légitimation de la croyance, ce n'est pas qu'il serait plus "réaliste" que l'ancien mais qu'il est construit selon des procédures plus homogènes aux exigences de l'incarnation croissante et à l'espérance d'une élaboration individuelle d'un point de vue. Mais cette construction individuelle recèle des limites. Nouveau régime de vérité et de légitimation "relativiste" Si elle devient plus charnelle, plus expérimentable, l'information sera moins indicielle, plus construite. On n'expérimente que ce qui a été modélisé de manière pertinente. L'événement est mis en maquettes, articulé en rhétoriques cohérentes. Le processus informationnel sera l'aboutissement d'une épreuve publique de légitimité (au sens où la légitimité scientifique s'acquiert à travers la confrontation publique des hypothèses). Ces modèles sont-ils de fidèles représentants ? Où se situent leurs limites, leurs points aveugles ? La modélisation est, dans le domaine de l'ingénierie, une épreuve opérationnelle, et dans le domaine social une épreuve herméneutique. Quels partis pris le CD Rom modélisant le procès Simpson aux États-Unis exprime-t-il ? Sur quelles ignorances est-il édifié ? Quelles interprétations juridiques sontelles à sa source ? Ces questions affleurent obligatoirement dès lors que l'interrogation et les choix de circulation sont délégués à l'interactant. Curieux procès, c'est le cas de le dire, de légitimitation. On renvoie au public le soin de choisir ses présupposés : un procès pour les Blancs, un autre pour les Noirs. La formation d'une légitimité, l'émergence d'un point de vue, apparaît comme la mise à l'épreuve d'un ensemble d'a priori. Fonction miroir de l'expérimentation : en cela elle n'est ni plus véridique, ni moins, que la preuve télévisuelle, qui, elle, fonctionne selon la formule "cru parce que vu" et, précisément cru parce que tout le monde, y compris les experts, peut voir. La maxime émergente "cru parce que expérimentable" pose des problèmes bien plus complexes. Elle altère, par constitution, l'idée d'une vérité unique et engendre, le plus naturellement du monde, la relativisation de toute démonstration, de tout jugement. Ce qui est essentiel, c'est le mouvement de consolidation réciproque entre progrès dans l'incarnation tangible des représentants et fondation culturelle de la vérité sur l'expérimentabilité. La figure du réalisme aurait ainsi changé de costume : d'une facture essentiellement liée à la capture visuelle, elle est en passe de se lier au test pratique. Et la représentation virtuelle numérique permet, à la différence du spectacle audiovisuel plat et

plein, d'inclure dans le spectacte, une multiplicité de vues, éventuellement contradictoires. À charge pour le spect-acteur de choisir, l'angle (ou les angles) d'éclairage qui lui convient. Transfert de source de légitimité, de l'émetteur vers le récepteur, telle serait la mission, ou le fantasme de la présentation virtuelle. Et l'on perçoit immédiatement certaines apories qui en découlent. Le récepteur peut-il devenir la seule source de légitimation des informations et de leurs mises en récits ? Évidemment pas. Le paradigme de l'expérimentation n'affirme pas l'extinction des foyers qui surplombent l'acteur individuel et irradient les normes sociales, foyers à travers lesquels l'expérience est à la fois vécue et construite. La référence au groupe n'a pas disparu dans ces jeux expérimentaux, elle s'est simplement assouplie, libérant des espaces de parcours singuliers. On ne saurait substituer une caricature à une autre en échangeant le modèle hétéronome des massmedia supposés conditionner le social avec celui de l'expérience, laquelle assurerait la parfaite autonomie d'une subjectivité individuelle. Il faut, en revanche, prendre la mesure de la mise en critique généralisée et du relativisme que le dispositif expérimentateur du spectacte véhicule et induit à la fois. Vouloir croire : la fonction "communautaire" vaccine-t-elle la télévision contre la crise de confiance ? Pour caractériser la crise du régime classique d'adhésion, j'ai surtout insisté sur l'affaiblissement du pacte visuel, le vacillement du régime de vérité fondé sur le "voir pour croire". Deux aspects de la question méritent une discussion : l'accompagnement langagier de l'image télévisuelle et surtout le sentiment communautaire, qu'on peut aussi appeler la valeur "cultuelle" de la télévision. En effet, l'image télévisuelle apparaît rarement isolément. Elle est mise en scène par un discours, un commentaire omniprésent qui cadre, définit, contextualise les images montrées. Le régime de croyance propre à la télévision serait donc non pas "croire ce qu'on voit" mais "croire ce que le commentaire fait voir ". C'est un fait universel, le cadrage langagier ne contraint pas mécaniquement la signification. Par ailleurs, lorsque le sujet est brûlant, le commentaire se heurte -et ceci, depuis toujours- aux horizons d'attente basés sur les convictions et engagements préalables des publics. Outre ces données générales, l'activité discursive est majorée dans le contexte actuel de la crise de confiance, dans la mesure où elle doit vaincre en permanence le sentiment partagé que "les médias nous trompent". D'où une surcharge souvent pénible, -un appareil de persuasion redondant- qui tente désespérément de rattraper le déficit d'adhésion et qui participe finalement à notre désaffection[60]. Venons-en maintenant à la valeur cultuelle de la télévision, soit encore sa fonction de lien social. Cette question ouvre à une discussion plus complexe. Le sentiment que des millions de personnes sont rassemblés dans une même vision à distance leste l'événement télévisuel d'un crédit incontestable. Croire c'est aussi faire partie d'une communauté, avant d'être un exercice intellectuel. L'adhésion procède d'un mouvement volontaire, ou plutôt nécessaire : "entrer dans l'orchestre" comme le dit Daniel Bougnoux. Appartenir à une communauté, serait-ce une communauté séparée comme celle des téléspectateurs, engage, selon de toutes autres modalités (l'intérêt, le maintien des liens,...), qu'une opération raisonnée dissèquant la validité d'une proposition. La dimension cultuelle, religieuse de la télévision, au sens propre du terme, la prémunirait-elle donc de l'altération "fiduciaire", au sens de la perte confiance dans la "monnaie" du visible ? Et la formule émergente "cru parce que expérimentable" demeure-telle valide dans ce contexte de l'adhésion engagée ? Je le pense, pour l'essentiel. S'il est vrai que la fonction communautaire assure pour une grande part la pérennité du modèle massmedia -et la réception simultanée a donc encore de beaux jours devant elle- cette

fonction n'est pas à l'abri des transformations en cours. J'ai le sentiment que cette fonction communautaire joue plus sur la dimension narrative -le besoin que l'on nous raconte les mêmes histoires- que sur un plan informatif ou cognitif : croire les experts ou les médiateurs patentés. C'est plutôt cette deuxième opération qui est taraudée par le désir d'expérimentation. Et la force de cette option, c'est qu'elle assure un compromis acceptable entre une participation intime -par l'entremise de modèles- et un risque limité, c'est-à-dire un engagement protégé par la distance. Mon hypothèse ne conclut d'ailleurs ni à la disparition future de la télévision, ni à celle du "grand public", mais à l'effritement de son pouvoir référentiel et persuasif au profit d'autres régimes de croyance appuyés sur les pragmatiques socio-techniques de l'expérimentation. Par ailleurs, la fonction cultuelle est à la source de controverses sur les rapports média de masse/espace public. En effet, au moment où se multiplient les signes annonciateurs d'une baisse de régime "fiduciaire" des massmedia, se font jour des évaluations quelque peu nostalgiques. Elles suggèrent que les massmedia, comme forme, sont peut-être inséparables de l'idée de démocratie (c'est le point de vue, par exemple, de Dominique Wolton[61]). Dans cette perspective, en ces temps de rigueur individualiste, le grand public serait plutôt une réserve de liens sociaux à protéger qu'une survivance totalitaire à dissiper. Comment en effet penser un espace public qui ne serait plus construit selon le modèle de la pyramide ? D'où viendraient les références communes à l'expérience, les normes réglant l'échange ? Ceux qui partent en guerre contre les formes diffractées de l'espace public -telles qu'Internet- défendent, je crois, une conception rigide et archaïque de l'espace public. Présupposant un lien consubstantiel entre média de masse et démocratie, ils restreignent la crise de la démocratie représentative à ses aspects régressifs (le Monicagate, par exemple), oubliant que même à travers cet épisode scabreux se manifeste une véritable recherche de rapports latéraux, non ou anti- étatiques. Ils ramènent les modalités actuellement encore dominantes de la médiation, à des formes absolues et veillent jalousement sur le monopole professionnel dont ces formes jouissent encore et que certains usages d'Internet, notamment, menacent (ce qui -on s'en expliquera- ne signifie pas un épuisement de la médiation comme principe). Demeure la question des formes de l'espace public que dessineraient les scénographies hybrides mêlant simulation, réception directe, accès à des banques de données et échanges latéraux. Qu'induiront ces nouveaux cadres de réception/action ? Ils posent effectivement nombre de questions quant à la détermination de références communes dans l'échange social. Ne concluons pas trop vite à leur disparition, si tant est que ces références "transcendantes" qu'on croyait disparues ressurgissent souvent à travers le processus même qui les disperse. On doit même constater que ces processus sont inducteurs de relations spécifiques, y compris locales, à l'image des regroupements, associations, communautés nés de la fréquentation des réseaux. Ils sont aussi à l'origine de liens collectifs, comme l'automatisation de la médiation sur Internet, dont nous reparlerons. Ces processus définissent des normes communes, y compris morales, dans l'affrontement à l'État et aux groupes privés. Et l'on pourrait même aller jusqu'à considérer la présence à distance comme l'un de ces ciments collectifs. Ces nouvelles formes de lecture par navigation -qui s'opposent, par nature, aux logiques du l'instantanéité- enrichissent l'éventail des pratiques de communication. Elles réévaluent ce que signifie "s'approprier", rajeunissent la notion de durée. Et ce n'est pas la disponibilité

technique de ces nouvelles formes de lectures qui, par contagion d'usages, transformerait le "grand public" des massmedia en enquêteurs attentifs, recoupant les sources et testant des interprétations. C'est plutôt l'inverse qu'il faut considérer : l'émergence de ces dispositifs expérimentaux comme indice d'une redistribution des normes de croyance. Et finalement, pour évaluer ces conclusions, il conviendrait de les appliquer récursivement à elles-mêmes. Ce qui revient à observer dans quelle mesure elles peuvent servir à nourrir de nouvelles expérimentations de l'information modélisée. La tendance à l'incarnation des représentants est-elle d'origine technologique ? La formulation de notre question sur les fondements techniques du mouvement d'incarnation laisse effectivement entendre qu'il serait possible d'autonomiser le facteur technologique dans l'ensemble des déterminations à l'origine du phénomène. Laissons de côté, ici, une discussion sur la possibilité même d'isoler le technique du symbolique et admettons, sous réserve d'inventaire, cette hypothèse. Dans quelle mesure cette critique d'un déterminisme technologique pourrait-elle alors s'appliquer à notre hypothèse centrale postulant l'émergence d'un paradigme de l'expérimentabilité virtuelle comme nouveau régime de croyance ? Seraitce un mouvement technique -la réflexivité des programmes informatiques et la numérisation de l'information- qui provoquerait la déstabilisation de notre régime visuel de croyance[62] ? Ou, dit autrement, la tendance à l'augmentation de l'incarnation des représentants puise-t-elle son énergie dans la sphère de l'innovation technologique ? Notons d'abord que la vocation expérimentatrice n'est pas né avec les technologies numériques interactives. Ce désir a sous-tendu toutes les technologies de représentation : dessin, perspective, photographie, cinéma muet, parlant, etc. On peut en effet considérer que l'appétit pour l'expérimentation est déjà manifeste dans la production de représentants analogiques. Cette tendance s'est adossée à un mouvement social et culturel, en Grèce antique avec l'émergence de l'apparence comme question éthique et pratique. Elle s'est renouvelée et accentuée lors de la Renaissance (imprimerie, perspective), et a été décuplée par la révolution industrielle (photographie, enregistrement). On peut en effet lire l'histoire des techniques de représentation, au moins depuis le XIXe siècle, comme une quête de modèles sans cesse plus proches de la réalité référentielle, et pour cette raison plus ductiles. L'invention de la photographie a joué un rôle majeur dans cette accélération. L'enregistrement est, à cet égard, une rupture essentielle. Mais on ne saurait comprendre les intentions profondes -explicites et muettes- qui sont à la source de la photographie en ignorant la dimension proprement expérimentatrice de la perspective, de la lanterne magique ou encore de la géométrie descriptive, véritables technologies propices à inventer d'autres technologies, torpilles exploratrices lancées pour investir à la fois le monde et la perception humaine. La dimension représentative -imiter le monde- n'est que l'une des faces de ces exercices démiurgiques. L'autre réside dans leur fonction poïétique : l'émergence d'un univers inouï, totalement hétérogène à ce que l'expérience humaine avait conçu jusque-là. L'inscription visuelle permanente d'une co-présence passée dans la photographie en est un exemple type. La prise de vue photographique est d'emblée une prise de temps. Ce geste participe de l'autoconstruction d'un rapport au temps, où le passé peut être re-présenté. Il constitue aussi une expérience sociale princeps de l'automatisme et, depuis la fin du XIXe siècle, de l'instantanéité de l'enregistrement. Ainsi le mouvement d'expérimentation dans la production de représentants possède des dimensions tout à la fois corporelles, mentales et axiologiques : blocs de gestes, d'attitudes corporelles, de dispositions d'esprit, d'épreuves perceptives et de systèmes de valeur.

Ce serait donc plutôt une tendance techno-culturelle profonde, de nature anthropologique, qui serait à la source du mouvement d'incarnation croissante des représentants. "Techno-culturel" désigne ici une dynamique née, non pas directement dans la sphère de la production de biens matériels mais dans celle des activités scientifico-artistiques (la photographie ne se rattache pas directement à la lignée des machines énergétiques, ni le cinéma). Nous avons déjà tenté, dans le 1er chapitre, de montrer dans quel complexe de déterminations -langagières, scientifiques, imaginaires- il convient de situer la notion de présence à distance. Cette tendance constituerait même, répétons-le, un fondement anthropologique, si on considère que le mouvement de substitution et de transport de la présence à distance se confond avec le processus d'hominisation lui-même. De nouvelles distanciations La forme télévisuelle borne les limites de la tentative de faire se rejoindre le spectacle et la vie. Impliquant ce que, par abus de langage, on nomme le "temps réel"[63] (quasi-coïncidence de l'émission et de la réception), elle interdit un retour sur le message autre que mental. Et l'on connaît la difficulté d'un tel exercice. Que la télévision tente de mettre fin à la séparation entre spectateur et spectacle, c'est une chose mais qu'elle y parvienne, c'en est une autre. Et on a vu les apories de cette tentative. Il est courant d'entendre et de lire que les images électroniques sont indicielles, fascinantes, séductrices, charnelles, obsédantes, aveuglantes, hallucinantes et qu'elles tiennent de ce fait une place déterminante dans notre système politico-médiatique. Or, selon notre hypothèse, les images électroniques de télévision ne sont pas trop charnelles, mais plutôt insuffisamment. D'où le désenchantement qui commence à les assaillir. La forme moderne de spectacle que constitue la télévision incite à revisiter, sous l'éclairage de l'incarnation, des figures plus anciennes. Il est remarquable que dans la première livraison de la revue Les Cahiers de médiologie[64], intitulée : "La Querelle du spectacle", une proportion quasi majoritaire des articles prend, totalement ou partiellement, le théâtre comme référence du spectacle. Ce qui revient à considérer que la forme matricielle du spectacle est le spectacle vivant, plus précisément encore -car la danse ou le concert possèdent aussi cette qualité- le spectacle vivant parlant, la mise en scène des récits. La question de la séparation entre le spectacle et le spectateur est l'un des axes cardinaux des réflexions développées. De multiples exemples d'assauts livrés contre le clivage scène/salle, acteurs/spectateurs viennent illustrer la tendance à l'immersion dans le spectacle. Dans un article d'ouverture de la revue, Daniel Bougnoux[65] érige même la rampe, matérialisation de la séparation entre la scène et la salle, en symbole de la coupure sémiotique. Mettre la scène au milieu des spectateurs (Mnouchkine), faire le spectacle avec les spectateurs (Living Theater), transformer le spectacle en agitation politique (agit-prop), les formules n'ont pas manqué qui participent de cette volonté d'abroger la loi qui cloisonne physiquement l'espace fictionnel (rappelons que ces assouplissements scénographiques sont déjà présents dans le théâtre grec classique avec l'installation des choeurs qui représentaient les spectateurs dans le spectacle et signifiaient ainsi l'existence d'un ailleurs du récit, lieu permettant son interprétation et sa critique). Glissons une hypothèse. Ce serait le mouvement d'incarnation croissante dans le transport de la présence à distance qui fonde ce recours nostalgique à la coprésence charnelle hic et nunc. Curieusement, ce n'est pas la télévision, forme spectaculaire massive, qui est prise comme archétype, ni le cinéma. Avec le spectacle vivant, l'idée d'une parenthèse insérée dans le flux quotidien, un moment inédit et non reproductible de communion -spectateurs/acteurs et spectateurs/spectateurs- s'impose comme définition du spectacle pur. L'enregistrement, entraînant la reproductibilité audio-visuelle à l'identique (cinéma, télévision) souille cette co-présence, ce souvenir d'un événement original et

unique[66]. Prise d'empreinte d'un instant, par constitution, passé, l'enregistrement se situe à l'un des deux pôles opposés au spectacle vivant (l'autre est le spectacte). Photographie, toucher et co-présence La photographie a ceci de paradoxal que, dissociant la temporalité du partage de l'expérience, elle fonde néanmoins son "réalisme" sur une co-présence passée et constamment revivifiée. La nature de la certification réaliste propre à la photographie demande à être questionnée. Dans cette accréditation d'authenticité -la photographie comme inscription indubitable d'une co-présence passée- le contact et le toucher à distance jouent, on le verra un rôle central. Bernard Stiegler aborde ces questions dans La technique et le temps : "L'intentionnalité de la photographie est la Référence comme certitude que la chose photographiée a été"[67] et d'enchaîner sur Roland Barthes : "J'appelle 'référent photographique' non pas la chose facultativement réelle à quoi renvoie une image ou un signe, mais la chose nécessairement réelle qui a été placée devant l'objectif, faute de quoi il n'y aurait pas de photographie. La peinture, elle, peut feindre la réalité sans l'avoir vue"[68]. Nous décelons une hésitation dans cette certitude de réalisme. Et d'abord dans l'identification, qui semble aller de soi, entre réalité et réalité visuelle. La seule réalité dont peut se prévaloir le "référent photographique" est chevillée à la perception visuelle, c'est-à-dire au sentiment que voir équivaut à s'assurer de la réalité physique, tactile, sonore [...] de l'objet, même si on n'en fait pas l'expérience kinesthésique. La photographie engage une théorie prédictive qui opère par réduction phénoménologique de la sensorialité à la vision. Que cette équivalence fonctionne comme évidence en dit long sur le primat actuel de la vision sur tout autre vecteur perceptif. Roland Barthes : "dans la photographie, je ne puis jamais nier que la chose a été là. Il y a double position conjointe : de réalité et de passé"[69]. L'auto-conviction réaliste fonctionne, en fait, en parcourant une chaîne complexe d'accréditations successives. Au nombre desquelles il faut compter l'habitude que la vision d'un objet soit un gage de sa présence (habitude pourtant mise en défaut par les illusions optiques) ou l'accoutumance à ce qu'une photographie prise renvoie à une co-présence passée de l'objet, de l'image, du dispositif de capture et du sujet prenant le cliché, donc une mise en scène de l'acte de vision, ou encore, par exemple, la confirmation que la vision d'une photographie de quelqu'un qu'on ne connaît pas, puisse être un préalable à une rencontre ultérieure avec cette personne. Et la liste des accréditations pourrait être allongée. Le "nécessairement réelle" provient d'un consensus basé sur l'expérience (ayant partie liée avec le phénomène indiciel, de transfert d'existence par prise d'empreinte) et sur la réduction de la réalité à sa perception visuelle. D'ailleurs, pour appuyer sa démonstration, Barthes affirmera le caractère indiciel -toujours au sens de Charles S. Peirce- de la photographie : "D'un corps réel qui était là sont parties des radiations qui viennent me toucher, moi qui suis ici. Peu importe la durée de la transmission. La chose d'autrefois, par ses radiations immédiates (ses luminances), a réellement touché la surface qu'à son tour mon regard vient toucher"[70]. Le réalisme est adossé au toucher, un toucher différé qui transforme la photographie en médiateur de l'effet de la lumière, à distance de temps, mais un toucher sensible cependant[71]. La dissociation temporelle engage un trouble spatial, trouble que l'idée d'un contact matériel différé tente d'effacer. Inversement, d'ailleurs, une dissociation spatiale peut provoquer un trouble temporel. Bernard Stiegler rappelle ce que Proust écrit à propos du téléphone : "usant de cet appareil pour la première fois, il entendit la voix lointaine de sa grand-mère qui lui apparut déjà morte "[72]. La distance spatiale engendre une distance temporelle. Être écartelé, au même instant, entre

un ici et un là-bas, provoque une distorsion dans l'équivalence de l'ici et du maintenant, comme si la simultanéité dans la distance spatiale, ne pouvait s'opérer qu'au prix d'une déliaison temporelle, prenant, ici, la forme d'une distanciation : Proust entend son aïeule ici, mais la voit plus tard, la disjonction spatiale impliquant un dérèglement temporel. La "spectralité" de la photographie Dans un livre d'entretien ultérieur avec Jacques Derrida[73], Bernard Stiegler reprendra ce thème du toucher différé. Inspiré par Lévinas, Derrida souligne l'effet de réalité de la photographie en singularisant les cas où ce sont des visages qui nous adressent leur regard, comme "source d'une vue possible"[74]. Dans cet entretien, Jacques Derrida enchaîne une réponse qui constitue une voie d'entrée fondamentale sur la "spectralité" moderne. Derrida précise d'abord que le spectre, à la différence du revenant, "c'est toujours du visible [...]. Il se refuse à l'intuition à laquelle il se donne, il n'est pas tangible (marqué par nous)"[75]. Le phénomène de "hantise" est donc constitué par la privation du toucher, déliant ainsi la vision de la tactilité. Enchaînant sur la présence essentielle de la mort dans tout acte d'enregistrement (capture ou lecture) -comme prémonition de notre présence actuelle, appelée à disparaître- le philosophe affirmera clairement quelques pages plus loin : "On a l'impression, c'est un sentiment dont on a du mal à se défendre, qu'une substitution peut suppléer à tous les sens, sauf au toucher. Ce que je vois peut être remplacé. Ce que je touche, non, ou en tout cas on a le sentiment, illusoire ou non, que le toucher assure l'irremplaçabilité : donc la chose même dans son unicité"[76]. On comprend alors l'effort conjoint de Bernard Stiegler et de son interlocuteur pour fonder le réalisme photographique sur la tactilité. Contact à distance de temps, transfert photoénergétique de la surface de l'image enregistrée, rencontre différée du regard de l'autre, la perspective peircienne de l'indice est omniprésente[77]. Comme le suggère Derrida, "la technologie moderne [...] bien qu'elle soit scientifique, décuple le pouvoir des fantômes"[78]. Mais aujourd'hui le genre technologique "spectre", limité jusqu'ici à la prise d'empreinte, demande à être considérablement élargi[79]. Aux technologies d'enregistrement s'adjoignent progressivement, on le sait, les technologies de simulation et de télé-présence. Il s'en suit que de nouvelles générations de spectres font leur apparition. En premier lieu, on le sait, l'ingénierie informatique de simulation a engendré des représentations qui n'obéissent plus à la logique de l'enregistrement mais à celle de la modélisation. Image d'un présent perpétuellement rafraîchi, elles offrent un espace d'affirmation immédiate et ne restituent plus un ancien présent capturé. Ces présentations se sont progressivement dotées, non seulement des attributs de l'indicialité audiovisuelle (image et sons) mais aussi des caractéristiques physiques des objets et systèmes qu'elles simulent (déformation, chocs, etc.). Avec la Réalité Virtuelle, ce sont les formes de fréquentation de ces objets virtuels qui se sont enrichies de nouveaux vecteurs sensoriels grâce aux interfaces "haptiques" traduisant précisément la tactilité. Les systèmes à retour d'efforts concrétisent cette tendance au réalisme, non plus audiovisuel, mais kinesthésique. Le développement de la Téléprésence s'accompagne maintenant de protocoles dans lesquels nous sommes dédoublés par des "avatars" virtuels voyageant à notre place dans des univers de synthèse, ("avatars" que j'ai préféré dénommer spectagents, dans la mesure où ils allient la fluidité du spectre et le caractère actif du représentant traduisant la permanence de son alimentation humaine). Derrida affirme que le spectre ne se définit pas seulement comme phénomène visuel, mais par le fait que "nous nous sentons regardés, observés, surveillés,... nous sommes "devant la loi", sans symétrie possible, sans réciprocité..."[80]. Dans quelle mesure, pourrait-on se sentir épié

par ces spectagents, alors même que nous en réglons les actions ? Sans doute leur activation volontaire minore leur pouvoir de surveillance. Nous mesurons encore assez mal la nature de ces situations où un dédoublement, très imparfait, s'allie à la manifestation d'une certaine autonomie de ces créatures auxquelles nous insufflons notre énergie. Le spectacte, une nouvelle formule d'unicité de l'expérience À l'opposé du spectacle vivant et reformulant les conditions du partage spatio-temporel, les médias du spectacte recherchent -sans la trouver, en tous cas sous une forme identique- une nouvelle formule d'unicité de l'expérience. C'est bien ainsi qu'on peut approcher le concept d'interactivité dans ses tensions entre la création d'espaces de liberté et la manifestation des limites qui, constamment déplacées, s'imposent néanmoins dans tous les univers interactifs (nous retrouverons ces questions dans le chapitre consacré à l'interactivité). Que l'on souhaite un rapport aux modèles plus charnels, une implication plus effective, de multiples indices le montrent. Mais les massmedia ne fournissent plus les moyens d'un tel projet. À leur manière, ils ont fait croître le désir d'une relation plus intime avec la réalité, relation permettant de remonter la pente de l'entropie temporelle propre à l'enregistrement. C'est-à-dire de rejouer l'événement bien qu'il ait déjà eu lieu. Un nouveau système de représentation vient souvent tenir les promesses de ceux qui l'ont précédé, avons-nous déjà dit. La simulation interactive, par exemple, permet de faire l'épreuve de la troisième dimension, exercice que la perspective, en la limitant à une activité purement mentale, ne faisait que présager. Aujourd'hui, les médias numériques basés sur l'engagement expérimental (CD- - Rom, Web, etc.) viennent tenir les engagements chuchotés par les techniques d'enregistrement qui annonçaient déjà, mezza voce, la possibilité de rapports plus charnels avec l'événement. D'autres régimes temporels Il faut, en effet, aller chercher les moyens d'une épreuve incarnée là où ils se trouvent, c'est-àdire dans les techniques numériques de simulation fonctionnant selon un tout autre régime temporel que celui de l'enregistrement et de la diffusion instantanée. L'usage du concept de "temps réel" est source d'ambiguïté. On le sait, ce concept trouve sa source dans l'univers de l'informatique pour désigner des systèmes dont les temps de réponse sont contrôlés. Or il est devenu synonyme de simultanéité de l'émission et de la réception dans un tout autre univers, celui des médias audiovisuels classiques (radio, télévision). Dans le monde de l'informatique, en revanche la logique du temps différé retrouve ses lettres de noblesse, même s'il ne s'agit plus du temps différé de l'écriture mais d'un mixage d'instantanéité et de différemment. La Téléprésence par agents interposés ("avatars virtuels") ou l'usage d'Internet qui mêle navigation et abonnements à des chaînes multimédias spécialisées (push technologie) concrétisent ces hybrides temps différé/"temps réel". Traiter l'information dans des procédures interactives suppose des temps de latence et de retour sur les messages dont la structure en deux mouvements -écriture puis validation- propre au courrier électronique est un exemple. En symbolisant la temporalité dominante par la fabuleuse croissance du rythme auquel battent les horloges de nos ordinateurs, on isole une performance technique des conditions générales d'usage de l'informatique laquelle obéit à des logiques bien plus complexes (émancipation et dépendance des temps humains de traitement)[81]. L'épreuve de la subjectivité

Convoyer le monde sur l'écran numérique, ce n'est pas le contempler dans son salon. Il ne s'agit plus, alors, de spectacle -distancié ou englobant- mais de simulation. Et la simulation n'est plus de l'ordre du visible mais du méta-visible, c'est-à-dire d'activités mettant en scène le visible, mais aussi l'audible, le textuel, le gestuel (et finalement, avec les Réalités Virtuelles, la perception tactile). Bref, il ne s'agit plus de spectacle audiovisuel, mais de performance hyperstésique incluant le réglage et la modification du spectacle, indissolublement écriture et lecture, vision et mise en scène du regard, audition et écoute, mouvement et retour d'effort. On pourrait parler, au sens étymologique du mot cyber, d'un cyber-spectacle, spectacle partiellement gouverné par le spectateur. Milieu de vie, la nouvelle télévision ? Oui, au sens où tout média construit son milieu. Mais la crise de légitimité qui frappe désormais la télévision lui interdit cette perspective "englobante". Peut-elle être reprise à son compte par l'ordre virtuel ? Est-il en mesure de donner une nouvelle vigueur à cette logique d'enveloppement qu'une télévision affaiblie ne peut plus soutenir ? Le mouvement d'incarnation croissante des représentants véhicule communément le sentiment d'une confusion des registres réel/virtuel, spectacle/vie réelle, etc. Dans notre esprit, il ne s'agit pas, avec le spectacle, d'une dissolution des distinctions entre référent et représentation, de substitution du spectacle par la vie réelle mais d'une nouvelle scénographie culturelle, d'un désir d'une représentation active du monde plus adéquate aux exigences d'incarnation, car fondée sur l'expérimentabilité de celui-ci et non plus sur son enregistrement. Mais comment expérimenter un procès, une guerre, un conflit social ? Il y faut de bons modèles. Pas des copies passives, objectives et unilatérales. Mais des instruments qui intègrent l'expérimentabilté dans leurs principes constitutifs inséparablement techniques et psychologiques. L'ingénierie numérique, (hypermédias, réalités virtuelles, mise en réseau) -née dans et pour cet esprit- offre alors ses services pour imaginer les nouveaux alliages donnant forme au spectacte. À cet égard, le développement d'Internet fournit quelques indications intéressantes dans la mesure où il s'accompagne d'une perte de spécificité technologique des autres médias. Nous ne sous-entendons pas ici que la presse, la télévision, ou la radio n'ont d'autre destinée possible que être diffusées sur Internet ou sur les réseaux à plus hauts débits qui s'annoncent. Cette hypothèse exigerait de fines prévisions croisant les stratégies industrielles et les pratiques culturelles, et rien n'assure qu'elle puisse se vérifier. En revanche, il nous semble que l'accueil sur un même support de toutes les formes médiatiques existantes (et l'apparition de nouvelles) devrait favoriser la conception de programmes se donnant explicitement comme objectif une expérimentation informationnelle. De telles propositions, par exemple sur un conflit tel que celui qui s'est déroulé (et se poursuit) en ex-Yougoslavie, cumuleraient simulation stratégique et géopolitique, recherche automatisée d'information sur le Web, réception de journaux et de programmes audiovisuels thématiques personnalisés, animation de forums, etc. Mais ces propositions ne présupposent-elles pas d'expliciter des partis pris ? On voit mal, en effet, comment un tel investissement pourrait se justifier en dehors d'un certain engagement, aussi ténu soit-il. Ne faudrait-il pas rendre apparents les paramètres qui soustendent les modélisations proposées ? Et comment le faire sans tomber dans un relativisme dénué d'intérêt ? Des premières réalisations éclaireraient sans nul doute ces interrogations. De plus, et c'est une question essentielle, expérimenter par simulation sauvegarde la sécurité physique du spect-acteur. Souhaiter un rapport plus charnel à l'événement est une chose, devenir un acteur au sens plein du terme en est une autre. Et ici, il ne s'agit évidemment pas de cela. Le spectacte offre un engagement acceptable qui allie une mise à l'épreuve des certitudes avec la sauvegarde de l'intégrité personnelle (même si, sur un autre plan, une

participation engagée peut parallèlement s'accomplir). L'idéal d'objectivité, battu en brèche par la mise en spectacle de l'information, retrouverait alors une nouvelle jeunesse sous les auspices d'une subjectivité assumée, individuelle et collective, laquelle soumettrait ses inclinations à l'épreuve de l'expérience. [1] Régis Debray, à propos du spectacle, in Le débat, n° 85, Gallimard, Paris, p. 12. [2] Manifeste du surréalisme (premier manifeste-1924), Folio-Gallimard, 1985, p. 36. [3] Loc. cit., La proximité de ce que Breton appelle la "pensée parlée" avec la démarche psychanalytique de l'association libre est évidente. Dans le même texte, Breton rend explicitement grâce à Freud d'avoir rétabli le rêve comme "part considérable de l'activité psychique" (p. 21). [4] Le surréalisme et la peinture (1928), cité par lui-même dans Qu'est-ce que le surréalisme ?, Actual/Le temps qu'il fait, Paris/Cognac, 1986, p. 19. [5] Manifeste du surréalisme (premier manifeste-1924), Folio-Gallimard, 1985, p. 52. [6] Op. cit., p. 60. [7] On rappelle que pour Peirce un signe "indiciel" entretient un rapport de contiguïté physique avec le phénomène qui lui a donné naissance : la trace laissée par le pas dans la neige, par exemple. [8] On aurait affaire à un mécanisme représentationnel qui s'affirmerait en tant qu'il se nie. On pense ici au mouvement, décrit par Yves Barel dans La société du vide, (Le Seuil, Paris, 1984) d'installation implicite d'une transcendance par la recherche d'une autonomie la plus intègre possible. [9] Régis Debray, à propos du spectacle, in Le débat, n° 85, Gallimard, Paris, p. 3/15. [10] Philippe Breton, Sus au principe de séparation !, in Le Monde, 4/09/1996, p. 13. [11] Ainsi note-t-il : "...l'invention du codex aux IIe-IIIe siècles de notre ère, qui représente, du point de vue de la relation entre la forme du livre et le rapport à l'écrit, une révolution infiniment plus importante que celle de l'imprimerie. Avec le codex, ce sont, en effet, toutes les catégories et tous les gestes de la culture de l'écrit qui se trouvent redéfinis". Et il poursuit en notant que le concept de logosphère efface totalement cette mutation décisive dont le seul équivalent est (ou sera) le remplacement de la représentation imprimée du texte par sa représentation électronique. "Roger Chartier, Médiologie, sociologie des textes et histoire du livre, in Le Débat, n° 85, mai - août 1995, Gallimard, Paris, p. 21. Régis Debray convient d'ailleurs qu'un assouplissement de la tripartition des médiasphères s'impose pour tenir compte, par exemple, de la mnémosphère, régime de transmission oral des sociétés ignorant les systèmes d'inscription. De même admet-il que la vidéosphère, loin de traduire un régime stabilisé, ne s'avère constituer qu'une "courte phase de transition vers une numérosphère, un tout informatique à la fois plus stable et mieux articulé (entre l'écrit et le visuel notamment)". Chemin faisant, in Le Débat, n° 85, p. 56. [12] Roger Chartier, op. cit., p. 20.

[13] Régis Debray, Vie et mort de l'image, Gallimard, Paris, 1992, p. 376. [14] Régis Debray, L'État séducteur, Gallimard, Paris, 1993. [15] Sans qu'on puisse encore en tirer un argument décisif, il n'est pas sans intérêt de noter qu'une chute notable d'audience affecte l'information télévisée, aux États- Unis. Alors que 60% des Américains regardaient le traditionnel journal télévisé du soir en 1993, cette proportion est descendue à 42 % en 1996. Et les magazines d'informations connaissent une évolution semblable. La participation de la télévision à la construction de l'espace public ne se réduit pas, bien sûr, à l'information mais celle-ci n'en constitue pas moins un secteur stratégique. [16] Les pages 394 à 396, spécialement. [17] Régis Debray, Chemin faisant, in Le Débat, n° 85, p. 59. [18] Régis Debray, Vie et mort de l'image, Gallimard, Paris, 1992, p. 375. On pourrait ajouter nombre de prise de position du même auteur allant dans ce sens telle que la suivante, publiée dans un livre ultérieur : "Nous adhérons naturellement à ce qui nous parvient comme naturel (la vue sans prise de vues)....En vidéosphère, il n'y a pas de faux témoins". L'état séducteur, Gallimard, Paris, 1993, p. 128. [19] Op. cit., p. 378. [20] Roger Laufer, Mort ou résurrection de la médiologie ?, in Le Débat, n° 85, p. 37. [21] Daniel Schneidermann, L'état de méfiance in Le Monde, Radio - Télévision, 31 décembre 1995, p. 35. [22] Dans plusieurs passionnants articles, Edgar Roskis, montre comment se combinent logiques éditoriales et disponibilité technique pour redessiner la vérité visuelle dans la presse ou la télévision. Citons dans Le Monde diplomatique, Mascarades (décembre 1996), Mensonges du cinéma (novembre 1997) et La deuxième vie de l'image (avril 1998). [23] Ainsi, dans un livre d'anthologie, David King décrit par le menu les pratiques de falsifications photographiques du régime stalinien (The Commissar Vanishes, Metropolitan Books, New-York, 1997.) [24] Culte, dont des émissions comme "Les enfants de la Télévision" sur TF1 ou le feuilleton de Pierre Tchernia, "Notre télévision", sur France 2 durant l'été 1993, sont de bons exemples. [25] Daniel Schneidermann, loc.cit. [26] Libération, 9/12/98, p. 32. [27] La dimension cultuelle réfère au culte qui rassemble les fidèles et assure la participation dans l'ici-et-maintenant en référence à un ailleurs à la fois inaccessible (car intangible) et proche (culturellement)... comme précisément la télévision.

[28] Notons, cependant, qu'en 1998 pour la première fois, l'audience cumulée des trois grands networks américains (ABC, CBS et NBC) est passée sous la barre des 50 %, signant ainsi symboliquement l'entrée dans une nouvelle ère de fragmentation de la télévision. Mais il ne faudrait pas en tirer des conclusions hâtives quant à la poursuite de cet affaissement. [29] Tel est le sous-titre de Vie et mort de l'image, Gallimard, Paris, 1992 [30] Op. cit, p. 379. [31] Notre article "Images hybrides, virtualité et indicialité", (in Image & média sous la direction de Bernard Darras, MEI n°7, L'Harmattan, Paris, 1997, pp. 103/128) présente une analyse des principales applications dans ce domaine et les interroge selon l'hypothèse qu'un nouveau type d'indicialité trouve à s'y vérifier . [32] Le titre est provisoire. Le film devait initialement s'intituler Dans la cage de verre. [33] Ces informations proviennent de discussions avec Jean Ségura, journaliste spécialisé en imagerie informatique, ainsi que de l'article qu'il a publié dans Libération du 3/03/1997. [34] Hannah Arendt, Eichmann à Jérusalem, réédition Folio Histoire n°32. [35] Le studio Ex Machina s'est vu confier ces traitements raffinés. [36] Ainsi a-t-on appris qu'une enfant de huit ans, enlevée à l'âge de quatorze mois, avait été retrouvée au Porto Rico par un agent d'Interpol grâce à la consultation d'un site Web d'une association américaine d'enfants disparus, qui avait fait vieillir une photographie prise alors que l'enfant était encore au berceau. Ce travail complexe, impliquant notamment IBM, Sony et les services secrets, mobilise plusieurs techniques (ressemblance prédominante avec l'un des deux parents, recoupement et traitement de photographies d'enfance de la famille, etc.). [37] Interview dans Libération par Catherine Malaval, "Le docu ne crache pas dans le soap", 3 et 4 octobre 1998, p. 37. [38] Gérard Leblanc, Happy ending, in Esprit n° 1, janvier 1993, p. 48. [39] Jean-Claude Soulages, interview dans Le magazine de l'image et du son, INA, n° 8, nov. 1998, p. 21. [40] Le hors-champ, au cinéma, désigne ce qui sort du champ de la caméra et donc n'apparaît pas dans la scène filmée, même si des effets s'y manifestent. [41] Yves Eudes, Les mirages de la télévision interactive, in Le Monde diplomatique, janvier 1996, p. 17. [42] Autre avantage substantiel, FSN enregistrait, à la seconde près, les choix de chaque abonné. Plus besoin de mesure d'audience, de dresser des profils de consommateur-type, de peaufiner des statistiques sur les goûts des publics, sur les pratiques d'usages du média ; tout cela était capturé automatiquement par l'opérateur.

[43] La vidéo à la demande affichée sur écran d'ordinateur en réseau et mis à jour par satellite, est une solution étudiée, par exemple, par TF1 associé à Microsoft. [44] Ces services s'appuient sur de véritables avancées technologiques : compression numérique d'un ratio de 1 à 90, dizaines de milliers d'appels simultanés gérés selon la technologie ATM de transfert à large bande. Depuis octobre 1998, l'opérateur offre l'accès à NewsBreaker, la chaine multimédia d'informations à la demande de l'agence Reuter. [45] La publicité interactive semble être d'une exceptionnelle rentabilité, car elle concrétise l'efficacité du marketing direct : l'activation du message permet, en effet, de recueillir les coordonnées des personnes intéressées par le produit. En 1997, TPS et CanalSatellite ont déjà expérimenté des logiciels spécialisés et diffusés quelques spots interactifs. [46] Aujourd'hui un DVD-Rom stocke huit fois plus d'information qu'un CD-Rom, et ce rapport va, sans doute, lui-même doubler, et plus, dans les prochaines années. [47] Parallèlement C: offrait un accès à Internet avec réception par le satellite -garantie de meilleure qualité d'images et d'interactivité- et envoi de données via modem. En 1998, C: a cessé d'être diffusée faute d'une rentabilité suffisante ; preuve supplémentaire, s'il en était besoin, de l'instabilité actuelle des équilibres techno-économiques et des usages. Mais non point condamnation de la recherche d'une combinaison entre logique de flux et logique de navigation, même si la télévision n'est sans doute pas le média qui accueillera finalement cet alliage, mais plutôt les réseaux à hauts débits. [48] En France, Microsoft offre un premier ensemble de douze chaînes. On y trouve notamment TF1, NRJ, Gaumont, Elle, l'Agence France Presse, Les Échos. [49] Certaines enquêtes d'audience effectuées aux États-Unis relèvent déjà les signes d'une certaine compétition, pour les hommes, entre l'information télévisée et Internet. Une proportion significative des jeunes Américains commence à privilégier le réseau aux journaux télévisés. [50] Plusieurs sites ont connu une affluence record. Hotwired, site consacré à l'élection présidentielle, ouvert par le célèbre périodique Wired, pourtant peu versé dans la politique, revendiquait plus de 10 000 connexions par jour. [51] P. Sabatier, élections pièges à électrons in Libération, 11/10/96, p. 11 [52] J.P. Barlow, co-fondateur de l'Electronic Frontier Fondation, une puissante association de défense d'Internet, déclare : "[...] le monde interactif est d'ores et déjà en train de créer des systèmes de gouvernement bien mieux adaptés à l'économie de l'information que ceux de l'état-nation de l'ère industrielle", cité par P. Sabatier, élections pièges à électrons in Libération, 11/10/96, p. 11. [53] Le CD-Rom Croisades, édité par Index+, offre une double vision, occidentale et orientale, de l'histoire des croisades. À travers un jeu, il permet "d'expérimenter" dans une certaine mesure, ces événements en respectant la pluralité des déterminations (religieuses, politiques, sociales).

[54] Yves Eudes dans son article ("L'image virtuelle se fait auxiliaire de justice", Le Monde, 24/11/97, p. 32) cite des noms éloquents : "Preuves Matérielles Productions, Média médicolégal, Témoignages visuels". [55] P. Briançon, O.J. Simpson, le dernier réseau où l'on cause, in Libération, 7/02/95. [56] Voir Yves Eudes, L'essor du CD Rose, Le Monde (supplément multimédia), 21 et 22/01/96, p. 27. [57] Interview au Magazine de l'image et du son, INA, juin 1998, p. 10. [58] Dès 1998, l'INA mettait en place un "studio de production multisupport". Plusieurs projets sont déjà en cours, en particulier avec France Télévision pour des émissions de la série "Un siècle d'écrivains". [59] Le coût des systèmes de production de programmes en vidéo numérique a été divisé, en francs constants, par 10 entre 1973 et 1998 ; et ceci avec des performances techniques en constante progression. Cette diminution de prix se poursuit : début 1999, on pouvait acquérir une station de production pour un investissement allant de 50 à 100 000 F. L'entrée de gamme, sous forme d'ordinateur portable qui connecte caméscope, appareil photo, Minidisc, etc. -officiant comme banc de montage numérique- se situait à moins de 20 000 F. Voir Franck Poguszer, Home vidéo : ma télé à moi, in In@visions, n° 9, janvier 1999, INA, p.16. [60] Lors de l'enregistrement d'une édition de La Marche du siècle sur FR3, une assistante me disait : "Dans cette émission on est clair et simple, on annonce : "la voiture rouge va passer", on voit la voiture rouge qui passe et on conclut : "la voiture rouge est passée"". [61] Voir Éloge du grand public, Flammarion, Paris, 1990. [62] Dans son commentaire critique des thèses de Régis Debray, Jean-Louis Missika appelle, lui aussi, à ne pas accorder une primauté de principe au facteur technique: "[...] encore plus naïfs sont ceux qui [...] pensent que la télévision a révolutionné le régime de la preuve et de la croyance". (Le Débat, n° 85, Gallimard, Paris, p. 42/43). Passons donc pour un naïf, nous qui tenons pour l'idée qu'un régime de vérité -distribuant des intérêts, et donc des partis pris, parfois contradictoires - se forge dans l'alliage d'un système technique, d'institutions et d'orientations culturelles dominantes. Le système technique -ne serait-ce que comme surface active réfléchissant ces orientations culturelles-, devrait donc se voir reconnaître sa part d'efficacité dans l'attelage qui tire un régime donné de vérité. [63] On s'expliquera au dernier chapitre sur les raisons de l'usage décalé du concept de "temps réel" né dans l'univers de l'informatique militaire des années cinquante et souvent adopté aujourd'hui pour caractériser l'émission/réception instantanée. [64] La Querelle du spectacle, Les Cahiers de médiologie n°1, Gallimard, Paris, 1996. [65] Daniel Bougnoux, Bis ! ou l'action spectrale, op. cit., pp. 15/28. [66] ll y aurait matière à discuter le caractère inédit de chaque représentation d'une pièce. Quiconque assiste à deux représentations d'une même mise en scène d'un spectacle théâtral

est, au contraire, frappé par leur ressemblance. Mais accordons- lui cette qualité d'événement unique. [67] Bernard Stiegler, La technique et le temps, Tome II, Ed. Galilée, Paris, 1996, p. 25. [68] Roland Barthes, La chambre claire, Les Cahiers du cinéma /Gallimard/Le Seuil, Paris, 1980, p. 120. [69] Roland Barthes, op. cit., p. 126. [70] Roland Barthes, op. cit., p. 127. [71] La réalité optique est, on le sait, strictement inverse. Avec ce "toucher du regard", on voit resurgir la théorie antique de la vision ; celle du "rayon visuel", émis par l'oeil, qui va palper la réalité et ramène à la rétine les informations acquises. [72] Bernard Stiegler, op. cit., p. 37. [73] Jacques Derrida, Bernard Stiegler, échographie de la télévision, éd. Galilée, Paris, 1996. [74] Jacques Derrida, Bernard Stiegler, op. cit., p. 138. [75] Jacques Derrida, Bernard Stiegler, op. cit., p. 129. [76] Jacques Derrida, Bernard Stiegler, op. Cit., p. 140. [77] Voir aussi sur ce point la très riche argumentation de Pierre Barboza dans Du photographique au numérique - La parenthèse indicielle dans l'histoire des images, L'Harmattan, Paris, 1996. [78] Jacques Derrida, Bernard Stiegler, op. Cit., p. 129. [79] Voir mon article, Les images hybrides, in revue MEI n n°7, L'Harmattan, Paris, 1997. [80] Jacques Derrida, Bernard Stiegler, op. cit., p. 135. [81] Nous reviendrons ultérieurement sur l'hypothèse que, paradoxalement, l'usage des programmes automatiques n'accélére pas unilatéralement la communication sociale mais la ralentit aussi.

Table des matières

Chapitre III L'auto-médiationsur Internet comme forme politique
L'usage public d'Internet -nous laissons de côté, ici, ses fonctions purement commercialesconcrétise l'idéal d'un fonctionnement social fondé sur la pure circulation et sur l'inexistence d'intérêts contradictoires. La distance permet un refroidissement des conflits : ils se traitent alors comme de purs enjeux intellectuels et non comme des contradictions sociales. Les espoirs de Norbert Wiener, formulés dans Cybernétique et société, se renouvellent ici. Une prolifération des flux d'informations permettrait la libre discussion et l'obtention de consensus. Lequel consensus devient un mécanisme social idéal. La forme politique absolue qu'Internet promeut consiste à fonder directement la légitimité du pouvoir sur l'association de collectifs de base, sans référence à une instance qui les dépasse. Actualisant, sur un terrain technologique, une forme de pensée politique anarchiste, le pouvoir n'est, alors, légitime que s'il est immanent et toute transcendance, étatique ou privée, est vigoureusement combattue. La montée du relativisme, du scepticisme devant les vérités révélées (religieuses, économiques, morales) renforcent le sentiment qu'une nouvelle politique doit émerger, par une poussée ascendante, d'un mouvement brownien de contacts et contrats sociaux passés entre collectifs autonomes. Il y en, en effet, une profonde convergence entre une philosophie politique édifiée autour du concept de réseau et le constructivisme sociologique. Le social y est conçu précisément comme un ajustement progressif, entre individus et collectifs censés être autonomes. Internet peut servir de parabole à des processus plus généraux[1]. Les concepts de négociation et de contrat se substituent alors à ceux d'antagonisme social et de divergence d'intérêts[2]. Mais la transcendance, chassée par la porte, ne risque-t-elle pas de faire retour par la fenêtre ? La rencontre sur un même terrain (l'échange déterritorialisé) procède déjà d'un consensus aveugle : le désir de construire une association alternative et non de se replier sur une existence en pure autarcie. L'immanence est donc déjà encadrée par ce désir implicite. En outre, des collectifs autonomes, peuvent-ils exister comme collectifs sans une référence qui les dépasse et les fonde ? Sur quels principes (épistémologiques, moraux) peuvent-ils fonder leurs rapports ? (La communauté scientifique, par exemple, partage, non sans conflits, une conception pragmatique de la vérité scientifique basée notamment sur l'expérimentabilité, la réitérabilité, la régularité des résultats obtenus). La recherche de la vérité, la diffusion du savoir ou le partage des connaissances n'ont aucun sens sans que soit reconnue préalablement une valeur -même locale et temporaire- à l'authenticité et aux normes morales qui permettent de parler un langage social commun.

S'agit-il vraiment, avec Internet, d'un espace lisse, uniforme où, par glissements diaphanes, on rencontrerait, sans résistances, des millions de personnes connectées, dans une sorte de "village planétaire" bâti dans un tissu aux mailles aussi serrées que le réseau téléphonique mondial ? Il y a lieu d'en douter. L'océan calme qui baigne les rives des modemS est en train de révéler quelques aspérités. Par exemple, pour les éditeurs de sites, la "visibilité" des services offerts devient une qualité essentielle : pages d'accès chatoyantes, soigneusement designées, luxuriance de la navigation hypertextuelle. Les hiérarchies socio-économiques émergent à nouveau, dès lors qu'Internet devient une surface commerciale stratégique. Le versant libertaire d'Internet doit-il être considéré comme une utopie malsaine ? Nullement. Mais il est truffé des contradictions sociales actuelles[3]. Bien qu'il soit soumis à l'idéologie individualiste (seul et libre face à des millions de partenaires), et à la pression libérale, l'esprit d'Internet mérite d'être défendu et Pierre Lévy a raison de rappeler, dans Cyberculture, que le réseau est le fruit d'un puissant mouvement social coopératif, né aux États-Unis dans les années soixante-dix, "visant la réappropriation au profit des individus d'une puissance technique jusqu'à lors monopolisée par de grandes institutions bureaucratiques"[4]. Mais cette défense des principes généreux qui ont présidé à l'émergence de la Toile, ne saurait dispenser de trier les propositions, ni ignorer que le développement du réseau ne garantit pas mécaniquement la poursuite du projet initial d'une démocratie informationnelle. Internet symbolise incontestablement des dynamiques sociales qui assouplissent le modèle descendant du pouvoir. Comment ne pas jeter le bébé avec l'eau sale du bain, c'est-à-dire reconnaître les valeurs démocratiques qu'Internet représente et développe tout à la fois, sans pour autant succomber aux champs de sirènes des chantres de l'anarcho-libéralisme ? Autant, la description constructiviste du champ social est discutable, autant on peut afficher sa sympathie pour de nouveaux rapports démocratiques anti-étatiques dont le mérite est de déplacer et d'affaiblir certaines formes de domination devenues insupportables. On a souvent éclairé les convergences structurelles entre la forme pyramidale des massmedia et le fonctionnement ascendant de la démocratie représentative. Les uns comme l'autre sont actuellement déstabilisés. La parenté des mouvements qui les ébranlent a maintes fois été soulignée. Ce n'est pas le lieu d'approfondir ces questions, tout juste d'en rappeler certains fondements. Et la question des intermédiaires en est l'un des points cardinaux. La déstabilisation de l'état fordiste et du type de régulation des conflits qui l'accompagnent nourrit une recherche d'autres formes de gestion des antagonismes, formes que la culture des réseaux annoncerait. La crise du modèle des massmedia est en profonde convergence avec la recherche -annoncée par la Citizen Band et les premières messageries télématiques- de médias construits par mouvements concentriques et contrôlés par les agents sociaux qui l'utilisent. Internet est, à ce titre, emblématique d'une tentative partiellement réussie -jusqu'à présentd'engendrement et de contrôle social d'un réseau de communication. Pour la première fois, un système de communication de masse ne distingue pas, dans son principe (et seulement dans son principe), l'émetteur et le récepteur. L'expression publique, directe de tous vers tous estelle pour autant audible ? On verra à quel point un tel idéal est soumis à de vives contradictions, mais il continue d'inspirer massivement le développement du réseau. Et la question des intermédiaires -qu'il s'agisse de leur disparition, de la modification de leur rôle ou de l'apparition de nouvelles fonctions médiatrices- est au coeur de ces enjeux. Ce sont ces mouvements que nous approchons par la notion paradoxale d'auto-médiation dans ses deux dimensions -en partie contradictoires- d'autonomisation et d'automatisation de la médiation. On parlera d'autonomisation lorsque l'acteur médiatise lui-même l'événement et construit ainsi directement l'espace de sa communication/diffusion. On caractérisera

l'automatisation de la médiation par l'usage direct de logiciels permettant d'accomplir directement une tâche (par exemple, rechercher des informations sur Internet). On suivra ces mouvements dont la synthèse donne corps au concept d'auto-médiation, mouvements qui s'expriment dans la substitution directe d'intermédiaires mais aussi, bien que moins explicitement, dans l'évitement d'institutions par des relations horizontales. Dans un deuxième temps, nous poursuivrons, sous un autre angle, l'interrogation sur l'éviction ou le déplacement des intermédiaires en comparant les deux grandes figures qui remettent en cause les formes usuelles de la médiation : le parcours interactif sur support local et la navigation sur réseau. Cette dichotomie, quelque peu rigide dans cet énoncé, doit être comprise, on le verra, comme l'étude de types idéaux et non comme une analyse factuelle. Internet, un plurimédia Mais avant de poursuivre, il convient de préciser le statut d'Internet en termes de relation médiatique. Nous proposons de qualifier Internet de plurimédia, car, c'est inédit, le réseau des réseaux cumule dans un seul espace les trois principales relations médiatiques. La communication d'individu à individu, développée par le courrier postal et le téléphone, se concrétise avec le courrier électronique. Bien qu'à réception interactive, l'édition commerciale de sites se rapproche, par certains aspects, (notoriété, logique publicitaire de l'Audimat) du fonctionnement des massmedia[5]. Enfin, Internet étend la communication collective (groupe de discussion, forum), rompant potentiellement, pour la première fois à cette échelle, la séparation entre émission et réception. Mais cette juxtaposition de ces trois grands types de communication n'épuise pas la spécificité d'Internet. On doit remarquer la coexistence, sur un même support, d'une production issue du monde des médias (sites de titres de presse, de radio, de télévision, etc.) avec une offre d'information plus spécialisée (banque de données, documents en version intégrale, etc.) et une production plus informelle (groupe de discussion, sites personnels). La pluralité des logiques éditoriales, des modes de traitement ainsi que des niveaux de légitimation de l'information ne sont pas les moindres des particularités du réseau. A - L'auto-médiation versus autonomisation L'autonomisation de la médiation s'exprime dans l'exercice direct d'une fonction sociale exigeant auparavant des savoir-faire spécialisés. À ce titre, comme tout nouveau média, Internet élimine ou redistribue le rôle des intermédiaires traditionnels. J'écris un livre, j'annonce sa parution, je fais sa promotion, je le distribue on line, j'anime un groupe de discussion sur son contenu, etc. Je court-circuite ainsi des fonctions séparées : édition, distribution, promotion, mise en vente, critique sur d'autres supports éditoriaux. Des logiciels permettent à chacun de composer, assez facilement, des hypermédias dont les graphes deviennent vite très complexes : on devient à la fois imprimeur, responsable d'un standard téléphonique et metteur en scène de textes audiovisuels. Des services apparaissent, comme Cylibris[6] qui proposent, par exemple à de jeunes talents d'éditer leur première oeuvre sur le réseau. Cylibris enchaîne d'ailleurs -par le biais de forums- avec une intervention directe des lecteurs encourageant ou critiquant les romans et nouvelles publiées, donnant ainsi forme à une sorte de salon littéraire disséminé. (La fonction de l'éditeur classique ne se limite pas au rôle de filtre -parfois exagéré- dans les procédures de sélection. Il participe, dans la version classique, à l'édition de l'ouvrage en aidant l'auteur à mieux exprimer sa pensée et en lui faisant bénéficier de son savoir-faire éditorial. Son absence, dans l'auto-édition, n'est donc pas sans poser problèmes. Les lectures croisées y remédient, mais en partie seulement).

Dans son article sur la presse face aux enjeux d'Internet, B. Giussi -cyberjournaliste ayant mis sur le Web le magazine L'Hebdo de Lausanne- explique que, dans le contexte de l'édition électronique, "le rôle du journaliste en tant qu'expert décline" et que le réseau confère à chacun "le même pouvoir communicationnel"[7]. Même si ce diagnostic demande à être discuté plus finement, il n'en reflète pas moins une part de vérité qui alimente les espoirs visant à contourner les médias établis. Affirmant que les fonctions de producteur et de consommateur d'informations tendent à se confondre, il ajoute : "les faits et les informations circulent souvent sans médiation du journaliste, amené à renoncer à une partie de son pouvoir traditionnel pour devenir animateur. C'est tantôt un agent qui dirige le trafic, parfois un explorateur, souvent un <<facilitateur>> de discussion". Internet ne supprime donc pas la médiation journalistique, mais la transforme. La profusion d'informations disponibles majorera l'importance du travail de tri, de comparaison, de recoupement des sources, bref tout ce qui constitue le savoir-faire d'un rédacteur. Mais il fera ce travail sans pouvoir se mettre à l'abri, en quelque sorte, du regard des lecteurs. Ceux-ci peuvent, à tout moment, vérifier par eux-mêmes certaines informations, en débusquer d'autres ou solliciter directement des experts, en ayant éventuellement recours à la communauté des Internautes intéressés par les mêmes sujets. C'est ce qui fait dire à Alain Simeray, rédacteur en chef de l'hebdomadaire en ligne LMB Actu[8] : "Le journaliste ne peut plus se placer comme celui qui révèle des informations qui lui étaient réservées, il devient le médiateur d'une ressource partagée"[9]. Deux mouvements semblent donc affecter la médiation journalistique. D'une part, le rôle de passeur s'affaiblit au profit de celui d'expert détenteur d'une connaissance en surplomb. De l'autre la médiation tend moins à s'exercer entre des informations et des personnes qu'entre les personnes elles-mêmes. Ajoutons que la presse en ligne tend à s'émanciper de la pure restitution numérique. Elle offre de plus en plus, outre le journal, des documents in extenso qu'on ne peut publier faute de place, des liens avec d'autres sites, des adresses de banques de données consultables ainsi que des espaces de discussion. De plus, les nouveaux langages annoncés, d'édition de documents sur Internet (de type X.M.L. succédant à H.T.M.L.) autoriseront le récepteur à modifier les pages et lui permettront d'y intégrer ses propres informations. La rupture avec le mode de consultation de la presse classique en sera encore approfondie. Internet commence aussi à modifier sérieusement les conditions de la publication scientifique. Un mouvement destiné à contourner le filtre des comités de lecture des revues prestigieuses se dessine, par publication d'articles on line. Parfois, avant qu'il n'épouse sa forme définitive, l'auteur le soumet à la discussion. Il questionne des spécialistes, leur demande des commentaires, garantissant ainsi à sa publication une visibilité dans la communauté des chercheurs concernés. Il peut ensuite enrichir son article par un dossier joint, contenant ses réponses et les modifications effectuées. C'est finalement un dossier "vivant" qu'il édite, évoluant au gré des interventions successives, (où il se vérifie que le changement de média modifie les formes de validation de la connaissance scientifique)[10]. En particulier, la vitesse de rétroaction entre l'auteur et ses lecteurs augmente considérablement ; et l'on sait à quel point cette augmentation conditionne l'acuité de toute recherche (cette affirmation générale demandant, bien sûr, à être contextualisée finement au cas par cas). Le devenir-médiateur de l'acteur L'empressement avec lequel des médias traditionnels (presse, chaînes de radio et télévision) se précipitent sur Internet ne saurait surprendre. C'est leur propre fonction d'intermédiaire spécialisé dans le traitement de l'information qui se joue. De la mise en ligne des titres de

presse (changement de support à contenu invariant) à l'animation de sites ponctuels, la palette des initiatives est large. Notons cependant, qu'à l'heure actuelle, la mise sur le Web des journaux n'a pas cannibalisé leur édition papier, parfois bien au contraire[11]. Il ne faut donc pas pronostiquer mécaniquement la disparition des massmedia. Cependant, ces derniers -notamment dans leur quête du scoop comme dans l'affaire Monica Lewinsky[12]-se voient concurrencés par la relative facilité avec laquelle il devient possible de diffuser largement l'information à toute échelle grâce au Web, et spécialement par l'ouverture de sites événementiels. Mais ce qui se profile remet en cause de manière bien plus profonde encore la structure de la médiation puisque le réseau permet aux acteurs d'un événement de devenir les producteurs et diffuseurs naturels de l'information qui concerne cet événement. Par exemple, parmi les sites qui ont couvert le procès Papon, l'un d'entre eux a été créé et tenu seul par l'un des plaignants, Jean- Marie Matisson. Il proposait la consultation du dossier d'accusation, la présentation des familles plaignantes, les témoignages tout aussi bien que des forums ou l'intervention de spécialistes ; toutes propositions hors de portée des médias traditionnels et qu'à lui seul il offrait. Ce qui en dit long sur les nouvelles possibilités éditoriales ouvertes par ce nouveau canal d'expression. Plus même que l'abondance de l'information, c'est la tonalité qui était remarquable. Acteur engagé, Jean-Marie Matisson ne s'encombrait pas du style impersonnel des médias de masse, employé même par ceux qui avaient ouvertement pris parti. Par ailleurs, il ne faut pas opposer mécaniquement médias de masse et édition de sites. La notoriété du site Matisson était fondée dans une large mesure sur des médias traditionnels : ce sont des articles de presse, en l'occurrence, qui ont annoncé et validé ce site. On s'accorde à constater que la médiatisation accomplie par des institutions spécialisées (presse, télévision, etc.), participe de la construction de l'événement. Dans le contexte de l'auto-médiation, cette idée demande alors révision. Ici, en effet, événement et médiatisation sont inséparables puisque ce sont les mêmes acteurs qui les portent. Tout au plus peut-on considérer qu'il s'agit de moments particuliers dans un même processus. On voit se dessiner, en fait, une double évolution. Avec de faibles moyens -et une grande dépense d'énergie- on peut atteindre une audience sans commune mesure avec ce que coûterait une diffusion par les médias classiques. Mais parallèlement, les principaux acteurs de l'édition en ligne (grands quotidiens, chaînes d'information comme CNN, etc.) investissent des sommes importantes dans des programmes et moteurs de recherche offrant exhaustivité, rapidité et convivialité aux utilisateurs. L'industrialisation de l'auto-médiation devient l'un des principaux enjeux socio-techniques d'Internet. Mais cette industrialisation porte dans ses flancs des outils facilitant l'expression directe des acteurs sociaux. Dans cette course-poursuite rien ne garantit le succès final des industries informationnelles. Le on line devient une modalité idéale de service personnel. Quantité d'illustrations peuvent être invoquées. Ici, un site du syndicat américain AFL-CIO propose aux salariés de comparer leur feuille de paye avec celle des patrons de plusieurs centaines de grandes entreprises, incluant leur prime et autres émoluments adjacents. Là, on peut suivre quasiment en direct, sur le site d'un organisme de prévision météorologique[13], le résultat des simulations des effets de El Nino sur le climat actuel et futur du continent américain ainsi que des principales régions du globe. Là encore, des étudiants, en mal d'inspiration, de compétence ou de temps, s'adressent à des sites spécialisés pour télécharger des devoirs prêts à l'emploi[14].

Les activités boursières trouvent avec Internet un fantastique moyen d'effectuer directement des transactions en évitant les maisons de titres et de courtage[15]. Réalisée sur Internet aux États- Unis, le coût d'une opération est en effet près de huit fois plus faible que par l'entremise d'un courtier utilisant le téléphone, la télécopie ou le courrier. Le média incite à la création de services spécifiques, indépendants de l'industrie financière installée. De grands opérateurs (ainsi que certains fonds de placement), conscients du risque de perte de leur monopole, ouvrent, eux aussi, des sites Web pour permettre aux épargnants de placer directement leurs fonds. La substitution du courtage financier par des instruments automatiques commence à concurrencer, aux États- Unis, les sociétés boursières. Il est désormais possible de réaliser directement, via le Web, une introduction en Bourse, grâce à l'assistance de programmes spécialisés[16]. Opération coûteuse (jusqu'à plusieurs centaines de milliers de dollars), fastidieuse (des formulaires de plusieurs centaines de pages) et longue lorsqu'elle est réalisée par des institutions spécialisées, elle devient économique et plus rapide sur le Web. "Do it yourself" Le domaine musical est particulièrement exemplaire. Non pas seulement parce qu'il se prête assez facilement à l'envoi de fichiers sur le Net (des formats de codages, tels que MP3[17], accélèrent aujourd'hui notablement de tels échanges). Mais parce qu'avec deux logiciels gratuits disponibles sur le Web, n'importe quel amateur peut proposer à la ronde ses CD favoris. Les enjeux sont multiples et sérieux (laissons ici de côté l'épineuse question des droits d'auteur). Chaque artiste qui le souhaite peut alors distribuer directement sa production[18]. Des dizaines de milliers de personnes transforment, en toute illégalité, leur ordinateur en jukebox. Mais plus significative encore est l'activité moléculaire des milliers d'entre eux qui montent des sites spécialisés, offrent le téléchargement gratuit des logiciels nécessaires et améliorent régulièrement tous ces outils. Chacun devient ainsi un agent effectif d'une mise en cause pratique des majors de l'industrie du disque, lesquels étudient les différents moyens d'une riposte (notamment par la mise au point de robots de recherche spécialisés ainsi que par le tatouage numérique des titres). On pourrait multiplier les exemples et convoquer d'autres réalisations dans des activités aussi variées que la formation, la culture (visite de musées), la banque, le jeu d'argent (cybercasino) ou les enchères en temps réel. L'éviction des anciens intermédiaires au profit d'un modèle fluide de rapports directs est l'un des messages centraux d'Internet (le vocable barbare de désintermédiation a même été forgé pour désigner ce phénomène). C'est un modèle d'organisation sociale à peine voilé qui se fait jour. Le visage public d'Internet s'y dessine et c'est ce qui alimente son dynamisme conquérant. Le combat contre toutes les formes de transcendance qui rassemble des courants ultra-libéraux et anarchistes trouve dans la suppression des intermédiaires un objectif majeur. L'affrontement des puissances établies devient un rapport social positif, substituant une ancienne domination. Par exemple, participer à la diffusion de titres musicaux gratuits sur le Web met en cause pratiquement un rapport marchand établi et on comprend d'où vient la formidable énergie sociale qui s'y investit : il s'agit bien d'une forme de militantisme que, pour le coup, les ultra-libéraux prisent assez peu. On peut parler d'une logique performative qui accomplit sa visée, ou encore qui affirme l'antagonisme et le supprime en instituant une alternative dans une logique proche, toutes proportions gardées, de celle du double-pouvoir des périodes révolutionnaires. Un doublepouvoir alternatif aux logiques marchandes et hiérarchiques, c'est bien ce que visent explicitement les courants les plus radicaux du cybermonde et qu'instaurent, de fait, les dizaines de milliers d'adeptes de la version cyber du "Do it yourself".

Évitement d'institutions Délaisser des institutions traditionnelles (justice, santé, formation) pour assumer plus directement leurs missions, telle est l'une des dimensions du mouvement d'évitement des intermédiaires spécialisés. Il ne s'agit pas de substituer ces fonctions par des programmes automatiques, mais plutôt d'imaginer des formes de rapports sociaux plus horizontaux, plus souples et dont le fonctionnement est négocié entre les acteurs. Bien entendu ce mouvement ne menace pas la légitimité de ces institutions en tant que telles ; il manifeste cependant un désir d'autosuffisance, à l'écart de, voire contre, l'État. Ainsi, la justice se voit-elle contournée par des relations plus directes entre justiciables. Plusieurs types de cours de justice "virtuelles" existent déjà sur le réseau. Leur saisie, motivée par le souci d'éviter les longues et coûteuses démarches traditionnelles, suppose, bien entendu, l'accord des parties. Sur des sites Web aux États-Unis, les jurés disposent de forums de discussion et leurs votes sont sécurisés[19]. Autre exemple, des juristes québécois ont ouvert en juin 1998, le Cybertribunal, cour virtuelle spécialisée dans les litiges relatifs au commerce électronique mais aussi au droit d'auteur ou au respect de la vie privée. N'importe qui peut le saisir s'il s'estime victime, par exemple, d'un commerçant. Si, dans un premier temps, les efforts du médiateur s'avèrent infructueux, le Cybertribunal rendra un arrêt. Dénuée de tout contenu légal, cette décision puisera sa force dans la publicité donnée à la condamnation, risquant d'entamer le crédit d'une entreprise commerçant sur le Net. En fait, jouant la logique du certificat de bonne conduite, Cybertribunal incite les entreprises à afficher un logo indiquant aux clients qu'elles s'engagent à faire appel à cette cour virtuelle en cas de différend. Tenter de régler les conflits privés ou commerciaux en trouvant d'autres espaces neutres plus proches des justiciables que les institutions étatiques, semble être la principale motivation qui anime aussi bien les initiateurs des cours virtuelles que ceux qui y recourent. Le secteur de la santé est lui aussi soumis à la même pression où se combinent télé-médecine et tendance à l'élimination des intermédiaires. Par exemple, à l'hôpital Rothschild, à Paris, la visioconférence permet d'ores et déjà de rassembler autour d'un patient des équipes médicales interdisciplinaires localisées dans plusieurs hôpitaux parisiens. Radicalisant cette perspective, l'installation de capteurs sensoriels à domicile permettant l'auscultation à distance est envisagée. Aux États-Unis, certaines autorités médicales pensent à installer en ville des bornes multimédias afin de pratiquer des check-up et même une auto-délivrance de médicaments. Ajoutons à cela un système de vidéoconférence pour se faire examiner à distance par un spécialiste et nous avons les premiers segments d'une offre d'équipements de télé-médecine que la réalité virtuelle en réseau et la télé-robotique médicale viendront progressivement compléter. Time Warner, dans le cadre de l'expérimentation du réseau FSN à Orlando, avait déjà conçu un service nommé Health TV (Canal Santé) basé sur l'installation à domicile de dispositifs permettant à des médecins de pratiquer des auscultations à distance : pouls, pression artérielle, niveau de stress. L'envoi de la force d'interposition américaine en Bosnie s'est accompagné d'une expérience en vraie grandeur de télé-médecine. Visioconférence, télé-radiologie, télé-dentisterie ont été mises à profit pour garantir qu'un soldat sera aussi bien soigné en Bosnie que chez lui. Ainsi, le général A. Lanoue, chef du service médical de l'armée américaine, affirmait : "Il y a toujours des spécialistes réveillés quelque part dans le monde. Si on a besoin d'un dermatologue, avec le réseau -sur le site Web dédié- on arrivera toujours à joindre quelqu'un de frais et dispos"[20]. (Ajoutons que la télémédecine représente, pour les États-Unis, un enjeu industriel et géostratégique, spécialement dans leur nouvelle politique africaine). Il est vrai que la télé-médecine ne supprime pas, en tant que tels, les spécialistes sollicités à distance. Et l'auto-médication est loin de conduire les professionnels de la santé aux portes des agences pour l'emploi. Mais, l'augmentation du

niveau général de connaissance médicale, tout comme l'incitation -pour certaines maladies- à déléguer aux patients une part croissante de la surveillance et des soins, élargissent la voie pour une prise en charge directe de certains soins. Le perfectionnement des systèmes de télésurveillance et de télé-diagnostic accentuera nécessairement cette tendance. Surveiller, c'est, en cas de problèmes, inciter à l'intervention, en particulier lorsque la visite d'un médecin est difficile voire impossible (navires en pleine mer, par exemple). Le domaine de la formation est certainement celui qui résiste le plus à un strict passage au télé-enseignement, sauf dans certaines conditions exceptionnelles (lieux d'habitation isolés, formations de hauts niveaux s'adressant à des publics déjà fortement diplômés, par exemple). L'absence de co-présence physique est toujours considérée, par les enseignants et les élèves, comme une grave privation, même dans les expériences les plus accompagnées[21]. Il n'en demeure pas moins que, outre l'usage croissant de formes hybrides[22], des cursus complets ainsi que de véritables établissements d'enseignement en ligne commencent à voir le jour. Ces services deviennent alors des médiateurs spécialisés de télé-formation, mixant la communication médiatisée (contacts électroniques formateurs/formés) avec un recours croissant à l'auto-formation (circulation hypertextuelle, séquences d'auto-évaluation à correction automatisée, etc.). La communication politique est, elle aussi, le siège de transformations notables. Lors de la dernière campagne présidentielle américaine (conclue par la seconde victoire de Cliton), Internet a commencé à concurrencer les moyens classiques de propagande (brochures, tracts, et même émissions de télévision). Une relation directe s'est établie, via le réseau, entre les sites des états-majors des candidats et des électeurs qui ne se contentaient pas de prendre connaissance des programmes mais questionnaient les candidats et discutaient leurs propositions. Des médias traditionnels comme CNN et Time ont réagi en créant un site -Allpolitics Politics Now- alimenté aussi par ABC, le Washington Post et Newsweek. Ce site offrit des informations quotidiennes, des articles de fond, des comparaisons de programmes, etc. Hotwired, le site de Wired, a par exemple recueilli plus de dix mille connexions quotidiennes sur Netizen, son Web politique créé pour l'occasion. Utilisé par des millions d'Américains, l'impact du Web sur la campagne fut considérable, aux dires de plusieurs observateurs spécialisés. On peut, sans prendre beaucoup de risques compte tenu de la progression des abonnements, prédire un essor marqué de cette forme de communication qui déplace, plus que toute autre, la fonction des intermédiaires consacrés et notamment celle de la télévision. B - L'auto-médiation versus automatisation Le moteur de recherche est le premier agent d'auto-médiation. Mobiliser des programmes informatiques à distance pour rechercher de l'information sur le Net : ainsi s'exprime clairement et massivement l'automatisation de la médiation. Mais comment choisir la bonne référence sur un sujet, comment apprécier la qualité d'un ouvrage ? L'inflation de publications -due à l'importance sociale de cette activité pour un nombre croissant de professions- trouve, avec Internet, un terrain naturel d'expansion. Mais peut-être aussi une limite, par indifférenciation explosive. On ne peut lire plusieurs centaines d'articles ou de livres par mois. Ce qui se profile tranche nettement avec le modèle de fluidité que pourrait laisser espérer l'éviction des courtiers en tout genre. Progressivement des différenciations apparaissent. Le secteur des logiciels de navigation sur le réseau se révèle stratégique. Parallèlement, des prestataires de services monnayent des services d'assistance à la recherche, offrant de la "valeur ajoutée" à l'information disponible. Ils éditent des catalogues, des index, des études

d'évaluation sur les sources d'informations, bref des filtres. De nouveaux mécanismes d'évaluation émergent donc, tels que des comités de lecture, le chiffrage public des consultations de sites, des étoiles décernées[23] ou... des critiques sur les médias traditionnels rapportées dans les groupes de discussion. Des méthodes plus systématiques font leur apparition. Par exemple, Lycos, robot chercheur d'information -le premier qui indexe aussi les images et les documents sonores- confectionne une liste de deux cent cinquante sites considérés comme les plus "populaires". Comment les repérer ? Suivant une logique "citationnelle" (comptage du nombre de références faites à un article scientifique dans les articles publiés sur les mêmes thèmes, afin d'en fixer le niveau d'intérêt général). Le robot parcourt plusieurs milliers de sites chaque jour et mémorise le nombre de liens qui mènent vers chacun d'entre eux. Plus il y a de liens, plus le site est dit "populaire". Les robots et les guides de recherche permettent une véritable industrialisation de cette logique d'automatisation de l'évaluation[24]. L'usage de ces programmes ne se limite pas à l'estimation automatique des consultations. Il s'étend aussi à l'édition automatique. Computist's Communique, par exemple, est un hebdomadaire électronique diffusé par messagerie, rassemblant des informations récentes disponibles sur l'Internet selon certaines spécialités. Non seulement le routage est automatisé, mais la sélection des articles et l'édition de la publication l'est aussi, assurée par des robots chercheurs. En 1998, on dénombre déjà plus de mille trois cents robots de recherche. Comment trouver celui qui convient, compte tenu du domaine défini ? Dans une logique naturellement méta, des robots de robots ont été conçus, tel que Savy search, à l'Université de Colorado, qui n'exige que quelques indications sur la nature des informations recherchées (données existantes sur le Web, noms de personnes, des sites commerciaux, par exemple). Savy sélectionnera lui-même les robots les plus compétents selon les domaines prescrits, leur enverra la requête, réceptionnera les réponses, éliminera les croisements et présentera les résultats. Certains méta-robots testent plusieurs dizaines de moteurs et les classent par ordre de pertinence sur le domaine indiqué dans la requête. D'autres encore, comme Metacrawler, brassent les résultats de l'ensemble des autres robots. Une nouvelle génération de méta-moteurs de recherche commence à apparaître qui assure des fonctions de filtrage et d'évaluation de l'information selon plusieurs niveaux de recherche incluant des méthodes d'analyse sémantique. Digout4U, à finalité plutôt professionnelle, en est un bon exemple. Ce moteur accepte l'interrogation en langage naturel, interrogation à laquelle il appliquera des procédures d'analyses sémantiques et syntaxiques. Il élargira de luimême, par exemple, l'interrogation "trafic en Asie" à "drogue OU mafia OU blanchiment... ET Chine OU Thaïlande OU Laos...". Traquant moteurs de recherche, sites et même groupes de discussion, Digout4U hiérarchise les fruits de ses investigations par ordre de pertinence. Grâce à son module de traitement sémantique[25], coeur du système, la qualité des réponses obtenues est étonnante. Pour faire face à l'augmentation de la surface informationnelle du réseau et à l'acuité croissante des réponses espérées, verra-t-on apparaître des méta-métarobots ? Commerce, voyage et télescope La vente de voyages est, elle aussi, en passe de subir de profonds remaniements qui menacent les intermédiaires habituels (agences, voyagistes, etc.). Exploitant la puissance des moteurs de

recherches, de nombreux sites proposent des services de veille personnalisée sélectionnant sans relâche les destinations et les dates indiquées par l'Internaute tout en affichant des tableaux comparatifs de prix[26]. L'instantanéité est ici un atout essentiel : qu'une place se libère et le client est immédiatement prévenu par courrier électronique. Non seulement l'agence de voyage est ignorée, mais le rapport commercial s'automatise. Les logiciels personnalisés prennent, ici, la place de l'employé spécialisé. Le cybercommerce offre un espace rêvé au déploiement de l'automatisation de la médiation. On sait que, par exemple, des bibliothèques et des librairies virtuelles se développent et offrent déjà des catalogues de plusieurs centaines de milliers de titres[27]. Plus précisément, le cybercommerce est un terrain privilégié pour les robots d'achats[28] -les shopbots. Ils parcourent le Web à l'affût de la bonne affaire ou affichent un tableau comparatif des prix avec descriptif des produits et disponibilités, et par-dessus le marché, c'est le cas de le dire, indiquent les liens hypertextes donnant accès aux sites choisis. Plus ambitieux encore, le Media Lab du M.I.T. met au point un programme, nommé tete@tete, pondérant les différents critères (prix, délais, conditions de livraison...) selon les choix de l'acheteur, évacuant même les références trop excentriques, donc probablement peu pertinentes. Dans d'autres domaines, la propension à éviter les intermédiaires se traduit par la mobilisation à distance d'automates peu conventionnels. Par exemple, on peut commander, via Internet, une observation par télescope d'une portion du ciel. Depuis le remplissage du formulaire précisant la demande sur le Web jusqu'à réception par courrier électronique des images acquises, tout est automatique[29]. Le télescope est pour ainsi dire télécommandé à distance. Il décrypte les indications transmises et effectue les prises de vues correspondantes sans interposition de personnels spécialisés. La grande mécanique techno-scientifique devient ainsi mobilisable pour des usages personnalisés. Auto-médiation, production de connaissances, transfert et acquisition de compétences. Bien que ne relevant pas directement de l'auto-médiation pratiquée par le grand public, l'automatisation intensive des techniques d'analyses documentaires transforme considérablement certaines activités banales. La polémique politique, par exemple, s'est trouvée enrichie récemment de nouveaux et puissants instruments. Durant la campagne législative anglaise de 1998, l'état-major de Tony Blair s'est équipé du logiciel professionnel Retrievial/Ware -déjà utilisé par Bill Clinton en 1992- afin de découvrir rapidement, par exemple, une citation d'un ancien discours contredisant les propos actuels d'un leader conservateur. Des recherches qui mobilisaient des équipes entières durant des journées s'effectuent maintenant en quelques secondes[30]. L'automatisation de la médiation s'exprime non seulement à travers la recherche d'information, mais aussi comme instrument de production de connaissances. Le domaine de la recherche documentaire sur de vastes corpus -et, particulièrement le champ des hypertextes- est l'un de ceux où ces évolutions sont particulièrement visibles. Par exemple, des logiciels issus de l'ingénierie de consultation des bases de données, permettent de cataloguer automatiquement des chaînes de références dans un ensemble de publications numérisées. Ils cartographient des paysages en inscrivant graphiquement la géographie des proximités d'emprunts, grâce à tout un arsenal d'examen systématique des auteurs, articles et livres cités ainsi que des concepts utilisés. Il s'agit donc d'exprimer la configuration d'un ensemble de connaissances pour lui-même, indépendamment de toute exploration intentionnelle, afin de faire apparaître, par exemple, l'importance des différents emprunts

transdisciplinaires. De tels exercices peuvent parfois éclairer les thématiques qui polarisent des domaines de recherches et révéler des tropismes auparavant invisibles. Ils accélèrent, en tous cas, la perception pour une communauté de chercheurs par exemple, de ses lignes conceptuelles migratoires, de ses modes intellectuelles ou de l'intensité de ses liens aux disciplines voisines. Ces méthodes sont en passe de révolutionner les métiers de veille technologique[31], tout comme les bases de données spécialisées ont transformé l'ingénierie documentaire traditionnelle. Bien sûr, ces outils ne concernent, aujourd'hui que les travailleurs intellectuels spécialisés. Mais leur diffusion vers des cercles plus vastes est en cours : certains de ces instruments sont déjà disponibles sur le Web. L'automatisation des traitements alliée à la formation, grâce à Internet, d'un espace unifié mondial de l'information numérique crée une situation très nouvelle démultipliant la portée de chacun de ces deux facteurs pris isolément. L'idée d'auto-médiation ne doit pas être confondue avec celle d'automatisation, même si la première emprunte les voies de la seconde. Ce qui apparaît dans l'élimination d'intermédiaires traditionnels, c'est, en premier lieu, la possibilité d'effectuer directement des opérations qui exigeaient auparavant une maîtrise professionnelle des sources d'informations ainsi que des procédures opératoires. L'effet-réseau est d'abord une opération de rassemblement qui réunit en une seule base documentaire répartie ce qui auparavant était éparpillé en autant de sources spécialisées, dont la localisation était connue des seuls professionnels. Les logiciels de réservation de voyages sur le Web, par exemple, sont fonctionnels parce que les robots de recherche se chargent de trouver les adresses des sites concernés par une requête. La présence commune préalable de ces sites sur le réseau est la condition de l'efficacité de ces logiciels. L'automatisation de la recherche est, en deuxième lieu, le corollaire indispensable de cette possibilité d'accès démultiplié. C'est l'alliance de la réunion des sources et de l'automatisation qui permet l'auto-médiation versus automatisation. Mais approchons-nous d'un peu plus près de cette notion. Quel est le contenu concret de l'extension du self-service informationnel ? Il requiert, de plus en plus, un apprentissage, quasi professionnel dans certains cas, de techniques de recherches documentaires, dont le perfectionnement actuel des requêtes sur les robots chercheurs donne un aperçu. Plus largement, l'usage approfondi du réseau relève d'une véritable compétence spécialisée, si on y inclut la maîtrise des téléchargements des programmes complémentaires nécessaires pour assurer une interactivité de l'image, le contrôle des push technologies, la réception d'applications en V.R.M.L., etc. En regard de l'informatique documentaire professionnelle, les techniques de recherches sur Internet sont, bien sûr, simplifiées. Mais elles se complexifient, pour peu qu'on souhaite en exploiter toutes les potentialités. Opérateurs booléens, parenthèsages, et bien d'autres méthodes se développent. Avec leur corollaire, des traductions graphiques sous forme d'arborescences, par exemple, aidant l'utilisateur à préciser ses choix. Internet étant, dans son principe, un média public, on voit d'un côté se complexifier et se raffiner ses modes d'usages, et de l'autre se développer des aides cognitives spécialisées. Il n'en demeure pas moins que l'usage du réseau exige et développe des compétences spécifiques nullement triviales, selon des niveaux d'exigence variables, des applications grand public aux activités professionnelles. L'auto-médiation requiert donc des apprentissages typiques, dont la sophistication varie selon les différentes activités effectuées. Rien ne serait plus inexact, que d'envisager ces pratiques comme relevant d'activités presse-boutons. Croissance de la mémoire, agents intelligents et contraction temporelle

L'invention de ces programmes exprime aussi la contradiction entre la somme des informations produites et le temps humain de recherche et d'appropriation mobilisable. La recherche automatisée des robots réalise la contraction temporelle nécessaire pour dominer l'énorme masse d'informations produites sur un thème, masse qui surpasse la capacité de surveillance d'un individu, voire d'une équipe. Les simples techniques documentaires (fichier, index, mots clés, abstracts) ne suffisent plus à contracter la base de données. Il faut recourir à des automatismes de recherche sans cesse plus puissants. La vogue des agents intelligents personnalisés et évolutifs répond au souci de ne pas s'épuiser dans des recherches sans fin sur les mailles d'un réseau rassemblant des milliers de banques de données. On donne à ces agents quelques indications sur nos centres d'intérêts et ils commencent à butiner dans les sites, journaux, magazines, revues qui, de près où de loin, traitent de ces questions. Les réponses s'inscriront en temps voulu dans la mémoire de l'ordinateur sans qu'il soit nécessaire de rester connecté durant ces investigations. Il existe même des agents qui, d'emblée, nous demandent de préciser notre profil (hobby, émissions de télévision et lectures préférées, sports pratiqués, voyages souhaités, etc.) et dirigent leurs requêtes selon les indications fournies. Au début, les fruits de ces recherches s'accordent mal aux attentes exprimées. On fait part de sa frustration. L'agent en tient compte pour affiner ses démarches. De génération en génération, il se fait une idée toujours plus précise de nos attentes et affûte ses réponses. La "personnalisation" apparaît ainsi comme un objectif central. L'industrie publicitaire avec son obsession de cibles et autres profils, y voit un instrument rêvé ; tout comme la vente sur catalogue, qui envisage d'adresser à chacun un support calibré selon ses goûts. Des effets pervers ? Les robots de recherche et les guides de recherche sont-ils parfaitement "objectifs" ? Éliminent-ils les inclinations personnelles de leurs concepteurs ? La réponse doit être modulée. Certes, les critères sur lesquels robots chercheurs ou agents intelligents règlent leurs investigations dépendent des méthodologies choisies par leurs concepteurs. S'il n'y a pas lieu de suspecter des partis pris systématiques dans les méthodes d'indexation automatique ou humaine, celles-ci sont en revanche soumises aux effets de masse. Elle traduisent mécaniquement la présence inégalitaire des différents éclairages sous lesquels une même question est présente dans les sites, les publications ou les groupes de discussion. À charge pour l'Internaute de faire preuve de discernement et de perspicacité dans le libellé de ces requêtes, s'il veut débusquer les approches originales qui l'intéressent particulièrement. (La question de la compréhension du langage gouverne celle de l'interprétation des champs sémantiques des banques de données disponibles sur le réseau. Ces problèmes -cruciaux- sont loin d'être résolus.) Il est vrai que l'auto-médiation engendrée par les moteurs et guides de recherche n'influe pas sur les contenus informationnels repérés. Elle compile des stocks et produit des liens logiques. Son élément, c'est essentiellement aujourd'hui la statistique et l'indexation des données. Mais le tournant est pris, on l'a vu avec Digout4U, vers l'interprétation sémantique des informations, et là, bien sûr, une subjectivité "machinale" -pas nécessairement intentionnelles'exprime nécessairement, de par la mise en procédures automatisées des méthodes d'extraction du sens imaginées par les concepteurs. Par ailleurs, un média construit sur l'accès direct à l'information risque d'engendrer une certaine clôture des champs d'intérêts. En lisant un journal, la formulation d'un titre intriguant nous incite parfois à lire un article qu'on n'aurait jamais parcouru spontanément. La "personnalisation" inhibe ces effets de proximité. L'émiettement, le confinement et le

compartimentage des aires de curiosité risque d'instituer un univers normatif et conservateur. La maîtrise accrue des procédures de recherches d'informations ou de participation à des collectifs thématiques véhicule une tendance à la spécialisation et peut traduire un désir de confinement. L'horizon relationnel risquerait d'être a priori rétréci, éloignant toute rencontre hors champ. Ces tendances à la personnalisation, incontestablement dans l'air du temps, ne doivent cependant pas être érigées en mécaniques fatales. L'usage de ces agents personnalisés, même s'il résonne avec de fortes tendances à la spécialisation, n'est pas exclusif d'autres formes de parcours plus intuitifs, plus collectifs et ouverts à des rencontres imprévues. Rien n'autorise, actuellement, à opposer mécaniquement individualisation et vagabondage intuitif. L'une, activité finalisée, limitée à des centres d'intérêt précis, peut parfaitement s'accommoder avec l'autre, à caractère plus ludique, dans des domaines aux frontières floues. Si la valorisation de l'individualisation des requêtes mérite d'être soulignée, il serait imprudent de déduire, à partir des usages actuels du réseau, des formes dominantes (individualisme, en particulier) qui le qualifierait définitivement. La médiation automatisée recule, et ce n'est pas rien, d'un cran (voire de deux, avec les méta-robots) la confrontation avec des décisions humaines. Est-ce à dire qu'elle a vocation à éliminer tous les courtages humains ? Ce serait aller vite en besogne. C - L'auto-médiation, un concept paradoxal. Auto, c'est soi-même, médiation c'est quasiment l'inverse : elle suppose l'intervention d'un tiers. L'auto-médiation est paradoxale. D'une part, loin d'instaurer une relation "im-médiate", elle mobilise des automates en position tierce -de nouveaux types de médiateurs- dont les robots et guides de recherche sont, on l'a vu, sont les plus purs exemples. D'autre part, comme on va le voir, elle est utilisée, à rebours, par les industriels du service en ligne face aux Internautes. Bataille politique contre la prééminence de l'État ou de firmes privées dans le contrôle des communications, modèles de rapports interindividuels non médiatisés, valorisation de l'autonomie et de l'action libérée au maximum de toutes contingences extérieures, tous ces traits s'allient pour faire de la tentative de suppression des courtiers traditionnels un enjeu nodal. Il faut cependant souligner l'impossibilité logique du modèle qu'Internet promeut, plus ou moins délibérément, en annonçant une émancipation complète des intermédiaires. Naviguer, surfer sur l'océan informationnel comme on navigue librement sur les mers du globe, est une métaphore douteuse. Seul, face aux Gigabits des centaines de milliers de services accessibles, on serait vite englouti sans les automates de recherche disponibles. Plutôt que d'une suppression d'intermédiaires, ne s'agit-il pas de leur substitution par une nouvelle catégorie, sécrétée par le média lui-même, dont la principale caractéristique consiste à automatiser la médiation. La maison de courtage en Bourse est substituée par des sociétés offrant des logiciels de recherche et de transaction en ligne, tout comme le voyagiste l'est par d'autres logiciels et moteurs de recherche spécialisés. La poste voit sa fonction avantageusement accomplie par les serveurs de courriers électroniques. L'institution éducative prend la forme d'un fournisseur de services en ligne de télé-formation. L'éditeur, le libraire sont remplacés par un gestionnaire de sites sur le réseau ou un diffuseur de logiciels de recherches hypertextuelles. Les nouveaux médiateurs combinent en réalité télé-relation entre acteurs humains et mise à disposition d'automates. Convenons, enfin, que séparer autonomisation et automatisation de la médiation est quelque peu rigide. Bien souvent, les deux processus se combinent en proportion variable pour se

renforcer mutuellement. Par exemple, mettre un titre musical en ligne (autonomisation) nécessite d'utiliser des automates (notamment de compression) et de faire référencer le titre sur les moteurs de recherches appropriés. De même, passer un ordre en Bourse s'effectue en utilisant un logiciel spécialisé. Inversement, se servir d'un moteur de recherche (automatisation), c'est accroître son autonomie informationnelle. C'est pour la commodité du propos que nous avons juxtaposé les deux composantes de l'auto- médiation. On pourrait fort bien, dans de nombreux cas, les entrelacer. À rebours de l'auto-médiation : le profilage automatisé L'auto-médiation est à double face. En effet, les outils de l'auto-médiation sont mis à profit par ceux qui se situent sur l'autre versant du réseau, les industriels du service en ligne, face aux Internautes. Amazon.com, par exemple, propose à l'acheteur des livres correspondant à son profil de lecteur. Des programmes, opérant par "filtrage collaboratif", lui adressent des propositions d'achats en compulsant inlassablement les listes de livres commandés par les autres acheteurs du même titre. D'autres applications de compilation automatique sont, en revanche, la conséquence directe de l'existence de la Toile. Par exemple, la multiplication des sites musicaux sur le Web (plus de vingt-sept mille, fin 1997) rend difficile le strict respect de la protection des droits d'auteurs. Qu'à cela ne tienne, une agence américaine de recouvrement de droits vient de mettre en service Musicbot, robot qui, à grande vitesse, surveille et recense la diffusion de musique sur le Net. Dans le même esprit, certaines entreprises de cybercommerce ont développé des logiciels pour contrer l'usage des robots d'achat qui réduisent à néant leurs efforts publicitaires ou de marketing. Ils analysent systématiquement l'adresse du visiteur et ferment l'accès au site lorsqu'ils repèrent un robot ou réduisent les prix d'achat en majorant les frais de livraison. Enfin, frisant l'escroquerie, certains robots sont en fait rattachés à des "entreprises partenaires" ; d'autres sont rétribués selon les clients "rabattus". Par ailleurs, cette logique provoque de grandes tensions dans le domaine sensible de la vie privée. Employée à grande échelle dans des pays comme les États-Unis, à législation laxiste en la matière, ces méthodes étendent considérablement le champ de l'enquête individuelle pratiquée par des sociétés privées[32]. Enfin, l'auto-médiation peut prendre le visage trouble de l'auto-censure. Des outils, qualifiés de censorware, commencent à être utilisés pour organiser l'automatisation individuelle de la censure dans la consultation des sites, non sans engendrer de graves contresens[33]. Partager le travail de la médiation Que l'irruption de l'auto-médiation bouscule des séparations solidement établies entre producteurs et consommateurs informationnels, n'est pas surprenant. Les défenseurs du travail professionnel de la médiation, comme Dominique Wolton ou Jean- Marie Charron, insistent, à juste titre, sur l'indispensable labeur de tri, de mise en perspective, de recoupement et de hiérarchisation de l'information accompli par les spécialistes patentés (journalistes de la presse écrite et audiovisuelle, pour l'essentiel). Ainsi, les médiateurs seraient, selon Dominique Wolton, les "ouvriers de la démocratie" (d'où l'idée qui lui est chère d'un lien consubstantiel entre médias de masse, démocratie et espace public). L'erreur de Dominique Wolton n'est pas de valoriser le travail de la médiation. Non, l'erreur ou plutôt la limitation de ce positionnement, c'est de refuser le partage de ce travail avec les acteurs humains (acteurs individuels ou collectifs engagés dans l'événement) et les humains indirects (logiciels et

autres moteurs et guides de recherche). La perspective ici énoncée consiste, en revanche, à reconnaître l'amateurisme -au sens littéral du terme "amateur", "celui qui aime"- de la médiation, comme une donnée marquante que l'espace Internet exprime, autorise et promeut tout à la fois. J'accorde une attention particulière au cyberespace comme révélateur et comme catalyseur de ces mouvements où émergent des savoir-faire intermédiaires, émergence qui m'apparaît comme l'une des grandes questions politiques actuelles (on la retrouvera dans le chapitre sur l'interactivité). Il ne s'agit donc pas, dans mon esprit, de dénoncer une médiation corruptrice, d'en appeler à l'immanence contre toutes formes de transcendance, mais de reconnaître une graduation de ces savoirs, des formes professionnelles les plus classiques aux pratiques d'expression directe. Il est frappant de voir se généraliser, dans une forme d'espace public, une auto-médiation automatisée dont on n'a pas fini de découvrir la puissance parce qu'elle traduit un profond désir d'accroître notre puissance d'intervention pratique et relationnelle en profitant des formidables automates intellectuels mobilisables à distance par le réseau. Sous cet angle, la présence à distance intensifie l'existence sociale. Expression, engagement et dissémination de l'auteur Internet n'est pas seulement un espace fonctionnel où l'on résout des problèmes (trouver l'information pertinente, acheter un produit, réserver un voyage, etc.). C'est aussi un espace d'expression où chacun est censé pouvoir s'adresser, sans autorisation préalable, au monde entier. La multiplication des sites personnels et des home pages en témoigne. Cette situation, qui radicalise des tendances antérieures dont l'imprimerie a été l'un des vecteurs, comporte des aspects inédits. Il nous faudra prendre la mesure de la production exponentielle de textes et de documents multimédias sur le réseau, dont il est difficile de préciser le statut : productions à caractère informatif auxquelles il est impossible d'appliquer les règles usuelles de validation (notoriété, responsabilité, etc.), textes expressifs dont on ignore quasiment tout de l'auteur, dissimulation ou travestissement de l'émetteur, interventions fragmentaires dans des groupes de discussion ou encore messages reçus grâce à des listes de diffusion, etc. Des flux textuels sont mis en ligne sans être investis par leurs auteurs comme des matériaux qui les engagent ; une production expressive et documentaire souvent anonyme, en croissance permanente. Cette fontaine prolifique n'est plus soumise à des exigences de consistance, d'originalité, de responsabilité, de qualité littéraire, de pertinence et de style. Elle s'apparente beaucoup plus à une conversation orale, ou plutôt à un bruissement mondain, une profusion d'interpellations, des bribes de discussions aussitôt perdues qu'engagées -abdiquant d'emblée le prestige qui s'attache à la chose écrite et notamment sa conservation. Peut-elle se prêter à des enchaînements ? Constitue-t-elle autre chose qu'un espace projectif, où chacun peut trouver matière à alimenter ses propres associations et fantasmes ? De telles propositions, peuventelles faire penser ? Nombre de prosélytes des réseaux nous invitent à abdiquer tout questionnement sur l'identité de l'auteur, mettant en cause son unicité même. Mais peut-on s'approprier un texte -ou un hypertexte- sans supposer qu'une intentionnalité (aussi ténue et difficile d'appropriation, soitelle) y est déposée ? Comment apprécier un texte non délimité, dont l'unité formelle distinctive serait flottante et qui, donc ne pourrait être assigné à des intentions individuelles ou à celles de groupes réunis par un commun parti pris ? Que la signature individuelle d'un texte engage indirectement une cohorte d'auteurs rassemblés par les tribulations antérieures du rédacteur, c'est l'ordinaire de la condition moderne d'auteur. Mais qu'on puisse dissoudre cette exigence dans une prétendue virtualisation où plus aucune idée n'est assignable à un auteur

individualisé, au profit d'une écriture collective, parallèle et disséminée est hautement problématique. Peut-on penser une communauté qui transcende immédiatement ses composantes et qui, d'emblée, fonctionnerait dans l'échange, sans pôle privilégié d'individuation assumant les fonctions d'accumulation et de mémorisation ? Nous le verrons, malgré bien des dénégations, une mémoire individuelle et collective s'édifie de fait autour du réseau. L'extension de l'expérience sociale que constitue Internet en est la preuve vivante. Démocratie virtuelle, décision et conflits La disparition de la médiation, ou son affaiblissement, gouverne la thèse de la possibilité (et de l'intérêt), d'une reprise directe par les acteurs des garants de leur organisation sociale ainsi que d'une définition directe des normes de leur coopération. Étendons donc cette question à la sphère politique. Se passer des médiateurs en général et des spécialistes de l'exercice du pouvoir en particulier, c'est redéfinir les formes de prise collective de décisions. Les usages du réseau qui court-circuitent la démocratie représentative (consultation électronique en temps réel, expression directe de communautés, etc.) relèvent de projets expérimentaux plus que d'alternatives consolidées. Il est plus intéressant, en revanche, d'interroger, sous cet angle, l'actuel mode de gouvernement propre à Internet. Christian Huitema[34] développe, à cet égard une argumentation provocatrice appuyée sur les idées de Dave Clark, premier président de l'I.A.B. (Internet Activities Board)[35] : "Nous rejetons les rois, les présidents et même les votes. Nous croyons au consensus approché et aux codes qui marchent"[36]. Le refus iconoclaste du vote est justifié par plusieurs types d'arguments. Les premiers concernent la définition de l'électeur : individu, adresse électronique (mais un individu peut en avoir plusieurs). On pourrait émettre des droits de vote en rapport avec le nombre de messages envoyés sur le réseau. Entre les experts et les utilisateurs occasionnels, le coefficient de décision varierait considérablement. Mais tous les messages ont-ils le même poids, le même intérêt pour la communauté ? Un vote par pays, comme dans les grandes organisations internationales, ne serait pas particulièrement démocratique, pas plus, évidemment, qu'un scrutin par grandes firmes. Une réflexion originale se développe donc à propos des agents de la décision : individus, groupe d'individus rassemblés dans une expérience d'élaboration commune (B.B.S., groupe de discussion privatif, par exemple), laboratoires, centre de documentation, firme commerciale, etc. Le réseau mélange tout cela. Il s'en suit une augmentation de complexité de la notion de "sujet décideur". Et cette indétermination est probablement stimulante pour renouveler les pratiques de décisions collectives. Une autre série d'arguments remettent en cause le principe même du vote. Christian Huitema dénonce "l'effet pervers" de "ces systèmes de votes", lorsqu'aucune proposition en présence n'emporte la majorité absolue. "On verra se développer des négociations de coulisse qui conduiront à des compromis boiteux"[37]. Pourquoi répudier de telles négociations envisagées comme corruptrices ? La suite éclairera cette prévention contre les risques de "marchandages". La règle de l'I.E.T.F. (groupement responsable de l'évolution des standards de l'Internet[38]) est donc, non pas de décider par un vote, mais de rechercher un consensus. Mais comment l'I.A.B. s'applique-t-elle ces principes, afin de renouveler chaque année la moitié de ses membres ? Par tirage au sort d'une liste de volontaires qui décident souverainement quels seront les membres remerciés et qui les remplacera. Pourquoi rechercher un consensus ? Afin de convaincre. Comment ? "Seule compte la qualité technique, aidée si possible par une démonstration pragmatique"[39]. Et, Christian Huitema d'insister sur les deux critères de choix que sont la force d'une démonstration concrète par "un logiciel qui tourne" et la facilité de production. La conclusion coule de source : "La recherche du consensus conduit ainsi à l'élégance et à l'excellence"[40]. On pourrait ajouter : "par la

preuve technique". Si Jürgen Habermas recherchait des exemples pour qualifier le mode de légitimation propre à la technique, il les trouverait là, "brut de décoffrage". Mais n'oublions pas que les enjeux des décisions à prendre concernent le choix des standards de communication[41]. S'agissant de protocoles techniques, ceux-ci peuvent être publiés sur le réseau à des fins d'expérimentation conjointes. Les acheteurs de prototypes doivent pouvoir choisir entre "plusieurs produits de différents fournisseurs". Dans une logique libérale, "la responsabilité du choix", est laissée au "marché", sage instance qui régule l'adéquation entre l'offre et la demande. Il s'agit bien là d'un ordre social, exprimant la formation, non pas d'une opinion mais le fonctionnement pur d'un marché en situation libérale idéale, où la liberté et l'autonomie des acteurs le dispute à la rationalité technique de leur choix. Mais même dans ce cas, l'opérationalité technique n'est pas à l'abri des jeux de pouvoirs. Imposer une norme est souvent un enjeu commercial considérable qui mobilise des stratégies très rusées[42]. Dans la continuité de l'expérimentation conjointe des protocoles, une question, liée à la nature originale d'Internet, attire en particulier notre attention. Elle touche au règlement des conflits. Tous les conflits n'ont pas à être tranchés en faveur d'une solution exclusive. Dans ces cas, le contrat social peut alors redéfini à partir de l'acceptation de la coexistence d'expérimentations contradictoires. C'est d'autant plus facile sur le réseau qu'il s'agit d'un échange de signes. Dans d'autres compartiments sociaux, ce n'est pas si simple. Faut-il, à la place d'une usine désaffectée, construire un immeuble ou aménager un parc ? On ne peut pas entreprendre de véritables expériences urbaines ou sociales (la démarche expérimentale suppose la réversibilité, le retour aux conditions initiales). Sur un réseau, il est en revanche possible de faire coexister plus facilement différentes solutions antagoniques à un même problème parce que l'espace informationnel supporte beaucoup plus aisément la co-présence de propositions conflictuelles. Le modèle libéral convient-il vraiment pour penser cette forme horizontale de rapport à la fois non totalement marchand et non-étatique qu'est Internet ? Pas pleinement. Le réseau est en effet aussi un espace public d'un type particulier, sans distinction entre centre et périphérie. Il n'appartient ni à des individus, ni à des États, ni à des groupes privés. Et enfin, il est mû, pour sa part non-marchande, par un idéal de participation active aux décisions. Dans le "management" d'Internet, il y a une recherche et une activité démocratique incontestables qui dépassent les limites de la démocratie représentative et qui reposent sur l'originalité des logiques du réseau. Cette recherche matérialise toujours aujourd'hui l'inspiration novatrice et l'énergie égalitaire qui avaient saisi le groupe social matriciel (chercheurs et jeunes universitaires américains des années soixante-dix) dont est issu Internet. D - Scénographie de l'auto-médiation Interactivité locale et navigation sur réseau On sait que la forme des récits, les "dispositifs d'énonciation", véhicule l'essentiel de leur signification. Dans cette optique, je propose de comparer deux types, apparemment opposés de dispositifs : le récit interactif et la navigation sur réseau. Tous deux concrétisent, à première vue, l'idée d'autonomie narrative (ou "navigationnelle") et chacun se décline, par ailleurs, dans l'une des deux configurations privilégiées du multimédia : CD-Rom et Web. D'un côté la circulation dans un programme local, fermé mais avec des corpus de grandes dimensions -que les nouvelles générations de supports optiques (DVD-Rom) viendront démultiplier- de l'autre la présence à distance et l'activation de chaînages quasi infinis. D'un

côté un grand livre déjà écrit, de l'autre un livre qu'idéalement, on peut augmenter soi-même. D'un côté la mémoire inscrite, mais inaltérable, de l'autre la circulation, l'échange, mais sans (ou quasiment sans) le souci de la mémorisation. Avec les dispositifs auto-narratifs (récits qu'on se raconte à soi-même), le fantasme est d'éliminer toute référence extérieure, faire du sujet le seul auteur du récit. Fantasme d'autonomie absolue, où, dans un premier mouvement, le récit d'autrui est ignoré à travers l'interaction avec un moteur de propositions textuelles, imagées, et sonores. Les circulations sur CD-Rom, par exemple, imagent cette posture[43]. Que cette tentative soit vouée à l'échec ne la discrédite pas à l'avance. Car bien sûr le spect-acteur affronte des obstacles rédhibitoires dans cette quête d'autonomie. Il ne maîtrise ni les matériaux narratifs ni l'enchaînement des séquences. Ceux-ci apparaissent comme l'oeuvre du concepteur de l'hypermédia, bien que leur destination soit de se dissimuler en tant que déjà donné, pour laisser place à un certain espace libre de construction du récit ou du parcours par le spect-acteur, espace desserrant les contraintes propres aux supports stables (livre, film, etc.). Avec le Web, ce serait, à première vue, l'inverse. Ici, l'interaction idéale se déroulerait -si elle le pouvait, et on sait la distance qui sépare ce voeu de la réalité des usages- sans intermédiaires. Laissons ici de côté les usages informationnels d'Internet (consultation de banques de données, de journaux, de revues, etc.). Non pas qu'ils soient secondaires mais ils relèvent d'une communication dans laquelle, on l'a vu, les procédures automatisées (navigateurs, robots chercheurs) occupent une place centrale et déplacent des anciennes médiations (édition, médecine, justice...). Intéressons-nous plutôt à la part vivante du réseau, celle qui ne mobilise pas essentiellement des programmes automatiques mais rassemble des sujets humains à distance : messageries, groupes de discussion, etc. Nous avançons pourtant l'hypothèse que, sous un visage différent de celui qui habille l'interactivité locale, le même fantasme d'autosuffisance est à l'oeuvre. Certes, il ne s'agit apparemment pas d'éliminer autrui. Plutôt de le rendre omniprésent, mais sous une forme abstraite. Dans les groupes de discussion, la scénographie de l'échange s'émiette dans les rebonds d'une conversation multipolaire, sans références stabilisées. Toujours évolutive, non dirigée vers la mémorisation des échanges, elle se déroule dans une temporalité constamment rafraîchie. D'un côté -avec le récit interactif- il s'agirait d'une tentative d'élimination de l'extérieur, de l'autre -avec le réseau- une inflation d'extériorité. Un récit auto-engendré contre un flux d'échanges sans récit ? On soupçonne que l'hypertrophie de ces postures se rejoint dans leurs extrémités : tenter de dénier l'altérité en la rabattant sur l'objet local (cas du récit interactif), ou déjouer l'altérité en la diffractant dans un entrelacs de correspondances éparpillées dans les mailles du réseau. Dans les deux cas, on vise à la suppression d'une référence externe au dispositif narratif ou, plus largement, relationnel. Cette visée d'auto-référence s'accomplit de deux manières différentes. Avec le récit interactif, il s'agit, en tendance, d'être soi-même et tour à tour récepteur de ses décisions et, fantasmatiquement, auteur de son spectacle : spect-acteur. Avec la navigation sur réseau, sans intermédiaire, le fantasme -bien qu'apparemment inversé- est semblable : supprimer une instance surplombante et source de légitimité, annihiler une transcendance à laquelle se référerait la communication interindividuelle. L'une des dimensions principales de cette tentative est la prédominance -apparente- de la spatialité (relation horizontale, immédiate) sur la temporalité (réduction de la mémorisation, obsolescence accélérée de la tradition, raréfaction de la référence au passé, dissuasion de constitution de corpus permanents)[44]. Pourtant, les relations spatiales dans le réseau sont

adossées à d'intenses opérations temporelles telles que le remembrement des anciens corpus, la mise en disponibilité progressive de la mémoire écrite traditionnelle et surtout la coopération et l'entraide pour l'usage des nouveaux outils apparaissant régulièrement sur le réseau (logiciels de compression, d'affichage tridimensionnel, de visiophonie, etc.). L'horizontalité spatiale n'est toutefois privilégiée qu'apparemment. De manière souterraine, se creusent de complexes constructions temporelles dont nous aurons le loisir de décrypter ultérieurement les motifs. En ignorant les intermédiaires, c'est-à-dire en dévalorisant leur fonction, on exprime un souhait : que la légitimation de l'information ne dépende que de ses producteurs et de ses récepteurs. Mais en instituant le face à face direct comme forme valorisée de l'échange, on recrée une transcendance "muette" qui fait rapidement retour comme en témoignent aussi bien cette fameuse question de la visibilité des sites sur Internet -témoignage d'une hiérarchisation de leur valeur- que l'émergence de nouveaux intermédiaires automatisés. Ce type de situation manifeste le désir d'autonomie, le refus du dédoublement, mais qui reste de fait un dédoublement dans sa forme "rusée" ; comme la forme de transcendance que, dans son étude sur l'auto-référence et le dédoublement, Yves Barel qualifiait de particulièrement subtile, consistant à donner le sens de quelque chose en le lui refusant : "Ce que l'on chasse est recréé par la manière dont on le chasse"[45]. Ainsi, rapporte Howard Rheingold, "le programme du réseau WELL le plus utilisé s'appelle <<Who>> et permet de savoir qui est connecté à un moment donné"[46]. Le monde virtuel se regarde vivre, se met à distance de lui-même, mais par effet miroir : "À observer une communauté virtuelle donnée [...] on a un peu l'impression de regarder un feuilleton américain pour lequel il n'y aurait pas de séparation nette entre les acteurs et les spectateurs"[47]. Désir d'une reprise totalisante de la vie d'une communauté par elle-même, désir spéculaire qui manifeste non pas tellement l'auto-contrôle, mais l'auto-référence. Les résultats d'une étude sur les modes d'usages du Web, entreprise par un sociologue canadien, F. Bergeron vont dans le même sens. Ainsi, a-t-il eu l'idée de comptabiliser les occurrences du mot "je" dans les langues anglaise, française et espagnole, en lançant l'un des plus puissants moteurs de recherches, Altavista, sur le réseau. Deux fois plus de "je" que de "tu" et de "nous", telle fut la réponse[48]. Bien entendu, il faut accueillir ces résultats avec prudence compte tenu de l'absence de statistiques générales, mais l'indication est intéressante. La formidable explosion des pages d'accueil personnelle sur le Web nourrit une inflation de biographies, de récits des faits et gestes quotidiens, les uns aussi banals que les autres, bref une soirée "diapos de vacances" à l'échelle de la planète. Aussi, en guise de portrait type d'Internaute, dessine-t-il : "Un individu assez centré sur lui-même et qui fait de ce recentrement un projet mondial". Finalement cet exhibitionnisme de principe, qui transforme Internet en "lieu privilégié de l'admiration de soi", n'est peut-être pas aussi illusoire qu'on pourrait le croire. Ce qui compte, c'est de s'afficher sans espérer pour autant recevoir des connexions. L'affiliation au réseau par installation d'une carte de visite multimédia fait alors office de lien social, à l'image de ce que Michel de Certeau avait déjà remarqué à propos de ceux qui laissaient la télévision ouverte même lorsqu'ils quittaient leur domicile. Ce que l'on chasse -la médiation- est recréé ici, en instituant l'échange permanent, multiplié, diffracté sur le réseau comme lieu social privilégié. Le média -supposé miroir- recrée une distance et dédouble les cybernophiles en observateurs d'eux-mêmes. Ils n'affirmeront jamais qu'ils se replient dans le réseau, que c'est un refuge. Bien au contraire, ils le présentent comme le symbole de l'ouverture au monde, avec, en prime, l'allégement des appartenances. On se définit par l'affiliation au réseau. Dans cette logique, être membre d'un groupe de discussion

devient une marque sociale notable. Et une adresse électronique, un signe de reconnaissance de plus en plus courant. En fait la scénographie cyber transforme l'Internaute en centre privilégié, la périphérie n'est là que pour lui assurer cette position nodale. Mais cette certification dépend de la société des correspondants. C'est un compromis ingénieux entre une négation de l'altérité -en quoi consiste l'illusion d'être le centre du réseau- et une position constamment et directement référencée à l'assemblée mouvante des participants reliés. Ni une vraie solitude, ni une participation totale. Ni une confrontation engageante -du type de celle où l'on risque un échec- ni une flottaison indifférente, comme dans les foules anonymes. Drôle d'espace, ni vraiment public ni totalement privé. On livre toujours quelque chose de soi dans un réseau sans en maîtriser ni la signification, ni la trajectoire. Émerge ainsi une nouvelle formule d'interpénétration des espaces publics et privés, où l'espace public s'encarte en quelque sorte dans l'espace privé. L'interrogation porte, de fait, sur la nature d'un lien social "virtuel" non-hiérarchique et toujours fluide : que gagne-t-on et que perd-on en tentant d'éliminer les points d'accumulation de la mémoire, et par conséquent en affaiblissant sa temporalisation ? Il y a manifestement un vertige, un trouble à penser un espace social acentré, formé de groupes à échanges partiels (à distance et par systèmes symboliques). J'admets volontiers que cette appréhension "narcissique" de la communication sur le réseau est partielle, voire partiale. Elle ne s'ajuste ni à un abord sociologique, ni même psychologique. Des observations "de terrain" contrediraient sans doute cette approche, du moins la reléguerait-elle au rang d'une posture parmi d'autres. Elle vaut, en fait, plus comme composante, explicitant un paradigme présent selon des proportions variables dans tous les modes d'usages ; une sorte de fantasme collectif porté par tous et accompli par personne. Expérience et espérance : le mythe performatif Internet Si Internet est adossé à un mythe, celui-ci tiendrait plutôt des mythes de l'âge classique (récits fondateurs dans lesquels on s'inscrit) plutôt que de ceux de l'âge moderne (désir de dissiper les récits fondateurs par l'opérationalité techno-scientifique). Mais ce n'est pas simplement un récit fondateur qui distribuerait des réponses aux interrogations existentielles actuelles. C'est un dispositif pratico-imaginaire qui expérimente, dans l'actualité, son utopie. Tout comme les Anciens expérimentaient leurs mythes (danses rituelles, théâtre grec, cérémonies religieuses) en essayant de fonder l'organisation de leur vie sociale sur des règles qu'ils souhaitaient immuables, (et qui pourtant exigeaient une interprétation permanente). Évidemment, Internet ne se présente pas comme un mythe, mais comme un dispositif sociotechnique. Il en a pourtant tous les traits. Nous le nommons "présence à distance" et le définissons comme un mythe expérimental. Ce mythe, comme tout mythe, n'est ni un récit mensonger ni une illusion. Il possède la double efficacité d'être à la fois une espérance et une expérience. Espérance d'une vie plus "immatérielle", moins soumise aux pesanteurs des macros-objets, de la matière industrielle, des rapports sociaux de domination. Le cyberespace cumule la fonction imaginaire (ludique, onirique, relationnelle) avec la fonction opérative (formation, commerce, travail)[49]. Dans la pure veine des utopies du siècle passé, Internet permet d'éprouver conjointement l'évasion dans un outre-monde où les règles sociales seraient à inventer ex nihilo (comme les règles du management interne d'Internet ou l'établissement d'une constitution politique dans le "Deuxième monde" en seraient les prémisses) et parallèlement de conduire des activités variées (jeux, conversations, commerce, travail) où le média démontre sa pertinence. L'imaginaire et l'opératif s'allient pour accomplir cette utopie pratique.

Internet reconstitue une transcendance par son combat tangible contre les intermédiaires : une cause commune qui dépasse les acteurs et surtout qu'ils peuvent mettre en oeuvre directement. D'autant que la sphère de la communication interpersonnelle n'épuise pas la discussion des enjeux sociaux du réseau. Internet est aussi le porte-parole d'un vigoureux mouvement visant à augmenter nos espaces d'autonomie, notre puissance d'intervention sociale, notamment on l'a vu, en conquérant, par automatismes interposés, l'exercice de fonctions sociales qui nous échappaient ou en s'opposant à certaines logiques marchandes. Aussi, faisons-nous l'hypothèse que l'auto-médiation agit, dans ce cadre, comme principe quasi-moral, la lutte contre les intermédiaires faisant office d'objectif normatif. Comment imaginer une force plus transcendante (mais aussi pourvoyeuse de subjectivité) qu'une cause à laquelle on ne se contente pas d'adhérer mais qu'on actualise, qu'on performe. Il n'y a pas de discours plus efficaces que ceux qu'on propage parce qu'ils servent nos intérêts. Sous cet angle, au fil de nos multiples connexions, nous construisont indéfiniment le mythe Internet, inscrivont son récit et performont sa légende. [1] Un exemple parmi cent possibles : dans le livre L'entreprise digitale de A. André et al. (Andersen Consulting, First, Paris, 1997) l'entreprise numérique est définie comme "un réseau de petites équipes autonomes, ouvert sur l'extérieur, affranchi des contraintes de l'espace et du temps, irrigué par une information disponible. Et capable de se reconfigurer instantanément pour s'adapter aux évolutions de son environnement." [2] Ce constructivisme sociologique inspire nettement l'épistémologie basée sur les réseaux socio-techniques. Nous aurons l'occasion d'y revenir par la suite. [3] Dans les "groupes de discussion", par exemple, une pression normative ne manque pas de s'exprimer : pas de texte flou et long (aucune chance d'être lu), ne pas ennuyer les participants, consulter les F.A.Q. (Frequently asked questions) pour ne pas alourdir la circulation de l'information, faire preuve de netiquette, bref être performant, circonstancié, opérationnel. [4] Pierre Lévy, Cyberculture, Odile Jacob/Conseil de l'Europe, Paris, novembre 1997, pp. 147/148. [5] La logique du massmedia est très lisible du point de vue de l'éditeur. En attestent les dépenses de publicité sur le réseau visant à retenir l'Internaute sur un même site ainsi que le développement de campagnes promotionnelles ciblées. Par exemple, le site d'IBM a reçu plus de quatre millions de visiteurs durant la confrontation entre Deep Blue et Gary Kasparov (dont 420 000 pour la dernière partie). Une telle audience comparable à celle d'un bon programme sur le câble, hisse cette opération au rang de principale campagne publicitaire menée sur le Net. En revanche, du côté du récepteur, cette caractérisation doit être nettement tempérée. L'Internaute circule interactivement dans un site édité, et, de plus, à la différence d'un journal ou d'une revue papier, il peut le quitter instantanément pour aller sur d'autres sites. [6] Cylibris propose au lecteur tenté par l'offre, de passer à l'écriture à partir de textes téléchargés, et offre des conseils à destination des apprentis auteurs. [7] "Dans le cyberespace, chacun est simultanément écrivain et journaliste, éditeur et lecteur, vendeur et acheteur." (B. Giussi, Révolution dans l'information, in Le Monde Diplomatique, oct.1997, p. 27).

[8] LMB Actu est publié par le C.N.R.S. [9] Alain Simeray, La pêche à la ligne, in Libération, supplément multimédia, 21/11/1997, p. VII. [10] Il faut entre six et dix-huit mois pour publier un article -s'il est accepté- dans une revue de renom. La publication directe est la conséquence, aussi, d'une certaine tendance des comités de lecture -assaillis par un nombre croissant de propositions d'articles- à privilégier, faute de temps, les articles les moins "fantaisistes", lesquels recèlent parfois de véritables innovations déstabilisatrices. Voir Jean Zinn-Justin, L'influence des nouveaux outils informatiques sur la publication des travaux en physique, in Terminal, ndeg.71/72, 1996, pp. 259/266. [11] L'exemple du San Jose Mercury News aux États-Unis est symptomatique, qui a vu croître simultanément la lecture des deux versions. [12] La publication sur le webjournal de Matt Drudge, d'informations non vérifiées à propos des liaisons extra-conjugales de Clinton a contraint les grands quotidiens à emboîter le pas de peur qu'ils ne soient devancés par leurs concurrents. [13] Il s'agit de la N.O.A.A. (National Oceanographic and Atmospheric Administration). [14] Des sites commerciaux ou coopératifs, aux États-Unis, se livrent une concurrence acharnée pour répondre aux demandes les plus diverses, grâce à leurs bibliothèques contenant des milliers de devoirs et à leurs moteurs de recherche. Le développement de ces pratiques suscite déjà, chez les enseignants des contre- mesures : demandes d'avant-projets ou sujets très contextualisés. Au Texas, une loi a été prise pour interdire ce type de commerce. À quand les logiciels de détection des devoirs pré-rédigés ? (Voir K. Granier-Deferre, Dissertations à vendre, in Le Monde, 7/8 Septembre 1997, p. 34.) [15] En 1997, trois millions de compteS étaient gérés sur le réseau aux États-Unis. Fin 1998, leur nombre dépassait les cinq millions. Selon une étude (effectuée en 1997 par le cabinet Forester Research), plus de quatorze millions de comptes seront ouverts sur le réseau en 2002. Elle prévoit que les actifs gérés vont y être multipliés par 5. La société de placement direct en Bourse par le Web, E*Trade, basée à Palo Alto, arrivait sur le marché français à la fin 1998, accélérant l'ouverture de services similaires par des banques et des courtiers traditionnels. [16] E*Trade réalise, en association avec une banque, l'introduction on line de sociétés sur le marché boursier. D'autres institutions s'apprêtent à offrir les mêmes services. [17] Abréviation de MPEG 1 Audio Layer 3, MP3 est un standard de compression numérique divisant par 12 la taille des fichiers sans perte trop sensible pour l'oreille. [18 ]En 1998, le groupe de rap Public Enemy a été le premier à offrir gratuitement le téléchargement de titres inédits, entamant ainsi une violente campagne contre sa propre maison de disques. Sommé de rentrer dans le rang par les dirigeants du label, le groupe a obtempéré non sans se réjouir d'avoir lu "la peur dans leurs yeux" et en ajoutant : "On sait que c'est quelque chose qu'ils ne pourront plus arrêter." Propos rapportés par Matt Richtel, Internet

ouvre une brèche dans le monopole des maisons de disques, in Courrier International, ndeg. 425- 426 du 23/12/98, p. 46. [19] Voir Yves Eudes, L'ère des cybertribunaux, in Le Monde, 29 et 30/09/96, p. 29, et Michel Arseneault, Les justiciers du Web, in Le Monde, 28 et 29/06/98, p. 34. [20] Déclaration publiée dans Libération, supplément multimédia, 6/06/97, p. II. [21] Enseignante d'anglais et pionnière du premier lycée public totalement en ligne aux ÉtatsUnis -la Florida High School d'Orlando-, L. Parrish, après avoir insisté sur la qualité humaine de ses contacts électroniques avec ses élèves, ajoute néanmoins : "Mais une vraie classe me manque beaucoup..." C. Lionet, Floride, lycée hors les murs, in Libération, supplément multimédia, 14/11/1997, p. II. [22] L'activité du C.N.E.D. semble aller dans ce sens. Voir Jacques Perriault, La communication du savoir à distance, L'Harmattan, Paris, 1996. [23] Magellan, moteur de recherche qui indexe plus de quatre millions de sites, en commente cinquante mille seulement et décerne des étoiles. Seuls cinq pour cent d'entre eux ont reçu quatre étoiles. [24] Les "robots-chercheurs" -on le rappelle- sont des programmes qui vont rechercher des informations en fonction de centres d'intérêts particuliers et les ramènent en direct ou dans une boîte aux lettres. AltaVista -conçu par Digital- est devenu une référence incontournable. Les guides de recherche, comme Yahoo!, proviennent d'une indexation humaine organisant le contenu d'Internet dans de gigantesques structures de données. Certains robots, moins universels, visent des objectifs plus sophistiqués. Les "agents" de Verity, par exemple, vous préviennent que le vol que vous avez réservé est annulé, ceux de General Magic peuvent effectuer directement une réservation sur un autre vol. Nombre de grandes entreprises de Thomson à l'Aérospatiale, la Défense Nationale et la D.S.T. s'intéressent à ces robots chercheurs pour l'espionnage industriel. Une place particulière doit être réservée à Taïga (Traitement automatique de l'information géopolitique), développé pour la D.G.S.E., qui traite l'information secrète. Son architecte, C. Krumeich en a tiré une version civile, Noemic, capable de recherches sémantiques et qui prend en compte les concepts, les métaphores ou les associations d'idées. Sur les robots chercheurs, voir notamment A. Rouble, Internet Reporter, ndeg. 6. [25] Digout4U exploite la méthode des "langages pivots" développée par Taïga. Plus puissante que le simple enregistrement de mots clefs, cette méthode associe, aux termes de l'interrogation initiale, un ensemble d'éléments contextuels (y compris la traduction anglaise) qui élargit considérablement les champs de recherche. À la fin, le moteur évaluera les informations récupérées sur le réseau en les rapprochant de la requête initiale. Voir E. Parody, Digout : de l'ordre dans vos recherches, in Planète Internet, ndeg. 24, nov. 1997, pp. 80/81. [26] Travelocity, l'une des principales entreprises américaines de vente sur Internet, a mis au point un logiciel de recherche qui avertit l'usager, par courrier électronique, de toute variation de prix supérieure à vingt-cinq dollars sur la destination choisie. Grâce à Expedia, le logiciel spécialisé qui a permis à Microsoft de s'imposer dans ce secteur, on peut même visualiser un schéma de l'avion avec les places disponibles. Guides, locations de voitures, réservations d'hôtel sont les prolongements logiques de ces services, qui, encore minoritaires aujourd'hui,

suscitent un engouement croissant. Images des hôtels, vues des paysages environnants et bandes sons sont en préparation. [27] Aux États-Unis, Amazon.com -qui propose trois millions de titres sur le Net- s'est imposée en deux ans comme l'une des premières success story du commerce électronique. Barnes & Noble, la célèbre chaîne de librairies, offre un million et demi de titres. D'autres distributeurs se sont spécialisés par genre (science-fiction, mode, etc.) Sur Dial-a-book, on peut télécharger et lire gratuitement le sommaire et le premier chapitre, et commander ensuite le livre qui sera expédié par la poste. En France, l'ABU (Association des Bibliophiles Universels) a été fondée en avril 1993. Son ambition est de numériser et de rendre accessible sur le réseau une sélection d'oeuvres du patrimoine littéraire francophone libres de droits, du traité de Maastricht au Discours de la méthode de Descartes. Plus de cinq mille connexions par mois, en 1997, viennent, légitimer l'intérêt de ce patient travail. L'ABU propose aussi aux Internautes différents outils de recherches automatiques tels que des calculs d'occurrences pour chaque ouvrage ou pour l'ensemble du corpus. Enfin, en octobre 1998, un grand éditeur français, Le Seuil, doublait la distribution en librairie de deux livres par leur mise en ligne sur Internet. L'éditeur électronique 00h00, en proposait la commande par téléchargement direct ou l'impression à la demande relayée par un réseau d'imprimeurs disséminés sur la planète. [28] On peut citer, parmi les plus répandus, Jungle équipant Yahoo! ou Jango disponible aussi sur le moteur Excite. [29] Le télescope de Bradford en Grande-Bretagne, comme celui de Skyview, accessible depuis le site de la NASA, fonctionnent selon ces principes. [30] Le logiciel, proposé par la firme Excalibur, indexe tous les mots d'un texte leur faisant correspondre une signature binaire. Exploitant les principes associatifs des réseaux neuronaux, il peut explorer une encyclopédie de 50 000 pages en dix secondes tout en tolérant des erreurs. Il est déjà utilisé sur Internet par deux moteurs de recherche (Yahoo! et Infoseek) pour identifier, selon les mêmes principes, l'énorme gisement d'images sur le Net et permettre la recherche de documents. La R.A.I. italienne, par exemple, l'utilise pour ses besoins. Avec un coucher de soleil comme image de départ, le logiciel proposera toutes les images proches et celles dont les couleurs voisinent où qui comportent un disque lumineux. [31] Voici, par exemple, comment B. Dousset, concepteur du logiciel d'analyse statistique Tétralogie, le présente : "Tétralogie fouille Internet et opère des croisements de termes scientifiques, d'organismes, de noms de personnes... pour en extraire l'information cachée. Nous pouvons déceler les axes de recherche prometteurs, ceux où la concurrence est moins forte, identifier les <<mandarins>> du domaine, ou au contraire les chefs de labo qui émancipent leurs collaborateurs" (cité par C. Labbé et O. Rousseau, Internet veille sur les entreprises, in Le Monde, sup. Multimédia, 3 et 4/11/1996, p. 32). Le logiciel peut détecter les chercheurs qui ont fréquemment changé d'équipe, accumulant ainsi des savoir-faire variés. Il démasque aussi les notoriétés factices obtenues par citations réciproques (les classements obtenus par compilation automatique des noms cités dans les publications engendre effectivement ce genre de comportement chez nombre de chercheurs américains). [32] Des sites commerciaux américains proposent pour des sommes allant de cent à deux cents dollars des enquêtes approfondies sur les individus. Exploitant de puissants moteurs de recherches, se constituant de vastes fichiers acquis auprès d'institutions financières, par exemple, ces services peuvent renseigner un employeur sur la véracité d'un C.V., vérifier les

diplômes mentionnés, les sanctions pénales reçues ou le bon remboursement des emprunts contractés. Ils envisagent, d'ailleurs, de moissonner des gisements d'informations en Europe pour permettre aux entreprises du Vieux Continent de contourner des barrières législatives souvent beaucoup plus solides qu'outre-Atlantique. Sur les dangers de "l'autorégulation" à l'américaine, voir Mathieu O' Neil, "Internet, ou la fin de la vie privée", in Le Monde Diplomatique, septembre 1998, p. 23. [33] Toute l'ingénierie des agents intelligents est mise à profit pour proposer l'installation sur les ordinateurs familiaux, ou dans les entreprises, de logiciels paramétrables filtrant les accès, qui aux sites à caractère sexuel, qui aux casinos virtuels, etc. Les forums de discussion, les moteurs de recherche et les bases de données sont aussi contrôlés. Ces censorware commencent à influencer le contenu du Web aux États-Unis, les sites commerciaux prenant garde de ne pas figurer sur des listes rouges. [34] Christian Huitema, Et Dieu créa l'Internet..., Eyrolles, Paris, 1996 [35] Conseil créé en 1983, l'I.A.B. avait la charge d'organiser le développement de l'architecture technique d'Internet, mission à la fois technique (perfectionner les protocoles techniques), prosélyte (convaincre les utilisateurs de se raccorder) et commerciales (trouver les financements nécessaires). [36] Op. cit., p. 80. [37] Op. cit., p. 81. [38] L'I.E.T.F. (pour Internet Engineering Task Force) est un organisme supervisé notamment par l'I.A.B. [39] Loc. cit. [40] Op. cit., p. 82. [41] Les standards sont des programmes qui assurent la gestion des réseaux incluant, par exemple, le choix stratégique d'une méthode d'adressage adaptée à l'éventuelle croissance exponentielle des abonnés. [42] Ainsi en va-t-il pour le perfectionnement de la norme HTML (spécifications permettent l'édition de documents multimédias comprenant la gestion des liens hypertextuels vers d'autres sites). Il est douteux que la simple comparaison "rationnelle" des qualités des différentes normes suffise à départager les concurrents. Ainsi, après s'être imposée en distribuant gratuitement son navigateur (programme permettant de se déplacer dans Internet), la firme Netscape se montre pugnace sur ce terrain stratégique de la définition des normes. Cette firme engrange d'ailleurs l'essentiel de son chiffre d'affaires sur le marché des navigateurs d'Intranet, réseaux fermés d'entreprises organisés selon les normes techniques d'Internet. Même si elle a finalement publié le code source de son navigateur, favoriser l'expansion d'Internet comme espace universel de communication gratuit n'est sans doute pas son objectif ultime. Mais c'était l'unique moyen de résister à la puissance de Microsoft. Ce faisant, Netscape reconnaît l'excellence et la robustesse des logiciels libres et en renforce la logique.

[43] Tel roman interactif sur CD Rom, par exemple, propose un seul début et 80 déroulements possibles. [44] Ces considérations sont parfaitement résumées dans la conclusion que Pierre Lévy apporte à Cyberculture : "La cyberculture incarne la forme horizontale, simultanée, purement spatiale, de la transmission. Elle ne relie dans le temps que par surcroît. Sa principale opération est de connecter dans l'espace et d'étendre les rhizomes du sens" (op. cit., p. 308). [45] Yves Barel, La société du vide, Le Seuil, Paris, 1984. [46] Howard Rheingold, Les communautés virtuelles, Addison-Wesley, Paris, 1995. [47] Howard Rheingold, op.cit. [48] 77 044 332 "je, I" contre 43 325 875 "tu, you", précisément, mais en un temps non mentionné. [49] Cette séparation est, bien entendu, à prendre comme un partage analytique et non descriptif. Nombre d'activités laborieuses possèdent des dimensions imaginaires, et à l'inverse le travail relationnel est aussi opératif.

Table des matières

Chapitre IV La téléinformatique comme technologie intellectuelle
Quel profit pouvons-nous faire du concept de technologie intellectuelle pour apprécier les enjeux du développement de la téléinformatique ? Cette question a partie liée avec deux autres interrogations plus générales : - Le travail symbolique repose-t-il principalement sur les déterminations matérielles des outils qu'il mobilise ? - Les technologies intellectuelles fondent-elles les dynamiques sociales ? Notre ambition, face à ces questions complexes, est mesurée. Nous les aborderons dans la perspective de développements ultérieurs concernant notamment les enjeux culturels de la téléinformatique. Précisons que notre démarche n'est pas démonstrative. Si elle reprend quelques problèmes fondamentaux, c'est plus dans l'intention de mieux faire comprendre au lecteur les présupposés qui gouvernent nos analyses que pour en détailler les articulations. Ceci nous offrira l'opportunité d'évaluer, plus largement les thèses de la nouvelle école épistémologique sur la nature du travail scientifique dans ses relations aux autres sphères de l'activité sociale (politique, notamment). Enfin, un commentaire des travaux de Jacques Derrida à propos de l'archive clôturera ce chapitre : archive en général -modalité de mémorisation collective- et archive "virtuelle" en particulier, laquelle est l'objet d'une pénétrante interrogation sur le dépassement de l'opposition présence/absence, prolongeant l'enquête du philosophe sur la spectralité. A - Technologies intellectuelles, activité scientifique, dynamiques sociales Les technologies intellectuelles, quelques principes Les premiers usages de l'écriture avaient, on le sait, une vocation gestionnaire, calendaire ou généalogique. Quelques millénaires après leur utilisation courante comme mémoire additionnelle à l'oralité, Jack Goody[1] a pu y détecter l'émergence d'une raison graphique, spatialisée, permanente et réflexive. On a, par ailleurs, maintes fois souligné en quoi l'écriture et les opérations symboliques, notamment sur les figures et les nombres, ont conditionné la naissance de la pensée réflexive, philosophique et scientifique mais aussi la formation des premières cités-États[2]. Après quatre siècles, nous commençons à comprendre assez clairement pourquoi une technologie bien matérielle comme l'imprimerie doit être qualifiée de technologie intellectuelle. C'est- à- dire comment, en industrialisant la mémorisation de l'écrit, elle a créé un nouvel espace intellectuel et fait naître des notions aussi inédites que celle d'auteur individuel, d'authenticité, de datation et de catalogage[3]. Certains travaux vont même jusqu'à faire reposer la stabilisation de la Renaissance sur l'invention de l'imprimerie[4].

Plus que son contenu, cette méthodologie interroge l'activité symbolique à partir des instruments concrets avec lesquels elle opère. Elle s'intéresse à la matérialité des truchements et se demande en quoi leur constitution physique les prédestine à ouvrir de nouveaux champs de connaissance ? Dans cette perspective, la philosophie ainsi que les mathématiques sont les enfants de l'écriture, et la production industrielle par série est la descendante de la presse à imprimer. Une longue lignée initiée notamment par Walter Benjamin et Marshall McLuhan a développé, à rebours de la tradition philosophique réflexive, cette enquête sur l'efficacité propre des supports et des moyens, déduisant les finalités à partir des déterminations concrètes des instruments et de la manière dont les acteurs les enrôlent dans leurs projets. Ainsi, l'invention de l'ordinateur mêle indissolublement une généalogie de recherches théoriques sur l'automatisme et une exigence stratégique militaire, auxquels il faudrait ajouter quantité d'autres déterminations comme les affrontements internes à l'équipe des inventeurs. Prolongeant ces travaux, un courant de l'épistémologie contemporaine, dont Bruno Latour est l'un des meilleurs représentants en France, porte son attention sur les procédures concrètes à travers lesquelles le fait scientifique se construit, se maintient, et négocie sa reconnaissance. Dans cette perspective, les techniques de prélèvements des faits en milieu naturel, leurs transports, leurs traductions en inscription et les traitements concrets de ces inscriptions ainsi extraites sont devenus le centre de l'étude de la production de la science. La notion de "technologie intellectuelle" a ainsi été élevée au rang de principe ordonnateur de la pensée scientifique ; laquelle est devenue ingénierie de conception et d'usage d'instruments de prélèvements, de transports et de travail sur les données en milieu contrôlé, nommé laboratoire. La portée essentielle du concept de "technologie intellectuelle" réside alors dans la potentialisation de la pensée qu'elle autorise. Des jeux inédits sur les inscriptions permettent d'augmenter les connaissances qu'elles rassemblent. Trouver les formes de cartographie adéquates, les symbolisations à plus-value informationnelle, les modalités d'inscription augmentant l'acquisition de connaissances : ceci constitue la visée des technologies intellectuelles opérant toujours par une modélisation à gain cognitif. Les inscriptions infographiques se révèlent particulièrement propices à ces jeux de comparaisons et de modifications d'échelles. Leur mobilisation grâce à des programmes automatiques, permet, en effet, de les recombiner selon une variété inégalée de paramètres. Aujourd'hui, le numérique assure cette conversion entre quasiment tous les types d'information (textes, sons, images, mouvements, etc.). Les simulations numériques opérant sur des modèles -véritables théories objectivées- de devoir sans cesse revenir au laboratoire pour faire des expériences. Ces variations virtuelles permettent d'augmenter plus facilement le stock de connaissances acquises, en décuplant les informations préalablement déposées dans les modèles. Internet comme espace coopératif distribué On a coutume de considérer que le réseau facilite et accélère la communication entre chercheurs. D'où la tendance à le définir comme moyen de communication en oubliant que toute transformation saillante dans les modalités de circulation des connaissances est porteuse, à terme, de bouleversements dans leur élaboration. C'est ce qu'on peut une nouvelle fois vérifier en examinant comment l'usage d'Internet conditionne le décryptage du génome humain. Le généticien Jean-Louis Mandel rapporte qu'en octobre 1996, la revue Science a publié la cartographie de seize mille gènes humains, réalisée par une équipe internationale. L'article comptait trois pages et s'attachait à décrire les méthodes utilisées. La cartographie, quant à elle, n'était accessible que sur Internet. Inscrites dans une symbolique complexe, ces

cartes ont un volume tel qu'elles sont impubliables. Seul un support informatique peut les accueillir. Et la fonction du réseau ne se limite pas à stocker l'information dans une gigantesque bibliothèque numérisée. Il permet, grâce à la mobilisation à distance de logiciels spécialisés, d'organiser la recherche, l'identification et le classement d'un clone isolé par tel ou tel chercheur. Celui-ci interroge, via le réseau, instantanément l'une des principales banques de données. De puissants logiciels compareront son clone aux millions déjà déchiffrés depuis des années et lui indiqueront que sa séquence est apparentée à tel gène, dont le code d'identification s'affiche alors sur l'écran. En cliquant sur ce code, il obtiendra une description détaillée dudit gène. Un lien le renverra, éventuellement, à une autre base de données qui décrit les maladies liées à une anomalie du gène en question. Sur le Web, le nombre de serveurs dédiés à l'information génétique se multiplie. Certains sites sont spécialisés sur tel ou tel chromosome : le numéro 3 à San Antonio au Texas, le 9 à Londres. En France, afin de faciliter des interrogations locales par des logiciels maison, l'Institut Pasteur ou des laboratoires du Généthon dupliquent des grandes banques de données sur leurs propres ordinateurs. Chaque nuit, des dizaines de millions d'octets transitent sur Internet afin de mettre à jour ces banques. Le réseau devient une gigantesque bibliothèque en expansion accueillant quotidiennement les millions de nouvelles lettres génétiques décryptées dans les laboratoires du monde entier par des programmes de séquençage automatiques. La célèbre banque Genbank voit doubler, chaque année, le nombre de séquences accueillies. En France, G. Vaisseyx, l'un des directeurs d'Infobiogen estime qu'en l'an 2000, son centre devra héberger un téraoctet (mille milliards de caractères) de données en ligne. Mais, ajoute-t-il, les qualités des programmes permettant d'analyser et de corréler ces données feront la différence entre les différentes banques mondiales. Tout ce travail serait doublement rendu impraticable s'il devait s'accomplir sur support imprimé. Le volume phénoménal d'information rassemblé rendrait sa manipulation physique impossible : il s'agit finalement d'obtenir la séquence totale des trois milliards et demi de "bases" formant le message génétique de l'Homo sapiens sapiens. La consultation de ces informations obligerait les chercheurs à se déplacer vers les centres de stockages dont la mise à jour exigerait un temps de travail sidéral. De plus, les activités basiques de recherche, comparaison, identification seraient tout bonnement impossibles à exécuter sur de tels supports. Dans ses analyses sur la mécanisation du travail de remémoration, André Leroi-Gourhan rappelait qu'à la différence du fichier bibliographique -permettant déjà de recombiner des informations indépendamment de leur inscription dans des livres- les fichiers électroniques accédaient au statut de mémoires possédant leurs moyens propres de remémoration[5]. L'alliance de la programmatique et de la mise en réseau qualifie ici le média Internet. Celui-ci assure bien l'intensification de cette fonction prothétique mémorielle, étendant les chaînes de transfert et rapprochant comme jamais les acteurs engagés dans une même activité. Internet devient même parfois une technologie inédite de production distribuée. Le système d'exploitation Linux en est l'un des meilleurs exemples. Diffusé libre de tout droit sur Internet, le code source de ce logiciel de base a été progressivement pris à bras le corps par des centaines d'informaticiens de par le monde, qui n'ont eu de cesse que de le tester sous tous ses aspects, d'en améliorer les performances et d'échanger, via le réseau, leurs résultats. Si bien que ce programme est aujourd'hui moins gourmand en puissance et plus robuste que, par exemple, les produits standards de Microsoft. Le tamisage méticuleux auquel a été soumis ce logiciel surpasse le travail d'équipes d'ingénieurs appointés, certes qualifiés mais en nombre limité et toujours soumis aux contraintes d'urgence.

Utilisé, juste retour des choses, par le quart des sites de la Toile, Linux, comme d'autres logiciels libres[6], est profondément lié à Internet qui agit comme une force productive directe provoquant et organisant l'association coopérative de centaines d'acteurs. Parfaite illustration d'une "intelligence collective" chère à Pierre Lévy, cet exemple nous éclaire sur la constitution du réseau en technologie intellectuelle originale. Mais la cartographie du génome comme la coopération productive distribuée relèvent d'activités techniques ou technologiques. Il faut observer, que, jusqu'à présent, il est difficile de rapporter directement l'émergence de nouvelles théories scientifiques à l'usage de la téléinformatique. Sans doute peut-on mettre l'accent, par exemple, sur le statut épistémologique de l'expérimentation virtuelle comme nouvelle pratique scientifique, mais rien ne ressemble encore aux liens fondamentaux des mathématiques à l'écriture ou des sciences expérimentales à l'imprimerie. Autant les mutations technologiques sont, quant à elles, bien évidentes, autant n'avons-nous peut-être pas encore assez de recul pour évaluer les bouleversements épistémologiques à attendre de ces nouveaux canaux d'élaboration et de diffusion des savoirs techno-scientifiques. Question à suivre... L'idéal d'objectivité scientifique L'idéal scientifique, c'est que la Science parle de manière anonyme, générique, et pas au nom d'une personne physique. Comment ? En publiant non seulement ses résultats mais ses protocoles, de telle manière que chacun puisse refaire l'expérience et se convaincre de la validité des résultats. La science expérimentale est donc nécessairement publique et "publicatrice", voire "publieuse" puisque c'est aujourd'hui comme jamais, la condition de la légitimation du labeur scientifique. De manière iconoclaste -c'est ce qui épice le propos et assure ses valeurs de vérité- Bruno Latour, et les courants qui étudient la production sociale de la science, attirent notre attention sur le fait que "refaire l'expérience" est une proposition abstraite. Pour la concrétiser, il faut disposer d'un laboratoire, pouvoir accéder aux banques de données mondiales, bénéficier d'une ligne de crédits. Ne sauraient faire défaut, en outre, les tours de main assurant la solidité des bricolages montés, mais aussi des carnets d'adresse bien remplis listant les bonnes relations qui assureront la légitimité des projets expérimentaux. Enfin, il est indispensable de convaincre des institutions pour débloquer les budgets ; bref, il faut faire de la politique. Au terme de l'empilement de ces conditions pratiques, on ne peut que se rendre à la démonstration. Oui, la science est une activité sociale, traversée par la politique et orientant les politiques possibles. Mais qu'en est-il de l'idéal d'objectivité ? Une protection, une digue élevée garantissant le partage de la science et de la politique ? Faut-il, pour autant, considérer la tentative d'objectivité comme une pure construction idéologique assurant la fiction de la séparation science/politique ? Cette tentative, ne recèle-t-elle pas une puissance créatrice incontestable tenant précisément aux contraintes protocolaires de réitération que, péniblement, les scientifiques tentent d'assumer, même si ces règles de jeu ne peuvent être parfaitement satisfaites[7] ? La sociologie de la science et l'obsession du pouvoir Les études sociales de la science mettent au coeur du processus d'élaboration des connaissances scientifiques, les dispositifs pratiques, institutionnels et politiques par lesquels le chercheur parvient à enrôler une matière première "naturelle" dans ses montages expérimentaux. Ainsi pourra-t-il construire de solides réseaux de diffusion et réussir à

convaincre ses interlocuteurs de la pertinence des résultats obtenus. Cette démarche, et c'est l'un de ses bénéfices incontestables, démontre le caractère profondément humain des sciences et des techniques[8]. Elle fonde la possibilité d'une anthropologie des sciences. La notion de chaînage humain/non humain (les non-humains sont des êtres "naturels", des instruments ou des institutions) est cardinale pour définir la structure en réseaux des faits technoscientifiques. La "pensée" des chercheurs est ainsi constamment rapportée à ses conditions matérielles d'exercice, indissolublement instrumentale et institutionnelle. Bruno Latour, par exemple, dans son travail sur Pasteur, nous appelle à prendre avec la plus grande méfiance le supposé "génie" de Pasteur[9]. Mais au terme de ces alliages humain/non humain, c'est le chercheur, comme agent différencié de son environnement, qui disparaît. "L'idée nouvelle" comme le "génie créateur" source d'une découverte constituent, dans cette logique, un effet idéologique, reconstruit a posteriori. D'où l'accent mis sur l'idée que la découverte résulte principalement d'agencements complexes où le hasard, les contacts avec les collègues, le désir de convaincre et l'appétit de pouvoir jouent un rôle majeur. La notion même de "chaînage humain/non-humain/humain" s'efface au profit d'une collusion asphyxiant à la fois objet et sujet. Désormais, c'est le réseau associant les chaînages qui pense. Dans cette appréhension du concept de "technologie intellectuelle", quasi structuraliste, on pense la création, le surgissement ou l'émergence dans une perspective vitaliste -un esprit collectif, agencé aux autres collectifs et à la machinerie socio-technique, crée "naturellement", par production "buissonnante" comme la vie engendre l'inédit. Ou alors on l'envisage comme réponse paranoïaque au désir de contrôle et de pouvoir. Le rapport de forces devient prédominant. Il possède, de fait, plusieurs figures. Il réfère aux forces sociales que, par exemple, Pasteur doit vaincre pour convaincre (littéralement : "vaincre ensemble") ainsi qu'aux forces logistiques qu'il doit mobiliser pour établir la double circulation, du territoire vers le laboratoire, et inversement. La tentative de domination fait signe aussi vers les forces physiques qu'il doit contrôler pour assurer l'inaltérabilité du vaccin et imposer les protocoles d'usages[10]. Elle concerne enfin, les forces humaines (collègues, hygiénistes alliés, ministres, etc.) qu'il doit "enrôler" pour construire l'artefact "vaccin". Mais en éclairant -contre l'abord spiritualiste et idéaliste- le versant matériel/politique du travail scientifique, Bruno Latour ne tord-il pas le bâton exagérément en sens inverse ? La science devient une activité purement mécanique d'asservissement à l'amélioration des rapports de forces où l'intentionnalité du chercheur a totalement disparu[11]. L'encerclement quasi militaire des concurrents, par le montage de "boîtes noires" indéformables et l'effort pour circonvenir les centres de pouvoir tiennent lieu de motivations décisives des décisions prises. D'où vient le projet d'expérience qui recomposera l'horizon d'une discipline ? Du hasard, de méthodes systématiques, exhaustives ? Le "coup de génie" -ou, plus modestement, une idée organisatrice qui redistribue les acquis- ne se conçoit certes pas sans les techniques de traitement des inscriptions, mais pas non plus sans le travail imaginaire, l'expérience de pensée, l'anticipation créatrice d'ordre. Sans doute est-ce salutaire de sauver la "matérialité" du travail scientifique et de mettre à jour les réseaux socio-techniques qui le rendent possible. Mais pourquoi radicaliser ainsi le propos au point d'évacuer la subjectivité des chercheurs et des équipes, leurs différences, leurs spécificités ? La suspension des chaînages, dans ce qu'on appelle communément la "réflexion" personnelle, ne trouve, dans cette perspective, plus aucun espace[12].

L'humain, toujours techniquement équipé, est un être pris dans le mouvement d'extériorisation et d'intériorisation de la technique. Ce deuxième mouvement est délaissé dans la logique de la "construction sociale de la science". Car l'intériorisation est un métabolisme mystérieux. Qu'est ce qui pousse un chercheur, ou une équipe, à faire telle comparaison, à mélanger les inscriptions de telle façon qu'il en résulte un gain cognitif décisif ? On peut se demander pour quelles raisons la dimension imaginaire et personnelle de l'activité scientifique (projets expérimentaux, vérification, importation de concepts, etc.) est-elle, à ce point, déniée ? La liberté de mouvement interne du sujet, la possibilité d'abstraire, fut-ce pour imaginer de nouveaux montages expérimentaux, ne recèle-t-elle pas d'une puissance heuristique indispensable ? Ne suppose-t-elle pas de dégager en soi, fugitivement, un espace libre où viennent se combiner des idées et des mouvements psychiques oubliant et commutant à la fois les technologies intellectuelles ? L'occultation provisoire des déterminations socio-techniques, l'isolement mental est une dimension, fugitive mais puissante, du surgissement du nouveau, un moment privilégié dans la ronde sans fin des interactions qui assaillent, orientent et déstabilisent l'activité de connaissance. La systématisation du concept de réseau vient, ici, oblitérer la reconnaissance de l'espace subjectif. La mise en cause légitime des miracles d'une "pensée" scientifique toute-puissante autorise-t-elle ce retournement ? Symétriquement, en déniant ou en ignorant le caractère formellement rigide, délimité des objets (êtres naturels prélevés, instruments, etc.) on imagine la dynamique interprétative portée par un tourbillon permanent, mêlant sujet et objet. Fusionner objet et sujet, n'est-ce pas refuser la différence des modalités de manifestation de l'un et de l'autre ? Par ailleurs, et sous prétexte que les techno-sciences sont "civilisatrices ", on s'évite le souci d'évaluer leurs usages, notamment selon des critères éthiques. Comment orienter un jugement de valeur à propos de tel ou tel projet si l'on se contente de tenir le livre de comptes des conflits d'intérêts et de pouvoir qu'il engendre ? S'il n'y a pas d'intentionnalité, ni d'intérêt repérable dans leurs genèses et leurs appropriations, comment les apprécier ? Tout se vaut : Hiroshima, les autoroutes, le fichage informatique aux côtés du traitement de texte et de l'ingénierie écologique ? La quête de l'atome relationnel La nouvelle épistémologie s'apparente au positivisme sociologique : trouver la matière première du lien social. On ne la recherche plus dans une activité fondamentale (le travail), ou une forme originaire (la domination, par exemple) mais en construisant méticuleusement l'écheveau des relations entre groupes humains, institutions et instruments techniques. Cette quête pistant, de proche en proche, les mailles du réseau, et sa complexification croissante, opère comme si chaque chaînon était indépendant des autres, aucune force générale, ne pouvant, par principe, conditionner leur agencement. Or, le social est toujours déjà présent dans la chaîne associant les humains et la technique. Le constructivisme associationniste recherche, paradoxalement, le matériau social ultime et croit l'avoir trouvé dans la séquence relationnelle élémentaire du réseau. C'est comme si on voulait définir le sens d'une phrase à partir de celui des mots qui la compose. On sait qu'une telle entreprise est une aporie, qu'il faut recourir à un ailleurs du langage, à l'expérience vécue en l'occurrence, pour asseoir la signification. Quel est l'ailleurs de la chaîne humain/non- humain ? C'est l'ensemble des rapports sociaux, que l'école des réseaux socio-techniques n'ignore pas d'ailleurs, mais qu'elle tente de circonscrire en faisant comme s'il était théoriquement possible d'en démêler l'écheveau. Symétriquement, on pourrait tout aussi bien montrer, dans une perspective "fractale", que chaque séquence élémentaire condense les enjeux de l'ensemble des réseaux

qu'elle dessert. Question méthodologique complexe à laquelle nous n'apportons pas de réponse élaborée. Mais il nous semble que l'associationnisme intégral ne contribue pas plus à expliciter la complexité de ces jeux de renvois. Les technologies intellectuelles fondent-elles les dynamiques sociales ? La discussion sur les technologies intellectuelles ne se limite pas au champ de l'activité scientifique. Très souvent, l'usage de ce concept est adossé à une conception générale du dynamisme social qui fait jouer à l'activité symbolique (traitement des signes) un rôle central. Or autant ces vues ont une vertu heuristique enrichissante dans l'aire épistémologique, autant leur généralisation au fonctionnement social pose d'épineux problèmes. Nous nous limiterons à résumer leurs lignes de forces, afin de poursuivre, ultérieurement, une réflexion sur les enjeux culturels des technologies numériques. Si, de manière générale, les dynamiques techniques sont cumulatives et engendrent, par conséquent, une compétition dans laquelle la performance (rapport entre input et output) tranche en faveur des systèmes techniques les plus récents, ce mouvement prend une dimension particulière avec les technologies intellectuelles. Pourquoi ? Parce que, plus que toute autre technologie, ce ne sont pas des outils mais des milieux. Sans doute cela est-il vrai pour toutes les techniques, mais cette caractérisation vaut tout particulièrement les concernant. Elles instituent un nouveau milieu intellectuel et mental (mental désigne des dispositions plus générales qu'intellectuelles, des mécanismes mixant des schèmes opératoires et des orientations psychologiques, des "conceptions du monde"). Dès lors, dans ce nouveau milieu, l'objectif n'est pas de résoudre à moindres frais d'anciens problèmes, mais d'en énoncer de nouveaux, auxquels les équipements récents viendront offrir leur efficacité. Par exemple, même s'il a été inventé pour cela, l'ordinateur ne se contente pas de calculer plus vite. En effet, pour atteindre cet objectif opérationnel, un nouveau stade dans l'histoire des automatismes a été franchi, stade que nous nommons quasi réflexif[13]. S'ouvrent alors de nouveaux champs à l'investigation scientifique, tels que les mathématiques expérimentales ou la modélisation numérique de comportement d'objets. Poussant à l'extrême cette logique, de nombreux courants estiment que la fonction socialement structurante des technologies intellectuelles surpasse celle des technologies énergétiques/mécaniques. Dans la mesure où ils conditionnent les formes de la mémoire sociale et constituent les technologies de la connaissance, les systèmes symboliques et les technologies intellectuelles qui les mettent en oeuvre seraient la source première de la dynamique des civilisations. Cette idée est le présupposé explicite ou implicite, par exemple, des prosélytes d'Internet. Il n'est pas dans notre intention d'analyser ici dans le détail ces hypothèses mais de rappeler que nombre d'analyses contemporaines -sur le phénomène de mondialisation, spécialement[14]s'appuient, implicitement ou explicitement, sur cette prépondérance. Ces analyses ont eu un effet décapant et ont nourri une réflexion innovante dans plus d'un domaine. Elles suscitent, aujourd'hui un mouvement de balancier qui, à nouveau prend ses distances à l'égard d'un abord purement empirique du fonctionnement des médias. À leur encontre, le reproche (fondé nous semble-t-il) de positivisme affleure. Les techniques de production, de gestion, et de transport des signes sont-elles les facteurs premiers qui rendent compte de leurs significations comme de leurs fonctions sociales ? L'écriture hier, les réseaux numériques aujourd'hui, ont-ils partout et à toute époque, les mêmes enjeux ? Dans quelle mesure les systèmes socio-politiques qui les accueillent et les développent, ne les marquent-ils pas aussi profondément ? Enfin, ne doit-on pas considérer que des technologies particulières s'imposent parce qu'elles sont utilisées par certains centres de pouvoir dans les affrontements qui les opposent à leurs concurrents ? L'exemple qui suit illustrera cette hypothèse.

La fondation théologique Golpayeni, l'une des plus conservatrices de Qom (la capitale religieuse de l'Iran) s'est équipée de batteries d'ordinateurs, d'origine américaine[15]. Leurs mémoires rassemblent plus de deux mille volumes relatifs au fiqr (droit musulman, chi'ite et sunnite). Depuis 1995, le centre s'est abonné à Internet. Comment expliquer que Qom, qui a réussi à faire interdire la réception satellitaire, de même que la communication téléphonique mobile en Iran, se précipite sur l'informatique documentaire en réseau ? Les affrontements qui opposent le "clergé politique" au haut clergé traditionnel sont à l'origine de cette initiative. Le haut clergé risque, en effet, d'y perdre le monopole de l'interprétation des textes (ce qu'il accomplissait avec peu de compétences, semble-t-il). On rappelle que la dimension juridique dans l'islam (ce qui est autorisé ou non dans la vie sociale) comme dans d'autres religions d'ailleurs, est centrale. L'exégèse assure donc un pouvoir irremplaçable. Si tout un chacun, via les réseaux, peut accéder directement au corpus consignant le fiqr, ceux qui en ont le monopole, c'est-à-dire en l'occurrence le haut clergé, voient leurs prérogatives vaciller. Un chercheur iranien explique qu'en fait, les ordinateurs participent au dessein du régime islamique qui est de prendre le pouvoir religieux aux grands ayatollahs. Khamenei, devenu à l'époque président de la République, cherchait à mettre au pas le clergé chi'ite en l'assujettissant à l'État. Et pour ce faire, il souhaitait affaiblir le contre-pouvoir religieux en favorisant le clergé intermédiaire. L'objectif était de faire émerger de nouvelles instances basées sur le moyen clergé et de concurrencer ainsi celles que contrôle le clergé traditionnel. D'où la mise en place d'une machine de guerre pour substituer au "pouvoir des religieux conventionnels" celui des "religieux politiques". L'enjeu est aussi très matériel : il s'agit de faire rentrer dans les caisses de l'État les sommes considérables récoltées par le clergé. On comprend aisément pourquoi l'ouverture à Internet est favorisée par le gouvernement. Ces affrontements peuvent être interprétés de deux manières : - une technologie intellectuelle (les banques de données accessibles par réseaux) est l'agent essentiel d'une redistribution des rapports de force, - une technologie intellectuelle est utilisée par l'un des camps pour asseoir son pouvoir. Il serait assez imprudent, ici, de certifier la première hypothèse. Peut-être pourra-t-on lire dans trente ans que les réseaux ont joué un rôle fondamental dans la laïcisation de l'État iranien. D'ailleurs, rien n'oblige à choisir l'une de ces thèses contre l'autre. On peut parfaitement considérer que l'usage de l'informatique documentaire recompose les rapports de force dans le clergé parce que l'un des protagonistes prend le risque de faire jouer cette force. Après tout, est-on sûr que cette initiative ne joue pas, finalement, contre ceux qui la mettent en oeuvre ? Démocratiser l'accès aux textes consignant l'exégèse de l'Islam, cela n'engage-t-il pas, à terme, un affaiblissement du pouvoir des intermédiaires en général ? Ceci n'implique pas, mécaniquement, que le clergé politique creuse sa propre tombe, mais qu'il se contraint, à terme, à devoir s'adapter à ce futur contexte. Par ailleurs, la mise en cause, par les technologies numériques, des intermédiaires spécialisés est une question assez fondamentale. C'est, en effet, l'un des caractères majeurs d'Internet dont nous avons déjà eu l'occasion d'apprécier l'ampleur et la portée. Conformation physique d'un média et efficacité symbolique Les significations et fonctions d'un système symbolique sont-elles principalement déposées dans sa constitution physique, dans les procédés de fabrication et de diffusion ? Tout en maintenant la pertinence d'une telle interrogation sur les supports médiatiques et les réseaux

d'expansion, on peut aussi observer que la consistance matérielle d'un instrument, d'un média n'est pas une donnée aussi évidente qu'il y paraît. Où commence et où finit la matérialité d'un média ? Celle-ci n'est-elle pas aussi un enjeu de pouvoir et un effet culturel ? Ou, dit autrement, doit-on refermer un système symbolique sur sa constitution matérielle, indépendamment des fonctions sociales qu'il accomplit ? Toute une tradition de la sociologie des techniques s'est attachée à l'étude du mouvement inverse qui façonne les outils à travers leurs usages. Plutôt que de considérer la forme concrète du média comme déterminant un usage, on privilégie alors la malléabilité des instruments dont l'usage transforme le programme de fonctionnement. Et cette logique est particulièrement sensible à notre époque où un nombre croissant d'objets et de dispositifs ne contiennent plus en propre leurs fonctions, mais les font émerger dans une mise en réseau avec d'autres systèmes. Le chaînage (chaîne du froid, chaîne audiovisuelle, chaîne informatique) devient le mode privilégié d'existence d'objets déformables, pliables, constitutivement paramétrables. L'ordinateur en est l'exemple type : système évolutif, dont on ne peut prévoir toutes les fonctions, lesquelles s'inventent avec l'évolution du système luimême soumis à la pression des usages et des détournements. On entre dans un cercle vicieux. Si la forme ne rend plus compte du projet, si l'objet ne détermine plus fidèlement son usage, sur quoi fonder une analyse "médiologique", par exemple ? Signalons, sans approfondir, que le concept de relation transductive, proposé par Gilbert Simondon (que reprend Bernard Stiegler dans La technique et le temps[16]), définie comme relation qui constitue ses termes, permet de lever l'aporie qui se présente dès que l'on renverse les causalités habituelles pour y substituer une détermination par les conséquences[17]. La mise en cause du déterminisme technologique participe du même refus d'un simple renversement de causalité entre le technique et le social. Cette objection dénie que les dimensions symboliques soient ciselées par l'ordre technique. Elle plaide pour la prise en compte d'une pluralité de facteurs dans l'émergence d'un système technique[18]. Dans cette optique, le politique, par exemple, n'est pas le servant d'un système technique médiatique, mais le façonne aussi. Face à ces vastes questions, contentons-nous d'une remarque générale. Les analyses médiologiques, souvent brillantes et stimulantes, considèrent que les faits sociotechniques possèdent une vocation automatique à se généraliser en conservant leur pureté. On isole alors leurs caractéristiques techniques et on les transforme en principes d'organisation sociale[19], alors que les mouvements d'extension des innovations sont incomparablement plus complexes[20]. McLuhan inférait déjà, par exemple, des propriétés de l'électricité -disponibilité, instantanéité, maillage a- centré du territoire- un modèle théorique de ville décentralisée, ruralisée où l'on croît reconnaître l'inspiration des contempteurs comme celle des adorateurs des réseaux numériques. Avec ce type de déduction, on ne comprend pas d'où viennent les forces qui amplifient, comme jamais, l'urbanisation, sauf à les considérer comme de purs archaïsmes. À cette problématique, on peut opposer qu'il n'y a pas lieu de chercher des causes premières -et encore moins unique- dans une dynamique d'émergence interne à des systèmes complexes où logiques techniques, sociales et systèmes symboliques interfèrent. C'est au moins une leçon épistémologique qu'on peut retenir du connexionnisme moderne qui a permis de concevoir le phénomène d'émergence d'ordre comme produit de l'interaction coopérative d'agents autonomes. Aucune théorie générale ne dispense de l'étude de configurations historiques particulières et ce qui vaut pour l'imprimerie ne se déplace pas automatiquement à la photographie ou à Internet. Nous verrons, en particulier, dans le dernier chapitre, qu'il est

discutable de postuler que les télé-technologies marquent culturellement nos sociétés de manière univoque. B - Réseaux, information, travail symbolique et travail "immatériel" L'information est-elle immatérielle ? Aujourd'hui, l'idée générale de la suprématie des systèmes symboliques se renforce d'une série de partis pris qui se veulent de pures constatations telles que la croissance des transactions dites "immatérielles", la part symbolique dans les flux d'échanges, l'assomption des connaissances comme vecteur d'orientation décisif de nos sociétés. Or dans les réseaux numériques, par exemple, tout passe évidemment par des systèmes de signes (textes, graphiques, images, sons, liens hypermédias...). Ainsi la forme s'harmonise au contenu : le réseau vu comme espace élargi d'échanges symboliques -le multimédia- accueille l'enveloppe du lien social, épurée de ce qui résiste à un conditionnement numérique : la présence corporelle. Le mouvement dès lors s'auto-entretient : "l'immatériel" abreuve les réseaux et ceux-ci se gonflent en irriguant cette matière ductile à souhait, au point de sembler occuper tout l'espace public (et privé). On passe de l'affirmation d'un lien entre les techniques de déplacement matérielles (routes, fleuves,...) et de signes (écriture, imprimerie, télégraphe,... réseaux numériques) à une inversion de priorité, le transport des signes devenant, lui seul, stratégique. Or, une étude attentive montrerait une croissance conjointe des flux informationnels sur les inforoutes et matériels sur les grandes voies du commerce mondial. Il est vain de rechercher un supposé facteur "immatériel", déterminant dans l'organisation des échanges (de signes et de choses). En revanche notre attention doit se concentrer sur les mutations qui saisissent le transport des signes pour tenter de le rapprocher du transport des choses, autre manière de décrire la tendance à l'augmentation de l'incarnation dans la présence à distance. On voudrait discuter ici plus en avant la notion d'immatérialité de l'information. Les réseaux territoriaux classiques (routes, chemin de fer,...) qui assurent le transport des marchandiseschoses convoient indissolublement des agencements matériels et l'information qu'ils emprisonnent. Expédier une machine, c'est envoyer l'information qu'elle encapsule dans ses rouages, c'est adresser un programme d'usage. À ce stade, l'information ne se distingue pas de la matière. En revanche, on se laisse souvent aller à affirmer que les réseaux informationnels -séparant l'information d'une matière qui la contiendrait- convoient de l'information comme pure immatérialité. On oublie alors la matérialité des réseaux eux-mêmes pour ne retenir que l'encombrement matériel infime de l'information numérisée ou l'extrême rapidité de traitement des flux électromagnétiques et photoniques. On élimine les chaînages qui traduisent et conduisent les messages d'un point à un autre. Qu'est ce que la transmission d'une image sur le Web, par exemple, si l'on fait abstraction de la numérisation comme technologie intellectuelle, de l'ordinateur pour effectuer ces calculs et conduire les commutations sur le réseau, de la ligne téléphonique pour la transporter, de l'institution France Télécom pour concevoir, installer, vendre ce transport, et d'une quantité d'autres médiations dont la liste occuperait des pages entières ? Or l'information, comme la communication, se réalise comme rapport social grâce à la mise en commun d'un élément tiers qui assure le lien. Relier ce qui est disjoint, c'est l'opération symbolique en tant que telle. Cette conception matérialiste de la relation suppose un entredeux concrétisant l'union d'entités séparées, sans quoi le lien devient une opération totalement mystérieuse. Métaphore chimique : la mise en commun d'électrons, dits "covalents", assure la

liaison entre atomes. Sans partage d'un même, pas de liaison. L'information, définie comme différence produisant une autre différence (Bateson), suppose ce partage d'un même. L'existence d'un milieu accueillant ce même conditionne, à chaque étape, la propagation de différence. Le son émis qui atteint l'oreille déclenche des influx, alerte des circuits neuronaux, provoque l'émergence du sens. Dans cette propagation, et surtout si l'on élargit l'éclairage aux dispositifs de transport de l'information, tout est matériel jusqu'à la sémiose (l'émergence du sens)[21] : l'image affichée sur l'écran, sa conversion numérique, son transport sur une ligne du réseau, son affichage sur un autre écran, et là, par franchissement d'un saut, par "sublimation", son interprétation par un sujet, c'est-à-dire le fait qu'il en soit affecté. L'objectif devient alors, à ce stade, subjectif. Il faut mettre fin à l'idéalisation de la communication et donc, par le même mouvement, de l'information[22]. À l'analyse de la communication comme forme supposée pure, il convient de substituer -comme le font de nombreux courants de recherche- l'examen des dispositifs de production, transports, réception de l'information, indissolublement technique et sémantique (donc affectif). La supposée qualité immatérielle de l'information s'appuie aussi sur l'idée que l'information véhicule l'événement et donc le remplace dans une certaine mesure. Mais si le message peut représenter l'événement, s'il peut le déplacer jusqu'au cerveau des destinataires, c'est uniquement grâce à l'existence de réseaux de diffusion déjà engagés dans l'émergence de l'événement lui-même et qui construisent l'information afférente. La prise de la Bastille annoncée aux Indiens d'Amérique n'aurait eu aucun effet. Je peux, sur Internet, informer tout le monde que la Terre va être détruite dans vingt ans par une énorme collision avec un astéroïde géant. Pour être cru, il faut d'une part que j'aie accès au média -et que celui-ci fonctionne- et de l'autre que je dispose d'une confiance reposant sur une longue chaîne d'accréditations préalables. Couper le message des réseaux potentiels de diffusions, et donc d'un complexe de désirs, d'intérêts, de rapports de forces, relève d'une vue assez idéaliste. L'appropriation de l'information ne relève pas d'une logique de l'usage (unicité, perte, altération, dégradation) car ce n'est pas une chose. Mais sa diffusion n'est pas pour autant "immatérielle", car sans les réseaux qui l'acheminent, l'information demeure une promesse en attente de réalisation. Lorsqu'on couple l'information aux réseaux qui la produisent, l'entretiennent, la conservent et la diffusent, on conçoit plus facilement que la nature relative de l'information -non pas une chose mais un rapport social par l'intermédiaire de chosesn'empêche nullement qu'elle soit le fruit d'un travail personnel et institutionnel inséparablement matériel et subjectif. L'affirmation de la suprématie de la connaissance dans les fonctionnements sociaux véhicule souvent une conception purement transactionnelle de la connaissance, détachée de ses rapports à l'action collective. Un réseau informatisé d'échanges de savoir, par exemple, combine une transmission (proposition sur le réseau) et une offre d'action (transfert effectif d'informations). Cette deuxième opération peut avoir lieu éventuellement sur le réseau s'il s'agit d'apprentissage symbolique (étudier une langue, programmer dans un nouveau langage informatique, etc.). Dans cet exemple, le media (réseau numérique) est approprié pour convoyer à la fois l'information (l'offre de formation, la demande d'un apprentissage) et l'action d'apprentissage. Lorsque cet apprentissage s'effectue sur une matière symbolique (travail sur des signes), le réseau cumule donc les fonctions de communication et d'expérimentation. Mais s'il s'agit d'apprendre la poterie, ou la soudure à l'arc, l'information, même si elle se rapporte à l'action, s'en distingue nécessairement. De même, par exemple, s'il s'agit de prendre des décisions politiques dans une communauté territoriale. Il n'y a pas

d'intelligence sans rapport entre transmission de connaissances et expérimentation en actes. Il est entendu qu'un échange d'informations (formule par laquelle la cybernétique des années quarante définit la communication[23]) est aussi une action, mais limitée au cadre formel du canal qui héberge la transmission. Information, subjectivité et permanence Y aurait-il donc un "autre" de l'information ? Ce serait tout simplement la part de l'expérience qui échappe à la formalisation, à la capture par un système de signes, ou plutôt qui ne se confond pas avec cette capture : résistances dans l'affrontement à la matière, perceptions, imprévisibilité des rapports sociaux, destin des subjectivités en relation dans des collectifs, etc. Même si l'univers de l'échange formel d'informations à distance accueille une part croissante de l'expérimentation collective, il ne la résume pas complètement. Il délaisse ce qui appelle le rapport physique, la co-présence des corps (même si cette co-présence se redéfinit aussi dans le développement de la présence à distance) ainsi que, aujourd'hui encore, de nombreux secteurs industriels oeuvrant dans la transformation de la matière. Les segments qui relient information et action s'inscrivent de plus en plus dans des réseaux, mais ils ne se confondent pas avec cette inscription. La propension à projeter un doublage, par réseau virtuel, de la vie sociale élimine la multi-dimensionalité de l'activité collective. Elle la réduit à son versant informationnel et, bien souvent, détache ce versant du cadre pratique (institutionnel, relationnel, affectif) sans lequel cette activité s'asphyxierait. Il faut tout un système d'accompagnement relationnel plus ou moins direct (coup de téléphone, téléconférence... ou visite) pour que la relation par réseau ne s'assèche pas. Une autre conception de l'information est apparue, propulsée par le développement du cyberespace. L'information serait, en tant que telle, une subjectivité en acte. Et ses caractéristiques essentielles deviendraient la mutabilité, la malléabilité, l'obsolescence, l'hybridation. Bref, sa valeur s'accroîtrait au fur et à mesure qu'elle se rapprocherait d'une existence vivante[24]. Il y a une métaphysique de l'incorporation qui fait l'impasse sur les modes d'existence de la subjectivité, comme si celle-ci pouvait transfuser avec l'objet créé et éliminer la phase personnelle. Ce qui se déplace (ou qui déplace) c'est le média, pas le médiateur. Dans cette logique, l'information joue contre ses supports, contre tout ce qui fixe, retient, fige. Elle s'accomplirait dès lors qu'elle rejoindrait le mode d'être de l'affect. Message et messager sont alors reliés sans rupture de continuité, dans une logique qui n'est pas sans rappeler les réseaux pensants, tissés de chaînages humains/non humains, chers à Bruno Latour. L'univers du cyberespace révélerait le stade suprême d'existence déterritorialisée de l'information. Or nous verrons plus loin, que les questions de la permanence, de la séquentialité, des limites, de la sélection et du contexte s'y posent toujours. Finalement, on ne reconnaît pas l'immobilité, la permanence et la finitude formelle d'une proposition (artistique, philosophique, littéraire aussi bien que d'un mécanisme technique) comme source de puissance générative. Le passage où la vie humaine s'incarne dans l'inorganique n'est alors qu'une dégradation. À dissoudre ce moment dans le flux ininterrompu des échanges, à dénier son caractère spécifique de suspension du temps (l'objet comme fixation temporelle) pour ne porter l'attention que sur les processus herméneutiques qui progressivement écrivent, hors de l'objet, son avenir, on refuse à l'objet ou au message son genre spécifique : finitude formelle et infinitude herméneutique. Mais la deuxième serait mort-née sans la première. Par exemple, si le programme de jeu d'échecs (activité humaine extériorisée, encapsulée dans un programme) invente une nouvelle dimension de ce jeu (de nouvelles règles de compétition homme/machine, par exemple), c'est parce qu'il se matérialise

dans un système inorganique, extérieur, indépendant et qui peut être mobilisé à souhait, égal à lui-même (ce qui ne peut être le cas pour un joueur humain). La multiplicité d'usages potentiels du même objet, permet le développement de son destin. De même, l'infinité des interprétations possibles du même message formel est à la source de l'intersubjectivité. Le travail intellectuel est-il immatériel ? En quoi le travail intellectuel fonderait-il la diffusion d'une supposée culture de l'immatériel, et notamment du "travail immatériel" ? Affirmer le caractère instituant des instruments du travail intellectuel nécessite d'éviter un malentendu : ceux-ci reposent sur des facteurs bien matériels (stylet, papier, presse à imprimer, ordinateur, serveur de réseaux, etc.) et nécessitent un labeur. Le travail sur les signes est bien, pour partie, un travail matériel, de même que tout travail sur la matière est pour partie intellectuel. Seule la cible change : des signes à la place d'objets pesants. La définition axiomatique de la production informationnelle se dérobe toujours : une information doit s'inscrire sur une matière, sinon elle demeure pur acte de pensée. Et symétriquement, la production industrielle d'objets pesants, indéformables (automobiles, maisons, etc.) inclut toujours une dimension informationnelle. Cela dit, on doit différencier, sous cet angle, un roman et une poutrelle d'acier, par exemple. Une fois qu'est stabilisé un système de publication (pages, chapitres, sommaire, par exemple) en symbiose avec des modalités collectives de diffusion et d'appropriation, la portée littéraire du roman ne dépend pas mécaniquement du type de papier sur lequel il est imprimé. (Bien que la nature du papier, la typographie, le type de reliure ne soient pas non plus des éléments à négliger dans sa portée sémantique et dramatique. Mais admettons ici ce raccourci, discutable selon d'autres critères). La démonstration pourrait être encore plus convaincante à propos de la musique enregistrée (disque vinyle et CD). Une poutrelle, quant à elle, ne peut être appréhendée en dehors de son matériau et de sa forme propre, lesquels sont coextensifs à son existence comme poutrelle. Dans la production informationnelle, ce qui prime c'est le système de signes et non le type de support. Cette -relative- distinction entre forme et sens ne vaut précisément que pour les productions intellectuelles (textes, graphiques, images, hypermédias, etc.)[25]. La notion de travail "immatériel" trouve en revanche, une pertinence lorsqu'on la rapporte aux segments purement relationnels du travail collectif, au travail communicationnel dans ses dimensions interpersonnelles, non directement, médiatisé par des appareils techniques et institutionnels. Nous sommes ici en présence de deux positions radicalement opposées. La première, à la suite des travaux de l'école d'anthropologie sociale de la science, insiste sur l'impossibilité de différencier, dans une activité productive, subjectivités humaines d'une part et dispositifs techniques et cadres institutionnels, de l'autre. La deuxième position met l'accent, en revanche, sur le contenu relationnel, affectif, subjectif de cette activité dans le contexte du post-fordisme, sans toujours accorder la place qui lui revient aux réseaux sociotechniques. On le verra, l'invocation des réseaux numériques et de l'informatisation vaut alors, dans ce dernier contexte, assurance de l'immatérialité du travail et suprématie de la connaissance comme force productive. Il nous semble, qu'effectivement, on doit faire sa place à l'intersubjectivité dans le travail coopératif et ne pas le réduire à la mise en oeuvre de procédures "matérielles", comme nous y conduit la logique des "réseaux pensants". Mais tout en reconnaissant l'autonomie non réductible du travail relationnel on ne saurait l'isoler, ni même peut-être l'appréhender, hors de son outillage pratique, c'est-à-dire technoinstitutionnel. Les conditions contemporaines de ce travail communicationnel exigent, sans doute plus qu'auparavant, d'étudier simultanément ses versants techniquement médiatisés et ses versants informels.

Travail en réseau et subjectivité productive Le développement des réseaux est couramment rapporté au caractère stratégique du travail intellectuel dans nos sociétés. De nombreux travaux ont défriché ces transformations en cours. Mais revenons d'abord sur cette question : le travail intellectuel -dont une partie croissante consiste en opérations sur les signes- peut-il être identifié à un travail "immatériel" ? On l'a vu, le travail sur les signes[26] met en oeuvre des moyens, on ne peut plus matériels (imprimés, téléphone, enregistrements, ordinateurs, réseaux numériques, etc.). Ceux qui parlent de "travail immatériel" ne visent pas exactement cela. Ils désignent une activité de type réflexif, relationnel et affectif : l'intelligence dans ces dimensions imaginatives, créatrices, culturelles et relationnelles mise au service des nouvelles conditions productives (réactivité, anticipation, capacités d'adaptation, etc.). Dans cette perspective, le travail vivant serait devenu plus indépendant de la régulation fonctionnelle[27] déposée dans la machinerie industrielle et mobiliserait, en revanche, plus nettement qu'auparavant des technologies mentales, symboliques et des comportements communicationnels. Dans cette perspective, des qualités proprement sociales, détenues en propre par les agents (intelligence des situations, compétences cognitives, capacités relationnelles, imagination) rendraient compte de leur productivité au sein d'organisations collectives à même de les faire fructifier[28] dans et en dehors du temps de travail (si tant est que cette séparation soit toujours pertinente). Par ailleurs, "l'immatérialisation" du travail est quasiment toujours rapportée à l'emploi intensif de la téléinformatique[29]. S'effectuant toujours plus en mobilisant des technologies intellectuelles numériques (traitement de texte, courrier électronique, logiciels de travail collectif, etc.), il tend à se concrétiser à s'inscrire dans des formes que l'informatique peut traiter, transporter, intensifier. Tout un pan de la communication informelle est traduit et mémorisé. Les numéros téléphoniques des destinataires des appels sont enregistrés par les autocommutateurs, le courrier électronique tend à se substituer aux conversations téléphoniques et s'archive automatiquement, etc. D'où ce paradoxe : plus le travail intellectuel devient stratégique, plus il se concrétise dans des dispositifs matériels et plus on l'appréhende comme travail immatériel. Ce paradoxe n'est peut-être qu'apparent, car si l'on examine le contenu de ce travail "communicationnel", on s'aperçoit qu'il suit une double logique de formalisation et d'invention. Cette voie de formalisation, on la repère dans toutes les activités (gestion, comptabilité, etc.) où des programmes informatiques viennent substituer, et souvent contrôler, le travail humain. Mais, dans les pores de ce travail et à sa périphérie, s'inventent des procédures communicationnelles inédites qui appellent, en permanence, des compléments humains informels. (On retrouve, ici encore, le mouvement aperçu au chapitre I, qui relie l'imitation imparfaite et l'invention cognitive). Observer une tendance à formaliser le travail communicationnel n'implique ni que la formalisation ne le capte totalement, ni que de nouvelles zones informelles n'apparaissent parallèlement. D'où l'hypothèse selon laquelle la matérialisation du travail intellectuel -fruit de sa technologisation- irait de pair avec le développement de procédures relationnelles humaines d'ajustement, de négociation, de conviction ou de séduction, procédures effectuées en proximité ou à distance, dans l'espace formel du travail (lieux et horaires) ou en dehors de ce cadre. Présence à distance, appartenance et relation de proximité On a vu -en particulier au chapitre I- à quel point se raffinent les dispositifs gérant le travail collectif et s'accroissent leurs capacités à exprimer les conditions sociales de la coopération.

Soulignons une nouvelle fois que la mise à distance contraint à formaliser une part des relations sociales auparavant "naturelles" et que, parallèlement, elle invente de nouvelles modalités communicationnelles. La coopération à distance offre donc un cadre inédit à l'étude de l'intersubjectivité en situation d'éloignement. L'approche dite de "proxémique virtuelle"[30] -notamment à propos des espaces collectifs de travail- offre un cadre stimulant pour mieux observer comment le travail linguistique et relationnel se concrétise lorsqu'il s'effectue, justement, à distance et par le truchement de réseaux numériques. Nous avons ici en vue les travaux -tel que DIVE, déjà cité- qui mettent à profit l'ingénierie informatique pour concrétiser (et inventer) des fonctions abstraites de présence. Cette approche déploie une série de questions vives : comment se combinent les segments durs et les segments mous dans le travail relationnel, comment s'établit la coopération, comment se métabolisent les dimensions affectives dans le filtre des réseaux numériques ? La formalisation des transactions l'emportet-elle sur la spontanéité et l'invention de protocoles relationnels inédits ? Porter une attention particulière au fonctionnement des interfaces -dispositifs et logiciels- autour de la synthèse des activités communicationnelles semble être aussi une direction prometteuse. Cette abstraction des fonctions de présence risque-t-elle de jouer à l'encontre des dimensions psychoaffectives ? Comment sont-elles contournées et complétées par des relations traditionnelles (rencontres, séminaires, par exemple) ? Ces aspects rendent concrète la mobilisation relationnelle et affective croissante qu'exige le travail intellectuel coopératif, dans le contexte du travail en réseau. Par ailleurs, ces questions relatives à l'univers du travail entrent en résonance avec des interrogations plus générales concernant les rapports entre l'échange à distance d'une part et l'engagement relationnel et institutionnel, de l'autre. À quoi s'engage-t-on par un acte de communication à distance ? On sait que, en dehors même des situations à caractère performatives, n'importe quel énoncé lancé dans une messagerie, même anonyme, engage l'énonciateur. Mais à quoi ? Auto-évaluation, fonction miroir, observation des effets du message sur les autres personnes connectées, les incidences sont d'une grande variété. Il est donc difficile donc de qualifier, de manière générale, la nature de la rétroaction dans un réseau. On peut néanmoins penser que cette communication est d'autant plus chargée d'enjeux qu'elle est chevillée à une participation concrète, à une expérimentation collective des effets de telle ou telle proposition. C'est la notion de degré d'appartenance qui est ici décisive. On n'appartient pas de la même manière à un "groupe de discussion" et à un séminaire professionnel permanent, par exemple. La notion de communauté virtuelle regroupe des relations d'une grande hétérogénéité, telles que la rencontre fortuite et (cas extrême) unique, le regroupement autour d'un centre d'intérêt (et donc le renouvellement régulier de l'échange), ou encore le doublage d'une relation sociale classique par une télé-relation virtuelle (comme avec le téléphone). Les relations entre le dire et le faire offrent, dans ce contexte, un nouvel éclairage. Quelles incidences, l'éventualité d'un contact de visu a-t-elle sur la communication à distance ? Si l'échange se déroule dans un même cadre institutionnel, le déroulement et l'intensité de la communication en seront redéfinis. De même la garantie de réédition de l'acte de communication en modifie-t-il profondément la teneur. On devrait pouvoir construire une graduation des intensités relationnelles, sur Internet et d'autres réseaux, allant des plus faibles (contact aléatoire, par exemple) aux plus fortes (combinaison de rapports de proximité et d'usage de réseaux locaux) en passant par toutes sortes d'engagements limités (participation à des groupes de discussion, à des jeux en réseaux, etc.). Ces graduations ne se situent pas totalement sur l'axe proximité/éloignement. La communication exclusivement par réseau peut donner naissance à des appartenances fortes (idéal des "communautés virtuelles").

L'appartenance forte basée sur la proximité (professionnelle, éducative, associative, etc.) peut se recouper avec la présence collective à distance (c'est le cas des mediaspaces installés dans un même bâtiment). Mais il est encore difficile d'énoncer des principes généraux sur la manière dont la communication collective à distance rejaillit sur le fonctionnement de collectifs à fort degré d'appartenance, comment elle redistribue leurs activités cognitives et relationnelles et influe sur leur productivité[31]. C - Archive virtuelle, archive spectrale Pourquoi, dans la perspective d'une réflexion sur l'inscription, solliciter le livre de Jacques Derrida, Mal d'Archive[32] ? Le texte de la conférence du philosophe "déconstructionniste" représente une tentative inédite, dans l'horizon freudien, de mise en rapport de la mémorisation vivante et des techniques "archivales" prolongeant, à l'extérieur, la fixation mémorielle. Cette approche offre, de plus, l'occasion de poursuivre une réflexion sur la "spectralité" à l'heure des spectres numériques modernes. Finalement, le livre fait apparaître que l'archivage, dans ses rapports aux techniques archivales, est une condition de la "réflexion" proprement dite, de la mise à distance, qu'elle est productrice d'un dialogue intérieur. En cela, ajouterons-nous, elle s'oppose à l'accélération de la rotation des inscriptions, au culte de l'éphémère, à la valorisation de la circulation au détriment de l'interprétation ; bref, elle balance l'éloge du réseau par l'insistance sur le travail herméneutique local. Archive, rétention vivante et consignation matérielle Archiver, c'est "consigner", écrit Jacques Derrida, mettre en réserve en "rassemblant les signes"[33]. Geste systémique, "coordonner en un seul corpus", mais aussi temporel "synchronique", rendre accessible en un même lieu, donc en un même temps. Question politique, dit Jacques Derrida. "Nul pouvoir politique sans contrôle de l'archive, sinon de la mémoire"[34]. Et on pourrait ajouter, contrôle de la transmission de la mémoire, des schèmes opératoires, produisant ainsi des modalités temporelles différenciées si tant est que chaque type d'archive est dépositaire d'une temporalité spécifique : écriture (mise à distance de soi, auto-dialogue, mémoire objectivée), imprimerie (multiplication des sources, objectivité, justesse, comparaison), enregistrement (actualisation du passé), etc. L'archive ne se contente pas de figer et de rendre disponible l'information ou l'histoire, elle les conditionne : "L'archivation produit autant qu'elle enregistre l'événement"[35]. Toute la question de l'archive se situe dans une tension entre la rétention vivante et l'inscription extérieure permanente. Car tout système de signes, pour être consulté, doit pouvoir être atteint par une énergie vivante. À l'heure d'Internet, de ses milliers de banques de données et de ses moteurs de recherches, cet adage se vérifie, on ne peut plus clairement. Freud, pour figurer le fonctionnement du psychisme, avait pensé à une machine-outil d'écriture, un "bloc magique", modèle de l'appareil psychique qui enregistre et mémorise (c'est-à-dire retient tout en étant capable de recevoir), inscrit des voies d'accès, en déguise certaines et en efface d'autres permettant l'oubli et le refoulement. Jacques Derrida ne met pas en opposition la machine d'inscription (machine à conserver des traces matérielles, prothèses techno-mnémoniques : graphies, dessin, écriture, et, depuis l'imprimerie, outils de circulation -index, tables, etc.- qui font partie de la mémoire objectivée) d'une part, et l'appareil psychique, de l'autre : "Loin que la machine soit une pure absence de spontanéité, sa ressemblance avec l'appareil psychique, son existence et sa nécessité témoignent de la finitude ainsi suppléée de la spontanéité mnésique. La machine -et donc la représentationc'est la mort et la finitude dans le psychisme"[36]. D'où le déploiement d'une tentative de

relier mémorisation psychique et rétention prothétique, tout en respectant leur autonomie respective. L'archive virtuelle Dans ce dessein d'une pensée conjointe de la rétention/traduction vivante avec l'inscription extériorisée, il est remarquable que surgisse la thématique du virtuel accordée à celle de l'inconscient. L'archive virtuelle apparaît comme archivage d'événements qui n'ont pas eu lieu (mais qui auraient pu survenir) ou qui en sont restés au stade de l'intention. "Le moment sera venu d'accepter un grand remuement dans notre archive conceptuelle, et d'y croiser une <<logique de l'inconscient>> avec une pensée du virtuel qui ne soit plus limitée par l'opposition philosophique traditionnelle de l'acte et de la puissance"[37]. Que veut dire Jacques Derrida ? Logique de l'inconscient : ce qui s'enregistre mais dissimule les traces du passage et rend ainsi certains contenus irrécupérables (comme des photographies dont on a même oublié qu'on les a prises). Une logique qui accouple la mémorisation et l'oubli comme condition de la mémoire (il faut trier, sélectionner, pour garder, sinon tout effacerait tout). Logique de l'inconscient, dans le sens aussi où le passé s'archive comme futur virtuel, c'est-àdire comme événement qui peut (mais pas nécessairement) parvenir à s'exprimer distinctement dans l'avenir. Latéralement à ces considérations, ajoutons quelques observations à propos de l'obsession accumulatrice propre à nos sociétés. L'automatisation intégrale du prélèvement des traces (et non pas de la mémoire ou de l'archivage, qui lui exige un partage entre rétention et délaissement) permise par l'informatique apparaît alors comme le symptôme de cette menace qui pèse sur "l'avoir eu lieu" de l'événement. Tout conserver dans le détail : les indices d'un appel téléphonique dans un autocommutateur d'hôtel, le paiement de carburant sur l'autoroute à la seconde près. Ces gigantesques empilements de micro-actions nous protégeraient contre l'incertitude de "l'avoir eu lieu". Ce qui mérite d'être conservé dépend toujours d'une projection dans l'avenir, et, dans le doute, gardons tout. L'enregistrement automatique du détail est le versant inquiet de la rotation accélérée de l'événement médiatique : accumulation contre obsolescence. L'archivage (comme la mémorisation individuelle) conjoint l'acte de conservation avec un programme de sélection, d'indexation, d'organisation. C'est pourquoi Jacques Derrida associe toujours l'archive et la "technique archivale"[38]. Tout le contraire, presque, de la consignation automatique. L'automatisation du prélèvement nous place dans une situation ambiguë de délégation de la décision de conservation à des automates. Cette décision instaure une "technique archivale" singulière consistant, en tendance, à ne pas trier. Mais on voit bien l'aporie qui guette une propension à doubler la vie sociale par son enregistrement permanent. La monstruosité des empilements qui en résulte oblige à sélectionner, et la question des critères conserve, dans ce nouveau cadre sa pertinence douloureuse[39]. Ainsi en va-t-il, aussi, de l'obsession patrimoniale qui transforme notre environnement en conservatoire du quotidien[40]. Lutte sans fin, et perdue d'avance, non pas tellement contre le flux temporel et l'oubli mais contre le tri, c'est-à-dire la mémorisation en tant que telle, si tant est qu'archiver suppose de délaisser[41]. D'où la course-poursuite qui oblige à surplomber les programmes de prélèvement, par des méta-programmes, indexant les précédents. Coursepoursuite vaine pour une raison essentielle qu'explicite Jacques Derrida. Il n'y a pas de totalisation possible de l'archive, il n'y a pas, au sens fort, de méta-archive concevable. L'archive est toujours performative. Découvrir ou commenter l'archive c'est s'y inscrire, depuis le futur de ce qu'elle porte dès son installation comme archive, c'est l'augmenter, et lui

faire perdre "l'autorité absolue et méta-textuelle à laquelle elle pourrait prétendre"[42]. L'archive est donc interminable, toujours ouverte, toujours "à-venir" et depuis "l'à-venir". Mais l'automatisation du prélèvement signe aussi la protection contre la vengeance du futur : et si, finalement, on pouvait en avoir besoin ? La conservation est une préfiguration, elle anticipe la permanence, la disponibilité supputée et l'utilité de l'archive : "La technique archivale a commandé ce qui dans le passé instituait et constituait quoi que ce fût comme anticipation de l'avenir"[43]. Et là, avec l'enregistrement systématique des traces, ce n'est pas seulement la technique archivale qui projette ses opérations dans le futur, c'est "l'anticipation" d'un retour du prochain futur vers le présent actuel qui motive d'enregistrer tous les sédiments contemporains. Sédiments, que finalement, et collectivement, nous oublions mais dont l'obsession de récolte nous rappelle l'angoissante (et épuisante) tentative de maîtrise qui anime nos sociétés. L'archive "spectrale" Jacques Derrida, à la suite de Freud, insiste sur la part de réalité des spectres. Ceux-ci ne sont pas de pures illusions, mais des "vérités du délire" issues d'un retour d'événements refoulés. D'où le mécanisme de l'hallucination démonté par Freud : "la forme déformée...parvient à la conscience... avec une force de conviction intensifiée par la compensation, et en restant attachée au substitut déformé de la vérité refoulée"[44]. Jacques Derrida fait dériver cette qualité opérative des spectres vers l'archive : "...la structure de l'archive est spectrale. Elle l'est a priori : ni présente, ni absente <<en chair et en os>>, ni visible ni invisible..."[45]. On pourrait dire comme les "Réalités Virtuelles", au sens de la signature programmatique d'une réalité. (On emploie ici le terme programmatique -plutôt qu'informationnel- pour signifier qu'il s'agit d'une réalité modélisée par et dans un programme, sous forme numérique). "Réalités Virtuelles" s'ajustant sur le modèle des "spectres", de la "hantise", de ce que Freud nomme "fantôme réel" pour désigner l'hallucination visuelle (l'archéologue, Hanold, parle avec Gradiva, son "spectre de midi", laquelle est ensevelie depuis longtemps déjà). La comparaison a, bien entendu, ses limites ; on ne saurait identifier une production hallucinatoire interne avec une sollicitation perceptive déposée sur des supports externes (écrans, casques, interfaces). Mais le lien vaut d'être testé dans une direction plus mobile. En effet, si on suit une logique qui interprète les technologies de représentation comme des tentatives d'objectivation de la vie psychique (la photographie comme parabole du souvenir de l'instant, le cinéma comme matérialisation du rêve éveillé, etc.), la "Réalité Virtuelle" pourrait être considérée comme une traduction objectivée des "spectres" et autres "revenants". On se situe ici à la frontière entre les manifestations de la vie psychique (rêves, fantasmes éveillés, imagination...) et les croyances magiques (réincarnation, ubiquité, dissociation corps/esprit, etc.), espaces dans lesquels s'originent aussi les projets technologiques. Séparation de l'apparence et du corps par le miroir, capture visuelle du passé par la photographie, transport de la voix et de l'image à distance : les correspondances entre technologie et activité magique sont indéniables. Et lorsque Merleau-Ponty qualifie la vision de délire ("voir c'est avoir à distance", écrit-il dans L'oeil et l'esprit[46]) il actualise une perspective voisine, qui interprète la perception comme une mise en forme instable du monde. Bien sûr, alors que l'hallucination vise la satisfaction primitive des pulsions par reconstitution imaginaire de l'objet manquant, les "Réalités Virtuelles" jouent la satisfaction expérimentale, pratique (ce qui peut être aussi considéré comme un apaisement). Mais sans doute aussi, peuton les appréhender comme matérialisation, certes rigide et pesante, de la fantasmatique

ordinaire qui double notre présence au monde ; comme une concrétisation technique de cette zone "fantomatique" virtuelle, intermédiaire entre réalité et imaginaire. La "Réalité Virtuelle", comme concept général, constituerait alors la forme actuelle de la "spectralité" instrumentale. [1] Voir en particulier, La raison graphique, éd. de Minuit, Paris, 1979. [2] L'écriture, dont Jack Goody a montré qu'elle sert d'abord à conserver des inscriptions gestionnaires (comptes, impôts, conscription, généalogie), naît dans et pour les premières cités-État. Le village se transforme en ville dans le même mouvement où la mémoire sociale qu'exige son gouvernement dépasse celle qu'un chef peut gérer avec son seul cerveau. [3] Voir notamment Elisabeth L. Eisenstein, La révolution de l'imprimé, La Découverte, Paris, 1991. Ce livre est pour nous une référence exemplaire qui démontre comment une technologie intellectuelle particulière -l'imprimerie-redéfinit l'exercice de la pensée. [4] Voir l'ouvrage cité ci-dessus, pp. 139/180. [5] André Leroi-Gourhan, La mémoire et les rythmes, Albin Michel, Paris, 1965. Voir plus précisément le chapitre IX (La mémoire en expansion), pp. 63/76. [6] On peut citer The Gimp (logiciel de manipulation d'images), Apache (adopté par la moitié des sites pour distribuer les documents aux Internautes), Sendmail (gérant la commutation du courrier électronique) ou encore Star Office (ensemble bureautique). Mais la liste s'allonge chaque mois. Par ailleurs, on l'a vu précédemment, la stratégie de la firme Netscape livrant le code source de son prochain navigateur pour échapper à l'étreinte de Microsoft s'inspire directement de l'exemple de Linux : on ne saurait admettre plus explicitement la supériorité des logiciels obtenus grâce à une telle méthodologie collective d'élaboration et de perfectionnement. [7] Henri Atlan, par exemple, dans son livre A tort et à raison (Le Seuil, Paris, 1986) avait précisé l'intérêt des contraintes spécifiques au "jeu de langage" scientifique, notamment pp. 226 et 228/230. La science n'est plus alors la connaissance d'une réalité ultime, mais procède d'une interaction assumée entre le sujet connaissant et la réalité. On retrouve la notion, chère à Francisco Varela, d'enaction, construction commune du milieu extérieur et de l'activité humaine appareillée. Cette posture redonne une place spécifique à l'humain, à côté des dispositifs techniques et des institutions, dans les processus de connaissance. [8] Les sciences et les techniques sont : "fragiles, mêlées, rares, masquées, troubles, médiées, intéressantes, civilisatrices", Bruno Latour, La clef de Berlin, La Découverte, Paris, 1993, p. 11 [9] "Il y a en effet de quoi tomber à genoux d'admiration puisqu'on attribue à la <<pensée>> d'un homme la transformation rapide et complète d'une société", Bruno Latour, Les microbes : guerre et paix, éd. A. M. Métailié, Paris, 1984, p. 21. [10] Sur ce dernier aspect, Bruno Latour, op. cit., p. 102/103. [11] Dans L'innovation technique, et plus précisément dans la partie consacrée à la critique de l'anthropologie des sciences, Patrice Flichy a parfaitement analysé cette dernière dimension : "Une autre critique que l'on peut faire aux recherches de Callon et Latour est d'éliminer la

question de l'intentionnalité des acteurs, au profit d'une simple capacité tactique à saisir les opportunités, à faire des coups, à <<resserrer les boulons>> du réseau", L'innovation technique, La Découverte, Paris, 1995, p. 105. [12] Dans le même ordre d'idées Régis Debray explique que "la pensée... cela n'existe pas. Cette pompeuse abstraction désigne pour le médiologue l'ensemble matériel, techniquement déterminé, des supports, rapports et moyens de transport qui lui assurent, pour chaque époque son existence sociale" (Cours de médiologie générale, Gallimard, Paris, 1991, p. 17). Là aussi "la pensée" est réduite à ses outils matériels d'exercice. [13] La spécificité des programmes informatiques consiste à prendre en compte, à chaque instant, l'état dans lequel se trouve la machine afin d'exécuter l'opération suivante prescrite. Ce premier élément de réflexivité s'articule à un deuxième, propre à l'exécution du programme. La prochaine instruction à exécuter n'est pas forcément celle qui suit dans la liste du programme. En effet certaines instructions (dites de débranchement) ont pour effet exclusif d'inscrire dans un registre spécialisé une adresse différente de celle qui suit la dernière dans l'ordre séquentiel. Le programme, selon les changements d'états qu'il provoque dans la machine, modifie lui-même l'ordre dans lequel il exécute ses différentes séquences. La notion de programme quasi-réflexif trouve ici sa base matérielle. Rappelons que, dans ses recherches fondatrices pour augmenter le niveau d'automatisme des calculateurs, John Von Neumann avait explicitement rapproché l'architecture préconisée des futurs calculateurs, de la réflexivité naturelle du cerveau humain. L'accès à un niveau supérieur d'automatisme ainsi obtenu est fondé sur le fait que le programme doit être chargé dans la mémoire centrale de l'ordinateur. Il en résulte que ses propres instructions peuvent être traitées comme des données, ou, dit autrement, qu'un principe minimum de réflexivité -à mille lieux cependant des propriétés du cerveau- a été introduit dans une machine. L'ordinateur rayonne sa puissance à partir de cette qualité fondamentale. [14] Il y a consensus pour considérer que la mondialisation, fille putative des télécommunications, est un phénomène récent. Or, l'intégration des systèmes productifs, des marchandises (informationnelles ou non), et des cultures à l'échelle mondiale est constitutive de nos sociétés, et ceci, depuis la révolution industrielle au moins. Ce niveau d'intégration est évidemment lié à l'expansion mondiale des logiques industrielles capitalistes d'où découlent les principes de rationalisation mondiale (recherche des meilleures localisations d'investissements), et de circulation planétaire des flux financiers, marchands et culturels. Qu'il y ait accélération de ce processus, cela paraît indubitable et toutes les analyses de la mondialisation soulignent le rôle majeur qu'y joue la téléinformatique (dans la financiarisation des économies, spécialement). Mais on ne peut aborder la question de l'efficacité propre de la téléinformatique dans la mondialisation en supposant qu'elle en serait la cause. [15] Voir J.-P. Perrin, "Le virus informatique divise le clergé iranien", Libération, 21/12/95, p. 12. [16] Édité chez Galilée, Paris, 1994. [17] La théorie de la connaissance proposée par Francisco Varela autour du concept d'enaction, refusant la logique représentationnelle du cognitivisme, débouche sur le même type de proposition d'une co-détermination de l'objet et du sujet de la connaissance. L'enaction est définie comme "l'avènement conjoint d'un monde et d'un esprit à partir de

l'histoire des diverses actions qu'accomplit un être dans le monde". Francisco Varela, Evan Thompson, Eleanor Rosh, L'inscription corporelle de l'esprit, Le Seuil, Paris, 1993, p. 35 [18] Dans L'innovation technique (op.cit), Patrice Flichy discute les principales théories de l'innovation technologique et montre, de manière convaincante, l'impossibilité d'un modèle unique (économique, technique, sociologique, culturel) qui rendrait compte de la multiplicité des causalités à la source du processus innovateur. [19] Exemple de déterminisme technologique : "le déclin de l'esclavage et le développement du salariat, en Europe tout au moins, serait dû à l'invention du collier de cheval, qui permet à l'animal de tirer des poids bien plus importants que ne le permettait le simple mors." Jean Duvignaud, résumé par Lefebvre- Desnouettes, Le miroir, lieu et non-lieu du "moi", in Alliages, n° 23, été 1995, p. 88. [20] Par exemple, François Ascher explique : "La résurrection des villes au XII[e] siècle n'a pas été le "résultat" de la renaissance routière mais plutôt sa cause, la renaissance urbaine étant elle-même due selon G. Duby à celle des campagnes. De même... les innovations routières au XVIII[e] siècle n'ont pas transformé le "système urbain" mais sont venues "habiter l'ancien" et doter d'un contenu fonctionnel nouveau des distributions spatiales anciennes", Dynamiques métropolitaines et enjeux socio-politiques, in Futur Antérieur, n° 29, 1995/3, L'Harmattan, Paris, p. 156. [21] Que la sémiose comporte un substrat matériel (la circulation neuronale), on ne saurait le contester. Mais ce niveau de description est inadéquat pour la définir. Vaste question sur la nature de la subjectivité et le statut de l'esprit qu'on ne fait ici qu'effleurer. [22] Ainsi la sociologie de la communication massmédiatique s'intéresse-t-elle de plus en plus à la réception plutôt qu'à l'émission, la réception étant elle-même conçue comme une phase d'un cycle global. C'est le même type de conversion qui a été réalisée dans l'analyse du langage, laquelle s'est déplacée de la recherche de procédures logico-formelles, voire de la mise au jour d'éventuels soubassements génétiques (Chomsky), à l'examen des actes de langages socialement situés. [23] Philippe Breton attire notre attention que le fait que pour Norbert Wiener et les premiers cybernéticiens, il n'y a pas d'autre réalité que celle constituée par les relations entre les phénomènes (Une histoire de l'informatique, La Découverte, Paris, 1987, pp. 129/134.) [24] Ainsi Pierre Lévy écrit-il : "Le message est lui-même un agent affectif pour l'esprit de celui qui l'interprète. Si le texte, le message ou l'oeuvre fonctionnent comme un esprit, c'est qu'ils sont déjà lus, traduits, compris, importés, assimilés à une matière mentale et affective." (Qu'est ce que le virtuel ? , La Découverte, Paris, 1995, p. 105). Si on ne peut qu'approuver cette affirmation pour ce qui est du moment de l'interprétation, on peut aussi comprendre, en revanche, que les qualités affectives, dans l'intériorisation du message, sont transférées au message en tant que tel. L'émotion, par exemple, semble congelée dans le message, quasiment l'une de ses propriétés ontologiques. [25] La relation entre forme et essence dans la production artistique pose d'autres problèmes que nous laissons, ici, de côté.

[26] La manipulation de symboles chère à Robert Reich (L'économie mondialisée, Dunod, Paris, 1993). [27] Philippe Zarafian écrit à ce sujet : "...la socialisation coopératrice est en train de basculer d'une coopération réglée sur des bases fonctionnelles vers une communication intersubjective pour des raisons propres à l'efficience contemporaine du travail coopératif." (Travail industriel, socialisations et liberté, in Futur antérieur, Paradigmes du travail, n° 16, 1993/2, p. 81.) [28] Ainsi, pour qualifier le "travail immatériel", Christian Marazzi écrit-il : "Le nouveau capital fixe, la nouvelle machine qui commande le travail vivant, qui fait produire l'ouvrier, perd sa caractéristique traditionnelle d'instrument de travail physiquement individualisable et situable, pour être tendanciellement toujours plus dans le travailleur même, dans son cerveau et dans son âme." (La place des chaussettes, L'éclat, Paris, 1997, p. 107.) [29] "Travail immatériel" devient parfois quasiment synonyme d'informatisation ou de "transmissible par réseau". Toni Negri, par exemple, décrivant les difficultés de la gauche à affronter la "nouvelle phase de l'organisation du travail et de la société" exprime ainsi "l'évidence qui s'imposait" : "l'informatisation du social, l'automation dans les usines, le travail diffus, l'hégémonie croissante du travail immatériel". Quelques lignes plus loin, il rapproche directement "l'innovation technologique" dans la production des "phénomènes d'immatérialisation du travail à grande échelle" (La première crise du post-fordisme, in Futur antérieur, Paradigmes du travail, n° 16, 1993/2, p. 11). [30] La "proxémique virtuelle" étudie la manière dont des acteurs situés dans des espaces virtuels façonnent les relations spatiales, aussi bien entre eux qu'avec les dispositifs qui les entourent. Au-delà de l'aspect strictement spatial, cette notion s'élargit à la construction, notamment topographique, des relations sociales dans les environnements simulés. [31] Un certain nombre de recherches en sociologie du travail et des organisations sont engagées sur ces questions. C'est le cas notamment du programme de recherche international "Territoire et Communication dans le Post-Fordisme" débuté en 1997 qui rassemble des institutions universitaires brésiliennes et européennes (France, Italie et Allemagne). Elle développe des projets dans trois directions : " - Les nouvelles articulations territoriales de l'organisation industrielle, - les dimensions productives de la communication, l'émergence du multimédia et les nouvelles figures productives de l'industrie culturelle, - les problématiques du design et de l'innovation face à la dématérialisation des processus productifs" (Giuseppe Cocco, Lettre de présentation du projet de recherche, Rio de Janeiro, 1996). [32] Jacques Derrida, Mal d'Archive, Galilée, Paris, 1995. [33] Jacques Derrida, op. cit., p. 14. [34] Jacques Derrida, op. cit., note 1 p. 15.

[35] Jacques Derrida, op. cit., p. 34. [36] Jacques Derrida, op. cit., p. 30. [37] Jacques Derrida, op. cit., p. 107. [38] "... la dite technique archivale ne détermine plus, et ne l'aura jamais fait, le seul moment de l'enregistrement conservateur, mais l'institution même de l'événement archivable", Jacques Derrida, Op. cit., p. 36. [39] La question du dépôt légal de l'audiovisuel pose des questions voisines. (Voir Francis Denel, Les archives de radiotélévision, patrimoine et objet/sujet de recherche, in Rencontres Médias 1, B.P.I., Centre G. Pompidou, Paris, 1997, pp. 107/123.) L'automatisation du prélèvement s'y concrétise dans la perspective de l'analyse documentaire. L'INA expérimente déjà des programmes de reconnaissance et d'indexation automatique de la parole pour numériser les fonds sonores radiophoniques et télévisuels. Quant à l'indexation automatique de l'image -beaucoup plus complexe encore-, certains aspects (repérage automatique de changement de plans, d'occurrences de décors, par exemple) commencent à en être maîtrisés. [40] La mise en patrimoine permanente, sans distance de temps, est l'un des problèmes majeurs de l'art contemporain, comme des musées de même nom : difficultés d'une critériologie et obsession patrimoniale s'y conjuguent, selon la passionnante thèse de Corinne Welger-Barboza : "Le devenir documentaire du patrimoine artistique - Perméabilité du musée aux technologies numériques", Université de Bourgogne, 1998. [41] Internet offre, à cet égard, un exemple assez clair de mixage d'une obsession accumulatrice (rassemblement de la mémoire mondiale en ligne, conservation automatique des paramètres des connexions, des chemins empruntés, des adresses, etc.) avec une certaine dévalorisation de la mémorisation (échanger puis oublier, rafraîchir l'information sans conserver les anciennes versions, etc.). [42] Jacques Derrida, Op. cit., p. 109. [43] Jacques Derrida, op. cit., p. 36/37. [44] Freud, Délire et rêves dans la <<Gradiva>> de Jensen, 1906-1907, Idées, NRF, p. 225, cité par Derrida, op. cit., p. 137. [45] Jacques Derrida, op. cit., p. 132. [46] Maurice Merleau-Ponty, L'oeil et l'esprit, Gallimard, Folio, Paris, 1964, p. 27.

Table des matières

Chapitre V Retour sur interactivité
L'interactivité est une catégorie propre à l'informatique des années quatre-vingt. Elle tentait de désigner une forme de communication entre programmes et sujets humains au moment où les concepteurs parvenaient à déposer dans les programmes des fragments d'autonomie comportementale. Un bouillonnement dans l'invention de nouvelles d'interfaces dites "intuitives" (souris, menus déroulants, etc.) allant de pair avec le développement de la microinformatique, campait le paysage. Alliée à l'individualisation des usages des ordinateurs cette situation allait provoquer des bouleversements dans les schémas traditionnels de la communication. En insérant un agent actif -le programme- entre l'usager et la machine, les catégories classiques d'émetteur, de récepteur, de message et de canal de communication entraient en mouvement et se bouclaient. Dans ce sens, l'interactivité est l'un des costumes possibles du concept "d'autonomie intermédiaire" propre à l'automatisme informatique : stabilité du moteur (le programme) et multiplicité des figures qu'il déploie et interprète. En résultaient des scénographies de commerce inédites avec les ordinateurs, lesquelles ont permis l'éclosion d'une grande variété d'activités sociales, des transactions bancaires à l'éducation, des jeux à la bureautique. L'essor de ce qu'il est convenu d'appeler le "multimédia" a considérablement accéléré et radicalisé ce mouvement. Aujourd'hui, l'interactivité est-elle un concept toujours pertinent ? Et sous quelles conditions ? Cette notion a mûri et ne se trouve plus couverte par la garantie de l'innovation communicationnelle. Non pas qu'elle serait devenue inopérante, mais elle souffre d'un excès d'usage lié à sa considérable extension pratique. Je suggère pourtant que nous ne rangions pas l'interactivité dans la remise des concepts obsolètes. En effet, même si de nouveaux champs de recherche sont apparus, renouvelant les formes de rapports homme/programme ("vie artificielle", "agents intelligents", smarts technologies, par exemple, que nous évoquerons plus avant) aucun concept n'est venu substituer son caractère général. Notre hypothèse sousjacente est donc que l'interactivité comme forme générale, revue et corrigée, est un concept toujours productif. On en discutera sous trois éclairages. On tentera, d'abord, de resserrer la définition de l'interactivité dans ses rapports à la simulation de la présence humaine comprenant ses dimensions à la fois langagière et corporelle. Mais, par ailleurs, de nouvelles propositions sont apparues autour de la notion de "programmes génétiques". La notion d'interactivité s'accorde assez mal à ces nouveaux cadres narratifs ou scénographiques. Elle n'y est pas non plus totalement étrangère. Ces considérations forment le premier volet de ce chapitre. On y envisagera quelques réévaluations afin de renouveler le concept. Une deuxième partie s'attachera aux enjeux plus particulièrement éducatifs de l'interactivité. On y prônera la nécessaire reconnaissance, au deux sens du mot, des logiques de la communication numérique et de l'hypermédiation dans une perspective éducative. Au delà de l'utilisation en tant que technologie éducative, on montrera pourquoi et comment devrait s'imposer un objectif central consistant à favoriser le "devenir auteur" des générations

montantes (et des autres aussi, bien sûr). On décrira comment la culture de l'interactivité -redistribuant les notions de message et de récepteur- favorise alors naturellement la production d'applications interactives. On s'appuiera sur l'analyse des logiques propres au multimédia qui transforment profondément déjà les postures lectorielles en les chargeant de nouvelles dimensions éditoriales, renouvelant ainsi les séparations fondées sur la culture du livre. D'où notre proposition d'un soutien systématique à un home multimédia personnel et collectif, qui pourrait constituer l'objectif fondamental d'une politique éducative en harmonie avec la culture de l'interaction numérique. Enfin, une troisième partie concernera le récit interactif. Région plus délimitée, le récit interactif délivre cependant de précieuses indications sur les spécificités du régime de la communication interactive. Il contraint, en effet, à mettre à l'épreuve certaines épistémés majeures de la narration classique telles que les rapports entre l'auteur et les personnages, entre l'activité d'écriture et le récit produit, ou encore entre l'interprétation et l'organisation matérielle du support. Mais de manière peut-être plus essentielle encore, le récit interactif révèle qu'à travers les questions de la séquentialité du récit, des temporalités de sa réception, de la présence du spect-acteur dans la narration ou de l'irruption d'un tiers -le programmedans la relation auteur/lecteur, ce sont toujours, on le verra, des théories fictionnelles de la vie qui se tiennent en arrière plan. Alors que dans les récits linéaires ces théories s'expriment surtout dans la matière narrative, ici elles se font jour, de surcroît, dans la scénographie de l'interaction (design des interfaces, conception de la navigation hypermédiatique gouvernant les trajectoires dans l'espace du récit, nature des programmes qui organisent la production narrative et ancrent la posture du spect-acteur). Enfin, avant d'entrer dans le vif du sujet, il me semble nécessaire de délimiter plus précisément la signification du néologisme proposé de spect-acteur. Je précise que dans mon esprit, la notion d'acteur ne désigne pas ici les espaces de liberté dont jouit l'interprète, au sens théâtral ou encore l'acteur dans une acception sociologique (l'acteur social). Il renvoie directement à la notion d'acte, quasiment au sens gestuel, par opposition à l'appréciation mentale. Et le trait d'union est essentiel, puisqu'il accouple la fonction perceptive "spect" (regarder) à l'accomplissement de l'acte. A - L'interactivité : quelques réévaluations L'interactivité, une prétention à la maîtrise ? Depuis assez longtemps, l'interactivité est critiquée comme illusion de réciprocité. La notion d'interactivité est alors perçue comme incitation/valorisation de "l'activité" au détriment, affirmait Jean-François Lyotard, par exemple, de la "passibilité". Ainsi écrivait-il : "On ne demandait pas des "interventions" au regardeur quand on faisait de la peinture, on alléguait une communauté. Ce qui est visé aujourd'hui... c'est au contraire, que celui qui reçoit ne reçoive pas, c'est qu'il ne se laisse pas décontenancer, c'est son auto-constitution comme sujet actif par rapport à ce qu'on lui adresse"[47]. Être "passible" de l'oeuvre d'art, c'est-à-dire y être confronté comme membre d'une communauté, c'est, pour Jean-François Lyotard, une position qui tranche radicalement avec l'interactivité, comme si la projection active dans une scène avait obligatoirement comme corollaire une abdication de la sensibilité, un renoncement à une exigence de confrontation et l'impossibilité d'une suspension du contrôle ("se laisser décontenancer"). La dimension gestuelle de la posture interactive apparaît alors comme synonyme de maîtrise. Rien pourtant ne permet de fonder l'antinomie gestuelle/suspension possible de la signification. Des oeuvres "interactives" sont venues confirmer, par divers éclairages, qu'elles pouvaient provoquer, tout comme les oeuvres classiques, "une catastrophe des sens", selon l'expression imagée de Marc Le Bot[48]. (On pense, par exemple, à des

installations en Réalité Virtuelle comme Handsight d'Agnès Hegedüs, Place - A User's Manual de Jeffrey Shaw, Ménagerie de Susan Amkraut et Michael Girard ou encore Tunnel sous l'Atlantique de Maurice Benayoun, travaux dont il sera fait mention ultérieurement). Et pourquoi ne pas imaginer, qu'à travers ces oeuvres et quelques autres, une communauté "d'interactants" serait en train de se rassembler, "passibles" d'émotions esthétiques en partie communes ? La critique -voire le mépris- de Jean-François Lyotard rejoint, par certains aspects, un autre genre de réfutation qui prétend souligner l'impuissance de l'interactivité à se faire l'écho de l'infinie souplesse des comportements humains. On adresse alors un grief, implicite, à la situation interactive, consistant à lui reprocher son incapacité à simuler pleinement les relations vivantes. On lui refuse alors son statut d'entre-deux (ni rencontre directe avec une subjectivité, ni programmation univoque) pour la reléguer -comme le fait Jean-François Lyotard- dans le champ de la communication instrumentale, redevable de l'opérationalité technique. C'est pourtant ce caractère d'entre-deux qu'il faut reconnaître et que je revendiquerais comme posture spécifique passionnante. Il est vrai que, comme l'explique Jean-Pierre Balpe, le récepteur est l'un des paramètres du modèle global organisant le système interactif. Mais cette restriction vaut surtout pour le concepteur. Sur l'autre versant, le spectacteur se trouve dans une situation inédite d'ouverture limitée : contraint, mais mobile. Alors, liberté en cage ? Ouverture illusoire, comme l'affirment ceux qui craignent le piège d'un affranchissement surveillé (et qui font mine de reprocher à l'interactivité ses limites alors qu'ils préfèrent, par habitude, les barrières traditionnelles qui enserrent les oeuvres indéformables classiques) ? Je préfère retenir l'idée que interactivité apparaît comme une nouvelle condition de la réception et l'interpréter comme l'indice d'un désir collectif d'assouplissement des limites -nous y reviendrons- et ceci aussi bien du point de vue du concepteur -qui vise une maîtrise en surplomb- que du récepteur. Ce désir est la condition spectatorielle actuelle -ce qui ne dévalue pas ses anciennes formes- mais exige qu'on la reconnaisse comme telle, pour le pire et le meilleur (qui nous intéresse principalement). Simuler l'autre, est-ce une bonne approche ? Épurons toute illusion quant à une possible simulation adéquate du sujet humain. Même si la tentative de simulation de l'autre demeure une première ligne d'analyse valable, elle doit éviter une dérive mimétique. "L'autre", dans la situation interactive, est un horizon, une référence pas une présence susceptible d'être dupliquée à l'identique. Certains signes de sa présence sont manifestes (réponse, compréhension partielle des énoncés, intelligence parcellaire de la situation) mais pas l'intégralité de sa personne (réactivité, créativité, intentionnalité, etc.). Dans une perspective complémentaire, on doit considérer que l'interactivité construit son spect-acteur, de la même manière que le livre construit son lecteur et un public de lecteur. L'interactivité matérialise alors des rapports au récit, par exemple, qui n'ont pas de référent dans la confrontation avec d'autres supports (livre, film, bande dessinée, etc.). Dès lors l'analyse de la confrontation interactive ne saurait se limiter aux références empiriques (simuler les compétences langagières et comportementales humaines). Il faut l'appréhender comme une catégorie de la communication, c'est-à-dire un mode singulier de commerce entre des subjectivités et des supports obéissant à des contraintes particulières, dont leur "programmaticité", au sens informatique du terme, est certainement la principale. D'où l'analyse de la posture interactive comme relevant d'une double détermination. Moyennant quelques rectifications, ce cadre d'analyse[49] m'apparaît valide. L'interactivité est alors considérée à la fois comme auto-communication et comme méta-communication. Auto-

communication : message, histoire, récit, parcours qu'on adresse à soi-même où le programme fonctionne comme un stimulateur de composition de rôle. Méta-communication : on actualise les programmes conçus par d'autres pour se fabriquer ses propres programmes d'écriture, de mise en scène d'espaces, de circulation dans les récits, de consultation de banques d'informations, etc. Interactivité "de commande" ou "simulation corporelle" ? Dans cette perspective, l'articulation centrale qui organisait l'analyse de l'interactivité comme "simulation de l'autre" séparait l'interactivité langagière (échanger du langage contre du langage) de ce que j'ai appelé "l'interactivité de commande", désignant par là les situations où le langage n'est pas le vecteur principal -ni même obligatoire- de l'interaction, comme dans les visites de villes, de musées ou la plupart des jeux vidéos. Or, la notion "d'interactivité de commande", si elle peut exprimer une assez grande variété de situations où l'interaction se déroule à travers l'activation d'interfaces, de menus ou de zones sensibles sur l'écran, n'est pas assez spécifique. Elle ne désigne pas avec une précision suffisante une grande diversité d'applications où l'activité corporelle est, en tant que telle, directement l'objet de l'interaction. Ne s'agit-il pas, en effet, dans nombre de cas, de restituer, dans le cadre d'un espace contrôlé par programme, des activités corporelles telles qu'un déplacement dans l'espace, une épreuve de pilotage d'engins, un combat de rue ou une compétition sportive ? La grande majorité des jeux vidéos, les visites de villes ou de musées, les univers virtuels basés sur la communication par avatars interposés, reposent sur de telles "simulations corporelles". Cette notion doit, cependant, être maniée avec une certaine prudence. Simulation ne veut pas dire reproduction à l'identique. En effet, la spécificité de ces cadres d'actions résulte de la modélisation préalable des micro-mondes imaginés ainsi que de l'usage indispensable d'interfaces adaptées. De cette double contrainte, il résulte que les activités corporelles sont simplifiées, réinterprétées, déformées afin qu'elles puissent s'exprimer dans ces conditions. Mais, elles sont aussi reconstruites, et éventuellement prolongées par des outils cognitifs puissants, afin de tirer partie de la malléabilité des univers numériques fictionnels et de leurs potentialités. Ouvrir une fenêtre sur l'écran pour prendre connaissance de la position des adversaires, afficher les actions passées, visionner le panorama du champ de bataille, toutes actions possibles dans ces univers. On rejoint ici la problématique de la présence du corps à distance. (C'est, on le rappelle, le premier sens de "virtuel" : l'objet virtuel résulte d'une modélisation numérique et matérialise un déplacement d'existence. L'autre sens, prolongeant celui-ci, étant le déplacement de présence, via réseaux, de ce modèle élaboré). Le corps propre est à la fois réduit et retravaillé par les interfaces spécifiques à chaque application (joysticks manipulant jambes, bras, ou tête, capteurs de position de la main ou du corps pour les jeux en Réalité Virtuelle, etc.). Le corps est alors réduit à un ensemble de compétences limitées, à l'intérieur des cadres d'actions simulés. Il est déplacé à distance par formalisation -c'est-à-dire simplification et amputation- afin de se mouvoir dans les espaces virtuels mis en scène (ville, musée, terrain de sport, etc.). Mais c'est un corps articulé à toute l'ingénierie des interfaces, lesquelles ordonnent ses réactions. Le déplacement de la souris, le cliquage ou le maniement des commandes à l'intérieur des scènes explorées apparaissent alors comme des mouvements corporels esquissés et accomplis dans le système de contraintes propre aux diverses scénographies. On pourrait évoquer les fameux "schèmes moteurs" situés à la frontière du corporel et du mental, que Bergson invoque pour établir sa théorie de la perception. Ce serait ces "sensations

musculaires naissantes" qui régleraient notre présence dans ces univers, à la différence qu'il ne s'agit plus là seulement de perception mais aussi d'action. Un corps virtualisé face à des quasi-sujets La place du corps dans les démarches d'apprentissage n'est certes pas un thème inédit, mais les environnements interactifs ont renouvelé l'approche des échanges entre le corporel et l'intellect. Avancées que le développement en cours d'interfaces à retour d'effort -tel que le manche à balai rétroactif SideWinder de Microsoft décrit au chapitre I- ne manquera pas encore de prolonger. On le sait, la principale caractéristique de l'image numérique actée, c'est qu'elle est devenue sensorimotrice par l'effet de l'incorporation du geste, de l'action, dans sa mise en mouvement par les spect-acteurs. C'est une image kinesthésique, une image bordée, pratiquement, par une incarnation non strictement imaginaire (à la différence des autres régimes iconiques : dessins, photographie, films). Déjà Seymour Papert promouvant l'environnement LOGO dans une stricte filiation piagétienne, érigeait les échanges corps/intellect en articulation centrale de la formation à une posture d'épistémologue[50]. Les jeux d'aventure confrontent -par une voie symétriquel'exploration corporelle et la symbolisation. Aujourd'hui, la qualité graphique des espaces tridimensionnels conçus dans ces jeux ainsi que le raffinement des interfaces augmentent le réalisme des déplacements dans les situations de découvertes -quasiment corporelles- tout en alimentant la sophistication des univers sémantiques à explorer et à ordonner. L'interactivité s'exprime alors non pas dans un échange avec un programme fermé, mais dans la construction d'un micro-monde par création de programmes (LOGO) ou à travers la découverte des principes d'une quasi-vie artificielle (jeux d'aventure). Dans la philosophie éducative bâtie autour de LOGO -construire ses connaissances dans des milieux favorables à leur croissance- l'activité de programmation est un apprentissage au modelage de micromondes. Il s'agit de programmer les comportements souhaités d'un automate graphique, dans une démarche à la fois analytique (réduire le complexe au simple, l'inconnu au connu) et synthétique (fabriquer du complexe avec des séquences simples, combiner des agents procéduraux) pour que l'automate se comporte selon le projet anticipé. La méthode ? S'identifier à la "tortue" afin d'imaginer, par exemple, une géométrie à partir de son propre schéma corporel, c'est-à-dire selon son expérience singulière de l'espace. Démarche inductive expérimentale, proprement phénoménologique, où le corps propre sert de milieu d'expérience pour... en sortir ; c'est-à-dire abstraire des régularités générales par l'auto-construction des connaissances en milieu favorable. Bâtir des programmes d'animation pour "apprendre à apprendre" : c'est bien en invoquant la puissance virtuelle et interactive inégalée du milieu informatique que Seymour Papert, ses collaborateurs et les équipes éducatives conquises par cette démarche affirmaient l'actualité de la révolution éducative qu'ils appelaient de leurs voeux. Avec les jeux d'aventure -Myst ou Riven sont parmi les meilleurs exemples-, c'est l'inverse. Il ne s'agit plus de programmer des automates, mais d'induire les règles de fonctionnement de mondes inconnus à partir de leur fréquentation. Il faut imaginer des régularités dans ce qui paraît mystérieux et insaisissable. Ainsi que le signale Jean-Pierre Balpe[51], les jeux d'aventure sont des milieux propices à l'induction. Ils exigent de conceptualiser progressivement les interactions avec les univers virtuels scénarisés et de contextualiser les connaissances acquises (ce qui paraît anecdotique dans une phase du jeu peut se révéler décisif dans une autre). Il s'agit bien, ici aussi, de devenir épistémologue, mais de manière

moins "scolaire", plus vivante : une analogie -très- simplifiée de la "vraie vie" où il n'y a pas de différence entre agir, percevoir, comprendre les effets de nos actions et s'approprier le sens des environnements qu'on modèle et qui nous modèlent. Ainsi en est-il, par exemple, lorsqu'on découvre un pays étranger avec ses moeurs, ses coutumes, etc. : comprendre les règles de fonctionnement est le résultat des interactions, pas son préalable. Alors que LOGO met en jeu un corps intellectualisé (il s'agit de trouver les règles abstraites permettant les déplacements corporels de la "tortue" afin d'accéder "naturellement" aux démarches d'apprentissages inductives et déductives). Myst ou Riven, en revanche, font appel à ce qu'on pourrait appeler un intellect corporéisé. Ces jeux font dériver les conjectures de l'incubation psycho-corporelle dans un milieu virtuel fortement réaliste. C'est par une immersion dans un monde aux formes visuelles et sonores particulièrement soignées et aux interactions comportementales précisément construites, que s'élabore finalement le travail "ethnologique". L'induction, la symbolisation des relations entre les acteurs humains et nonhumains sont bien entendu des activités intellectuelles, mais ici elles sont favorisées par une présence corporelle virtuelle. Dans les deux cas (LOGO et les jeux d'aventure) la visée est épistémologique, voire épistémophiliques : induire les règles implicites pour sémantiser l'univers, faire des hypothèses et vérifier leur consistance. Qu'il s'agisse de vérifier la pertinence de ses anticipations (LOGO), ou du plaisir de dénouer des intrigues (jeux d'aventure), l'excitation de la découverte et la jubilation lièes à l'accroissement progressif des espaces de libertés, sont de puissants moteurs cognitifs. Dans les deux cas, il s'agit d'environnements qui incitent à une mise à distance de soi. Anticiper -"programmer" veut bien dire étymologiquement "écrire à l'avance"- ou induire, sont des formes différentes de distanciations, avec ce que cela comporte de résistances et de vertiges. L'interaction avec des quasi-sujets (l'automaticité des programmes qui animent la tortue LOGO ou la quasi-vie des mondes virtuels dans les jeux d'aventure) médiatisent souvent ces situations déstabilisantes... à condition, bien sûr, qu'on se reconnaisse dans ces aventures et qu'on s'y risque ; ce qui ne saurait être érigé, de manière normative, en point de passage obligé vers les rivages de "l'épistémophilie". Interactivité et interface L'interface se définit comme un organe de communication entre l'homme et l'ordinateur. Or, au cours de son histoire, l'informatique a constamment déplacé la frontière entre l'intérieur et l'extérieur selon un mécanisme qui, schématiquement, incorpore sans cesse ce qui à l'étape antérieure se situait à l'extérieur. Les couches actuelles (Windows, bureau Macintosh, etc.) poursuivent le mouvement enclenché dès l'invention par Türing du premier langage d'assemblage. Et ce mouvement ne se dément pas aujourd'hui. Par exemple, alors que le langage de rédaction de pages Web, H.T.M.L. se popularise, de nouveaux langages en surplomb assurent, de manière quasiment transparente à l'utilisateur, la création du code H.T.M.L. Avec le développement des progiciels, les programmes multimédias ont modifié, dans cette même direction, la notion d'interface. D'organes externes permettant l'interaction homme/ordinateur, elle est devenue outil de manipulation posé à la surface du programme, à la fois moyen de sélection des commandes, instrument de navigation, organisation générale des informations, symbolisation des univers délimités et prescription de comportements pour l'interactant. On note, en effet, une tendance très nette à ce que l'interface, qu'on appelle désormais "graphique", exprime directement les mondes qu'elle permet de découvrir. Par

exemple, s'agissant de l'exploration d'une photographie, le pointeur prend la forme d'un viseur. Plus même, l'interface tend à disparaître comme fonction séparée et à s'intégrer aux constituants de la scène. L'interface devient interne à l'événement ; plus de barre de menus en haut de l'écran : ce sont les objets de la scène eux-mêmes qui deviennent sensibles. Cliquer sur le bouton du poste, il émet de la musique, passer en roll over sur un tableau, il s'anime, sur une fenêtre, elle s'ouvre, glisser sur le bord inférieur d'une page, elle se tourne. Les jeux vidéo d'action excellent à éliminer toute enveloppe graphique et relient directement les organes de commandes aux acteurs eux-mêmes. Comme dans le monde réel, les objets sont devenus mobiles, déformables, actifs. La présence de l'interactant dans la représentation en est majorée d'autant. Outre ces fonctionnalités, l'interface définit un mode de fréquentation de l'univers façonné. Elle précise la posture suggérée à destination de l'interactant et institue le cadre de référence du monde proposé à l'exploration[52] : type de décryptage souhaité (fiction, reportage, jeux, produit éducatif, etc.), connotations repérables, hiérarchies entre les personnages, etc. L'interactant est alors appelé à adopter une disposition archéologique, questionnant la surface qu'il sait gouverner l'accès aux mondes sous-jacents. Sur une palette de contraintes et d'habitudes plus ou moins communes, chaque titre de CD-Rom, chaque site Internet, invente ses interfaces graphiques et s'ingénie à proposer des modalités de circulation inédites. Pour le spect-acteur il s'agit alors de s'approprier tout à la fois les significations et les codes pour les enchaîner ; un peu comme s'il fallait reconstituer un livre à partir des lignes en vrac grâce à un vague manuel propre à chaque volume. Le mode d'emploi devient un enjeu sémantique et dramatique (d'où certaines résistances du grand public à s'approprier ces propositions[53]). Désir et déception Au fondement de l'image interactive gît le désir de faire reculer les limites imposées par l'enregistrement, de sortir de la culture de l'audiovisuel. Désir d'un accroissement des espaces de liberté, de voir reconnaître au spect-acteur ou au lect-acteur une présence dans les scénographies. En prolongeant ce propos, on pourrait soutenir que l'image actée engendre une forme d'iconoclasme par excès d'iconophilie. Il s'agirait de faire rendre à l'image plus que ce qu'elle ne peut apparemment accorder. On ne se demande plus, alors, si l'image exprime ou déforme son référent, mais où se situent ses limites, quelles investigations peuvent-elles s'y développer ? Bref, non pas que montre-t-elle, mais que dissimule sa surface visible ? "Derrière chaque caverne, une caverne plus profonde". Mais aussi, promettant un parcours sans fin, les scénographies numériques approfondissent la déception de buter sur des limites, découvrant que des frontières bornent toujours ces parcours, leur origine comme leurs déroulements. Les programmes multimédias accroissent le trouble de la finitude alors même que leur principe consiste à élargir le champ des possibles (mille images actualisables à partir d'un modèle, des milliers de trajets envisageables dans une scène). D'où l'anxiété induite par la recherche endiablée d'une augmentation des degrés de libertés dans le déplacement interne aux corpus, qu'ils soient à caractère narratif ou consultatif ? Or, on le sait, toute liberté nouvelle secrète des angoisses et des défenses. Dans cette perspective, la déception est peut être salutaire, jouant probablement comme une réassurance face aux vertiges de l'affranchissement du parcours unique. Un modèle à trois branches

La dichotomie interactivité langagière/interactivité de commande ne permet pas d'appréhender l'une des dimensions possibles de cette relation. Ces deux branches -référant à la simulation de l'humain dans ses dimensions langagières et comportementales- ignorent un type d'interactivité qui ne se rapporte pas à l'activité humaine et qu'on pourrait qualifier d'automatique. En effet, alors que les deux premières dimensions référent à l'interactant, la troisième exploite les potentialités propres de certains programmes informatiques[54]. Les programmes "génétiques" illustrent assez bien cette perspective. Tout en tenant compte des interventions de l'interactant, ils calculent des trajectoires dans des univers selon des programmes matérialisant les principes "vitaux" à l'oeuvre dans ces mondes installés et réagissent selon les actions déjà entreprises. Une nouvelle série de jeux, dont "Créature" est un premier exemple, encore assez sommaire, exploite cette nouvelle direction. Le générateur littéraire de Jean-Pierre Balpe -sur lequel nous reviendrons- se rapproche de cette voie, de même que le déplacement dans les images de certains mondes virtuels ou les générateurs d'images illustrant les principes de la "vie artificielle". Ainsi l'installation de Maurice Benayoun, Dieu est-il plat ?[55] peut être qualifiée d'interactive, mais en y incluant l'activité propre du programme qui influe de manière déterminante sur les choix proposés. Le spect-acteur, en manipulant une souris, avance dans un univers de briques qui se creuse au fur et à mesure de sa progression. Tout changement de direction provoque la création d'un nouveau couloir dans lequel il découvrira des représentations de Dieu. Les chemins ne sont pas déterminés a priori, c'est la déambulation qui crée elle-même la topographie de l'exploration. Le programme ne se contente pas de réagir aux actions de l'interactant, il fabrique les choix de circulation selon les trajets déjà effectués. Karl Sims, avec Genetic Images[56], s'inspire directement de la "vie artificielle". L'ordinateur (un supercalculateur massivement parallèle de Thinking Machines) affiche une série de seize images sur des écrans vidéo. Les visiteurs sélectionnent celles "qui seront amenées à survivre" lesquelles, par combinaisons et mutations algorithmiques, produirons des "descendantes" remplaçant les images éliminées. Le processus peut alors être réédité à l'infini. Karl Sims qualifie l'installation "d'interactive" et écrit : "Ainsi, dans cette évolution artificielle, ce sont les visiteurs qui déterminent interactivement <<l'aptitude>> des images à survivre"[57]. Il s'agit de créer une vie "artificielle", c'est-à-dire qui se veut non intentionnelle (mais qui, cependant, ne peut se passer de l'installation -nécessairement intentionnelle- d'un moteur non intentionnel). On peut considérer que le visiteur collabore avec le programme pour déclencher un processus évolutif, au sens darwinien du terme. Pour rendre compte de l'interactivité comme forme de communication homme/machine, il est sans doute nécessaire de substituer à un modèle binaire (interactivité langagière/corporelle), un modèle à trois branches incluant cette dimension de composition automatique. Une interactivité voilée Avec les nouvelles générations d'objets "intelligents" évoqués au chapitre un (smart rooms ou smart clothes, par exemple), se fait jour une autre modalité de la communication homme/machine. Ces objets nous écoutent, nous scrutent, apprennent nos habitudes, et finalement agissent avant même qu'on ne leur demande. Il s'agirait là d'une interactivité voilée (du point de vue de l'interactant) ; non pas d'un commerce bilatéral mais d'une sorte de capacité réflexe déposée dans des logiciels. Dépositaires d'une réactivité, d'un réglage comportemental les "objets intelligents" s'ajustent à nos comportements et s'auto-définissent dans un rapport adaptatif. À la notion d'interaction (entre un programme et un sujet humain), ces programmes substituent un rapport docile, muet qui n'affirme explicitement son existence

qu'autant qu'il échoue à satisfaire nos besoins. On retrouve des séquences de dialogues interactifs lors des phases d'initialisation (paramétrages) et d'échec (nouvelle programmation). En dehors de ces moments, l'humain se sait épié et aidé par l'agent logiciel sans qu'il le sollicite volontairement. Une communication implicite prend la place d'un échange intentionnel explicite : une modalité d'une relation maître/esclave, car dans cette situation, l'esclave n'est remarqué par le maître que s'il défaille. B - Éloge des savoir-faire intermédiaires ou le home multimédia, un enjeu politique "Devenir auteur" tel devrait être la devise inscrite au fronton du multimédia à vocation éducative. On le verra, il s'agirait là moins d'une interactivité avec des "contenus" déjà constitués que d'une interactivité qui confronte à des logiciels-outils. On rappelle d'abord que l'apprentissage de la lecture n'a de sens que conjointement à celui de l'écriture. Rien de moins que transformer de jeunes enfants en auteurs, au sens plein du terme : devenir auteur -écrireet pour cela lire les textes des autres comme les siens. Conduire le passage à l'écriture, c'est, on le sait, l'une des missions essentielles de l'éducation. La visée ne consiste pas seulement à permettre l'expression écrite de la pensée, mais surtout à provoquer naturellement une mise à distance de soi, afin qu'à travers cette extériorisation, dans cet écheveau de règles et de contraintes, les apprentis-auteurs explorent, raffinent et finalement produisent, par ré-flexion, leurs idées. Utopie démocratique, que les nouveaux systèmes symboliques numériques se doivent de prolonger, s'il est vrai que l'interactivité dans le contexte de l'hypermédiation fait émerger de nouvelles pratiques d'expression/réception (que, par exemple, les notions de lectacture, ou de home multimédia présentées plus en avant, tentent de circonscrire). L'interactivité est considérée ici comme espace techno- culturel singulier où commercent auteurs et récepteurs par programmes-outils interposés. Radicalisant ce qu'annonçait déjà l'écriture et l'imprimerie -l'utopie de la République des Lettres, où chacun est aussi bien lecteur qu'écrivain- l'interactivité informatique nous plonge dans un milieu encore plus favorable pour expérimenter des agencements inédits entre ces deux postures. Pour aller à l'essentiel, je suggère de reconnaître et de consolider le statut intermédiaire entre ces positions : ni lecture -qui laisse inchangé le texte lu- ni écriture, dont l'idéal consiste à demeurer inaltérée ; notions qui n'ont de sens historique que relativement à des supports stables. ("Lecture" et "écriture" sont à considérer ici dans un sens élargi, proche de "réception" et "production"). Mais avant de poursuivre cette réflexion, il me semble judicieux de situer trois types de fréquentation des programmes multimédias interactifs dans leurs rapports à la "réception/production", qui on le verra, possèdent tous leur légitimité propre, même si leurs frontières sont mobiles : - la création en tant qu'auteur, artiste ou professionnel, typique d'une activité à finalité clairement éditoriale, - symétriquement à la position d'auteur, la navigation dans des contenus stables (CD-Rom ou sites Internet) où, me semble-t-il, la situation de lecture doit être différenciée de l'activité d'écriture même si les supports numériques ouvrent à un concept de lectacture,

- enfin, la production de type home multimédia, stratégique, qui stabiliserait une production intermédiaire entre réception et expression. Nous concentrerons notre attention sur les deux dernières situations, si tant est que la première ne souffre pas de remise en cause fondamentale, même si elle se confronte à la recherche de langages inédits. Vers une lectacture La navigation interactive n'est pas une écriture. L'invitation à la navigation hypertextuelle se conjugue pour nombre de commentateurs, avec effacement de la séparation entre lecture et écriture. L'argumentation se construit en commençant par souligner que toute lecture est une réécriture interne du texte lu. Lire un texte, le comprendre (étymologiquement, "prendre en soi"), consiste effectivement à le réécrire intérieurement par une série d'aller retour entre prédiction de ce qui va suivre et réajustement du sens de ce qui précède (comme pour l'appropriation orale). Ayant affaibli la distinction entre lecture et écriture, on franchit un pas de plus en tentant de faire fusionner l'auteur et le lecteur. Une forme de cette tentative consiste à considérer, par exemple, que la navigation hypertextuelle -pour peu qu'elle puisse modifier le graphe de circulation (ajouter des noeuds, renforcer des chemins)- deviendrait, de ce fait, une écriture. C'est le point de vue, par exemple, de Pierre Lévy lorsque qu'il écrit : "Le navigateur peut se faire auteur de façon plus profonde qu'en parcourant un réseau préétabli : en participant à la structuration de l'hypertexte, en créant de nouveaux liens. Certains systèmes enregistrent les chemins de lecture et renforcent... ou affaiblissent les liens en fonction de la manière dont ils sont parcourus par la communauté des navigateurs"[58]. Mais, même si le lecteur peut modifier des liens ou ajouter des noeuds, s'agit-il alors toujours d'écriture ? Incontestablement, pour le lecteur suivant qui parcourra l'hypertexte transformé, les significations du document seront, elles aussi, modifiées. Si certains chemins sont soulignés, peut être sera-t-il enclin à les emprunter (ou à s'en détourner). De toute manière sa circulation en sera remaniée. Mais peut-on, pour autant parler, d'écriture ? Bien sûr, on peut arguer du fait que l'écriture ne se confond pas avec la production sémantique (on peut noter des listes de mots ou de nombres sans rechercher à transcrire la pensée, c'est même cela que visaient les premières inscriptions). Mais comment éliminer, aujourd'hui, du champ de l'écriture la production d'idées, d'arguments ou d'expressions d'états affectifs, surtout lorsqu'on vise des textes argumentatifs ? Agencer différemment l'organisation physique d'un texte, n'est générateur de productions sémantiques et de postures sensibles passionnantes, que si le dispositif de réagencement devient lui-même la composante essentielle d'une oeuvre interrogeant ses différentes instanciations possibles et bousculant les coutumes lectorielles. (Les jeux calligraphiques ou typographiques intentionnels peuvent, eux aussi, ouvrir des champs d'expression sémantiques et esthétiques originaux). Mais dans ce cas, et même si une instanciation suscite une modification interprétative pour un futur lecteur, peut-on lui décerner le titre d'écriture ? À ce compte n'importe quelle succession de mots tirés au sort et alignés sur une page (ou un écran) peut déclencher une vague d'associations. Ce n'est pourtant ni un texte, ni un poème, juste un exercice automatique ou un test projectif ; sauf si le dispositif de tirage est pensé en tant que tel par l'auteur, et là c'est ce geste qui devient proprement une oeuvre (les Cent mille milliards de poèmes de Queneau n'ont d'intérêt que par le dispositif imaginé pour les produire et non en tant que contenus). La lectacture, une activité en émergence

On détecte une tendance malheureuse à analyser les nouvelles postures et les productions permises par la numérisation en les ramenant à des formes anciennes, serait-ce à travers des négations trop rapidement posées (par exemple, le lecteur est devenu auteur). Oui, la lecture hypertextuelle multiplie, augmente la lecture sur supports stables. Non, ce n'est pas, en soi, une écriture. Même les notions de coauteur ou de co producteur paraissent trop imprécises (elles réfèrent à la collaboration de plusieurs auteurs approximativement de même statut, comme dans la production audiovisuelle, par exemple). On peut considérer que l'interactant devient en quelque sorte l'interprète de l'hypertexte ou de l'hypermédia, au sens musical du terme ; éventuellement un virtuose, mais pas le compositeur. En fait, on tirerait profit de la définition de nouveaux concepts remplaçant celui d'écriture : balisage de chemins, production d'agencements formels, marquage de circulations. Un concept de lectacture est probablement à thématiser. On pourrait alors envisager que cette lectacture puisse agir dans une zone intermédiaire entre la production et l'appropriation de sens, pôles que la lecture et l'écriture tenaient jusqu'à présent, et dans une certaine mesure seulement, éloignés. Indubitablement lecture et écriture, même sur supports stables, ne sauraient être isolées l'une de l'autre. Lire, c'est réécrire pour soi le texte, et écrire, c'est enchaîner sur des lectures. Par ailleurs, ces deux pôles s'agencent mutuellement dans des contextes toujours collectifs. Une lectacture permise par des supports dynamiques augmenterait encore les proximités entre les deux pôles, sans toutefois les condamner à fusionner. De multiples développements (indexation de textes, mobilisation de moteurs ou guides de recherche, formalisation de chemins de navigations, etc.) font plus ou moins signe dans cette direction. Mais la notion de lectacture n'est-elle pas trop fortement connotée par celle de "lecture", rabattant exagérément le sens sur le langage écrit, alors qu'avec l'hypermédiation prennent consistance les pratiques croisées d'expression/réception iconiques, sonores et linguistiques ? Comment qualifier cet acte d'expression/réception ? Spect-acture, hypermédiature ? Le guichet pour déposer les néologismes est encore ouvert. Le home multimédia, un enjeu politique Ceux qui considèrent que la lecture hypermédia s'identifie à une écriture simplifient par trop la question, mais surtout réduisent les pratiques d'expression/réception sur supports numériques à celles qui se sont sédimentées dans la culture de l'imprimé. Or, il me semble que par de nombreux canaux, l'alliance des technologies d'inscription numérique et d'usages sociaux plus répandus qu'on ne le croit, dessinent d'autres perspectives, intermédiaires entre consultations, conservations, citations, collages, émissions de liens et création originale de contenus. Une offre logicielle grand public accompagne et fortifie cette alliance : boîtes à outils de toute nature, progiciels de design d'hypermédias, logiciels de traitement d'image fournis avec les appareils photographiques numériques et décalqués des outils professionnels de type Photoshop, logiciels d'échantillonnage musicaux, de sampling etc. Des home studio aux pratiques de copier/transforme/coller musicales (techno, house music)[59] en passant par les mix des raves, le domaine musical offre un bon écho de ce qu'une réception/production multimédia est en passe de généraliser : un home multimédia élargi aux agencements conjoints des univers textuels, graphiques, iconiques et sonores dans le contexte de la communication collective et de la documentation partiellement automatisée. Si on décrit concrètement ce que signifie réaliser une home-page sur Internet ou un site collectif dans une classe, par exemple, on découvrira une nappe graduée d'activités où la recherche documentaire automatisée par moteurs et guides, la citation, l'emprunt non référencé, le collage, la transformation de sources originales occupent une place considérable. L'usage de robots chercheurs est, par ailleurs, une manière naturelle de se déplacer sur le réseau : la mobilisation de tels automates devient une pratique de lecture/recherche "grand public". De

multiples propositions s'amorcent pour cartographier et exploiter les gisements de données ainsi collectés[60], étendant ainsi des savoir-faire d'organisation de connaissances aujourd'hui encore spécialisés. Sur ce terrain aussi, le passage à la "home" exploitation dynamique des paysages d'informations est amorcé. Le développement de nouvelles normes d'édition de documents appelées à succéder à H.T.M.L. -tel que X.M.L. (pour eXtensive Mark up Language), méta-langage permettant d'adapter les langages de conception selon la nature des sites- augmentera l'initiative des Internautes. Plus généralement, il s'agira non plus de "consulter" des sites mais de transformer les pages reçues, de les recomposer et d'y ajouter des informations personnelles. L'évolution propre des langages du multimédia incite à prendre résolument l'orientation du home multimédia. L'offre de logiciels-auteurs se renforce (maquettisme, traitement d'images photographiques, gestion d'hyperdocuments, langages de conception de sites sur Internet, etc.) rendant de plus en plus transparent aux utilisateurs l'usage d'outils élaborés[61] (même si, et ce n'est pas contradictoire, parallèlement les versions professionnelles se complexifient). Bien entendu, une part plus originale, personnelle, lieu de la créativité dans un sens plus traditionnel, complète ces activités : établissement de chemins de navigation, design d'interfaces graphiques, et... rédaction de textes où il se vérifie que les savoirs de la lecture/écriture "classique" demeurent fondamentaux dans ces nouveaux espaces expressifs. Et l'on voit bien que ces dernières compétences sont majorées au fur et à mesure qu'on évolue vers les univers professionnels. Mais, dans une perspective d'éducation et d'apprentissage, les premières strates documentaires, de sélection et d'agencements sont d'une richesse heuristique considérable. Dans ce sens -celui du home multimédia- l'école doit prendre en charge le devenir-auteur multimédia des enfants, comme Célestin Freinet avait pris en charge leur devenir auteur à travers la fabrication de journaux. Et si, hier, tout le monde n'était pas appelé à écrire dans un journal et à l'imprimer, demain, en revanche tout le monde sera plus ou moins conduit à se mouvoir dans le milieu de la téléinformatique. Et c'est bien ce que nombres d'expériences en France et dans le monde indiquent, notamment avec l'usage renouvelé de la pédagogie de projet autour d'Internet (réalisation coopérative de sites, par exemple, version moderne de l'imprimerie à l'école). Levons, ici, une éventuelle méprise. L'auteur-citoyen dans l'aire de la culture de l'écrit n'est pas obligatoirement un auteur au sens académique du terme (journaliste, écrivain, homme de lettres ou de sciences, etc.). De la même manière, l'auteur multimédia n'est pas appelé à maîtriser les savoir-faire spécialisés qui demeureront l'apanage de professionnels. Mais à des niveaux différenciés, chacun est conduit à utiliser des outils de complexités graduées pour des usages eux aussi gradués. La mise au point, par la société Cryo, du langage SCOL est un bon exemple d'usages échelonnés d'un même logiciel. Ce langage de conception d'espace tridimensionnel et interactif sur Internet -véritable prodige technique permettant le design personnel, d'espaces de communication- est proposé dans plusieurs versions de complexité et de prix différents selon qu'il s'adresse au grand public ou à des professionnels. SCOL devrait permettre aux Internautes de créer assez facilement leurs propres mondes virtuels en trois dimensions et d'y déposer leur avatar en scannant une photo, par exemple. Toutes les composantes des scènes conçues sont cliquables et peuvent renvoyer par liens à d'autres lieux, afficher des sources documentaires ou lancer des applications. De même, dans sa version de 1998, Le deuxième monde distribue à ses "habitants" des outils simples pour configurer, en trois dimensions, leur home page ainsi que leur domicile virtuel, limité dans la version

antérieure à un appartement type dont ils ne pouvaient que personnaliser la décoration. Là encore, l'habileté et les motivations des usagers donneront forme à des réalisations de qualités différenciées. Tous les Internautes, par exemple, savent bien que l'usage du réseau met en oeuvre des compétences variées passant du simple "surfing" (l'équivalent de la lecture classique) à la maîtrise des téléchargements de logiciels et à l'exploitation de grandes masses d'informations acquises grâce aux robots et autres guides de recherches, dont les langages de requêtes se font sans cesse plus acérés et complexes. Les réglages et manipulations logiciels sur Internet dérivent parfois même vers des savoir-faire quasi-experts (chargement d'applications en V.R.M.L. -langage de conception interactif tridimensionnel- et autres plug'ins, réception de chaînes multimédias en continu, etc.). On voit se multiplier sur le réseau des offres d'outils "grand public" de création de sites proposant aux Internautes néophytes des formats préétablis qu'il s'agit de paramétrer et d'illustrer grâce à des banques d'images libres de droits[62]. Il suffit d'agencer ces textes, photos et liens hypermédias pour construire un site personnel sans rien connaître à la programmation. Au terme de ces entrelacements, réception et production multimédias s'enchaînent -sans se confondre-, comme se font écho aussi lecture et écriture et se couplent fondamentalement les activités de réception et d'expression dans les environnements mus par l'interactivité informatique[63]. Tendance fondamentale qui pousse à accroître, parmi les usages du réseau, ceux qui tendent à la production d'hyperdocuments. On dira, bien entendu, que nul n'est tenu de devenir rédacteur hypermédia et que la rédaction de textes linéaires sur papier n'est pas condamnée à quitter l'horizon éducatif. C'est aujourd'hui exact, mais cela risque demain de devenir un faux dilemme, dès lors que les savoirs de l'écriture s'hybrideront à ceux de l'hypermédiation. L'usage documentaire dérivera alors fréquemment vers la production multimédia. Nous ne supposons pas qu'au nom d'on ne sait quelle injonction normative, des pratiques de simples consultation et navigation soient appelées à devenir obsolètes ni que l'hypermédiation doive effacer les frontières entre les activités triviales et expertes d'édition multimédia, mais nous imaginons toutes sortes de strates, aujourd'hui déjà observables, entre ces deux positions[64]. Nous conjecturons que, même si les frontières se déplacent avec l'évolution techno-culturelle, ces deux pôles et donc aussi les zones intermédiaires maintiendront leurs spécificités. Ces zones médianes forment le terrain fertile de projets individuels et collectifs formateurs, et surtout en harmonie technoculturelle avec le milieu du multimédia. Cette perspective pourrait, de surcroît, donner un contenu concret à l'appel au décryptage des images, objectif récurrent proclamé, ici et là, par tous ceux qu'inquiète une supposée domination -à démontrer, par ailleurs- du règne iconique sur le scripturaire. La seule manière de dégonfler la baudruche de la manipulation par les images consiste à faire de chacun des manipulateurs -au sens premier du terme- d'hyper-images. Pour former des citoyens capables de déjouer les prétendus pièges des images numériques, rien ne vaut tant que de développer leur réception/production, c'est-à-dire leur mobilisation expressive. On s'apercevra alors que l'hypermédiation fait apparaître en pleine lumière ce que savent tous les professionnels de l'image, à savoir que toute image est bordée par du langage -souvent écrit- (de même que le langage engendre des images). OEuvrant naturellement dans les savoirs croisés de l'écriture, de l'icône et du son, l'hypermédiation est une propédeutique sémio-critique naturelle. Ainsi se fait jour la nécessité d'une acclimatation raisonnée au milieu téléinformatique, tout à la fois maniement d'un ensemble corrélé d'outils de réception et d'outils de production, même si, à la différence des technologies de l'écriture, celles du multimédia évoluent rapidement, et

ne sont peut-être pas appelées à se stabiliser. En revanche, les compétences exigées et développées à la fois par les outils de la "home production" enrichissent la problématique de l'interactivité. Il s'agit ici de mobiliser une interactivité -propre aux logiciels- pour produire des programmes multimédias eux-mêmes à fréquentation interactive, une interactivité au carré, en somme. Faire fructifier les savoir-faire intermédiaires du multimédia est un enjeu éducatif, bien sûr, mais plus fondamentalement politique, si l'on comprend que se construisent ici les formes et les outils expressifs de la démocratie. Même sans démarche volontariste, les pratiques du "home multimédia" se développeront nécessairement, mais plus lentement et sans que soit mise en lumière leur valeur. Répétons-le, il est de la responsabilité de ceux qui ont en charge les politiques éducatives de commencer par reconnaître, au sens fort du terme, les pratiques du "home multimédia" comme condition actuelle de la citoyenneté ; et ensuite, il leur appartient de les systématiser. C - Récit interactif et moteur narratif Le cadre narratif formel Nous nous proposons, ici, d'analyser un genre d'application interactive particulier, le récit. On le définira par l'alliage de deux composants (rappelant celles de l'hypermédia) qui définissent le "cadre narratif formel". Les événements insécables forment le premier matériau. Constitués par l'ensemble des segments inaltérables, des séquences moléculaires compactes, ils ne peuvent être découpés par les actions de l'interactant : séquences sonores, images chaînées dans un ordre toujours identique, textes composés, etc. Avec le graphe de navigation, deuxième composant, on détermine les chemins possibles qui relient ces événements moléculaires et que l'interactant actualise librement, dans le cadre préconçu des propositions déposées dans les programmes qui gèrent l'interactivité. Le cadre narratif formel, ensemble clos formé par ces deux constituants, représente le pôle opposé à l'actualisation, c'est-à-dire au cheminement d'un sujet qui parcourt et s'approprie la narration. Cette appropriation transforme le cadre narratif en moteur herméneutique individuel ouvert, producteur de scènes imaginaires, générateur sémantique, déclencheur d'association d'idées. Bref, on retrouve alors, dans cette activité d'interprétation, l'ordinaire de nos états mentaux dans les situations toujours couplées de circulation, d'appropriation et d'interprétation des récits, quel qu'en soit le support. (Roland Barthes, dans Le plaisir du texte : "Bonheur de Proust : d'une lecture à l'autre, on ne saute jamais le même passage"). La variété des supports, cela n'est pas, loin s'en faut, chose négligeable. Ici, à la différence des supports formellement transparents (livre) ou à déroulement temporel fixe (film), se concrétise une collaboration formelle du lecteur avec l'auteur, collaboration certes non symétrique (l'activation d'un récit interactif, rappelons-le, ne saurait se confondre avec sa conception). Soulignons que, dans les récits à cadre formel fixe, la coproduction est uniquement de nature imaginaire, alors, qu'ici, elle porte sur la configuration même du récit (l'enchaînement des scènes par exemple). Si l'on suit ce schéma, nous serions confrontés à deux modalités de l'altérité dans la scénographie interactive. La première, interne, exprimée par les codes d'interaction (interruption, recherche d'ouverture telle que le cliquage exploratoire, réponse à une proposition de débranchement) renvoie à l'auto-communication. C'est-à-dire à l'activité d'un spect-acteur qui, dédoublé dans le récit, se prend comme sujet de questionnement. "L'autocommunication", n'est-ce pas le contraire de l'altérité ? Oui, si on la conçoit comme une autoréférence absolue. Ce dont il ne peut s'agir ici. Car se prendre comme sujet de questionnement

(vais-je ouvrir cette porte?) est toujours négocié en référence à une intentionnalité déjà installée (celle du concepteur). Même dans ses dimensions de libre choix, cet arrière-fond se manifeste. On pourrait dire que l'ouverture d'espace de libertés par le concepteur permet la confrontation du spect-acteur avec lui-même. À cet instant, il s'agit donc d'un jeu à trois personnages : le concepteur, le programme et le spect-acteur. Situation plus classique, le deuxième type d'altérité, externe, manifeste la subjectivité du (des) concepteur, laquelle se déploie dans l'ensemble du cadre narratif formel installé. Ce sont les donnés (matériaux et modes de circulation) que l'interactant reçoit et qu'il ne peut négocier. On retrouve alors une confrontation à deux partenaires principaux : l'auteur et le lecteur. Entre ces deux pôles (les deux modalités d'altérité), la lectacture fait osciller liberté et contrainte, auto et métacommunication, autonomie et dépendance. L'inachèvement du roman et "l'ouverture" d'Umberto Eco La manière dont Umberto Eco présente L'île du jour d'avant est symptomatique d'un questionnement général, induit par ce qu'on pourrait appeler une subjectivité interactive. Il n'est certes pas anodin, que ces propos soient tenus par l'auteur de L'oeuvre ouverte, où, de manière prémonitoire -en 1964- certains matériaux pour apprécier la future interactivité informatique étaient déjà rassemblés[65]. S'exprimant donc à propos de son roman, il souligne que sa structure est bien celle d'un moteur de construction du récit qui fonctionne à l'intérieur même de l'histoire. Une scénographie à trois acteurs principaux est installée. Le romancier, marionnettiste muet, anime deux créatures romanesques : le narrateur, lequel est doublé, dans le récit, par ce qu'Umberto Eco appelle "son protagoniste" ou "son personnage". Évoquant les langages dans lesquels s'expriment ses deux créatures, le romancier en vient à dire, parlant du protagoniste, que "son auteur utilise un langage plus neutre", échangeant ainsi leurs positions respectives. Le sémiologue construit un mécanisme narratif qui semble lui échapper. "Cette fois, je n'avais pas de plan global ni de final : j'ai inventé chapitre par chapitre, en laissant le récit se faire tout seul"[66]. Le procédé, tel que l'écrivain le décrit, redouble ainsi la trame interne du roman : "un roman que le narrateur n'arrive pas à construire et auquel collabore le personnage"[67]. Dépassant la controverse récurrente entre le double et le faux, l'écrivain revient sur l'absence de dénouement du roman. On ne s'étonne pas que le doute flotte une fois le livre refermé ; roman inachevé, comme tout roman, au sens où le moteur narratif installé continue à tourner dans l'esprit des lecteurs bien après que le livre est refermé[68], mais en outre, ici, formellement inachevé, parce qu'aucune réponse ne vient dénouer l'intrigue. Umberto Eco réédite, dans une certaine mesure, à l'intérieur d'un roman -et ce n'est pas le premier à utiliser le procédé- ce que Woody Allen avait fait, au cinéma, dans La rose pourpre du Caire. "La rose pourpre du Caire" ou le récit séquentiel de l'interactivité Le réalisateur new-yorkais avait, lui aussi, conçu un mécanisme interactif interne au récit filmique. Son personnage principal, l'archéologue, était clivé entre sa fonction d'acteur cinématographique et son rôle d'amoureux réel, et de ce fait ne cessait de franchir la barrière physique de l'écran. D'où une mise en scène des paradoxes de l'ubiquité dans ses liens à l'uchronie. Le réalisme nécessaire du film interdit qu'un personnage soit simultanément à deux endroits, donc si l'acteur sort du film, il quitte son incarnation réelle et pratiquement, il disparaît du tournage d'un autre film. La vie fictive, diégétique, se confond, potentiellement, avec la vie réelle : on peut quitter le récit et s'incarner. Le film scénarise, dans un récit séquentiel, l'interactivité (entre la spectatrice et l'acteur dans l'écran) et, de plus, pressent l'accélération d'une ubiquité technologique que de multiples systèmes (télévirtualité,

communication par avatars interposés, etc.) incarnent aujourd'hui. Le moteur narratif du film fonctionne à plein rendement tant que le conflit entre la fiction (continuer à faire l'acteur) et l'incarnation (franchir l'écran pour retrouver la spectatrice) ne se dénoue pas. Le récit pourrait, lui aussi, ne pas se terminer. Mais c'est un film, c'est-à-dire un spectacle dont la durée est déposée une fois pour toute sur la pellicule. Même s'il figure l'interactivité mieux, sans doute, que toutes les fictions interactives, il ne fait que la représenter et non la réaliser. Et le récit de l'interactivité, tel que Woody Allen le scénarise, ne pourrait pas être traduit en récit interactif. On y perdrait l'enchaînement temporel qui porte l'histoire, c'est-à-dire le génie propre du metteur en scène. Cela n'implique pas qu'un autre type de talent fondé sur l'installation de moteur narratif et de cadre scénographique appelant le spect-acteur à s'inscrire -cette fois-ci formellement- dans le récit, soit d'avance disqualifié. Mais un tel talent obéit à d'autres réquisits qu'un récit linéaire. Trois modalités de circulation interactive dans les récits On peut distinguer trois types d'interruptions dans la trame d'un récit. Les deux premiers sont volontaires. Le troisième, masqué, s'exécute à l'insu de l'interactant. Dans le premier type d'interruption, un choix explicite se présente entre plusieurs prolongements. Le récit s'interrompt et on doit, par exemple, pénétrer dans le jardin des Plantes ou bien longer la Seine. Le deuxième type d'interruption exige l'exploration "aveugle" de la scène pour rechercher une zone active. Si on clique sur un agenda dans la mallette ouverte -alors que rien ne signale que cet objet est "actif"- les pages de l'agenda s'affichent. À nous de trouver la zone cliquable qui nous fournira des indications plus précises sur l'emploi du temps du possesseur du calepin. Enfin, à l'insu de l'interactant, le programme peut recueillir des indices comportementaux qui infléchiront le déroulement futur du récit. (Le CD-Rom Sale temps est construit selon cette dernière logique[69]). Si le spect-acteur a choisi de s'intéresser à Marguerite, une variable augmentera le coefficient amoureux, passionnel, intuitif de son personnage et la suite de l'histoire traduira ce marquage. Comme dans la vie, les décisions prises expriment la subjectivité et conditionnent le déroulement ultérieur des événements. Mais la variable comportementale -dans Sale temps ainsi que, jusqu'à présent, dans la quasi-totalité des récits interactifs- est aveugle pour l'interactant[70]. Elle oriente les choix ultérieurs proposés sans apparaître explicitement à ses yeux. Suggérons que l'enregistrement de ces marquages successifs pourrait se concrétiser dans la formation d'un "caractère". Il serait judicieux, dans certains cas, d'offrir à l'interactant l'accès à ce miroir comportemental, afin qu'il puisse interpréter la chaîne des événements qu'il a "vécus". Une sorte de méta-récit viendrait doubler le récit et gratifierait l'interactant d'une trace signifiante de son passage dans le réseau narratif. Le risque existe qu'en l'absence de tels renvois, l'histoire actualisée apparaisse incohérente, aléatoire ou anecdotique aux yeux de l'interactant, c'est-à-dire qu'il ne puisse relier ce qui arrive à ses choix antérieurs. (L'anecdote, lorsqu'elle influe de manière décisive sur le cours du récit, est une forme d'insignifiance qui menace la narration interactive sous les espèces d'un destin opaque orientant le futur, de manière totalement erratique). Mais, par ailleurs, si on retient l'idée d'une mémorisation signifiante du passage dans le réseau narratif, comment éviter des typologies psychologiques réductrices et comment rendre compte de la complexité des déterminations qui président à des choix effectués ? La suggestion d'une trace signifiante qui s'inscrirait progressivement ne lève évidemment pas, mécaniquement, ces écueils. Seule la sagacité des concepteurs peut les éviter

et donner alors consistance à une histoire démultipliée en autant de variantes fertiles que de parcours singuliers. La littérature générative Les propositions de Jean-Pierre Balpe tentent d'échapper à une problématique restreinte de l'interactivité. Plus question d'offrir au lecteur un espace de choix dans un réseau de chemins déjà balisés, mais plutôt de lui proposer des textes produits par un générateur littéraire[71]. Jean-Pierre Balpe évite le "cadre narratif formel" en proposant le concept de "littérature générative", particulièrement élaboré avec Le roman inachevé. "Le générateur fonctionne sur trois articulations principales : d'une part, il génère des chapitres sur un thème, ce thème pouvant concerner l'un ou l'autre des héros dont la présence est virtuelle dans l'ensemble de l'oeuvre ou des textes non précisément attribués ; d'autre part, il génère des pages dans ces chapitres, ces pages concernant les mêmes thèmes que ceux des chapitres mais traités de façon différente ; enfin, le générateur construit des séquences, c'est-à-dire des articulations de pages et de chapitres. Ce roman n'a ni début, ni fin... Le début est une page quelconque générée à un moment T. Elle n'est peut-être pas la première lue... Pages, chapitres et séquences sont toujours à lecture unique...puisque toute action du lecteur provoque la génération de nouvelles pages, donc une modification des chapitres et une redéfinition des séquences"[72]. Ce principe de production de texte interdit toute relecture (sauf à les imprimer, ce qui pervertit le principe littéraire) car chaque lecture nouvelle supprime des pages et les substitue par d'autres. Les pages étant elles-mêmes composées automatiquement par le logiciel générateur -et non pas puisées dans une base de données déjà constituée- on ne peut engendrer deux fois la même page. Méta-écriture et méta-lecture : un couple logique L'auto-génération littéraire altère radicalement l'idée de finitude du roman. Celui-ci est doublement inachevé : sans début ni fin, mais aussi sans relecture possible (sauf à fixer, par impression, les textes engendrés). Qu'est ce qui rassemble, néanmoins, les différentes lectures accomplies par différents lecteurs ? C'est ce que Jean-Pierre Balpe nomme "le projet romanesque" (et qu'on pourrait nommer "cadre narratif non formel") : "...les mots, les concepts correspondent au monde que j'ai voulu créer. Ainsi, chaque lecteur lira une histoire différente mais tous retrouveront ce monde"[73]. Jean-Pierre Balpe rejette l'interactivité en ce qu'elle risquerait de gommer la frontière entre auteur et lecteur. La générativité immédiate des textes est, en effet, un principe alternatif à l'interactivité qui suppose d'écrire à l'avance un méta-récit, puissance de formation d'une multiplicité de récits selon les choix de l'interactant. Avec le générateur textuel, le déclenchement d'une composition romanesque, bien qu'étranger à l'interactivité, participe néanmoins d'une démarche où le lecteur provoque la formation du récit. Non pas intentionnellement, bien sûr, et, à la limite, le texte pourrait s'engendrer sans déclencheur humain ; mais pratiquement néanmoins, car dans le principe génératif, le lecteur demeure à la fois le déclencheur indispensable et le destinataire explicitement souhaité. Le lecteur, toujours averti de la disparition d'une intentionnalité directe, lira les émissions textuelles comme des épreuves quasi anonymes avec pour seule ambition de détecter si la cohérence narrative, fortement revendiquée par l'auteur, est bien au rendez-vous. Mais ira-t-il au-delà de quelques pages dans un roman qu'il sait n'avoir pas de fin ? Une littérature de flux qui s'afficherait, à la limite, sans lecteur si le programme pouvait se déclencher seul : est-ce finalement la proposition ? Le désinvestissement du texte au profit d'un procédé génératif opaque, n'est-ce pas une position quelque peu paradoxale, affirmant et niant simultanément

l'intérêt de la trame narrative ? Mais sans doute aussi le lecteur demeure-t-il un destinataire du système génératif, et ceci pour trois raisons. En amont, le programme textuel s'inscrit dans des horizons de sens déterminés, respectant, à l'opposé de la littérature purement aléatoire, de fortes contraintes de consistance situationnelle : il s'agit bien de s'adresser à un lecteur culturellement déterminé. Il s'ensuit que ce type de dispositif suscite ce qu'on pourrait appeler une méta-lecture : rechercher dans les séries de rééditions, les principes fondateurs, tenter de repérer les invariants (et qu'on puisse les identifier ou pas, peu importe), bref se bricoler, à chaque reprise, une "théorie" du récit. C'est un retour de manivelle logique, finalement, qu'un dispositif de méta- écriture (tel est bien le statut de la génération littéraire qui institue non pas une histoire mais une puissance de fabrication d'histoires) suscite une posture de méta-lecture. Enfin en aval, il est question, fondamentalement, d'inquiéter les habitudes littéraires du lecteur en s'inscrivant, de manière originale, dans une filiation notoire (Mallarmé, dadaïsme, surréalisme, Queneau, etc.). Récit interactif et intensité dramatique Dans la posture interactive classique, l'inscription du lectacteur fait problème. Comment se projeter dans un récit qui n'est ni le mien, ni totalement celui d'un autre ? L'entre-deux dissout l'intensité dramatique, car la composition du récit dans une histoire classique repose sur une construction subjective, avec ce qu'elle possède d'indécision et d'ouverture, mais qui assure une tension par l'incertitude de ce qui va advenir. L'indétermination de la suite, telle est bien la marque que le récit nous échappe, sa lecture s'efforçant en permanence de le rattraper. Bref, la lecture nous confronte à une altérité. Ces incomplétudes, déposées par l'auteur du roman classique, contribuent à la dramaturgie romanesque. Comment, en revanche, être surpris par le comportement d'un personnage, si c'est nous qui prescrivons sa conduite ? Jean- Pierre Balpe, conscient des difficultés, évite, avec son générateur textuel, le moment du choix, qu'il qualifie, dans le roman interactif classique, d'anecdotique[74]. Selon lui, la littérature classique, est de nature "fractale", au sens où le choix d'un mot, d'une tournure syntaxique préfigure et détermine l'ensemble de l'oeuvre. Chaque mot "contiendrait" l'intégralité du texte de la même manière qu'un détail d'une fractale contient l'ensemble des formes dont il n'est qu'une infime partie. Nombre d'écrivains, affirment, en effet, que chaque mot appelle nécessairement le suivant et que chaque phrase détermine celle qui lui succède. Cette conception déterministe de l'écriture pose problème en ce qu'elle pourrait faire penser que l'auteur détient totalement son texte avant de l'écrire. Quelques autres, en revanche, tel Umberto Eco, on l'a vu, insistent sur l'étrange alchimie qui transforme l'auteur en co-producteur du texte, en alliance -ou en confrontation- avec la dynamique propre qu'il a installée. (En supposant que le texte linéaire est toujours pleinement maîtrisé par son auteur, Jean-Pierre Balpe sélectionne une certaine représentation de l'écriture et délaisse, peut-être, la dimension auto-générative de la production littéraire classique). Avec la littérature générative, le lecteur n'a plus à choisir entre des développements proposés ou à cliquer sur tel ou tel mot. L'édition du texte s'enchaîne sans qu'aucune action explicite ne soit exigée de la part du lecteur. Mais le choix, disparu du champ de l'intention, ne s'est-il pas logé dans celui du mécanisme aveugle de composition du récit ? Le lecteur ne ressent-il pas ce mécanisme génératif aveugle, comme un horizon opaque ? Peut-il lire cette composition en lui affectant un sens alors que l'unicité de la production a disparu au profit d'une émission, en partie aléatoire. Quel type d'altérité -et, incontestablement, elle existe- rencontre- t- il ? En quoi consiste le monde que l'auteur a "voulu créer" ? Se réduit-il aux mots et concepts ? N'estil pas profondément lové dans le moteur informatique démiurge créé ? En effet l'ensemble des contraintes relationnelles agissant sur les "acteurs" (mots, concepts, phrases) et décrivant les

scénarios licites reliant ses "acteurs" -ce en quoi consiste la programmation du générateur littéraire- matérialise l'horizon romanesque de l'auteur. Même s'il n'y a pas présélection par l'auteur d'un paysage d'arborescences, sa conception du monde romanesque légitime (ce que peuvent faire ou ne pas faire les acteurs humains et non humains dans le roman) est néanmoins décrite dans ces choix de contraintes relationnelles. Finalement entre le "cadre narratif" de l'interactivité et le "projet romanesque" du roman poiëtique, la différence, incontestable, est-elle fondamentale ? Pourrait-on, par ailleurs, suggérer à Jean-Pierre Balpe d'offrir au lecteur une machine générative symétrique -et non pas interactive- qui lui donnerait la possibilité de participer, dans une certaine mesure, à la composition du roman et qui lui permettrait d'investir plus fortement le texte ? D'ouvrir, en quelque sorte, des lucarnes dans la boîte noire, pour que le lect-acteur oriente les scénographies relationnelles déposées. Cette situation de partenariat -inégal- ne saurait laisser entendre que le lecteur deviendrait coauteur. Non, tout juste interprète, puisque la machine de lecture envisagée devrait nécessairement être conçue par l'auteur, auquel on demanderait de complexifier son dispositif, d'ouvrir un espace d'itération en distribuant au lecteur une certaine autonomie dans le mode de production du texte (influer sur les caractères, les lieux, les relations entre personnages, par exemple)[75]. Mais sans doute s'agirait-il alors d'une autre forme de littérature, que celle revendiquée par Jean-Pierre Balpe lequel s'attache à inventer une figure véritablement "ouverte" de production littéraire échappant à la téléologie d'un récit orienté et construit pour sa fin. Modalités narratives, théorie des catastrophes et théorie de la vie Si la composition du récit n'est plus l'objet d'un choix de la part du lecteur, alors la facture de la narration, son monde propre -ce qui relie entre elles toutes les générations de textes, leur donne un air de famille et constitue le style propre du roman- peut alors échoir aux options de détails (prendre un taxi plutôt qu'un autobus, lire un quotidien et non pas un magazine, bref tout ce qui n'engage pas une détermination psychologique forte d'un personnage). Le film d'Alain Resnais, Smoking, No smoking est, dans une autre perspective, une illustration de cette recherche de bifurcations -au sens de la théorie des catastrophes- dans des comportements quotidiens. Mais Smoking, No smoking admet comme présupposé que les trajectoires de nos vies obéissent aux logiques des systèmes catastrophiques, leur sensibilité aux conditions initiales devenant ici des choix de détails : smoking, no smoking. L'idée de bifurcation contient la possibilité de la réversibilité : "et s'il ne fumait pas, et s'il ne s'était pas marié avec elle, etc.". Les deux films de Resnais sont d'ailleurs construits sur des reprises de bifurcations. Et c'est probablement, passé les premiers retours, la réédition permanente de ces itérations qui surcharge le procédé, alors que la machinerie scénographique demeure prisonnière de ces répétitions[76]. La perspective de Jean-Pierre Balpe est au fond assez différente : les modifications de détails n'engagent pas des bifurcations irréversibles puisque l'auteur du logiciel textuel affirme la primauté du projet romanesque, c'est-à-dire l'installation d'un univers sensible, d'un cadre sémantique, sorte de matrice primitive où sont engendrés tous les récits. Resnais avait, lui aussi, délimité son cadre narratif, au point même de faire jouer tous les personnages par les deux mêmes acteurs. Mais les différentes vies du couple apparaissaient comme un pur effet du hasard : pile je meurs, face, je vis encore quarante ans. En revanche, dans la situation de construction générative de textes, ce ne sont pas les modifications de détails qui altèrent cette matrice, puisqu'elle les précède dans la conception

du programme générateur. Mais comment concilier l'affirmation d'une imagination artificielle déposée dans le générateur de textes qui reproduirait l'indétermination et les variations des perceptions individuelles face aux mêmes sujets, d'une part, et la revendication de l'installation d'un projet romanesque, de l'autre ? C'est sans doute cette difficile confrontation qui passionne le génér- auteur. En effet, à propos des rééditions de passages identiques dans des suites, à chaque fois originales parce que inclus dans des "univers mobiles", Jean-Pierre Balpe propose l'analogie suivante : "Pour moi, c'est un peu l'image de la vie : vous connaissez M.X, je le connais, mais on ne connaît pas la même chose de lui, et chaque lecture de M. X dépend de la personne qui le lit, et toutes ces lectures dépendent du temps, du moment, etc."[77]. La situation de lecture provoquée par ce programme qui produit ces rééditions de fragments s'approcherait ainsi de l'indétermination propre à la vraie vie ; ce qui est la problématique commune des créateurs de moteurs génératifs, les rapprochant par certains aspects, des théories de la "vie artificielle". Roman génératif et "vie artificielle" La démarche générative s'apparente quasi explicitement à la logique de la vie artificielle. "Le but -écrit Jean-Pierre Balpe- est d'arriver à terme à un échange suffisant de paramètres pour que de nouveaux romans absolument originaux émergent de l'espace et vivent leur vie autonome"[78]. On rappelle que, dans cet horizon de recherche, le concepteur de l'environnement installe un univers peuplé d'acteurs, lesquels sont dotés de compétences simples. Dans certaines conditions, ceux-ci coopèrent. Ils stabilisent alors parfois des situations d'équilibre, voire résolvent des problèmes, et ceci de manière non téléologique. Mais, outre ces visées éventuellement opérationnelles, ces expériences permettent d'observer les dynamiques engendrées par les lois qui définissent ces univers, sans programmation intentionnelle directe. D'où la dénomination de "vie artificielle". Il ne s'agit pas d'intervenir pour orienter, contraindre, compléter les processus biologiques, mais bien d'imiter le mouvement vital (ou certains de ses aspects) par d'autres moyens que la biologie. Pour les tenants de cette conception exploratoire, et non imitative, de la "vie artificielle", la discussion ne porte donc plus sur les limites des modèles de simulation mais sur la possibilité d'expérimenter des phénomènes quasi génétiques. On a perdu en chemin l'opérationalité et l'intentionnalité au profit d'une attitude expérimentale, moins interventionniste, plus observatrice et accueillante à l'inédit. Il ne s'agit même plus de cognition, au sens d'un projet d'appréhension et de transformation, mais d'observation des conséquences du développement artificiel d'un processus mimant la vie. Ce processus est le plus souvent basé sur l'interaction d'un nombre important d'acteurs autonomes, d'agents à la fois indépendants et en interaction, sur le modèle des insectes sociaux, par exemple. (Mais, dans une autre perspective plus "duplicatrice", peuton mimer la créativité intrinsèque du vivant par des moyens totalement synthétiques, "computationnels" ? Que ces expériences parviennent à simuler la vie dans toutes ses dimensions -notamment sexuelle, aléatoire et adaptative- est loin d'être évident, mais ceci est une autre question[79]). Pour situer la position du sujet humain dans le cadre de ces expériences, nul besoin d'invoquer un processus aveugle, "sans sujet ni objet", cher aux structuralistes des années soixante. L'expérimentateur, installant le dispositif, programmant les compétences des acteurs, institue, de fait, la nature de leur collaboration future. Nulle obligation, non plus, de supposer une capacité de prédiction de l'évolution du système ainsi engendré. Ni soumission à des processus "objectifs" extra-humains (l'évolution, le langage, les structures invisibles de

l'action collective), ni position de contrôle opérationnel de l'évolution artificiellement déclenchée, la "vie artificielle" offre, en regard de cet antagonisme classique, une position de compromis intéressante. La suggestion consistant à déléguer au lecteur une influence sur le générateur textuel matérialiserait ce compromis entre une "vie artificielle" du texte et ce que l'interactivité véhicule d'intentionnalité, dans la conception classique du "cadre narratif formel". Mais si, en revanche, c'est la vraie vie qui est recherchée comme modèle, pourquoi doit-elle s'accommoder des cadres contraignants -le projet romanesque- que, légitimement, Jean-Pierre Balpe revendique en tant qu'espace fictionnel ? Ce serait donc une vraie vie supervisée ? Comme la nôtre, avec ses espaces d'ouverture et de contrainte ? Ou alors, ainsi que Jean-Pierre Balpe le laisse plutôt entendre, une vie reflétée par la métaphore des théories du chaos. Dans cette perspective, rappelons-le, le déterminisme n'est pas rejeté, il est inconnaissable. Tout ce que nous faisons, jusqu'au geste le plus insignifiant, a des effets ultérieurs mais nous ne pouvons savoir quand, où, ni lesquels. L'idée d'une continuité causale, de trames principales ou de structures psychologiques n'a alors plus de sens, à l'image des flots textuels produits sans relâche par le programme romanesque rassemblant les mêmes personnages dans les mêmes lieux, avec les mêmes objets mais selon des occurrences et des modalités relationnelles toujours inédites. Nul étonnement à constater que ces conceptions de la vie forment l'arrière-plan de ces différents mécanismes d'écriture, de ces théories fictionnelles[80]. Que je prenne ou pas le stylo sur mon bureau, cela peut-il influer notablement sur la date de ma mort ? Jouons-nous notre avenir dans les hasards de la vie quotidienne ? Exceptionnellement, peut-être. Mais ces exceptions ne sont-elles pas métabolisées par quelques logiques assez fortes qui nous font interpréter justement ces événements comme des exceptions. Comment rendre compte de ces logiques, de ce qui est indéformable dans notre rapport au monde, de la manière dont nous avons construit nos biographies avec les matériaux du bord ? Que penser des inclinaisons par lesquelles nous avons inscrit nos trajets dans la multiplicité des possibilités théoriques, de notre façon particulière de répéter les mêmes erreurs ? Sans même aller jusqu'à invoquer l'idée d'un gouvernail inconscient, les vues convoyées par la littérature générative, ou de manière différente par le film de Resnais, sont anti-psychologiques au sens banal du terme. Mais, sans doute ne faut-il pas prendre à la lettre ces propositions. Explorant des espaces et des constructions fictionnels, ces mécanismes d'écriture n'ont pas pour ambition de devenir des traités de psychologie. Finalement, et c'est à mes yeux l'essentiel, il s'agit bien de faire passer la littérature du stade de la représentation de la vie à celui de sa modélisation ; non plus aménager une scène indéformable mais installer un micro-monde doté de lois comportementales où les acteurs peuvent vivre leurs vies (et pas forcément celle que l'auteur a envisagée pour eux, une fois pour toutes). Et, à la limite, le lecteur, s'il n'arrive pas au bon moment, ne percevra pas l'essentiel de ce qui se trame entre les personnages. La littérature générative s'inscrit dans une perspective démiurgique de jeux avec l'autonomie relative des créatures engendrées par les moteurs. Comment être surpris par ce qu'on a façonné, sinon en lui injectant des principes vitaux ? Mais sans que la créature puisse s'échapper (cadre romanesque aidant) : d'où un jeu entre dépossession et maîtrise (et peut-être même maîtrise au carré). Le roman génératif se trouve en harmonie avec un mouvement culturel profond qui pousse les auteurs et artistes de l'univers numérique, (tout aussi bien que les game designers des nouvelles générations de jeux vidéos[81]), à créer des oeuvres directement comme métaoeuvres, c'est-à-dire comme puissances de productions de familles, de tribus, de sociétés d'oeuvres auto-matiques (littéralement : qui sont cause de leur propre mouvement). Parallèlement, vue comme une trame symptomatique, la proposition générative alimente l'affirmation d'une ouverture à l'aventure, dont on se plaît à penser qu'elle nous guette à tout

moment au coin de la rue, nous émancipant de l'inertie des habitudes prises. Sous cet angle aussi, les travaux de Jean- Pierre Balpe (dispositifs générateurs et fragments produits) sont de véritables oeuvres littéraires, par l'écart qu'ils manifestent avec la structure temporelle orientée de la vie (le temps qui passe...) et par l'incitation qu'elles déploient à interroger la structure apparemment linéaire de nos histoires et de leurs rétentions mémorielles. La réédition inépuisable d'épisodes jetant les personnages dans des configurations scénaristiques toujours originales sont un peu à l'image des "possibles" non actualisés, des développements fantasmatiques jaillissant en variantes innombrables des moindres situations quotidiennes ainsi que des libertés qu'on s'accorde pour "réécrire", sans fin, des versions de nos biographies et de celles de nos proches. [47] Jean-François Lyotard, L'inhumain, Galilée, Paris, 1988, pp. 127/128. [48] Marc Le Bot invoquait -à l'encontre de l'art numérique relevant, selon lui, de l'idéologie communicationnelle- cette dimension insensée propre aux oeuvres majeures. Voir, par exemple, "L'art ne communique rien à personne" in Art et communication, éd. Osiris, Paris, 1986, pp. 141/144. [49] Voir notre article, La simulation de l'autre, approche de l'interactivité informatique, in Réseaux n°33, janvier 1989, CNET, Paris, pp. 73/109. [50] Voir Seymour Papert, Le jaillissement de l'esprit - Ordinateur et apprentissage, Flammarion, Paris, 1981. [51] Intervention orale aux Rencontres de l'Association des Auteurs du Multimédia, Strasbourg les 8/10 avril 1998. [52] Ces aspects ont été développés par Patrick Delmas lors d'une communication orale au séminaire du G.R.E.C., UFR des Sciences de l'Éducation, Université Paris XIII, 19 juin 1997. [53] Frédéric Dajez a développé ces questions lors du "Salon de discussion multimédia de Paris XIII", 18 mai 1998, Université Paris XIII. [54] Lors d'un séminaire à l'I.R.C.A.M. sur "Interactivité et Simulation" (Centre Georges Pompidou, 20/02/1988), Philippe Aigrain avait développé un point de vue voisin. [55] Installation présentée à Artifices 3, Saint- Denis, novembre-décembre 1994. [56] Genetic Images, installation présentée à la Revue virtuelle, Centre Georges Pompidou, 4/03/93. [57] Karl Sims, Images génétiques, in Revue Virtuelle, Carnet 5, Centre Georges Pompidou, mars 1993, p. 6. [58] Pierre Lévy, Qu'est que le virtuel ?, La Découverte, Paris, 1995, p. 43. [59] Dans son introduction au catalogue d'Imagina 98, Bernard Stiegler développe une argumentation similaire balançant la puissance des industries mondiales du "broadcast numérique" par le traitement local des images : la "house vidéo" qui devrait conduire à "un changement profond de l'attitude comportementale du consommateur". (Actes d'Imagina 98,

INA, Bry sur Marne, 1998, p. 5). Voir aussi l'excellent commentaire que Pierre Lévy fait de la musique techno dans Cyberculture, Odile Jacob, nov. 1997, pp. 168/172. [60] Le logiciel Umap Web, conçu par la société Trivium, par exemple, cartographie les proximités entre les thèmes consultés au fur et à mesure de la navigation dans des pages Web. L'Internaute construit ainsi un paysage graphique de données, miroir explicite de ses inclinations. [61] Parmi les récentes annonces, et à titre d'exemple, nous relevons le logiciel ingénieux mis au point par la société Realiz. Celui-ci produit une image tridimensionnelle à partir de quelques photographies d'un même objet (meuble, visage ou monument). Visant dans un premier temps des usages professionnels, cet outil démocratise incontestablement l'image 3D. Ses concepteurs envisagent de l'associer aux logiciels de retouche livrés avec les appareils de photographie numérique. Dans le même ordre d'idées, la société Virtools propose aux designers de jeux vidéos un logiciel interactif 3D "temps réel" -Nemo- permettant de s'affranchir de la programmation informatique. Avec Nemo, on peut animer directement et interactivement, à l'écran, des scènes en attachant des comportements à des objets, lesquels comportements peuvent être puisés et combinés dans une bibliothèque étendue. Bien sûr, Nemo ne s'adresse pas au grand public, mais tout porte à croire que des versions simplifiées permettront aux passionnés de fabriquer bientôt leurs propres jeux. [62] De tels services existent depuis des années aux États-Unis. En France, la société Multimania ainsi que le moteur de recherche Lycos proposent gratuitement ces instruments, non sans lorgner sur la surface publicitaire ainsi créée par la multiplication des sites hébergés. Ce qui, soi dit en passant, n'est pas du tout du goût des aficionados, lesquels ont réagi en proposant un programme à intégrer aux pages Web, lequel bloque l'affichage des bandeaux publicitaires. [63] Par exemple, le CD-Rom Odyssey, conçu par la société Arkaos pour Jean- Michel Jarre, offre aux utilisateurs un environnement pour "jouer" de l'ordinateur sur sa musique, comme on joue d'un instrument. Les touches du clavier commandent l'affichage d'images que l'on peut déformer en utilisant des effets spéciaux et dont on peut régler le rythme. Le logiciel Xpose LT commercialisé par Arkaos permettra à ses acquéreurs de "jouer" leurs propres images sur des musiques de leur choix [64] On retrouve, sous certains aspects seulement, la querelle qui avait enflammé le milieu de l'informatique éducative dans les années quatre-vingt, entre les partisans d'un large enseignement des principes de la programmation (ce qu'assumait LOGO, notamment) et ceux qui optaient pour les usages pédagogiques de l'informatique (E.A.O., simulation, etc.). Notre option pour des "savoirs médians" ne recouvre pas exactement cette confrontation. Elle retient le côté "productif" des premiers, tout en mettant l'accent sur la diffusion des outils intermédiaires de création qui déplacent les savoirs requis, de l'informatique classique (algorithmique, programmation) vers les langages applicatifs et les pratiques généralisées du couper/coller/relier/créer. [65] On se rappelle qu'Umberto Eco avait proposé le concept "d'oeuvre en mouvement" pour caractériser des "oeuvres ouvertes" particulières. Toute oeuvre est ouverte, écrivait-il, car son interprétation/perception suppose une collaboration "axiologique et théorétique". Mais les "oeuvres en mouvement" invitent, en outre, à faire l'oeuvre avec l'auteur. Cette catégorie visait des propositions fondées, dans les années soixante, sur des technologies opto-

mécaniques (travaux picturaux de B. Munari), électro-acoustiques (intervention à caractère combinatoire dans l'audition des oeuvres musicales de Henri Pousseur) ou encore plus directement sociales (Living Theater, agit-prop). Bien qu'à mon sens on ne puisse caractériser ces oeuvres d'<<interactives>>, une appétence pour l'interaction s'exprimait déjà, du côté des auteurs comme du public, appétence que l'interactivité informatique viendra naturellement radicaliser dans la décennie suivante. [66] Umberto Eco, interview dans Le Monde des livres, 16/02/1996, p. II. [67] Umberto Eco, loc. cit. [68] La littérature "classique" recèle, elle aussi, de somptueuses archéologies du récit interactif. La revue La voix du regard a publié deux passionnants articles décryptant les stratagèmes qui perturbent la linéarité de la narration chez Diderot, Balzac, ou Kundera (inclusion du lecteur auquel on soumet une multiplicité d'interprétations d'une situation donnée, énoncés d'une pluralité de lignes de poursuites possibles...). Voir Christèle Couleau, "Balzac interactif ou la virtualisation du sens" et Jocelyn Maixent, "Diderot, Kundera et les romans virtuels : le récit des mondes possibles", in La voix du regard - Aux frontières du virtuel, n° 10, E.N.S. de Fontenay/Saint- Cloud, mars 1997. [69] Les exemples qui suivent sont tirés du roman-photo interactif Sale temps, de Franck Dufour, Jacky Chiffot et Gilles Armanetti, CD-Rom édité par Microfolies. [70] La fiction -faiblement- interactive produite par Canal+, L'Affaire, est une sorte de balbutiement de ce que pourrait être le marquage d'un caractère. Le public choisit, par votes téléphoniques majoritaires, non pas le déroulement du récit, mais son "atmosphère". Chacun des quatre actes possède quatre versions qui expriment quatre attitudes typiques face à la corruption (le sujet de la fiction). Des durs -définis comme rejetant "le système pourri"- aux individualistes mous considérant les infractions à la loi comme le fait d'individus malfaisants, les quatre attitudes se traduisent par quatre scénarios, quatre éclairages subjectifs sur le même scénario général. [71] Dans le roman Prière de meurtres, la générativité se combine à une certaine interactivité. Le lecteur choisit une période dans la durée linéaire du récit, mais le texte obtenu est à chaque fois différent. Il s'agit là d'une interactivité quelque peu brouillée (et sans doute volontairement), dans la mesure où les effets du choix ne sont pas, en tant que tels, signifiants. [72] Jean-Pierre Balpe, Un roman inachevé, in Littérature n°96, Larousse, Paris, 1994, pp. 50/51. [73] Le nouveau roman sera interactif, interview parue dans Le Monde, 25 et 26 février 1996, p. 29. Les propos de Jean-Pierre Balpe élargissent considérablement la notion d'interactivité mentionnée dans le titre de l'article, si toutefois on définit l'interactivité par la circulation dans un méta-récit déjà constitué. Mais le titre de l'article est un contresens commis par le journaliste. [74] Interview publiée dans Multimédia : l'écriture interactive, Dossiers de l'audiovisuel, n°64, nov/déc 1995, p. 59.

[75] Avec le téléchargement prévu, via Internet, du générateur littéraire, il ne s'agira toujours pas d'interactivité. Il sera cependant, intéressant d'observer ce que l'usage élargi du générateur induira quant à l'évolution future de la proposition. [76] Sur un plan strictement cinématographique, la bifurcation comme modèle du choix révèle ses limites. En revanche, La rose pourpre du Caire présente un puissant modèle de progression du récit : le personnage qui interagit avec la spectatrice du film augmente la complexité du récit par rétroaction sur son cours. Bien plus qu'une simple bifurcation... [77] Op. cit., p.58. [78] Jean-Pierre Balpe, Fiche signalétique de Romans (Roman), dans le catalogue de l'exposition Artifices 4, Langages en perspective, Saint-Denis, 1996, p. 73. [79] L'obstacle principal pour une telle simulation "totale" résulte de la réduction fonctionnaliste opérée par le programme de la vie artificielle "forte" qui identifie sa représentation "computationnelle" à la dynamique de la vie, ignorant alors l'infinie complexité de la matière vivante. Voir, par exemple, Philippe Goujon, "Les limites de la vie artificielle <<forte>>", in Raison Présente "Autour du chaos", n° 115, éd. N.E.R., Paris, 1995, pp. 71/100. [80] Il ne s'agit pas forcément, pour les auteurs, de proposer des modèles réalistes, ni de mettre obligatoirement en scène leurs "conceptions de monde". Les dimensions ludiques ou expérimentales des rapports avec les moteurs narratifs forment une strate autonome, qu'on ne saurait réduire à des motivations sous-jacentes, même si on peut aussi y lire, comme dans toute fiction, certains tropismes dominants. Ici, l'animation automatique de micro-mondes relationnels renforce souvent, en regard des fictions sur supports stables, ce jeu démiurgique. [81] Une société d'acteurs virtuels avec lesquels il va falloir nouer des relations si on veut atteindre un objectif : telle est la scénographie générale de ces jeux, combinant, là encore, contrainte et liberté. Le joueur doit comprendre les logiques comportementales qui animent ces agents : celui-ci deviendra-t-il un ennemi, puis-je faire de cet autre, un allié, etc. De plus, la manière avec laquelle il les abordera les personnages influera sur leurs comportements. Le joueur devient un ethnonologue ; il se branche sur un monde qui vit indépendamment de sa présence, à charge pour lui d'infléchir dans un sens favorable les opportunités qui se présentent. Comme dans la vraie vie ?

Table des matières

Chapitre VI Commentaires sur l'image actée, à partir de L'image-temps de Gilles Deleuze
L'univers des images numériques étend son emprise en accélérant le mouvement d'autonomisation de l'image. Autonomisation veut dire ici, conquête progressive de l'espace qui sépare l'image de l'objet, franchissement de degrés qui amenuisent les distinctions entre les qualités de l'image (faible matérialité, mobilité, reproductibilité) et celles de l'objet (consistance, opérationalité, unicité relative, propriétés physiques, indépendance). J'ai fréquemment dénommé ces entités composites par le vocable image-objet en focalisant l'analyse sur les modalités dites interactives de leur fréquentation, modalités dont j'ai tenté de montrer qu'elles constituent leur essence[82]. Je souhaite y revenir, par un autre biais, en tentant de spécifier le régime perceptif singulier qu'engagent et qu'expriment les représentations contemporaines, que je propose de dénommer, images actées si on désigne ainsi les images numériques appelées à être chaînées avec et par des actes[83]. L'image-temps [84]m'intéresse en ce qu'elle rencontre cette problématique des rapports imageobjet. Elle suscite mon attention pour d'autres raisons, connexes à celle-ci et peut-être plus essentielles. Deleuze aborde le cinéma avec le souci d'en faire une théorie philosophique. "Le cinéma lui-même est une nouvelle pratique des images et des signes, dont la philosophie doit faire la théorie comme pratique conceptuelle"[85] et, de manière significative, la dernière phrase du livre est un appel à "constituer les concepts du cinéma"[86]. Contribuer à faire émerger les concepts propres de l'image actée, telle pourrait être la visée de cet essai. Dans quelle mesure la démarche de Deleuze peut-elle nous aider à faire surgir ces concepts ? J'ai le sentiment qu'oeuvre dans "L'image-temps" un mode de questionnement partiellement transférable à l'univers des images actées. Une observation fondamentale fait pressentir qu'une appropriation du dispositif analytique construit par Deleuze à propos du cinéma pourrait être fructueuse dans cette perspective. En effet, le philosophe adosse fortement sa construction aux travaux d'Henri Bergson. L'essentiel de l'appareillage conceptuel construit dans les deux tomes consacrés au cinéma, prolonge et illustre la théorie bergsonienne de la constitution du temps. Les concepts centraux d'<<image-mouvement>> et d'<<imagetemps>> sont élaborés à partir des notions de prolongement sensori-moteurs exprimés (ou inhibés dans le cas de l'image-temps), notions qui fondent la théorie de la perception, de la mémoire et donc du temps chez Bergson. Deleuze ira même jusqu'à évoquer "le bergsonisme profond du cinéma en général"[87]. L'analyse bergsonienne de la perception dans ses rapports à la temporalité prolonge les théories phénoménologiques du temps, encadrées par le travail fondateur de Husserl et développées notamment, quant à la vision, par Maurice MerleauPonty dans un sens qui préfigurait la Téléprésence technique actuelle[88]. Ces travaux sur les rapports entre mémoire et perception offrent un cadre privilégié pour développer une théorie des images actées virtuelles. C'est la raison pour laquelle, dans des travaux antérieurs[89], j'avais déjà tenté d'exploiter ces conceptions de la vision pour analyser les nouveaux cadres de vision/action engendrés par l'informatique. Cette direction s'éclaire si l'on admet que les technologies de perception actualisent, à leur manière -c'est-à-dire sans les transcrire mécaniquement- les mouvements latents à l'oeuvre dans la perception. Elles les traduisent, et

ce faisant, elles les transforment tout aussi bien, car la perception humaine est toujours informée et infléchie par les technologies qui la baignent[90]. Dans cette perspective, j'avais tenté de mettre à profit les conceptions bergsoniennes pour montrer comment le stade virtuel de l'image réalise, après la photographie et le cinéma, les mouvements abstraits latents à l'oeuvre dans la perception en général, et dans la perception visuelle, en particulier. Rappelons que Bergson dans Matière et mémoire, s'appuie, pour une part importante, sur la psychopathologie de l'aphasie, à la fois comme champ expérimental et comme validation de la conceptualisation proposée. Celle-ci tente toujours de fonder ses interprétations en élucidant les phénomènes perceptifs concrets, c'est-à-dire en abstrayant les concepts (tels que souvenir pur et inscrit, conscience réfléchie...) des opérations corporelles et mentales, et surtout en les forgeant dans une perspective descriptive et explicative. La mobilisation de ces analyses s'agence assez bien avec le souci de saisir la perception dans ses dimensions aussi bien expérimentales qu'abstraites. En synthétisant les perceptions "naturelles" et en inventant de nouveaux dispositifs perceptifs, les laboratoires de la Téléprésence, poursuivent, d'une autre manière, ce travail de "phénoménologie appliquée". Aussi, faudra-t-il montrer en quoi le défrichage bergsonien est-il essentiel à cette entreprise. Deleuze précise sa visée à la fin du livre. Non pas faire une théorie "sur" le cinéma, mais "sur les concepts que le cinéma suscite et qui sont eux-mêmes en rapport avec d'autres concepts correspondant à d'autres pratiques, la pratique des concepts en général n'ayant aucun privilège sur les autres, pas plus qu'un objet n'en a sur les autres"[91]. Mettre en rapport les concepts du cinéma avec d'autres concepts, que cache cette formule ? Il s'agit, en fait, de faire surgir les concepts du cinéma dans un regard qui embrasse simultanément le cinéma et la vie, dans toutes ses dimensions. Et Deleuze privilégie les dimensions proprement politiques. Il se sert du cinéma comme d'un instrument d'observation qui révélerait l'état du monde et inversement, il repère l'émergence des "concepts" du cinéma dans une mise en rapport avec ces autres signes cliniques, qu'il appelle "autres concepts" (mais s'agit-il vraiment de concepts ou bien, plutôt, de marques politiques saillantes caractérisant des périodes historiques). Les exemples abondent : depuis la deuxième guerre, qui sépare le règne de l'image-mouvement de celui de l'image-temps. De même peut-on invoquer la mutation des figures de l'automate, qui, du dictateur omnipotent de Metropolis symbolisant la montée des régimes totalitaires dérive vers l'automate cybernétique des sociétés de contrôle et de surveillance distribuée, comme celui de 2001. Est-il envisageable que les concepts de l'image actée puissent faire, aussi, office d'analyseurs de l'état du monde contemporain ? Mon ambition, ici, est mesurée. La proposition de "cristal présentiel", qui va suivre, est fondée, à l'évidence, sur le développement massif de la présence à distance comme modalité d'organisation sociale. Mais les enjeux proprement politiques d'une telle transformation me semblent encore difficiles à thématiser. Mon intuition se limite à marquer, dans le contexte social de la téléinformatique, quelques agencements typiques tels que la croissance des formes de vie commune mêlant l'ici et l'ailleurs, ou bien, comme nous le verrons dans le chapitre suivant, la coexistence de logiques temporelles hétérogènes dans l'espace public. A - De Matière et mémoire au concept de cristal dans L'image-temps L'une des idées maîtresses du schéma bergsonien de la perception, exposé dans son ouvrage Matière et mémoire[92], concerne la place et la fonction du corps. Ce schéma conditionne la conception bergsonienne du souvenir, et par conséquent du temps. La perception n'y est plus considérée comme centripète (de la perception à l'idée) mais centrifuge. Elle va de l'idée à la

perception, par projection extérieure d'une image activement conçue, analogue à l'objet et qui vient épouser sa forme. La perception est une prédiction mobilisant la mémoire, prédiction qui vient chercher dans l'épreuve réelle son ajustement à l'objet : voir, c'est revoir et prévoir. On retrouve, par exemple, cette fonction primordiale du corps dans la compréhension auditive du langage. L'audition de la parole met en branle un "schème moteur ", c'est-à-dire des "sensations musculaires naissantes"[93]. Comprendre une langue nouvelle, par exemple, c'est accorder ce schème moteur aux images acoustiques fournies par l'oreille : "coordonner les tendances motrices de la voix aux impressions de l'oreille, ce serait perfectionner l'accompagnement moteur"[94]. Cette notion de "schème moteur" éveillé par les "images" extérieures, se situe à la frontière du corporel et du mental. Et les "saisissements musculaires" provoqués par les images extérieures, assurent selon Bergson, la jointure entre ces instances. La place centrale du corps est spécialement affirmée lorsqu'on apprend un mouvement physique, un pas de danse par exemple. L'intellect et le corporel se font alors singulièrement écho. La répétition intérieure du mouvement qu'on souhaite apprendre, permet de donner à chaque mouvement élémentaire son autonomie et assure sa solidarité aux autres. Le philosophe affirme que la répétition intérieure "a pour véritable effet de décomposer d'abord, de recomposer ensuite, et de parler ainsi à l'intelligence du corps"[95]. Selon l'auteur de Matière et mémoire, on peut figurer le système de la reconnaissance perceptive par une sorte de membrane, sensible sur ses deux faces. Les organes des sens impriment, par devant, l'image d'un objet réel. Les centres d'images internes manifestent, par derrière, l'influence d'un objet virtuel. Les schèmes virtuels offrent alors leurs mouvements à la réception des impressions d'origines externes. On comprend ainsi parfaitement comment ce qui se tient du côté de l'idée, de l'objet virtuel, modèle la représentation finale, et pourquoi différentes cultures visuelles ont pu et peuvent exister, bien que la neurophysiologie de la vision soit à peu près invariante depuis des dizaines de milliers d'années. Dans la perception, le corps fabrique une "esquisse" de l'objet et pour donner chair à cette esquisse, nous sollicitons nos souvenirs. Ceux-ci sont eux-mêmes inscrits dans notre corps comme sensations. Et Bergson en distingue deux types : les souvenirs appris et les souvenirs spontanés. Le souvenir spontané est d'emblée parfait, il s'inscrit et enregistre les éléments constitutifs de notre existence avec leurs marquages spatio-temporels. Le souvenir appris par répétition, en revanche, s'extériorise, tend à devenir indépendant, impersonnel et donc toujours disponible ; comme un outil que l'on sait mobiliser. Des "souvenirs diminués" se forment par extraction de ces épreuves rééditées. Ces souvenirs sont affaiblis en regard des inscriptions spontanées précisément situées dans le temps et l'espace. Mais ils sont plus mobiles. Leur abstraction les rend disponibles pour se mouler sur la perception présente. Alors que l'image-souvenir spontanée est aussi fidèle que capricieuse, échappant à l'application volontaire. De même dans la reconnaissance automatique (ou habituelle) : la perception se prolonge en mouvements d'usages. Des schèmes sensori-moteurs se sont accumulés que la vue de l'objet suffit à déclencher. Entre perception et sensation la continuité est assurée. Ce qui préside à la reconnaissance attentive, en revanche, en diffère considérablement, parce que la continuité entre perception et mouvements naissants est alors brisée. On renonce à prolonger notre perception -explique Bergson- on fait retour à l'objet et on en extrait quelques traits spécifiques. Et le philosophe dévoile le mouvement essentiel de ce type de reconnaissance : "[...] toute perception attentive [...] suppose véritablement, au sens étymologique du mot, une réflexion, c'est-à-dire la projection extérieure d'une image activement créée, identique ou semblable à l'objet et qui vient se mouler sur ses contours"[96].

La reconnaissance attentive prolonge le souvenir appris. "Nous en recréons le détail et la couleur en y projetant des souvenirs plus ou moins lointains"[97]. Dans la perception attentive, différents cercles de la mémoire enveloppent le premier circuit fermé qui tient en tension "l'objet O lui-même avec l'image consécutive qui vient le couvrir"[98]. Les cercles dérivées expriment des mouvements toujours plus vastes de productions intellectuelles. C'est toute la mémoire qui pénètre dans ces circuits et c'est elle qui "réfléchit sur l'objet un nombre croissant de choses suggérées, - tantôt les détails de l'objet lui-même, tantôt des détails concomitants pouvant contribuer à l'éclaircir"[99]. À ces cercles de la mémoire correspondent des "causes de profondeurs croissantes, situées derrière l'objet, et virtuellement données avec l'objet lui-même"[100]. Aux plus hautes couches de la mémoire se rapportent des couches plus profondes de la réalité. Ainsi se construit le schéma bergsonien de la perception attentive, figuré par deux séries de cercles symétriques formant des circuits. Les cercles représentant la dilatation progressive de la mémoire sont couplés aux cercles qui traduisent les détails immédiats de l'objet et, ensuite, les systèmes dérivés de cet objet. Bergson s'intéressera tout particulièrement au circuit le plus intérieur qui se forme lorsque les cercles de la mémoire se rétrécissent, s'éloignent de leur charge personnelle et originale pour devenir mobiles et abstraits. À ce moment "[...] le souvenir ainsi réduit s'enchâsse si bien dans la perception présente qu'on ne saurait dire où la perception finit, où le souvenir commence"[101]. Alors, ajoute Bergson, la mémoire perd sa mobilité fantaisiste et se règle sur le détail des mouvements corporels[102]. Dans son travail sur le cinéma, Deleuze exploitera la coalescence entre souvenir et perception dans une autre direction, celle où l'image cesse de se prolonger en mouvement et cristallise dans une image bi-face, actuelle/virtuelle : l'imagetemps. De l'image-mouvement à l'image-temps : le cristal Exploitant l'héritage bergsonien dans sa tentative d'élaborer les concepts philosophiques du cinéma, Deleuze définit l'image-mouvement comme chevillée aux enchaînements sensorimoteurs. Perception, affection, action, telle est la chaîne caractéristique de l'imagemouvement, quasiment considérée comme une image- action, (c'est-à-dire une image inséparable de l'action qu'elle montre). L'image-temps, en revanche, apparaît, dans le cinéma d'après-guerre, dès que les situations ne se prolongent plus en action. Les personnages sont alors suspendus, interdits de réaction, confrontés à de "pures situations optiques et sonores"[103], indifférents aux enjeux de la scène. Mais, ajoute Deleuze, ce qu'ils perdent en réactions, ils le gagnent en "voyance", car coupés des prolongements actifs, ils absorbent toutes les intensités affectives et les convertissent en capacités de voyance et non plus en activités. Cette inhibition de la perception prolongée en action est au fondement de l'émergence, dans le cinéma d'après-guerre, de l'image-temps, images purement optiques et sonores, détachées des logiques immédiates de l'action. Elles font signe vers les "souvenirs purs" bergsoniens abstraits, mobiles et disponibles qui coalisent perception et souvenir. La rupture sensori-motrice d'une part et la problématique temporelle, de l'autre, sont au coeur de l'analyse : "...l'image actuelle coupée de son prolongement moteur... composait de grands circuits, elle entrait en communication avec ce qui pouvait apparaître comme des imagessouvenirs, des images-rêves, des images-mondes"[104]. Mais cette image "trouve son véritable élément génétique quand l'image optique actuelle cristallise avec sa propre image virtuelle, sur le petit circuit intérieur"[105]. Dans cette "image-cristal, il est impossible d'assigner une place aux deux faces. Deleuze affirme que "l'indiscernabilité constitue une illusion objective", "une présupposition réciproque"[106]. D'où aussi la réversibilité possible entre actuel et virtuel, réversibilité que Deleuze voit surgir à l'état pur dans La dame de

Shanghaï et dont il fera une pierre de touche de son commentaire (sur lequel il reviendra dans son dernier texte, "L'actuel et le virtuel"[107]) : "Le souvenir est l'image virtuelle contemporaine de l'objet actuel, son double, son 'image en miroir'. Aussi, y a-t-il coalescence et scission, entre l'objet actuel et son image virtuelle : l'image virtuelle ne cesse de devenir actuelle, comme dans un miroir qui s'empare du personnage, l'engouffre, et ne lui laisse plus à son tour qu'une virtualité, à la manière de La dame de Shanghaï. L'image virtuelle absorbe toute l'actualité du personnage, en même temps que le personnage actuel n'est plus qu'une virtualité. Cet échange perpétuel du virtuel et de l'actuel définit un cristal"[108]. Dans cette logique, image et objet sont d'abord rendus, en tendance, équivalents. Puis l'actuel passe au virtuel et réciproquement. Le virtuel devient alors le complément naturel de l'actuel, son autre face. Mais d'où vient cette attirance à sublimer l'actuel dans le virtuel, à "absorber" le personnage dans son reflet spéculaire et à lui faire rejoindre ainsi son essence (laquelle consiste à être double : actuelle et virtuelle) ? Trouble de l'échange, accroissement d'énergie dans la forme virtuelle et postulat d'une plus grande mobilité du virtuel, ou encore désir de faire se rejoindre la représentation et la réalité ? (On verra que la fusion tendancielle de l'image et de l'objet définit l'image actée, dans un processus d'autonomisation où l'image s'approprie progressivement les qualités de l'objet). Toutes ces hypothèses se tiennent, aux deux sens du terme. Dans l'important commentaire de La dame de Shanghai, film considéré par le philosophe disparu, et à de multiples reprises, comme un symbole du passage à "l'image-temps", il s'agit bien d'opérations spéculaires dans lesquelles les images sont strictement sous la dépendance ontologique de l'objet, même si dans la scène finale il nous est évidemment impossible de distinguer laquelle est l'objet. Dans cette scène terminale du film d'Orson Welles, l'accroissement d'énergie s'opère en deux stades. D'abord, par la prolifération virale des images toutes rapportées à un objet unique. Puis par la mise en abîme qui en résulte et l'impossibilité de distinguer la série d'images de l'objet qui lui donne naissance. On retrouve un thème cher à Deleuze (développé en particulier dans Logique du sens[109]) : le simulacre comme impossibilité de séparer le vrai du faux, l'actuel du virtuel. Le commentaire du film de Welles est dominé par l'idée de "puissance du faux" : "En élevant le faux à la puissance de la vie, la vie se libérait des apparences autant que de la vérité : ni vrai ni faux, alternative indécidable, mais puissance du faux, volonté décisoire. C'est Welles qui, à partir de La dame de Shanghaï, impose un seul et unique personnage, le faussaire"[110]. La "puissance du faux", est une réponse à la démarche de l'homme véridique, qui "juge la vie comme une maladie". "Par delà le bien et le mal" s'élance la puissance créatrice, vitale, l'augmentation de mobilité, de mutabilité. Et Deleuze fait l'éloge de la capacité à se transformer, à ne pas se recroqueviller dans une écorce, à s'hybrider à d'autres forces vitales[111]. Ces forces se trouvent du côté de la cristallisation actuel/virtuel. Pourtant le dénouement tragique de l'ultime scène aux miroirs remet en jeu une vérité, un fondement "réel" : la mort. Briser un à un les miroirs, éteindre les apparences, reconquérir l'actualité, c'est se brûler les yeux dans la mort. Le virtuel privé d'actuel devient un élément catastrophique, d'intensité insupportable. N'oublions pas cependant que l'image spéculaire est dans un rapport de stricte contemporanéité avec l'objet. Le déchaînement multiplicateur efface temporairement cette dépendance. Supprimer un à un les exemplaires virtuels assure la durée de la scène finale, mais le dénouement tragique contracte cette durée par l'effondrement réciproque des adversaires. Crise de la vérité L'éloge des puissances du faux s'accompagne d'un joyeux constat de la relativité de toute référence stabilisée. Le cinéma de Welles redécouvre le mouvement perspectiviste et la perte

de la notion de "centre". Michel Serres et ses considérations sur le XVIIe siècle, qualifié de "siècle baroque", viennent à l'appui : "Y a-t-il un centre quelconque ou pas du tout ?" Et Deleuze d'ajouter : "[...] la vérité traversait une crise définitive" et "tous les centres [...] s'écroulaient"[112]. Le perspectivisme de Welles ne se définit plus alors "par la variation des points de vue extérieurs sur un objet supposé invariable (l'idéal du vrai serait conservé)". Au contraire, explique-t-il, avec Welles, le point de vue est constant mais intérieur aux objets, qui se présentent comme "métamorphose d'une seule et même chose en devenir". D'où l'allusion à la géométrie projective : l'oeil au sommet du cône donne des "projections", cercle, ellipses, droites, etc. "L'objet n'étant plus à la limite que la connexion de ses propres métamorphoses"[113]. Rejoignant des vues antérieures développées dans Logique du sens, où le simulacre est défini non pas comme une copie dégradée mais comme ce qui interdit de discerner la copie de l'original, Gilles Deleuze affirme : "Les perspectives ou projections, c'est cela qui n'est ni vérité ni apparence"[114]. Mais faut-il opposer vérité et apparence ? Plutôt que de concevoir les projections multiples comme ce qui altère l'idée d'une vérité unique, pourquoi ne pas considérer la vérité, ellemême, comme multiple. Définir l'objet comme l'ensemble de ses projections tend à confondre appréhension perceptive et manifestation objective. Si l'objet "unique" n'existait pas, ses projections s'éteindraient aussi. Cette vision ne dépasse qu'en apparence le conflit entre subjectivisme et matérialisme. Sans prolonger cette controverse récurrente... et complexe, je ferai l'hypothèse que l'expérience des images actées, ne favorise que superficiellement le relativisme. Offrir le réglage de l'observation et de l'activation du modèle au spect-acteur, c'est dépasser, dans un sens, l'opposition entre dispersion des références et centralité de l'espace d'observation. Définir l'objet par l'ensemble des perceptions qu'acquiert un observateur situé à l'intérieur, c'est une conception qui assure à la fois la mutabilité de l'objet, "son devenir" et sa définition perceptuelle. En déduire une crise définitive de la vérité est discutable. La vérité ne se situe pas au pôle opposé à celui de l'apparence, c'est ce qui partage l'apparence de l'essence (dans la formule cartésienne classique). Dans la sphère des images actées, et de manière plus restrictive, dans celle des simulations réalistes, nous verrons plus en avant qu'on peut considérer que la "vérité" fait dériver l'apparence du modèle. La vérité, ou plutôt une vérité expérimentale et non axiomatique, s'exprime alors dans le passage au-delà de l'apparence, ou plus précisément dans la synthèse de l'apparence à partir de la morphogenèse de l'objet. De multiples travaux de modélisation physico-mathématiques concrétisent cette exsudation de l'apparence à partir des modèles. Waves d'Alain Fournier[115] en est certainement l'un des premiers exemples aussi parlant, qui offre la vision d'une plage en images de synthèse obtenues par modélisation physique du mouvement de la houle animant d'innombrables gouttes d'eau formant l'étendue maritime. De la conformation des fonds sousmarins à la vitesse du vent, des phénomènes d'écrêtage de l'écume à l'amortissement des ondulations, tout y est simulé pour recréer l'apparence visible d'une mer parcourue par des vagues. La vérité visuelle, unique comme scène et multiple comme perspectives réglables, surgit alors comme la preuve de la réussite de l'opération modélisatrice. Elle en devient un bénéfice secondaire, un cadeau "de surcroît". Ce faisant, c'est le regard qui se redéfinit : non plus appréciation d'une surface mais recherche des dimensions cachées, invisibles, d'une scène. L'image devenant méta-image (image qui contient et explicite ses principes de construction), le regard devient méta-regard (regard qui observe ses propres opérations pour deviner ce que dissimule la surface visible et comment y accéder). L'idée de Godard selon laquelle les meilleurs films de fiction sont les documentaires sur leur propre tournage s'applique naturellement à l'univers de l'image actée puisque chaque scène contient explicitement ses logiques scénographiques ; logiques que le spect-acteur doit découvrir et pratiquer pour, de manière inédite, composer le voir avec le mouvoir. (Précisons que lorsqu'on

observe Waves par le truchement d'un film vidéo, ces dimensions méta-scopiques s'assèchent et le regard se conforme alors à ses habitudes séculaires non-interventionnistes). B - De L'image-temps aux concepts de l'image actée, versus de l'image virtuelle du miroir à l'avatar virtuel La ligne d'analyse de La dame de Shanghaï, distribuant les valeurs vie/mort sur le couple virtuel/actuel s'harmonise parfaitement à l'opérateur instantané qu'est le miroir. On peut d'ailleurs noter qu'outre le miroir, les métaphores techniques qu'utilise Deleuze relèvent très souvent de milieux de type optique : cristal (et cristallisation comme mouvement de développement du cristal), transparence (vitre, fenêtre, eau gelée)[116], eau vive (le flux vital). Peut-on mobiliser ce couple virtuel /actuel en regard des dernières générations d'images et spécialement des créatures virtuelles (modèles simulés, avatars, clones) ? Ce genre d'images joue, quant à elle, sur une gamme de combinaisons dans le temps beaucoup plus vaste que l'optique, parce qu'elle travaille les opérations temporelles de manière plus mobile (contemporanéité, simultanéité, enregistrement, reprise actuelle de modèles sédimentés par des expérimentations antérieures, mélanges d'animation actuelle et de modèles stockés comme dans le clonage virtuel[117]). L'optique géométrique ignore la temporalité. La référence de Deleuze à l'optique doit être discutée plus finement, car il serait injuste de lui attribuer un usage naïf de l'optique physique. Dans l'un de ses derniers articles publiés, Deleuze revenant sur le statut de l'image et de l'objet virtuel, écrit : "Les images virtuelles ne sont pas plus séparables de l'objet actuel que celui-ci de celles-là. Les images virtuelles réagissent donc sur l'actuel"[118]. Mais l'analogie[119] avec les images virtuelles de l'optique -ou du numérique- est trompeuse. Lorsque Deleuze parle d'images virtuelles, il s'agit plutôt de souvenirs et non pas d'images objectivées. Et logiquement il rappelle avec insistance, tout au long de son livre, la découverte bergsonienne concernant la temporalisation. "Dans tous les cas, la distinction du virtuel et de l'actuel correspond à la scission la plus fondamentale du Temps... faire passer le présent et conserver le passé"[120]. Toute son analyse de la virtualité repose en fait sur cette conception temporelle. "Actuel" est évidemment un terme temporel et non pas spatial (et c'est toute la portée des technologies de Téléprésence que de tendre à fusionner, aujourd'hui, ces deux qualités). C'est pourquoi l'optique physique, spatiale par construction, n'inclut pas "l'actuel" dans son vocabulaire et lui substitue les notions d'image et d'objet réels. De même l'objet dont il est question chez Deleuze, c'est plus la perception actuelle qu'une entité matérielle indépendante (l'objet inorganique, amorphe du sens commun). Ce concept d'<<objet>> nous fait quitter l'ordre optique qui ne peut, tout au plus, que servir d'analogie pour appréhender la perception. Et c'est bien ainsi que Deleuze le conçoit lorsqu'il énonce : "En termes bergsoniens, l'objet réel se réfléchit dans une image en miroir comme dans l'objet virtuel qui, de son côté et en même temps, enveloppe ou réfléchit le réel : il y a <<coalescence>> entre les deux. Il y a formation d'une image biface, actuelle et virtuelle"[121]. Et il image le processus : "C'est comme si une image en miroir, une photo, une carte postale s'animaient, prenaient de l'indépendance et passaient dans l'actuel, quitte à ce que l'image actuelle revienne dans le miroir, suivant un double mouvement de libération et de capture"[122]. Il semble que Deleuze nous invite lui-même à dépasser le stade du miroir. Son commentaire conviendrait à merveille à La rose pourpre du Caire, film qui illustre parfaitement, dans l'ancien moule de l'image enregistrée, le stade acté de l'image, propulsé par les technologies numériques. Séparer l'image de son support pour la faire vivre, en complète autonomie, dans une relation avec une spectatrice, voilà ce qui advient, on le sait, à l'acteur du film de

Woody Allen, dessinant ainsi une parabole de tous les mouvements qui affectent l'image numérique aujourd'hui. Un autre exemple me vient à l'esprit de ce qu'on pourrait appeler, cette fois, un miroir numérique. Il s'agit du dispositif Watch yourself, de Tim Binkley[123]. Cette installation rend compte à merveille du sens profond des images actées -dont on rappelle qu'elles enchaînent pratiquement les visions aux actions- en révélant le dédoublement spéculaire du regardeur qu'elles induisent. Véritable machine à transporter le spectateur, et à le capturer, ce dispositif incorpore l'image du visiteur dans les ouvertures du tableau (fenêtres, miroir, etc.). S'il doute de la réalité de ce voyage, une imprimante, inscrit sur le papier la trace de sa visite furtive à la Vénus au miroir de Vélasquez en lui fournissant le témoignage irréfutable de sa présence dans le tableau. L'effet est majoré par l'emprunt à des classiques de l'art pictural qui avaient déjà exploré, à leur manière, la recomposition de l'espace perspectif : multiplicité de scènes, incorporation de plans décalés, thème récurrent de la fenêtre présentant l'ailleurs de l'image dans le cadre même du tableau. La présence du miroir dans le tableau (comme dans les fameuses Ménines), fait apparaître ce que voient les personnages dans le tableau, mais qui demeure caché pour le peintre. Ici, c'est, de manière ironique, le regard du visiteur qui est piégé, affirmant ainsi un nouvel âge de l'image. Par là s'affirme une propension à animer les récits de l'intérieur de la scène : pénétrer dans l'image, devenir acteur du spectacle et spectateur de ses actes, regarder le tableau à partir de son intériorité. Comme l'écrivait Merleau Ponty, "la vision est prise ou se fait au milieu des choses"[124]. L'image-objet, un ajustement sensori-moteur génétique Deleuze : "L'écriture a pour seule fin la vie, à travers les combinaisons qu'elle tire. Le contraire de la <<névrose>> où, précisément, la vie ne cesse pas d'être mutilée, abaissée, personnalisée, mortifiée et l'écriture, de se prendre elle-même pour fin"[125]. Nietzsche vient à l'appui : "Il semble parfois que l'artiste, et en particulier le philosophe, ne soit qu'un hasard dans son siècle... À son apparition, la nature, qui ne saute jamais, fait un bond unique, et c'est un bond de joie, car elle sent que pour la première fois elle est arrivée au but, là où elle comprend qu'en jouant avec la vie et le devenir elle avait eu affaire à trop forte partie"[126]. Viser la vie et non la vie des signes (de l'écriture), faire coïncider la description et le paysage, plus, révéler le paysage à lui-même grâce à sa description, voilà une critique cinglante de la médiation. Mais dénier l'espace propre de la représentation, c'est une critique de l'opération médiatrice symétrique à celle consistant à souligner son incapacité à décrire fidèlement la réalité, à la doubler authentiquement. C'est l'espace créatif propre de la médiation qui est alors dévalorisé. Il s'en suit que l'autonomie revendiquée de l'écriture ou de l'image ne vaut plus pour elle-même, mais comme instrument mobilisé pour rejoindre la vraie vie. Ici, le paradoxe consiste à rejoindre la vie par le truchement de son soi-disant autre (l'écriture, ou le film) tout en affirmant la vanité et l'agressivité mortifère de ce "moyen". Or, s'il y a moyen, truchement, outil, se compose un espace propre de vie qui ne saurait être appelé à fusionner avec un flux vital supposé premier et essentiel, puisqu'alors, il en fait partie. C'est ce qui nous passionne dans l'image actée, ce surgissement d'un milieu médian, ni pur objet, ni pure image et dont l'artificialité ajoute de nouvelles dimensions à nos compositions perceptives. Cette méfiance à l'égard d'une écriture qui viserait un espace propre d'existence est contradictoire à une motivation que Deleuze exprime distinctement à de multiples reprises : fusionner la représentation et la réalité pour donner naissance à un couple représentation/réalité qui acquiert ainsi un surplus d'énergie, d'autonomie et qui le transforme en puissance quasi vivante. Devenir toujours plus vivant, c'est-à-dire doter les images de qualités décalquées de celles des objets, tel est bien le programme de l'ingénierie informatique, affirmation qu'il

faudrait compléter en ajoutant que ce programme va, parfois, jusqu'à les doter d'une quasi-vie artificielle[127]. L'image-objet ou le virtuel dissocié de l'actuel L'échange virtuel/actuel, ce serait la sortie de l'écran, et le retour futur. Plus généralement, on peut faire jouer l'analogie avec cet échange virtuel/actuel afin de décrire le mouvement de l'image- actée, mouvement considéré comme processus d'autonomisation croissante de l'image. Ce qui fait discussion, c'est le mouvement symétrique (l'image actuelle doit revenir dans le miroir pour remplacer l'image virtuelle qui s'est autonomisée) comme si une solidarité devait être maintenue à tout prix entre image actuelle et virtuelle. La métaphore du miroir incite à postuler une telle solidarité, tout comme la référence à toutes les techniques d'enregistrement (photographie, cinéma) qui maintiennent, par construction, ce lien. Les images-objets mues par la modélisation numérique peuvent, quant à elles, se dispenser d'une telle exigence, à condition qu'on leur reconnaisse un niveau supérieur d'autonomie, une certaine autosuffisance à coaliser l'actuel et le virtuel, à concrétiser une forme de cristal (bien que le circuit court perception/souvenir se manifeste aussi, dans certains moments de flottement, lorsqu'on négocie avec ces hybrides image-objets). Dans ce cas, l'ajustement des mouvements sensori-moteurs et de la perception optico-sonore se réalise de lui-même. S'il s'agit bien d'image-objets existants comme telles dans un processus d'usage, de coopération, de conversation, alors cet ajustement est génétique. Il découle des liens structurels entre image et action. Par exemple, le modèle de l'arbre que l'on fait croître par simulation contient, par principe, les décisions préalables des agronomes qui ont élaboré ce modèle. Le faire croître sur l'écran, c'est agir et actualiser ainsi le modèle qui va développer sa forme finale, le faire fructifier, dessiner les ombres que ses branches projetteront au sol. Décrire ce processus consiste à noter les enchaînements de gestes -réalisés grâce aux interfaces- et d'actes de vision, les uns étant causes des autres. En résumant à l'extrême, on peut caractériser l'image actée comme à la fois noématique et haptique (de haptein, prendre, toucher en grec)[128]. (Noématique, car en suivant la conception imaginée par Husserl, l'image actée est aussi soumise aux variations imaginaires -à la corrélation- par lesquelles nous exerçons notre perception. Dans le cadre de l'expérience de la "réduction phénoménologique" -la suspension, la mise entre parenthèse du monde objectif- il s'agit bien de remonter de l'objet donné aux principes qui le constituent. En radicalisant le propos, on dira que l'univers de l'image actée appelle naturellement la "réduction phénoménologique"). L'image actée relève donc à la fois d'une saisie imaginaire, interprétative et d'une saisie physique, interventionniste, par interfaces interposées : cette double détermination en constitue la singularité en regard de toutes les autres formes d'images. On connaît la théorie antique de la vision, celle du "rayon visuel" émis par l'oeil et qui va ausculter la réalité pour ramener à la rétine des informations vivantes sur le monde ainsi touché (au sens propre)[129]. Répudié, à juste titre sur le plan scientifique, par l'optique physique, le "rayon visuel" s'est finalement concrétisé dans nos interfaces modernes. Et c'est par elles que nous touchons et transformons les images actées. Elles sont devenues le lien sensible, fonctionnant dans les deux sens, entre la noèse-haptèse (le corps sensible de la phénoménologie : voyant parce que se voyant voir, comme dirait Merleau-Ponty), d'une part et les figures numériques actives, de l'autre.

On pourrait conclure qu'il ne s'agit là finalement que d'une image-mouvement, au sens de Deleuze (image prolongée par des actions). Mais on peut tout aussi bien considérer que c'est l'inverse qui se produit, l'action prolongeant l'image. En fait l'indécision qui en résulte laisse entendre qu'il pourrait s'agir d'un cristal -pour reprendre l'expression de Deleuze- d'un nouveau type, non plus coalescence de l'actuel et du virtuel, mais perception dans l'image actuelle d'une incomplétude renvoyant à une image-souvenir lancée à la recherche de l'objet. Objet qu'elle ne peut atteindre, car ce qu'elle vise n'est plus un objet réel mais un modèle protéiforme. On dira que l'origine de ce cristal c'est ici le modèle mathématiques, non totalement exprimable, qu'on ne peut appréhender par l'expérience et qui se tient en retrait, invisible comme la source réelle/virtuelle du visible et de l'expérimentable. Invisible, mais présent en surplomb et dont on "ressent" la présence à travers toutes ses actualisations, comme une perception sublimée et indéterminée. Ce serait la course poursuite incessante entre l'image actuelle et l'objet en retrait (le modèle) qui manifesterait ce cristal qu'on peut nommer image-modèle. Image-souvenir et Réalité Virtuelle L'image sensori-motrice, telle que la définit Deleuze, s'incarnerait assez bien dans les simulations interactives classiques (Conception Assistée par Ordinateur, jeux vidéo, etc.). L'image se poursuit alors en mouvements, en actions mais demeure une image frontale, qui sur l'écran, fait face à l'interactant. Les environnements virtuels, immergeant l'acteur, traduiraient, eux partiellement, l'image-souvenir. Ces situations d'immersion engendrent, en effet, une double perception. D'une part, l'écran étant brisé, la mobilité naturelle qui relie vision, audition et action est restituée. Et de l'autre, le caractère "artificiel" -techniquement produit- de l'univers est, simultanément, toujours perçu, ne serait-ce qu'à travers le rituel inaugural de l'ajustement des interfaces (casques, gants, etc.), véritable sas de passage vers l'immersion. Ces deux catégories de sensations agissent comme deux couches parallèles, pour modeler la perception. Certains gestes et activités perceptives automatiques -pointant vers les images-souvenirs indéfinies et mobilisables- qu'on accomplit quotidiennement sans y penser sont ici accomplies avec la même facilité, d'autres réclament une pensée de l'usage des interfaces, une application attentive. L'image-souvenir doublerait ainsi en surplomb l'imageaction. Les visions/auditions/préhensions d'objets dont les images flottent dans l'espace font signe vers un univers onirique fait d'actes et de sensations mémorisés (image-souvenir) mais qu'on mobilise pour identifier et animer ces objets-images (image-action). C - Image-temps et image-présence : l'hypothèse du cristal "présentiel" Le concept d'image-cristal est, rappelons-le, solidement articulé à la conception bergsonienne du temps fondée sur le dédoublement qui, à chaque instant, fait passer le présent et conserve le passé. Or la présence à distance est aussi un jeu avec le temps. Elle s'adosse à l'opération temporelle qui définit le sentiment de présence : aller-retour entre évasion hors de soi, perception de l'évasion, sensation du retour, laquelle provoque une nouvelle évasion construite sur la perception du retour et tout ceci dans un mouvement perpétuel, une vague en rouleau qui se déplace -et donc permet l'oubli- en s'enroulant sur elle-même. Les dispositifs de transport canalisent ces mouvements en capturant à leur profit une part, et une part seulement, de l'attention disponible. Une part seulement, car rien ne permet de supposer que, dans les situations de transports (téléphone, communication par réseau, etc.), le sentiment de présence/absence à soi se moule totalement sur le dispositif. Cela reviendrait à postuler l'unicité phénoménale de la présence et par conséquent faire sienne une définition purement spatiale de la présence. S'engager dans un déplacement partiel de présence, c'est hybrider les

vagabondages ordinaires du flux représentatif aux voyages outillés par les technologies. Le canal que ces appareillages imposent à la perception complexifie donc les mouvements décrits précédemment. Le cristal "présentiel" On se propose ici de faire jouer cette notion de cristal actuel/virtuel sur la thématique de la présence à distance. Au miroir, cher à Deleuze, instrument d'extraction de l'apparence à partir de la forme, reliant ainsi l'objet réel et son image virtuelle, on substitue l'appareillage de téléportation (transport instantané des signes de la présence à distance, sur des avatars virtuels, par exemple). Si le transport est physiquement instantané, la perception de l'instantanéité est, quant à elle, construite. Cette perception se constitue dans les circuits reliant l'action et la réponse, le départ et le retour. On définirait le cristal présentiel comme le plus petit circuit reliant présence et départ, la sensation que notre image se glisse dans les formes d'un avatar constitué par les moyens de l'informatique, qu'elle se déplace avec lui, dans un réseau par exemple, et ne nous appartient plus totalement. Ce plus petit écart entre l'ici et l'ailleurs serait ce cristal où actuel résonnerait avec ici et virtuel avec ailleurs. Lorsque l'ici télescope l'ailleurs, comme dans les Téléprésences virtuelles où un exo-squelette situé dans l'espace interplanétaire double un opérateur à terre, le cristal présentiel s'illumine. La présence physique est dédoublée en présence actuelle (corporelle?) et image-objet de soi, que nous avons nommé spect- agent, doté d'une vie propre, et non pas reflet passif. Concrétisant, pour la première fois, une forme d'ubiquité réelle, ces expériences ouvrent au dédoublement spatial, non plus seulement audiovisuel mais proprioceptif. Cette auto-perception s'opère à distance de soi-même, sur un autre soi-même, le spect-agent. Se percevoir percevant, telle est l'originalité de ces déplacements, déplacement d'espaces plutôt que déplacement dans l'espace. En regard du sujet humain réel, le spect-agent réalise une augmentation motrice aussi bien que cognitive (déplacement par la vue ou la voix, perception des flux aérodynamiques simulés s'écoulant autour d'une navette spatiale modélisée). Immergé dans l'univers virtuel, l'opérateur se voit sous la forme d'une silhouette doublant ses mouvements. Il éprouve à même son corps, par exemple, les effets d'un déplacement dans les lignes de flux de l'écoulement aérodynamique. Avec le retour d'effort du virtuel sur le réel, la composition chimique des rapports action/perception musculaire/interprétation se modifie. Les sensations physiques sont perçues de manière corporelle, mais grâce à la médiation visuelle d'un spect-agent, image de soi à distance. Comme si le spect-agent percevait et nous transmettait instantanément cette perception : dédoublement réel de présence. Le cristal temporel deviendrait ici le plus petit circuit de déplacement de présence, la plus faible perception d'un écart de soi à soi, écart manifesté dans et par un dispositif de transport. D'où un dédoublement présentiel dans la problématique de la dissociation du temps (faire passer le présent, conserver le passé). Ici le passé ne passe pas, il est "rafraîchi". Le "souvenir pur" bergsonien devient le modèle comportemental de la scène. Altération des objets, forme de présence du sujet, espace d'interaction sont organisés par des modèles abstraits, invisibles, impalpables, qui se tiennent en retrait, forment l'espace des possibles et constituent la source des images actées. L'exemple matriciel de cette situation cristalline serait la vision d'une image de soi dans une situation de Téléprésence virtuelle : partie de son propre corps qu'on aperçoit dans le casque de réalité virtuelle lorsqu'on baisse la tête, silhouette de soi découpée selon la forme du

costume-capteur qu'on a revêtu et qu'on découvre sur une surface réfléchissante ou encore reflet de soi-même surajouté à l'image virtuelle dans certains dispositifs en cours d'expérimentation. Cristal actuel/virtuel, transport et cristal "présentiel" "Le présent c'est l'image actuelle, et son passé contemporain, c'est l'image virtuelle, l'image en miroir. Selon Bergson, la <<paramnésie>> (illusion de déjà-vu, déjà-vécu) ne fait que rendre sensible cette évidence : il y a un souvenir du présent, contemporain du présent lui-même, aussi bien accolé qu'un rôle à l'acteur"[130]. Ce souvenir dédouble en permanence la perception actuelle et le souvenir immédiat virtuel (passé immédiatement accolé à la perception actuelle). On pourrait proposer une analogie -un peu forcée, peut-être- entre le mouvement qui relie les images-souvenirs aux images purement virtuelles qui "n'ont pas cessé de se conserver le long du temps",[131] d'une part, et celui qui enchaîne, par l'intervention humaine, la série d'images numériques avec leur modèle abstrait, non totalement visible parce qu'incluant toutes ses actualisations possibles, de l'autre. Le dispositif de transport est aussi essentiel au cristal présentiel (mais peut-être pas suffisant, nous le verrons) que le dispositif cinématographique et ses "images optiques et sonores pures" l'est au cristal temporel de Deleuze. Avec les images numériques interactives, il s'agit d'image-présence et non plus d'image-mouvement ou d'image-temps. L'image-présence se prolonge en actions, mais pas de manière figurée comme au cinéma où seuls agissent les personnages incarnés sur l'écran. Là, c'est nous-mêmes qui prolongeons la perception en action et l'action en perception, non plus dans un circuit (perception/action ou actuel/virtuel pour l'image-temps) mais dans un cycle (action/interprétation/perception/action). Si certains films rendent manifeste le cristal temporel, certaines situations privilégiées de transports concrétisent le cristal présentiel. (J'ai en vue, ici, des environnements qui interprètent, sur un plan esthétique, ces déplacements de présence, telles que certaines oeuvres en Réalité Virtuelle, comme Ménagerie, dont il sera question plus loin). Les cercles concentriques qui joignent les niveaux croissants de virtualité aux profondeurs croissantes de l'objet (Bergson) s'expriment alors sur un mode non plus seulement temporel mais aussi spatial : déplacement dans l'espace et par conséquent dans le temps. Deleuze attire, par ailleurs, notre attention sur le fait que l'échec de la reconnaissance attentive est souvent plus riche que son succès[132]. En effet lorsque cette reconnaissance ne parvient pas à rejoindre l'image-souvenir, "le prolongement sensori-moteur reste suspendu". Elle rallie des éléments virtuels, "sentiments de déjà-vu", de passé non situé, une réminiscence (on ne sait si l'événement s'est réellement déroulé, si on l'a rêvé ou encore si on l'a déjà imaginé). C'est un souvenir, mais on ne sait de quoi. Plutôt que l'image-souvenir ou la reconnaissance attentive, les troubles et les échecs de la reconnaissance constituent "le plus juste corrélat de l'image optique-sonore"[133]. Cet échec coupe les amarres de la reconnaissance et la rend mobile, disponible pour toutes sortes de voyages reliés à une grande variété d'autres souvenirs virtuels. Cette augmentation de liberté, désir et projet constamment revendiqués par Deleuze, peut-on en trouver trace dans l'image actée ? Dans cette perspective, c'est la reconnaissance temporelle qui échoue à se maintenir distinctement. Cet événement s'est-il déroulé avant ou après celui-ci ? Ou en même temps ? La série temporelle peine à se dévider. Le souvenir d'un enchaînement précis se trouble et va rejoindre les autres impressions détachées de leur contexte. Paradoxe, ubiquité, compossibilité

À propos de la crise de la vérité dans ses rapports au temps et donc aux bifurcations irréversibles du passé, Deleuze se réfère à Leibniz et à sa notion de "compossibilité". Demain, la bataille peut avoir, ou ne pas avoir, lieu. Le philosophe allemand affirme que les deux possibilités peuvent se concrétiser simultanément, mais pas dans le même monde. Ces deux mondes -dans l'un la bataille a lieu et dans l'autre, non- sont possibles, mais pas "compossibles". Deleuze propose d'aller au delà de cette distinction des deux mondes et écrit : "Car rien ne nous empêchera d'affirmer que les incompossibles appartiennent au même monde"[134]. Et d'appeler Borges à son secours : "Vous arrivez chez moi, mais dans l'un des passés possibles, vous êtes mon ennemi, dans un autre, mon ami..."[135] ou de rappeler, dans une note, le Théodicée, de Leibniz, et ses "futurs contingents" prenant forme d'une "pyramide de cristal" où "dans un appartement, Sextus ne va pas à Rome et cultive son jardin à Corinthe, dans un autre, il devient roi en Thrace..."[136]. Les récits actés prolongent le genre. Dans certains exercices de narration interactive, ils font coexister plusieurs récits, indépendants, contradictoires, ou parallèles. Mais avec une différence de taille. Les bifurcations qui spécifient les différentes versions -on décide de continuer la promenade sur les quais de la Seine plutôt que de pénétrer dans le jardin des Plantes- ne sont plus compossibles, puisqu'elles deviennent alternatives. On pourra, bien sûr, rééditer le choix et rentrer cette fois-ci dans le jardin. Mais c'est une autre expérience, et non pas, simultanément, la même. À moins d'en appeler à une autre conception du récit où celui-ci devient la somme de toutes les itérations effectuées cumulant des expériences actualisées dans les cheminements suivis et totalisant les transports mentaux ainsi provoqués. Si on postule une telle définition du récit interactif -qui ne fait que prolonger une définition classique du récit textuel ou filmique, comme cumul des affects provoqués par sa perception[137]- alors il réintègre la pluralité des déroulements possibles comme formant l'unité de sa composition. Mais la perte d'énergie en regard des évocations à la Borges, est incontestable. La force corruptrice du sens commun contenue dans la proposition de Borges provenait précisément de la linéarité du texte, laquelle soulignait le paradoxe de l'ubiquité. Avec le récit interactif, le paradoxe est dissout par le principe même du dispositif. On l'attend d'emblée ; il est inscrit dans le fonctionnement du récit. Lequel met en jeu une autre forme de transport interne. La "compossibilité" des versions du récit est une ubiquité du sens. Plusieurs développements d'un même germe, pour certains contradictoires entre eux, inscrivent des déplacements d'existence. On peut préférer suivre la fille sur les quais de la Seine, mais aussi, au même moment souhaiter rencontrer le détective devant la grande serre du jardin des Plantes. Le moment de la décision inclut alors une réédition future possible de ce choix dans une reprise du récit. Le déroulement de l'action qui résulte d'une décision contient son autre, comme une séquence imaginée qui, telle une ombre, s'accouple à la séquence observée. L'existence spectrale dans cette autre séquence possible, celle qu'on a refusée, manifeste un déplacement de présence qui double et affecte la perception de la séquence préférée. Si bien que le récit se densifie de ces bifurcations non suivies qui, à terme, constituent un récit fantôme et, à la limite, prennent la forme de ces souvenirs dont on ne sait s'ils réfèrent à des événements réels, rêvés ou imaginés, rappelant l'indiscernabilité souvent éprouvée dans la psychanalyse, entre souvenir et reconstitution imaginaire. On pourrait dire qu'alors le temps se fractionne, non seulement il conserve le passé et fait passer le présent, mais de plus, surcharge le présent d'un passé spectral "compossible". L'adjonction de l'action à l'image sonore

Le passage du film muet au film sonore on le sait, a bouleversé le cinéma. L'adjonction actuelle du geste à l'image de même que la mise en interaction du récit ne présentent-elles pas quelque analogie avec cette première amplification perceptive dont a été sujet le cinéma ? à propos de la sonorisation du cinéma, Gilles Deleuze insiste d'abord sur la naturalité de l'image purifiée de la présence langagière. "Ce que le parlant semblait perdre, c'était la langue universelle, et la toute-puissance du montage"[138] et : "L'image muette est composée de l'image vue, et de l'intertitre qui est lu (seconde fonction de l'oeil)". D'où l'idée que l'intertitre langagier exprime une loi alors que l'image visuelle sauvegarde le naturel, renvoie à "une nature physique innocente, à une vie immédiate qui n'a pas besoin de langage..."[139]. (On retrouve le thème "vital" récurrent, de même que, indirectement, la tendance à établir le primat de la vie sur la médiation -langagière, dans ce cas- allant jusqu'à désavouer l'espace propre de celle-ci). L'image muette peut "nous faire voir... le cri des révoltés"[140]. L'image sonore, dit-il, nous fait sentir l'action. L'image actée, ajouterons-nous, nous met en présence, d'une virtualité. Elle nous confronte à d'autres occurrences pouvant toujours doubler celle qui a été choisie. Elle révèle les dimensions abstraites de la perception, dans un mouvement paradoxal. Agir dans l'image, c'est à la fois très (trop ?) manifeste (on agit vraiment), mais aussi terriblement incertain, car l'action dans l'image nous fait affronter le non visible. L'écran -au sens littéral d'un masque- support de l'image actée opacifie toujours une réalité sousjacente. Certes cette opacité est trouée à certains endroits, là où précisément un cliquage, par exemple, permet d'enchaîner sur d'autres scènes. Une réalité s'annonce qui ne dévoile jamais totalement ses prolongements, présentant et occultant simultanément les relations cachées entre les différentes phases du récit. Aura-t-on suivi le vol d'oiseaux qui s'enfuient, qu'on se demandera toujours ce qu'ils sont devenus après qu'ils auront disparu de notre champ de vision ? Gilles Deleuze écrit : "Le son n'a pas d'image", le cinéma ne le "représente" pas, il le "restitue"[141]. Mais le son provient du centre de l'image visuelle. Malgré toutes les tentatives pour s'en approcher, l'émission sonore n'est pas entendue dans les conditions naturelles, car elle n'est pas spatialisée. (Remarquons que, prolongeant la stéréophonie, ou le sound surrounded, la Réalité Virtuelle est la seule technique qui peut réellement spatialiser le son en le diffusant selon les mouvements relatifs des sources sonores virtuelles et du spect-acteur). Avec le cinéma parlant, le sonore est entendu comme "une nouvelle dimension de l'image visuelle..."[142]. Il transforme l'image visuelle, "il fait voir en elle quelque chose qui n'apparaissait pas librement dans le muet". Il s'en suit que l'image visuelle, dégagée de cette naturalité première se met à exprimer les "interactions humaines"[143]. Elle devient une sociologie interactionniste, ou plutôt précise Deleuze, c'est l'interactionnisme qui devient un cinéma parlant. D'où l'importance et la récurrence des thèmes de la rumeur (qui passe entre les personnages et les constitue, plus qu'ils ne la propagent eux-mêmes) et de la conversation, objet non identifié qui porte les acteurs là où elle les entraîne plus qu'ils ne l'alimentent. Avec l'image actée, l'interactionnisme devient une condition matérielle d'existence du média, comme l'image projetée ou le son diffusé pour le cinéma. Que peut-on en conjecturer ? Par exemple -en reconduisant ce que Deleuze dit de la sonorisation de l'image- que l'action sur l'image est perçue comme une nouvelle dimension de l'image. Laquelle ? Si la sonorisation intègre à l'image "une nouvelle composante de l'image", l'action sur l'image exprime le mouvement interne aux composantes de la scène, leur vie propre. C'est donc un nouveau régime de perception de l'image qui s'instaure incluant la capacité à deviner quels sont, à chaque instant, les éléments qui peuvent être affectés par notre présence dans la scène. Une vision chirurgicale se construit, non pas seulement au sens de la perception d'une profondeur de champ (ce qu'assurait déjà la perspective). Elle ne se réduit pas, non plus, au percement de la surface, ce qu'autorise le multifenêtrage ainsi que toutes les formes d'affichage mixant la

vision de la surface et de l'intérieur des objets ; opérations que la Conception Assistée par Ordinateur, et bien d'autres formes d'imagerie numérique nous ont déjà habitués à décrypter. Elle s'épanouit comme prévision des mouvements légaux et illégaux dans la scène. L'oeil au bout de la main caresse la surface à la recherche du moindre frémissement révélant une cavité, sonde les zones prometteuses, espère (et craint peut-être aussi) une révélation. La poursuite des zones activables dans les mises en scène d'images actées (des jeux vidéo aux oeuvres de l'art numérique) manifeste la présence muette d'êtres invisibles mais actifs : pouvons-nous faire croître l'arbre, dissimuler le héros derrière ce mur, serons-nous assaillis au coin de la rue si nous poursuivons ce chemin ? Cette quête s'exprime dans toute sa plénitude avec les premières expériences visuelles de communautés virtuelles et dans certaines recherches sur les déplacements virtuels dans les univers coopératifs de travail. À ce moment-là, c'est l'interaction sociale, elle-même qui devient une composante de l'image (déjà sonore, colorée, interactive) dès qu'elle met en scène les relations entre les avatars présents dans l'univers virtuel. Cette interaction est guidée par les sujets réels qui règlent les mouvements de leurs avatars. Mais elle est aussi prise en charge par des règles comportementales internes gouvernées par des programmes automatiques. Dans l'expérience de Téléprésence virtuelle collective DIVE, ces programmes assurent, par exemple, on l'a remarqué, la visualisation automatique de relations telles que l'affinité entre avatars et objets ou entre avatars eux-mêmes. L'attention sélective et toutes les opérations qui objectivent des mouvements subjectifs d'ordinaire latents sont graphiquement et dynamiquement inscrites, allant jusqu'à représenter visuellement des graduations d'intensités relationnelles[144]. Sur les "nouvelles images" Dans la continuité de l'analyse des nouvelles figures de l'automate, Gilles Deleuze aborde les "nouvelles images" (électroniques et numériques). Il pose, concernant les images électroniques, une question lumineuse, appelant de ses voeux une "autre volonté d'art"[145], spécifique à cet univers. Que cet art puisse se développer de manière autonome ou en prolongeant des aspects inédits de l'image-temps, la question, pour lui, demeure ouverte. Le philosophe a-t-il en vue, les images numériques actées lorsqu'il évoque le statut des images électroniques ? Ou n'a-t-il pas plutôt en ligne de mire les images vidéos. Nous penchons pour cette dernière hypothèse. Son champ de vision privilégie, en effet, le cadre formel de l'image (organisation de l'espace, perte du privilège de la verticalité, autonomie du visuel et du sonore, transformation de l'écran en surface opaque où l'information remplace la Nature). Il ne s'en écarte que pour prendre en compte la matérialité de la surface d'inscription, l'écran opaque, dans une voie suivie parallèlement par nombre d'artistes vidéastes. Malgré une ouverture finale plus riche, il n'envisage pas la nécessité de faire prendre aux concepts propres aux "nouvelles images" une distance non seulement spatiale mais aussi axiomatique. Ne plus les définir comme images mais comme intermédiaires entre image et objet, ne lui apparaît pas distinctement. Sauf dans cette formule, invitant à dépasser "l'inefficacité" dangereuse de l'information (sa toute-puissance fondée sur sa nullité) en posant la question "godardienne" : "quelle est sa source, et quel est le destinataire ? "[146]. À ce moment, l'espace de l'image s'ouvre, il devient processus, et contient à la fois sa genèse et sa fin. Entre les deux, l'interactant, celui qui perçoit et agit l'image, se voit reconnaître une place. C'est dans cette voie qu'une analyse fructueuse des "nouvelles images" peut être poursuivie. Rappelons que c'est encore Godard qui posait la question décisive, selon lui, du cinéma : où commencer et où finir un plan ? Question à laquelle l'image actée apporte, par construction, pour le pire et le meilleur, une réponse : en déléguant le choix de poursuivre, où d'interrompre, à l'interactant.

Certes, on pourra toujours invoquer la scénarisation préalable de cette possibilité par le concepteur de la scène. Il n'en demeure pas moins que cette poursuite est toujours potentiellement, et non pas effectivement, envisageable. Vérifier cette effectivité est devenu la condition spect-actorielle. "Psychomécanique" de l'image actée Lorsque le philosophe tente de définir, sur un plan sémiotique, le cinéma comme "système des images et des signes prélinguistiques"[147], il le rapporte à "ses vertus automatiques ou psychomécaniques"[148]. D'où l'idée suivante : le cinéma est un automate spirituel, qu'on doit considérer comme psychomécanique. Et son analyse rencontre les automates, non pas accidentellement mais essentiellement. Je renforce le marquage, car une fois de plus une épistémé s'articule sur une évocation d'une série précise de films, des films à automates, tels que Le testament du docteur Mabuse, ou Métropolis. L'automatisme y est "devenu art spirituel"[149]. Mais que signifie psychomécanique ? Que le cinéma est lui-même un automate technique qui déroule mécaniquement la pellicule et que l'enregistrement est une opération automatique ? Sans doute, mais plus essentiellement, psychomécanique renvoie au cinéma comme "automate spirituel", voire psychologique, qui penserait à notre place et la référence à L'homme ordinaire du cinéma de Jean- Louis Schefer est explicite. Comment, alors, qualifier le régime de l'image actée ? Elle brise assez violemment ce mouvement de l'automatisme psychologique. Ou plutôt, elle l'inverse. C'est la scénographie qui se charge d'automatisme et c'est l'image qui devient active, dépositaire d'un savoir sur son monde. Alors que l'interactant entre, lui, en confrontation avec ce monde et doit trouver sa place par une série d'essais, d'échecs et d'ajustements. On passe de l'automate psychologique à l'automate réflexif (comme le sont les programmes informatiques), incluant une spécificité humaine d'imprévisibilité, certes encore balbutiante mais néanmoins palpable. Quelle serait la psychomécanique propre à l'image actée ? Elle s'établirait dans les liens entre action effective sur l'image, perception de cette action effective et prolongement sensori-moteur naissant. Ces prolongements ne sont pas effectifs de la même manière qu'avec des objets de première réalité. Ils naissent dans un espace intermédiaire, mi-imaginaire, mi-réel (réel, au sens de la constatation de l'effet des actes sur l'image). L'automaticité passe dans l'image actée, qui contient ses propres principes génétiques qu'elle négocie avec le sujet qui l'agit, dans une coopération et non plus simplement une interprétation. Les limites de l'analogie avec le cinéma Pour faire émerger la notion d'image-cristal, par exemple, Deleuze sollicite, simultanément, plusieurs plans. Celui du circuit actuel/virtuel (ou présent/passé ou encore perception/souvenir), plan de l'instrument théorique, et celui de la description de certains films ou scènes, requis comme traductions/exemples des mouvements théoriques. Dans La règle du jeu de Renoir, par exemple, le philosophe fait sourdre le concept du film lui-même et l'utilise ensuite pour y entrer à nouveau : "... quelque chose sortira du cristal, un nouveau Réel en ressortira par-delà l'actuel et le virtuel. Tout se passe comme si le circuit servait à essayer des rôles jusqu'à ce qu'on ait trouvé le bon, avec lequel on fuit pour entrer dans une réalité décantée"[150]. Thématique de l'expérimentation des rôles, qui nous porte à sortir du théâtre et entrer "dans la vie". L'indiscernabilité actuel/virtuel est exploitée ici pour recoller fiction et vraie vie. Dans la même logique surgit le thème de la fuite, de la "fêlure" du cristal par laquelle on "s'épanouit librement", c'est-à-dire où l'on se libère du corset des représentations, de la finitude de la fiction, du ligotage du récit. L'analyse du récit filmique sert alors de

vérification, de validation d'une thèse -et d'un désir- qui court, rappelons-le, tout au long du livre : le récit doit rejoindre la vie dans une indistinction libératrice. Parallèlement, des genres cinématographiques sont sollicités pour indiquer le passage à l'ère de l'image-temps. Ainsi, par exemple, pour illustrer la nature du cinéma d'après guerre, les images-mouvements sont rapportées aux automates d'horlogerie ou aux moteurs, d'où la référence à Walter Benjamin, lequel, rappelle-t-on, établit une correspondance entre la reproduction automatique (photographique et cinématographique) et l'automatisation des masses dans l'hitlérisme[151]. Le passage à la deuxième phase du cinéma, celle de "l'image-temps", s'exprime dans l'émergence (et Deleuze cite aussi bien Alphaville de Godard que 2001 de Kubrick), d'une "nouvelle race" d'automates, informatiques et cybernétiques, automates de régulation, de traitement, diluant le pouvoir dans des réseaux que des décideurs régulent au lieu de le faire converger vers un chef suprême[152]. Le recours aux états affectifs, sentimentaux (violence, pessimisme, flux vital) s'ajoute aux autres couches pour étayer l'analyse. L'exportation, hors du champ cinématographique, des travaux de Deleuze -ou d'autres discours sur des formes stabilisées comme la littérature- est problématique. Deleuze traite du cinéma, pas de l'enregistrement visuel du mouvement ou des films en général, catégorie dans laquelle il faudrait ajouter les films documentaires, scientifiques, didactiques ainsi que la télévision, la vidéo, etc. Le cinéma n'en est qu'une région, celle où l'on ne dissimule pas qu'on raconte des histoires. (Cette affirmation suscite, bien entendu, quantité de questions. Précisons, pour faire court, que c'est la forme séquentielle qui engendre, par construction, la narrativité du cinéma). à la différence de Gilles Deleuze avec le cinéma, nous nous trouvons, avec l'image actée dans une situation expérimentale où le vocabulaire et la syntaxe se cherchent encore. Non pas qu'il n'existe des oeuvres sur lesquelles étayer une analyse des concepts de l'image actée et de son rapport à la culture contemporaine, mais ces oeuvres sont encore rares et embryonnaires. Certaines indiquent assez clairement des directions, mais ne permettent pas de répondre clairement à la question : par quel genre d'histoires et de scénographies peuvent-elles nous affecter ? Indications pour une théorie de "l'image actée" D'où les obstacles qui se dressent si l'on veut mobiliser les concepts deleuziens dans l'univers des images actées. La difficulté consiste à devoir faire abstraction de la fonction narrative, de ce que les images transmettent comme récit et dont Deleuze fait un abondamment usage dans son analyse des opérations proprement cinématographiques. L'image-temps naît, on l'a vu, dans de multiples descriptions, narrations de scènes de films, où les contenus sont métabolisés et viennent étayer les concepts. Un exemple : "la narration cristalline" opposée à celle de l'image-mouvement, nommée "organique"[153]. Dans la narration "cristalline", on le rappelle, les situations optiques et sonores pures ont fait place à des situations sensori-motrices. Les personnages sont essentiellement "voyants", leur mouvement "peut tendre à zéro", les anomalies du mouvement deviennent essentielles. Et Deleuze étaye son analyse en renvoyant à une opération proprement cinématographique. Le plan fixe est redécouvert, tout comme les faux raccords (Dreyer)[154]. Autre exemple : référant à Resnais ou Ozu, il montre comment le temps apparaît directement dans "les pointes de présent désactualisées"[155] en s'appuyant sur la tendance à la disparition du montage au profit du plan-séquence. On pourrait facilement poursuivre la liste des allers-retours entre "concepts" et films particuliers. Avec l'image actée, cette possibilité de renvoi aux procédés narratifs (montage, coupe, plan fixe) disparaît, car la continuité narrative elle-même s'est évanouie, tout au moins dans sa forme séquentielle. Quels seraient les équivalents du montage, de la coupe ou du plan fixe ?

C'est dans la scénographie de l'expérience interactée qu'on doit les rechercher. La visibilité de l'image se révèle dans le rapport entre les mouvements propres du programme (les événements naturels, qui arrivent d'eux-mêmes) et les perturbations possibles fondées sur la présence d'un spect-acteur, telles que la survenance d'une question qui lui est adressée, l'apparition d'un acteur dans la scène, le changement d'échelle d'un élément ou l'accélération de l'action. La collaboration entre le programme et le spect-acteur dans la construction du récit peut révéler ce genre de distorsions, de telle manière que le temps soit suspendu, comme, par exemple, dans la recherche d'un élément de la scène dont l'activation va permettre de rompre l'immobilité présente. Les interfaces, notamment en programmant les mouvements corporels, supportent ces messages muets qui conditionnent les enchaînements de l'aventure exploratoire. La conception de l'espace d'interaction participe aussi de ces mouvements temporels, par exemple lorsque s'ajustent des espaces libres de navigation avec des contraintes prescrites par le programme. Quelles seraient donc les outils appropriés à l'analyse des cadres perceptifs et affectifs propres aux modèles numériques actés ? Où trouver l'équivalent du miroir, et des actes proprement cinématographiques tels que le montage ou le cadrage ? On fera l'hypothèse que c'est la forme même de ces images-objets qui concrétise le jeu de poursuite entre action, perception et souvenir. Une forme pure de cristal, délivrée du souci narratif, ou indépendante de ce souci, une forme image pure qui tendrait à rejoindre celle qui apparaît dans l'espace magique, les fantasmes, le rêve, une forme dotée de pouvoirs, d'un pouvoir de principe, sans concrétisation particulière, sans préoccupation d'utilité, de fonctionnalité, uniquement intéressée à son opérativité génétique. Génétique, parce que l'image numérique actée est construite à partir d'un principe d'opérativité. Plus que d'un "devenir" objet de l'image -formule qui pourrait convenir aux images enregistrées, par exemple- il s'agit d'un être objet de l'image. Au-delà d'une indistinction image-objet, l'image et objet coexistent, non pas alternativement, mais simultanément (ce qui ne veut pas dire forcément pacifiquement). Tous ces antagonismes et ces désajustements (au sens où la coexistence de l'image et de l'objet est un aussi une désarticulation) font parfois émerger, des zones d'intemporalité, résonnant, peut-être, avec la présentation directe du temps évoquée par Deleuze. Une proposition artistique, qui me servira de conclusion, illustre assez bien cette hypothèse. "Ménagerie" ou l'ubiquité conquise L'irruption dans l'image, moteur profond de multiples réalisations et signification essentielle du régime actuel des représentations, trouve sa pleine mesure avec la Réalité Virtuelle. Ménagerie[156] de Susan Amkraut et Michael Girard en est l'une des démonstrations artistiques parmi les plus convaincantes. On devrait la retenir comme un véritable morceau d'anthologie, l'un des témoignages de la naissance de l'art virtuel (de la même manière que l'entrée dans la gare de La Ciotat a pu symboliser l'origine de l'expérience cinématographique). Cette oeuvre, pour la première fois peut-être, exprime et fait partager l'expérience d'une ubiquité réelle. Voici comment les auteurs présentent ainsi leur oeuvre : "[...] En avançant ou en courant à des vitesses différentes, les animaux à quatre pattes réagissent à un champ gravitationnel simulé. Instinctivement, ils peuvent prévoir des prises sur le terrain, donnant ainsi l'impression d'être en équilibre dynamique. Des algorithmes de vol et de regroupement sont utilisés pour les modèles de flux des animaux en groupe. Tous les animaux gardent cependant un degré d'autonomie. Ils modifient leur déplacement selon l'environnement et évitent d'entrer en collision entre eux ou avec l'utilisateur de

l'environnement virtuel"[157]. Dès qu'on plonge son regard dans l'espace virtuel en collant nos yeux sur les lunettes du système BOOM[158], une curieuse impression de flottement nous saisit. L'espace est ténébreux, l'horizontalité est à peine marquée par la ligne d'horizon et le spectacte commence. Des chiens l'un après l'autre, des oiseaux en groupe font leur entrée en scène à travers des portes, venant de l'arrière-monde virtuel. Cavalcade volatile, étrange ballet aérien qui mène ces animaux vers d'autres portes par lesquelles ils disparaissent. Bientôt d'autres les remplacent. Mais l'interface de réalité virtuelle va nous projeter dans le spectacle. Sitôt esquissé un déplacement dans l'espace, on s'aperçoit que les animaux ressentent cette intrusion et s'écartent, s'enfuient ou accélèrent leur course. La dimension sonore accentue l'effet de présence. Les émissions sonores émanent de sources spatialisées, synchronisées selon les mouvements relatifs de l'observateur et des personnages de l'environnement virtuel. Notre existence dans leur univers n'est plus fictive, organisée par des mouvements psychologiques projectifs et imaginaires, comme au cinéma. Elle devient aussi pragmatique, s'exprimant par la perception des effets concrets de nos propres déplacements. Mais surtout s'inaugure ici un dédoublement de présence absolument inédit. On est simultanément et effectivement présent dans la scène et hors de la scène, spect-acteur et non pas témoin, transporté corporellement par le truchement des actions effectuées : zoom, panorama, inclinaison, modifications d'angles d'observations avec à chaque fois la perception des incidences de ces gestes. L'extrême simplicité de la scénographie et le minimalisme figuratif favorisent puissamment cet effet de déplacement spatio-temporel. La perception d'une quasivie installée dans la scène, à la fois indépendante et sensible aux perturbations que provoque notre présence, densifie encore l'ubiquité. Cette pluri-présence spatiale se traduit par un trouble temporel qu'on peut rapprocher de la présentation directe du temps, d'une situation où l'image virtuelle s'ajustant aux mouvements sensori-moteurs (c'est là une différence notable avec "l'image cristal" cinématographique, fondée, elle, sur leur dissociation) déstabilise d'autant plus les repères temporels : le départ vers l'environnement simulé et le retour au corps du spect-acteur ne rime plus avec avant et après. Le souvenir immédiat du présent coagule avec le présent lui-même parce que ce présent à la forme d'une expérience corporelle. La durée de l'expérience (activer une interface n'est jamais un acte instantané) disparaît dans la perception continue de ses effets. Allers et retours permanents, le franchissement continuel de la barrière représentative du spectacte annule la distance qui sépare la perception présente du souvenir. Fondu dans l'enchaînement de l'un avec l'autre, le temps -dont on se rappelle que Bergson affirmait que sa formule consistait à se dédoubler pour faire passer le présent et conserver le passé- ne conserve qu'un passé provisoire, toujours en passe d'être remplacé par d'autres investigations pratiques. L'expérience de l'image actée, à la différence de l'expérience cinématographique, consomme naturellement la durée parce qu'elle entrelace la vision et l'action. Elle rend plus improbable l'oubli de soi caractéristique de toute présence dans un récit. Si bien que, lorsque cet oubli survient, et c'est surtout affaire de sensibilité et d'intelligence scénographique -comme dans Ménagerie- il cristallise d'autant plus fortement le trouble présentiel ; Deleuze dirait peut-être l'échec de la reconnaissance. Le plus petit circuit temporel joignant départ et retour se relie alors avec le plus grand dédoublement entre présence corporelle externe et présence virtuelle interne au spectacte. Ce dédoublement devient alors une co-présence et non pas une présence alternative extérieur/intérieur. On se situe aux deux pôles simultanément, et, à ce moment, la dissociation impossible nous confronte au sentiment de suspension du temps. [82] Je renvoie à des ouvrages déjà publiés tels que Les chemins du virtuel, Centre Georges Pompidou, Flammarion, Paris, 1989 ou "Sous les vagues, la plage" in Paysages virtuels, Dis-Voir, Paris, 1988.

[83] On différencie ainsi l'image actée à la fois des images de synthèse calculées et affichées sur support stable (papier, film, etc.), et des images enregistrées, numérisées et traitées à des fins scientifiques ou esthétiques. [84] L'image-temps, Les Éditions de Minuit, 1985. [85] Gilles Deleuze, op. cit., p. 366. [86] Gilles Deleuze, loc. cit. [87] Gilles Deleuze, L'image-mouvement, Les Éditions de Minuit, Paris, 1983, p. 278. [88] Maurice Merleau-Ponty, particulièrement dans L'oeil et l'esprit, mais aussi dans Le visible et l'invisible, invente un cadre d'interprétation de la vision à la fois comme interaction des perceptions (et notamment avec le toucher) mais aussi comme présence à distance. Ainsi nous conseille-t-il de "prendre à la lettre ce que nous enseigne la vision : que par elle nous touchons le soleil, les étoiles" (Maurice Merleau-Ponty, L'oeil et l'esprit, Gallimard, Paris, 1964, pp. 70/71). Et aussi : "la peinture réveille...un délire qui est la vision elle-même, puisque voir c'est avoir à distance" (op. cit., p. 26/27). On comprend pourquoi j'ai placé ces citations en exergue de ce livre. [89] Voir "Virtualités réelles : une phénoménologie appliquée", in Chimères, n°16, été 1992, pp. 35/46. [90] Ce lien fondamental entre technologie et perception, -et plus précisément cet effet retour des technologie sur la perception- est à la source des travaux les plus stimulants de Walter Benjamin puis de Marshall McLuhan, qui, les premiers, ont montré que les technologies ne sont pas simplement des instruments de production mais qu'elles façonnent nos sens. [91] Gilles Deleuze, L'image-temps, op. cit., p. 365. [92] Henri Bergson, Matière et mémoire, P.U.F., 1985. [93] Henri Bergson, op. cit., p. 121. [94] Henri Bergson, loc. cit. [95] Henri Bergson, Op. cit., p. 122. [96] Henri Bergson, op. cit., p. 112. [97] Henri Bergson, op. cit., p. 117. [98] Henri Bergson, op. cit., p. 114. [99] Henri Bergson, op. cit., p. 115. [100] Henri Bergson, op. cit., p. 115.

[101] Henri Bergson, op. cit., p. 116. [102] L'expérience corporelle, actuelle et sédimentée, est à la source du schéma bergsonien, non seulement de la perception mais aussi de l'imagination. Rappelons, par exemple, le rejet, pour ce philosophe, aussi bien de l'idée d'une autonomie absolue de l'esprit, comme de celle qui consiste à faire "des processus imaginatifs autant d'effets mécaniques de la perception présente " ou symétriquement, de "l'hypothèse d'un cerveau où pourraient se déposer, sommeiller et se réveiller des états intellectuels" ( Henri Bergson, op. cit. p. 117). [103] Gilles Deleuze, L'image-temps, op. cit., p. 356. [104] Gilles Deleuze, L'image-temps, op. cit., p. 93. [105] Gilles Deleuze, L'image-temps, op. cit.,, p. 93. [106] Gilles Deleuze, L'image-temps, op. cit., p. 94. [107] Gilles Deleuze, L'actuel et le virtuel in Dialogues, Champs, Flammarion, Paris, 1996 [108] Gilles Deleuze, L'actuel et le virtuel, op. cit., p. 183/184. [109] Gilles Deleuze, Logique du sens, Les Éditions de minuit, Paris, 1969. [110] Gilles Deleuze, op. cit., p. 189. [111] Voir pp. 179/186. [112] Gilles Deleuze, op. cit., p. 187. [113] Gilles Deleuze, loc. cit. [114] Gilles Deleuze, op. cit., p. 188. [115] Voir "Sous les vagues, la plage" in Paysages virtuels, op. cit. [116]Voir les descriptions p. 116, par exemple. [117] Pour une discussion sur les modalités de mixage des images analogiques et numériques et sur les régimes temporels inédits qui en découlent, voir notre article "Images hybrides : virtualité et indicialité", in Image & média, sous la direction de Bernard Darras, MEI n°7, L'Harmattan, Paris, 1998. [118] Gilles Deleuze, L'actuel et le virtuel, in Dialogues, Champs, Flammarion, Paris 1996, p. 180. [119] La note 5, p. 184 fait allusion aux notions d'objet et d'image virtuels de l'optique. Remarquons cependant, que dans l'optique géométrique, les notions d'objet et d'image sont définies en fonction de la perception visuelle humaine : là où les rayons convergent se trouve l'objet et il est réel si cette convergence se produit devant le miroir, virtuel derrière. Les concepts fondamentaux sont "réel" et "virtuel" (et non pas actuel et virtuel).

[120] Gilles Deleuze, L'actuel et le virtuel, in Dialogues, Champs, Flammarion, Paris 1996, p. 184. [121] Gilles Deleuze, L'image-mouvement, Éd. de Minuit, Paris, 1983, p. 92/93. [122] Gilles Deleuze, loc. cit. [123] Cette réalisation a été présentée au festival Vidéoformes à Clermont-Ferrand en 1994. [124] L'oeil et l'esprit, op. cit., p. 19. [125] Gilles Deleuze, Claire Parnet, Dialogues, Champs, Flammarion, Paris 1996, p. 12. [126] Nietzsche, Schopenhauer éducateur, cité par Gilles Deleuze, loc. cit. [127] Les exemples abondent d'oeuvres dont la formule consiste à installer des cadres scénographiques où des créatures du calcul, mues par des programmes génétiques, développent, avec la coopération des spect-actants, des formes de "vie artificielle". Certes ces oeuvres explorent le plus souvent la situation morphogénétique elle-même sans être dupes de leur production. Mais les commentaires qui les accompagnent ne souligne que rarement cette différence. On rappelle des exemples déjà cités, tels que la littérature génétique de JeanPierre Balpe ou dans le domaine de l'image calculée, les productions morphogénétiques de Karl Sims simulant "l'évolution darwinienne" de strates générationnelles d'images (installation présentée à la Revue virtuelle, Centre Georges Pompidou en mars 1993). [128] J'emprunte cette double caractérisation (noématique et haptique) à Jean Clément, qui l'applique aux hypertextes, dans une perspective assez similaire. [129] Voir l'indispensable livre de Gérard Simon sur la question : Le regard, l'être et l'apparence dans l'Optique de l'Antiquité, Le Seuil, Paris, 1988. [130] Gilles Deleuze, op. cit., p. 106. [131] Gilles Deleuze, op. cit., p. 107. [132] Gilles Deleuze, op. cit., p. 75. [133] Gilles Deleuze, loc. cit. [134] Gilles Deleuze, op. cit., p. 171. [135] Gilles Deleuze, loc. cit. (Borges, Fictions, <<Le jardin aux sentiers qui bifurquent>>, Gallimard, p. 130) [136] Gilles Deleuze, op. cit., p. 171, note 5. [137] Dans la littérature "classique" aussi, ces perturbations de la linéarité sont fréquentes. Je renvoie aux deux articles déjà cités au chapitre V de Christèle Couleau, "Balzac interactif ou la virtualisation du sens" et de Jocelyn Maixent, "Diderot, Kundera et les romans virtuels : le

récit des mondes possibles" in La voix du regard - Aux frontières du virtuel, n° 10, E.N.S. de Fontenay/Saint-Cloud, mars 1997. [138] Gilles Deleuze, op. cit., p. 292. [139] Gilles Deleuze, loc. cit. [140] Gilles Deleuze, op. cit., p. 293. [141] Voir la note 5 p. 294, sur Balazs. [142] Gilles Deleuze, op. cit., p. 294. [143] Gilles Deleuze, loc. cit. [144] Nous avons décrit le projet DIVE au Chapitre I en mettant en perspective des horizons inédits qu'il ouvre. Le risque existe, bien sur, d'un surcodage conventionnel des comportements de nos avatars virtuels. Mais ce risque n'est pas congénital. Ce qui nous intéresse ici, ce n'est pas l'appréciation des qualités esthétiques ou dramatiques des scénographies d'images actées aujourd'hui proposées (jeux vidéo, récits interactifs, visite de musée par CD-Rom, circulation dans les sites du Web). Ce que nous visons c'est l'élaboration des concepts appropriés pour les apprécier. [145] Gilles Deleuze, op. cit., p. 347. [146] Gilles Deleuze, op. cit., p. 353. [147] Gilles Deleuze, op. cit., p. 343. Dans cette partie finale du livre, il affirme que le cinéma n'est pas une langue, ni universelle, ni primitive, ni même un langage, mais qu'il "met à jour une matière intelligible, qui est comme un présupposé, une condition...à travers lequel le langage construit ses propres <<objets>>", p. 342. [148] Gilles Deleuze, op. cit., p. 343. [149] Gilles Deleuze, op. cit., p. 344. [150] Gilles Deleuze, op. cit., p. 114. [151] Gilles Deleuze, op. cit., p. 345. [152] Gilles Deleuze, op. cit., p. 346. [153] Gilles Deleuze, op. cit., p. 163. [154] Deleuze mentionne aussi, à propos de L'année dernière à Marienbad, le commentaire de Sylvette Baudrot : le film "est entièrement composé de faux raccords..." note 2, p. 168 [155] Gilles Deleuze, op. cit., p. 170.

[156] OEuvre en Réalité Virtuelle présentée notamment à la Revue Virtuelle, Centre Georges Pompidou, décembre 1992. [157] Revue Virtuelle, Carnet n°4, Centre Georges Pompidou, 1992. [158] Le dispositif BOOM (pour Binocular Omni-Orientation Monitor) a été mis au point par la société américaine Fake Space Labs. Il se présente comme une paire de jumelles offrant une vision stéréoscopique interactive dans des environnements générés par ordinateur grâce à une optique grand angle et deux petits écrans cathodiques couplés dans les viseurs. Des manettes et des boutons permettent d'orienter le point de vue, d'effectuer des zooms et des panoramas.

Table des matières

Chapitre VII Les paradoxes de la téléinformatique
Une société de l'immatérialité et de la vitesse : cette apparente constatation m'apparaît être une hypothèse discutable. Ce chapitre montrera en quoi. La réflexion proposée se donne pour objectif d'examiner les incidences culturelles des technologies intellectuelles actuelles basées sur la programmatique (disponibilité et diffusion de programmes informatiques) et la Téléprésence, que nous regroupons sous le vocable de téléinformatique. Dans cette voie, nous nous confrontons à la notion même de culture, dont toute tentative de définition met en abîme les concepts qu'elle mobilise. Nous nous en tiendrons donc au sens commun qui considère la culture comme l'ensemble des connaissances, croyances, représentations et pratiques qui structurent "l'être ensemble" d'une société. Nous espérons que la suite du propos contribuera à poursuivre une définition de la culture dans ses rapports aux télé- technologies. Si l'on considère que l'effet majeur d'une technologie intellectuelle inédite est d'instituer, d'ouvrir une nouvelle manière d'accomplir certaines activités et de résoudre des problèmes, alors on comprend que son extension est une conquête, une colonisation mentale, à la différence près qu'il ne saurait y avoir de décolonisation. Il n'y a pas de possibilité de "désalphabétisation" ni de "dé-numérisation". Affirmer l'universalisme des télé- technologies procède précisément de cette observation. Précisons qu'il s'agit là d'un tout autre débat que celui qui concerne le caractère occidental de la raison, ou l'unicité de la logique. Avec les technologies intellectuelles, nous ne nous confrontons pas à une matière formelle ou axiomatique, mais à des pratiques culturelles collectives, à l'incubation de paradigmes, à l'intériorisation d'horizons qui façonnent notre être au monde. Si nous nous arrêtions à cette affirmation, nous renforcerions la doctrine de l'efficacité culturelle unilatérale (c'est-à-dire se déployant sans contradictions) des technologies intellectuelles en général et, aujourd'hui, de la téléinformatique en particulier. Nous tenterons de montrer, a contrario, que ce postulat d'efficacité unilatérale doit être discuté. On trouve, par exemple, dans l'ethnométhodologie une approche qui tranche avec les logiques techno-centristes. Elle insiste, en effet, sur la manière dont les acteurs plient le matériel cognitif qui leur est offert à leurs jeux d'intérêts, à leurs mythes, à leur monde affectif et construisent ainsi leur éco-système culturel et technique. Cette thèse a souvent été invoquée, par exemple, à propos de la télévision pour rendre compte des multiples modalités à travers lesquelles des récits identiques sont interprétés par des cultures locales. Une étude a montré, par exemple, comment la réception du même feuilleton, Dallas, dans plusieurs pays du Tiersmonde, se moule selon des filtres locaux. La nocivité ou la bienfaisance des différents personnages s'apprécient différemment selon les structures familiales dominantes[159]. (Mais la télévision est- elle, à proprement parler, une technologie intellectuelle) ? Pour l'ethnométhodologie, la question du caractère structurant des technologies intellectuelles ne se pose pas ; on dira, par méthode. Focalisant son attention sur la manière dont les acteurs construisent socialement leur réalité, elle ne peut -ni ne veut- présupposer la manifestation "d'universaux", et notamment technologiques. Mais c'est justement cette éviction, "par

méthode", de la question de l'universalisme technique qui résout le problème avant de l'avoir posé. Mais revenons à la téléinformatique. Principale technologie intellectuelle contemporaine, elle transcenderait les cultures, non pas parce qu'elle serait porteuse d'une rationalité supérieure, celle du calcul, mais parce qu'elle diffuse un milieu indissolublement matériel et intellectuel dans lequel se construisent à la fois les questions et les réponses. On en déduit donc une transformation directe des cadres perceptif et cognitif, transformation qui s'imprimerait unilatéralement sur les visions du monde et dans les rapports sociaux. On s'accorde ainsi à considérer que la diffusion du livre imprimé engendre une culture de l'organisation hiérarchique, de la spatialisation planaire, du repérage, du résumé ; culture qui se fonde sur des programmes de mémorisation tels que catalogage, méta-mémorisation par la réalisation d'index, de fichiers documentaires. De même la diffusion de l'hypermédiation, de la programmatique (organisation des activités sociales par programmes informatiques) inscrirait, toujours selon la thèse énoncée, des conceptions du monde univoques sous les auspices de discours convenus annonçant la catastrophe d'un temps mondial, l'assomption de la vitesse, la victoire du "temps réel" ou, à l'inverse, la suprématie du savoir comme nouvel espace anthropologique laissant entrevoir la fin de toute transcendance sous les horizons radieux d'un cyber-communisme. (On aura reconnu les positions diamétralement opposées de Paul Virilio et de Pierre Lévy). Les propositions qui tendent à nous persuader que nous sommes entrés dans une culture de l'immatériel, de la vitesse et de l'instantanéité abondent. Elles nous assurent à la fois de l'efficacité majeure des technologies intellectuelles dans le paysage culturel et de sa propension à s'imposer comme logique transcendant les diversités culturelles. Elles en appellent à des sentiments partagés qui reposent sur un jeu de renvois entre des évidences incontestables et leur surévaluation. Que la visée "dromologique" (logique de l'accélération, pour reprendre le néologisme de Paul Virilio) orientent nombre d'activités relationnelles, productives, logistiques, éducatives, etc., cela, bien sûr, ne saurait être négligé. Mais que ces observations soient érigées en quasi-théorèmes qui régleraient le devenir de notre monde, relève plus d'une certitude de principe -ou au mieux de hâtives généralisations- que d'observations soucieuses de la pluralité des logiques en cours. La plupart des pensées du changement provoqué par la téléinformatique ne font que rééditer, en les prolongeant mécaniquement, les effets des bouleversements technologiques antérieurs. On découvre que l'auteur individuel est un sous-produit de la culture du livre. Qu'à cela ne tienne, on annonce que la culture du réseau provoquera sa disparition. L'idée selon laquelle l'écriture et le livre organisent une temporalité de la différance (au sens où Jacques Derrida a constitué ce concept) fait désormais partie de notre héritage culturel. On affirme donc que les réseaux numériques y substituent le règne du temps réel. Ainsi procède la mécanique quasi mystique du bouleversement culturel adossée au constat de l'accélération techno-scientifique. Nous souhaitons inquiéter ces considérations qui semblent faire consensus et attirer l'attention sur la difficulté de déduire des technologies intellectuelles contemporaines, un modèle culturel univoque. Nous creusons l'hypothèse qu'avec ces technologies, se diffuse non pas une culture, ou des logiques culturelles, mais une méta-culture avec des incidences contradictoires enclenchant des dynamiques moins lisibles qu'il n'y paraît de prime abord. Tisser le nouveau avec, et non pas contre, l'ancien, faire resurgir au coeur des conjectures actuelles d'anciens principes qu'on a pu croire obsolètes, telle est l'observation commune qui réunit les différents parcours

proposés. Bref, par-delà la problématique des résistances, suivre les contradictions constitutives des nouveaux paysages culturels en émergence. Nous tenterons de faire apparaître ces incidences contradictoires, manifestant une distorsion de la problématique des effets culturels, et cela selon six interrogations principales : - Les réseaux : une disparition de l'inscription territoriale ? - Internet : l'évanouissement des intermédiaires dans l'espace public ? - Le contexte de l'hypermédiation : une éclipse de la séquentialité ? - La retraite de l'auteur ? - La représentation de l'espace : réglage individuel des trajets et nouvelle formule panoptique, - Le régime temporel des télé-technologies : accélération et ralentissement. A - Réseaux et présence à distance : une disparition de l'inscription territoriale ? Le transport de la présence à distance -l'un des principaux paradigmes qui justement orientent les cultures contemporaines et pour lesquels l'informatique crée simultanément l'offre et les moyens de la satisfaire- interroge le rapport au territoire. Toutes les cultures modernes sont, à des titres divers, imprégnées de cette tendance technique universelle fondamentale, même si les déclinaisons locales prolifèrent. L'informatique, on l'a vu, a radicalisé cette tentative, comme jamais aucun autre projet ne l'avait fait auparavant. (Les premières expériences de calcul à distance précèdent même l'invention, stricto sensu, de l'ordinateur). Rappelons d'abord quelques attendus déjà discutés. On doit considérer le mouvement d'augmentation tendancielle du coefficient charnel dans le transport de la présence comme relevant de technologies intellectuelles, car il opère essentiellement sur et par des signes. Le transfert de la présence opère bien entendu sur cette matière sémiotique : lettres acheminées, voie télé-portée, image télé- transmise, corps modélisés et transférés dans la téléprésence contemporaine. La génération actuelle de réseaux (perfectionnement d'Internet dans la voie de la réalité virtuelle, dialogue par avatar corporéisé, etc.) concrétise cette orientation fondamentale. Or l'appréciation de ce mouvement tend à considérer que le transfert des signes de la présence équivaut -ou équivaudra dans de brefs délais, avec les réseaux larges bandes et autres perfectionnements à venir- à la duplication de la présence, niant par là même l'opération de transport qui deviendrait ainsi totalement transparente aux acteurs. D'où l'idée que la localisation géographique, la territorialisation tendrait à devenir archaïque sous les feux croisés de la mondialisation et de l'efficacité croissante des télé-technologies. Lorsqu'on examine les premiers effets des réseaux comme Internet, on en déduit que la croissance du transport de la présence se traduit par une déterritorialisation conçue comme mise entre parenthèses du territoire, voire comme sa négation. Une attention plus mobile permet de faire l'hypothèse que, loin de dissoudre l'importance de la localisation, les réseaux ne font que l'accroître. Par exemple, les communautés qui voient leurs liens les plus affectés par Internet sont des collectifs de proximité territoriale. Les communautés scientifiques, thématiques par nature, étaient déjà reliées par d'autres canaux (documents postés, courrier, colloques, etc.). En revanche, on peut faire l'hypothèse, vérifiée par quelques observations[160] que des collectifs territoriaux trouvent dans Internet un moyen de renforcer

leurs liens, d'augmenter l'intensité et la fréquence de leurs rencontres de visu. À travers une localisation dans l'espace informationnel, on renforce donc souvent, et paradoxalement, l'importance de la localisation géographique. Par ailleurs, signalons à nouveau, qu'à Paris, les entreprises du Web se regroupent aujourd'hui dans le même quartier -le Sentier- et que les activités boursières, éminemment consommatrices de réseaux, se localisent géographiquement, sur toute la planète, dans les quartiers d'affaires des grandes villes. Faire de la présence à distance son métier exige et engendre des communautés fondées sur la proximité géographique ; et ceci, plus que toute autre activité, peut-être. Le développement des systèmes cartographiques informatisés, du repérage spatial et de la communication mobile permettent de conforter ces premières hypothèses. Systèmes d'Information Géographique et spatialisation de l'information Les Systèmes d'Information Géographique (S.I.G.) participent d'une recomposition du rapport au territoire. De la carte de France, plein écran, aux villes de Caen, Auxerre ou Avallon, l'exploration s'accomplit sans discontinuité, par concentration et agrandissement de la zone choisie. Mais, outre la fonction de visualisation territoriale, l'exploration géographique ajoute une présentation de données thématiques, souvent à caractère commercial (connaître les ventes de journaux rues par rues, savoir où habitent les plus fidèles clients d'un supermarché, par exemple). Ces systèmes couplés à des capteurs de trafic[161], ou à des dispositifs de localisation de véhicules par satellites géostationnaires (comme le fameux G.P.S.) permettent d'organiser et de visualiser l'évolution temporelle d'une situation : planifier l'intervention des Canadairs lors d'incendies, traiter les demandes d'itinéraires, ceci en attendant la généralisation des calculs individualisés d'itinéraires à bord des véhicules. Bref, les Systèmes d'Information Géographique sont "géostratégiques". Ils croisent l'information cartographique avec l'analyse de données stratégiques (économiques, militaires, écologiques, etc.). C'est précisément l'intensification de l'alliage entre la topographie traditionnelle, matérialisée par la carte et le traitement d'information abstraites non spatiales (économiques, sociologiques, historiques) qui est remarquable. N'oublions pas que la carte traditionnelle concentre déjà en une seule figure, une pluralité de couches sémantiques permettant de commuter les cheminements du regard, d'acquérir une plus-value informationnelle, de faire travailler l'inscription pour qu'elle exsude plus de connaissances que celles qui y ont été déposées[162]. Le succès remporté par ces systèmes de spatialisation informatique des informations s'explique non seulement par la possibilité de mobiliser dans une seule surface de vastes corpus cartographiques, mais surtout par leur capacité à automatiser cette extraction du surplus informationnel en multipliant les strates d'images d'un territoire, en comparant par le calcul les différents parcours ou en fournissant au consultant des outils paramétrables d'interrogation. Dès lors, on pourrait penser que le territoire a été colonisé par l'univers informationnel, qu'il se manifesterait, donc, comme simple substrat, nourriture de base alimentant l'espace informationnel qui tendrait à l'oblitérer. Plutôt que de suivre cette voie -celle du recouvrement du territoire par la carte- il me semble plus intéressant de mettre l'accent sur la reterritorialisation des informations, d'interpréter la croissance des S.I.G. comme l'indice d'une force qui pousse vers la spatialisation de l'information (et tout particulièrement pour la consultation d'informations qui n'ont pas d'attaches spécifiques avec le territoire, comme certaines données commerciales apparaissant visuellement sous forme de zones colorées). De

cette inscription territoriale, on espère qu'elle ajoute quelque chose aux informations produites : la saisie d'un détail moléculaire significatif, la manifestation de causes dissimulées que la vision spatiale révélerait, la perception directe des grandes tendances qui orientent un paysage de données. Mais au fait, quels types d'informations ne se prêtent-elles pas à une vision spatiale ? Assez peu échappent à cette injonction territoriale notamment dans les domaines commerciaux, militaires, médiatiques, logistiques en général. Où a lieu un événement ? La réponse est rarement indifférente. Mais ce qu'ajoute ce type de vision, c'est la puissance de traitement informatique : par exemple, dans quelles rues habitent les lecteurs d'un journal, à bas salaires et qui achètent leur quotidien tôt le matin ? L'exploitation numérique de la carte ne relève plus seulement de la spatialisation de l'information (un cercle étendu pour une grande ville, un trait large et bicolore pour une autoroute). Radicalisant les calculs analogiques qu'autorisaient déjà les cartes imprimées (repérer l'importance de la proximité du littoral dans la répartition mondiale des grandes villes, par exemple), les S.I.G. composent directement des paysages informationnels à plusieurs dimensions. Le regard n'accomplit plus, comme sur les cartes traditionnelles, l'équivalent d'un cheminement réel, il déchiffre ces paysages et découvre un hybride territoire/espace informationnel abstrait. L'activité scopique et la saisie de l'espace se trouvent redéfinies par ces appareillages. Nous en proposerons quelques enjeux ultérieurement, car, ici, c'est la question de la localisation qui nous retient. La cartographie du territoire réel et la localisation géographique se combinent à l'abstraction du traitement informationnel. Le territoire n'a donc pas disparu sous la poussée des réseaux informationnels. La localisation ne perd pas sa puissance. Elle s'exprime aujourd'hui à travers le traitement synthétique informatisé qui devient un organe de saisie et d'organisation géostratégique, une forme de relevés topo-informationnels, un révélateur carto-sémantique. Mobilité et localisation Le développement de la communication mobile a pris le relais des simulateurs de présence...ou d'absence que sont les répondeurs/enregistreurs téléphoniques, lesquels luttent déjà contre la coupure temporelle du flux communicationnel[163]. À l'heure des constellations satellitaires ceinturant la planète, pouvoir joindre quelqu'un en tout lieu et à tout moment augmente paradoxalement, sous un autre angle, l'assignation territoriale. D'ailleurs, les appels commencent, presque toujours, par une identification spatiale : "Je me trouve au Luxembourg, et..." Les premières études effectuées sur les technologies mobiles mettent l'accent sur le renforcement du contrôle spatial qu'elles induisent, notamment dans l'univers professionnel. Ces recherches raffinent la notion de localisation, dépassant l'opposition présent/absent. Ainsi dans son étude sur les technologies mobiles, Dominique Carré insiste sur deux figures de la mobilité : l'ubiquité et l'omniprésence : "Alors que l'ubiquité met l'accent sur la coïncidence entre déplacement et communication (l'utilisateur communique pendant son déplacement, précision ajoutée), l'omniprésence au contraire occulte le déplacement et permet au télé-communicant de continuer ses activités communicantes quand il est dans d'autres lieux que son travail habituel"[164]. "Ubiquité" n'est pas synonyme de mobilité, mais désigne au sens strict, le partage simultané de plusieurs lieux. C'est par assimilation de la continuité temporelle du lien communicationnel à une pluri-localisation instantanée, qu'on peut parler d'ubiquité à propos de la communication

mobile. Ce qui en dit long sur l'insistance avec laquelle l'affiliation au réseau persiste à situer, non plus dans un espace strictement territorial, mais dans un hybride territoire/réseau communicationnel. Par ailleurs, même si "l'omniprésence" permet de s'affranchir de la localisation unique, on peut considérer qu'elle accroche les lieux de labeur aux épaules du travailleur nomade, multipliant ainsi les localisations possibles. Tout en pointant une incontestable relativisation de la localisation spatiale, ces notions d'ubiquité et d'omniprésence signalent, en creux, la persistance d'une préoccupation territoriale. Le préfixe "télé" (à distance) indiquerait une liaison paradoxale -téléphonique, télé-textuelle, télévisuelle- où l'importance de la situation spatiale est majorée parce qu'elle est niée, comme ces victoires qui, une fois remportées, permettent aux vainqueurs de s'approprier les valeurs des vaincus. L'affiliation au réseau vaut localisation dans un espace à la fois non géographique et territorial. Les systèmes de positionnement satellitaire (tel G.P.S.) le montrent bien, qui s'émancipent de la géographie physique tout en assurant la localisation. Cependant, avec l'affichage de la localisation, la carte géographique reprend ses droits, combinant ainsi espace physique et espace informationnel. En ce sens, le réseau surplombe le territoire sans l'assujettir. Entre proximité et éloignement Le réseau ne dissoudrait donc pas la notion de lieu, mais il la retravaillerait en mêlant uniprésence physique et pluri-présence médiatisée. D'ailleurs une description fine des rapports entre l'ici et l'ailleurs ne devrait que rarement opposer présence et absence. Elle mériterait d'être attentive aux multiples strates qui jalonnent les liens entre participants à un même réseau : échange épistolaire entre chercheurs partageant les mêmes locaux, entre Internautes se rencontrant épisodiquement, préparation d'une réunion par télé-relations, etc. Jacques Perriault, dans son étude sur la formation à distance, le montre bien. À propos des dispositifs de formation actuels qui intègrent les nouvelles techniques de communication, il écrit : "Contrairement à ce qui a été fait dans le passé, ces systèmes n'opposent plus présence et distance, mais intègrent les deux. Tout se passe comme si un processus d'hybridation était en train de se développer"[165]. Le spécialiste de l'enseignement à distance souligne, à plusieurs reprises et notamment à propos des réseaux d'échanges de savoir, l'importance des formules mixtes associant communications à distance et rencontres collectives[166]. Les étudiants, en présence d'un tuteur, utilisent, en groupe, les techniques de communications telles que messageries, fax, téléphone pour se former à leur usage sur des études de cas. La communication à distance est ainsi préparée et ponctuée par des exercices collectifs en proximité. Il s'agit là d'un des nombreux exemples où présence et télé-relation se combinent[167]. De même, l'expérimentation des mediaspaces (espace de travail commun entre des collectifs à distance, mobilisant éditeurs partagés, visiophonie, équipements vidéos des locaux, notamment) concerne tout autant des équipes séparées par l'Atlantique[168] que des communautés de travail occupant les bureaux d'un même laboratoire, par exemple. Dans un cas comme dans l'autre il s'agit bien d'effacer les séparations pour créer un espace collectif unique muni, bien sûr, de fonctions séparatrices réglables (protection, disponibilité, etc.). La tentative de rapprocher le lointain s'étend à la réorganisation du proche dans le même mouvement qui a rendu évident l'usage local de la communication à distance (courrier interne, réseau téléphonique et messagerie locaux, etc.). La notion de glocalisation a justement été forgée pour désigner l'usage local d'un média "global". Elle rend compte d'un des multiples agencements possibles entre le partage de l'iciet- maintenant et la pure télé-relation. Plus radicalement encore et aux antipodes du "village

global", le concept de "ville numérique" tend à désigner un moteur de recherche sur Internet repérant les prestataires de services situés à proximité géographique du demandeur (syndicats d'initiative, mairies, commerces, presse locale, météo locale, trafic local, etc.)[169]. La terminologie utilisée sur Internet (site, salle, salon...) n'a sans doute pas qu'une valeur métaphorique. Elle indique que le marquage de la nature de l'espace désigné (public, privé, intime) demeure une condition sociale de repérage des acteurs engagés dans l'échange à distance. Au terme de ces mixages, ce sont les concepts de proximité, de localisation, de territoire qui sont redéfinis, et non annihilés, par les nouvelles mises en relation du proche et du lointain. La présence cesserait totalement d'être territoriale si le transfert à distance devenait duplication de la présence et si la proximité pouvait, de ce fait, se jouer totalement des confrontations corporelles. On en est bien loin. B - Internet : l'évanouissement des intermédiaires dans l'espace public ? L'une des sources où Internet puise son dynamisme est, nous l'avons déjà mentionné dans le chapitre consacré à l'auto-médiation sur Internet, le désir d'une communication transparente où les acteurs maîtrisent à la fois l'information et le média qui la fait circuler. Un exemple parmi cent autres : présentant le site Parthénia, dans une émission de télévision[170], Mgr Gaillot explique ce qu'il apprécie dans Internet:"[...] c'est le réseau horizontal qui se tisse, sans passer par les pouvoirs, sans passer par les hiérarchies". Faire de chaque acteur aussi bien un récepteur qu'un émetteur : en ce sens le réseau des réseaux est bien une réaction au principe des massmedia. Il témoigne, dès sa prise main par les chercheurs américains dans les années soixante-dix, d'une volonté de se rendre "maître et possesseur" d'un appareil communicationnel, contre l'état et ses tendances naturelles à l'inquisition, aussi bien qu'en opposition aux entreprises et institutions qui souhaitent privatiser la communication sociale. Tisser le réseau par coopération, progressivement à partir des acteurs, en faire une construction collective, organiser sa croissance, toutes ces dispositions, rappelons-le affirment un modèle institutionnel ascendant, immanent ayant pour finalité son auto-développement. "La connectivité est sa propre récompense" affirme A. Rutkowski, directeur exécutif de l'Internet Society en 1995[171]. Connecter entre eux tous les ordinateurs du monde apparaît comme un projet social où se dessine la figure d'une transparence informationnelle, d'une communication immanente supprimant les intermédiaires spécialisés (éditeurs, groupe de presse, institution de l'audiovisuel). Cependant, dans la sphère de la communication interindividuelle et collective, on constate déjà l'émergence de procédures qui expriment les normes relationnelles élaborées par les collectifs sur le réseau. Citons l'établissement de protocoles spécifiques de participation à des groupes de discussion (tel que, pour les novices, l'obligation de consulter les Frequently Asked Questions), le rôle dévolu aux animateurs de ces groupes, ou encore les codes de comportements (comme la fameuse netétiquette, code de bonne conduite sur le réseau), etc. Rappelons les observations déjà mentionnées dans le chapitre III : ces contraintes sociales témoignent du surgissement de fonctions médiatrices suscitées par l'usage du réseau alors même qu'il s'agissait d'en affaiblir les pressions. Par ailleurs, et plus fondamentalement, l'objectif de suppression des intermédiaires se transforme, de par son propre mouvement, en création d'une nouvelle couche de mécanismes médiateurs automatisant la médiation. Le caractère auto-gouverné (cybernétique[172], au sens littéral "d'auto-commandement", ce qui n'est plus vraiment son sens usuel) de cette médiation, centré sur l'Internaute, résonne avec la valorisation de l'individualisme dans la sphère

communicationnelle. En témoigne la vogue des logiciels de personnalisation de l'information. (Nommés aussi Webcasting, ces logiciels recueillent les thématiques sélectionnées par l'abonné, recherchent les informations et les assemblent en de véritables journaux parfaitement individualisés). La croissance explosive du réseau (des milliers de banques de données, de revues, de journaux accessibles) a progressivement rendu impossible le projet initial d'une information transparente et d'une communication im-médiate. L'extension des fonds documentaires, le nombre d'ordinateurs connectés et les facultés de navigations hypermédiatiques ont rendu encore plus nettement incontournables les questions de l'aisance de la recherche, de l'évaluation, et de la pertinence de l'information. L'accès direct s'est estompé au profit d'agencements plus complexes. Des instruments extérieurs -transcendants ?- s'interposent désormais entre l'Internaute et l'immense marée informationnelle en crue permanente, afin d'assurer la recherche et l'évaluation des informations acquises. Les robots-chercheurs symbolisent nettement, on l'a vu, l'apparition d'une médiation automatisée, tirant profit des caractéristiques de l'informatique pour, en position de survol, sonder les milliers de sites, de banques de données et en extraire les denrées recherchées. Cette auto-médiation a induit, dans un mouvement itératif naturel, la mise en service de méta-robots qui sélectionnent les robots les plus adaptés à prendre en charge une requête. L'auto-médiation -déjà contenue en germe dans les pratiques de consultations de corpus imprimés (index, fichiers documentaires, etc.)représente, certes, un rapport social qui se distingue nettement des formes professionnelles classiques de la médiation (éditeur, presse,...). Mais elle dénature le projet d'une relation directe, limpide avec des corpus d'informations. On peut d'ailleurs penser que la disponibilité de ces instruments va accroître l'importance des idées directrices qui forment l'horizon de sens de toute recherche d'informations, et ceci à l'encontre de ce que suggère la métaphore du surf souverain et opportuniste sur l'océan informationnel. Qu'il s'agisse donc de la sphère interpersonnelle (bilatérale et de groupe) ou bien de la communication automatisée, la fonction médiatrice se renouvelle plus qu'elle ne disparaît, tout en s'inscrivant dans le cadre général d'une visée à l'élargissement des espaces d'autonomie individuels et collectifs. Si le projet initial consistait à promouvoir une relation directe de tous avec tous, ce qui se profile institue à nouveau, autour de l'auto-médiation, une fonction séparatrice singulière et prometteuse. C - L'univers de l'hypermédiation : une éclipse de la séquentialité ? On définira, ici, la séquentialité (ou la linéarité) comme une structure d'appropriation fondée sur la succession d'expression orales ou écrites, de figures, de sons, d'images contraintes par un support. Ces expressions relèvent d'une spatialisation (comme dans l'écriture alphabétique basée sur la ligne ou l'imprimé organisé en pages numérotées) ou d'une linéarité temporelle comme dans le flux cinématographique, radiophonique ou télévisuel... et dans le langage, ce qui n'est pas le moindre des enjeux. La séquentialité s'oppose à la présentation parallèle d'un ensemble d'informations telle que la page d'un quotidien -contenant simultanément plusieurs articles de poids éditorial équivalent ou inégal- en donne un premier exemple et les conversations d'une réception mondaine, un autre. Séquentialité rime avec ordre univoque, continuité, linéarité, accès par exploration systématique du support (comme sur une bande vidéo) et s'oppose à parallélisme, simultanéité, accès direct (comme sur un disque numérique).

Cette structure séquentielle serait, à première vue, bousculée par l'hypermédiation (parcours chaîné de d'informations sur le Web par hyperliens, consultation interactive de CD-Rom, etc.). Nous souhaitons montrer que la structure linéaire n'est peut-être pas si obsolète qu'on le dit souvent et que les modalités de fréquentation des corpus numérisés soulignent assez distinctement les qualités qu'elle véhicule, surtout lorsque ces qualités se combinent à la puissance des outils de recherche issus de l'informatique documentaire. On en déduira que les formes contemporaines d'organisation et de présentation des connaissances, décuplant la puissance des dispositifs de circulation dans les corpus, se doivent d'articuler -et non d'éliminer- les mérites propres de la séquentialité avec ceux de l'hypermédiation. Nous envisagerons cette question sur trois axes : - la circulation hypermédiatique, - l'inscription de la pensée dans ses rapports avec l'ingénierie numérique, - la réception des récits interactifs. Séquentialité, circulation hypermédiatique et décontextualisation Les gains cognitifs liés à l'exposition hypertextuelle de connaissances sont fréquemment rapportés à l'économie de contextualisation qu'elle permettrait. L'écriture hypertextuelle effacerait l'obligation de contextualiser l'information présentée parce que ce contexte serait toujours déjà présent dans les liens mobilisables. La mise en ligne par les réseaux numériques de la connaissance produite (banques et bases de données, édition électronique de revues scientifiques, de journaux, sites d'information de toute nature, etc.) réaliserait l'idéal encyclopédique d'une totalisation de la connaissance passée, augmentée d'une actualisation quasi instantanée. Nombre d'analyses contemporaines[173] insistent sur la décontextualisation ainsi obtenue par omniprésence du contexte qui ne requerrait plus une délimitation ferme entre un énoncé et les références qui lui sont connexes. La continuité référentielle découlerait des liens hypermédiatiques reliant chaque item à tous les autres sur la "toile". Mais quel intérêt présente une activation continue des multiples liens qui rapprochent des thématiques dont les rapports, au bout de trois ou quatre générations de sélection de liens, deviennent opaques ? Suivre tous les liens est, bien sûr, impossible. Finalement, le lecteur pondérera les chemins suivis, retrouvant la nécessaire sélection, plus ou moins volontaire, qui est à la base de toute construction cognitive. L'idée d'une décontextualisation totalement explicitée et que l'on pourrait s'approprier complètement rabat la question du contexte sur la pure matérialité de son inscription. Elle ignore le volet subjectif, intentionnel et non intentionnel, de toute circulation dans un ensemble de connaissance. Bernard Stiegler aborde, lui aussi, la question de la contextualisation, mais à partir des médias fondés sur le flux instantané : "Les objets temporels industriels (les produits des industries de programmes : radio et télévision principalement) dans la simultanéité et la mondialité de leur réception, tendent à suspendre toute contextualité. L'industrialisation de la mémoire accomplit la décontextualisation généralisée"[174]. Ses analyses procèdent par comparaison avec des problèmes similaires engendrés par la pratique de l'écriture. On sait que la décontextualisation provoquée par l'écriture entraîne une recontextualisation des interprétations par la lecture. Cette structure en deux temps, différant le moment de la réception, est bouleversée par l'instantanéité des télécommunications modernes. Mais doit-on dénier, pour autant, toute

composante herméneutique à la réception des flux médiatiques sous prétexte que le destinataire ne peut plier le déroulement temporel du flux à son interprétation ? Négligeant le fait que toute réception, y compris celle d'une émission de télévision opère aussi par tri, pondération, rétention sélective, Bernard Stiegler a tendance à projeter la délocalisation de l'émission sur le destinataire ("...une rythmique quasi-intégralement délocalisée, provenant, par les réseaux de télécommunications, d'un ailleurs anonyme, satellitaire, sans ici ni maintenant..."[175]) comme si la réception n'était pas aussi une activité dans laquelle est impliquée le tout de l'histoire d'un sujet et des communautés qui le constituent. Et surtout, le contexte actuel de la crise de confiance, dont on s'est déjà expliqué, majore fortement cette activité, oeuvrant à l'encontre d'un couplage mécanique du récepteur avec l'industrie télévisuelle normalisée. À la figure du grand tout, totalement et librement offert des prosélytes du réseau, Bernard Stiegler oppose, dans le champ de la télévision, celle du grand "autre", tyrannique et prescripteur. Bien sûr, il laisse entendre, à raison, que les "idiotextes" en cours d'émergence (textes, hypertextes, hypermédias conçus et décryptés selon des situations singulières, locales) possèdent une dynamique relocalisante, recontextualisante, hétérogène à celle des produits de la culture de flux. On suivra ici Bernard Stiegler, en considérant que la réception de la connaissance hypermédiatique -qui consiste à métaboliser le traitement de l'information pour en s'en fabriquer de nouvelles connaissances- relève d'un nouveau régime de construction de la croyance, marqué par l'expérimentabilité, et dont nous avons tenté précédemment de situer les enjeux. La numérisation hypermédiatique peut, formellement, contester la linéarité d'un récit, d'une explication, d'une circulation dans un ensemble d'informations. Mais la circulation hypermédiatique par liens associatifs va probablement renforcer le caractère stratégique de l'énonciation séquentielle, parce que le choix d'une succession, l'élection d'un chemin unique enchaînant des idées et constituant une démonstration, va revêtir un caractère "luxueux", en rapport avec l'affirmation d'un regard, d'un point de vue, qui donne sens à la multitude des propositions qu'offre un hypermédia, selon toutes les combinaisons possibles[176]. Ces affirmations reposent sur l'un des enseignements à forte teneur heuristique issus de la problématique des technologies intellectuelles. Leur capacité à augmenter des connaissances ne procède jamais par une libération des contraintes qui président à leur inscription. Bien au contraire, c'est dans un travail contraint indexé sur ces inscriptions que gît leur vertu d'accroissement cognitif. C'est parce que Mendeleïev classe spatialement les éléments chimiques selon deux critères, et deux seulement, qu'il peut prévoir l'existence d'éléments non encore découverts. La force des contraintes, la concision de l'expression est dans un rapport direct avec la puissance d'élucidation obtenue. La séquentialité, sous cet angle, est une figure imposée, expressive en tant que telle. Ce texte, par exemple, pourrait fort bien être présenté sous forme d'ensembles d'énoncés reliés par des liens hypertextuels. L'effort du rédacteur s'en serait trouvé notablement allégé. Il n'est pas sûr, en revanche, que le lecteur y gagnerait en compréhension des idées développées et de leur articulation. Les écrire les unes après les autres -et l'ordre adopté n'est jamais le seul possible- transcrit un choix d'enchaînement ainsi que des pondérations qui expriment le sens, pour l'auteur comme pour le destinataire, des propos présentés. Pour le lecteur, s'affranchir de ces contraintes de séquentialité au profit d'une circulation/vagabondage dans des ensembles corrélés d'informations n'est pas une garantie d'augmentation cognitive, si tant est que l'intérêt d'une recherche dépend de la consistance des orientations qui y préside. La tentation permanente que représente la possibilité d'activer des liens hypertextuels, obligent d'ailleurs les concepteurs de sites à imaginer des procédés destinés à capter le consultant afin qu'il ne quitte pas le site en cliquant sur la première zone colorée venue. La

parade consiste, par exemple, à supprimer la possibilité de cliquer immédiatement sur un lien et à hiérarchiser les liens en ne donnant que les adresses électroniques non cliquables de certains sites jugés d'intérêts secondaires. Le zapping hypermédiatique est une affection que les producteurs de sites doivent combattre comme leurs homologues à la télévision. Il est vrai qu'une lecture est aussi une recherche et que les orientations qui guident cette recherche peuvent, bien sûr, être modifiées par les cheminements empruntés. Mais, pour conserver leur productivité intellectuelle, ces orientations doivent, sinon préexister formellement, du moins procéder d'une interrogation préalable et se construire dans l'exploration. Sinon une lecture devient un vagabondage sans principe. Chaque passage dans un site se réduit à une commutation vers un autre et "surfer" dans des sites et des banques de données devient assez rapidement compulsif ou ennuyeux. Une cartographie intensive des chemins de navigation Afin d'offrir des outils intellectuels synthétisant les explorations de grands corpus de connaissances, de nombreuses recherches portent sur la visualisation tridimensionnelle de "paysages de données". À Montréal, des chercheurs ont mis au point une interface qui, par "copier/coller" permet d'associer à une requête, une portion du graphe de circulation dans des sites Web, afin de la renouveler automatiquement. Au Medialab du M.I.T. à Boston, c'est une interface de visualisation du Web en réalité virtuelle qui est étudiée. WW Movie Map présente des informations organisées sous forme de "paysages de données" : Galaxy of News pour la presse, Financial View Point pour la finance, Geo Space pour la géographie. Toujours dans le Massachusetts, mais à l'Institut de la visualisation et de la recherche sur la perception de l'Université Lowell, R. Pickett développe des programmes d'appréhension sensorielle de grands gisements de données, qu'il invite à parcourir en utilisant à la fois l'ouïe, la vue et le toucher (grâce à des interfaces à retour d'efforts qui permettent de ressentir physiquement des objets virtuels)[177]. L'idée centrale est d'appliquer à de grandes quantités d'informations brutes des procédures qui les organisent pour elles-mêmes et de constituer ainsi automatiquement des systèmes d'interprétation qui préparent la reconnaissance et l'exploration humaine. Exploitant des capacités humaines, telles que celles qui nous permettent de reconnaître facilement une personne, ces chercheurs préconisent de transformer, par exemple, des ensembles de données en visages afin qu'on puisse facilement les identifier et les regrouper en familles. D'autres recherches, relatives au séquençage du génome, visent à traduire en musiques spécifiques certaines séquences d'images d'acides aminés. Le système CAVE, développé à l'Université de l'Illinois, affiche, dans un environnement de réalité virtuelle, des images de données avec lesquelles on peut interagir. D'autres outils, de facture plus simple, expriment aussi avantageusement la richesse de ces médias. Se fait jour, en particulier, la nécessité de cataloguer les liens en précisant leur degré d'intérêt et surtout la nature de l'association dont ils sont porteurs. Un site -ou une information- peut, en effet être associé à un autre selon une multitude de relations (caractère exemplaire ou au contraire généralisation, connexité faible ou forte, etc.). Celui qui consulte ces informations gagnerait à se voir préciser le type d'associativité mobilisé. Certains langages hypertextuels le permettent, notamment par l'ouverture de fenêtres associées au lien. Il serait très productif aussi -en conception de sites comme en navigation- de pouvoir graduer l'intensité du lien reliant une connaissance à une autre, une image à une autre, etc. L'objectif consiste à faire sentir, dans le graphe ou la carte d'un ensemble hypermédia, les chemins structurants, les colonnes vertébrales essentielles. On devrait pouvoir tester différents systèmes de catalogage des liens hypertextuels. Des cartographies d'ensembles d'informations

feraient alors apparaître, non pas des items massivement interconnectés, mais des autoroutes, des nationales et des chemins vicinaux reflétant la vision subjective des concepteurs. Ces possibilités commencent à se concrétiser sur le Web[178]. Par de multiples canaux, la séquentialité qu'on a cru pouvoir chasser par la porte fait retour par la fenêtre. L'inscription des chemins suivis de site en site par la mobilisation de liens hypermédiatiques, en est un témoignage. La "traçabilité", ainsi que l'on nomme cette mémorisation, reconduit une forme de séquentialité sécrétée au coeur même de l'hypermédiation, puisqu'elle manifeste l'intérêt reconnu à conserver une trace de passage dans le foisonnement des sites parcourus. Bien entendu, à la différence d'autres supports (pages numérotées de livre ou bande vidéo, par exemple), cette linéarité est éminemment subjective, puisqu'elle inscrit la succession des choix propres à un parcours et disparaîtra ensuite, sauf action volontaire visant à la conserver. Ce marquage automatique ne sera vraiment exploité que si une orientation directrice préalable fonde le cheminement. Sinon, la trace inscrite n'aura d'autre fonction que de témoigner du papillonnage effectué. La vogue récente des "anneaux" -groupements thématiques par affinité de sites dans lesquels on passe nécessairement d'un site à son successeur dans la chaîne bouclée[179]- est sans doute aussi à verser au dossier de la résurgence de la linéarité. De la même manière, l'intérêt d'une ligne directrice se fait particulièrement jour dans le cadre des consultations "savantes" sur Internet. S'y exprime le désir de pouvoir bénéficier d'une visite commentée par un spécialiste, des sites qu'il a sélectionnés, décrits, hiérarchisés et dont il a précisé les relations avec la thématique centrale. Prolongement de la bibliographie commentée, ce type de site devient, pour certains domaines, d'une urgente nécessité. On découvre, à nouveau, dans le contexte de l'hypermédiation, la pertinence d'un méta-parcours séquentiel. Apparaissent, ainsi, de nouveaux alliages entre linéarité et hypermédiation qui renforceront probablement les deux qualités, sans substituer la deuxième à la première. Fondamentalement il s'agit de résumer, de compacter, d'exprimer les structures organisatrices d'un champ de connaissances dans un schéma qu'on peut saisir par le regard. En effet, il ne faudrait pas penser cette question de la linéarité de manière régressive, en la rabattant, par nostalgie, sur la culture de l'imprimé, transformant celle-ci en horizon indépassable. Bien qu'épousant en apparence l'écoulement fléché de la temporalité, la linéarité n'est en rien "naturelle", comme en témoigne l'intense parallélisme de nos activités mentales, y compris intellectuelles. Et c'est précisément cette "artificialité" qui doit être exploitée comme contrainte heuristique. La question de la séquentialité est intimement liée à celle de la causalité : "après" sous-entend souvent "par conséquence". Le caractère fondamental de la linéarité tient au rapport entre la structure temporellement fléchée de notre perception et la malléabilité temporelle de nos mises en scène mentales individuelles et collectives. Sous cet angle, la linéarité est une force de rappel, trop souvent ignorée dans l'enthousiasme hypermédiatique actuel. Comme contrainte, elle assure une tension productive entre ces deux structures. Si l'on prétend l'ignorer, cette tension disparaît et sa productivité avec elle. La carte, par exemple, est, apparemment, l'autre du guidage linéaire. Elle se consulte par saisie globale, parallèle, simultanée. Mais exploiter une carte, c'est aussi se construire des chemins, pratiquer des enchaînements de cause à effet, y compris si cette exploration s'opère à travers une saisie multi-sensorielle et s'ouvre à une multiplicité de séquences linéaires. Les outils cognitifs qui offrent des traductions cartographiques intensives par traitements automatiques répondent, à leur manière, aux exigences de causalités locales et générales tout en respectant la pluralité des inférences possibles.

Dans le domaine de la recherche documentaire sur de vastes corpus, Alain Lelu assure qu'on ne saurait se contenter d'interfaces de navigation définie une fois pour toutes, comme sur les CD- Roms, et qu'il sera donc indispensable "que l'utilisateur final puisse maîtriser l'appel aux diverses ressources, qu'il pourra paramétrer à sa guise ; il en ira ainsi de l'appel à des outils d'indexation automatique ou assistés, de la possibilité de sélectionner certains sous-ensembles de documents et de termes en fonction de divers critères..."[180]. Il insiste tout particulièrement sur le fait que la navigation à travers des corpus textuels étendus exige de cartographier ceux-ci en offrant à la fois une vue d'ensemble ainsi que des cartes locales. Les outils d'analyse automatiques mis au point dans ce cadre (indexation et génération de mots-clés, cartographie) ont ceci d'original qu'ils appellent une intervention ultérieure de l'utilisateur pour éliminer ou filtrer certains résultats ou encore ajouter facilement des documents sans remettre en cause l'analyse déjà effectuée. Le mode de navigation est ainsi réglé par l'utilisateur qui peut combiner requêtes booléennes classiques, calculs statistiques de proximité, calcul de cartographie sémantique selon les requêtes composées, etc. ; bref, un véritable arsenal d'outils d'ergonomie cognitive, destinés à compacter le corpus documentaire selon plusieurs modèles possibles. Une inscription directe, non-langagière, de la pensée ? L'utilisation des outils intellectuels contemporains (modélisation numérique, cartographie dynamique, expertise assistée par ordinateur, etc.) nourrit l'espoir d'une représentation des situations et de la résolution de problèmes qui nous émanciperaient des contraintes propres à la séquentialité. Pierre Lévy, par exemple, théorise des propositions qui exploiteraient ces modalités cognitives. Ainsi souhaite-t-il éviter la littéralisation et la rationalisation des problèmes en leur substituant un décalque charnel de l'univers concerné qui le modéliserait automatiquement, sans devoir l'interpréter[181]. Par la suite, il écrira : "Le problème de l'intelligence collective est de découvrir ou d'inventer un au-delà de l'écriture, un au-delà du langage tel que le traitement de l'information soit partout distribué et partout coordonné..."[182]. D'où le projet d'une transmission infra-langagière transcendant les cultures nées de l'écriture et promettant un paradis communicationnel sans codes ni règles. Marshall McLuhan traçait déjà, à partir des caractéristiques de l'électricité, des perspectives similaires : "La technologie électrique n'a pas besoin de mots, pas plus que l'ordinateur numérique n'a besoin de nombres. L'électricité ouvre la voie à une extension du processus même de la conscience, à une échelle mondiale, et sans verbalisation aucune..."[183]. Pourtant l'organisation et la présentation de connaissances dans des environnements multimédias nécessitent bel et bien l'appropriation d'ensemble de savoirs syntaxiques dont on peut citer quelques linéaments : nouvelle grammaire des hyperdocuments (comme les langages de programmation H.T.M.L. ou V.R.M.L. sur Internet), engrammation de spatialisations à plusieurs dimensions, et surtout pratique des programmes quasi réflexifs. Le projet d'un saut par-dessus la phase langagière, scripturale de la pensée (quel que soit le degré de spécialisation de l'écriture), pour accéder à une phase idéographique post-langagière prétendant dépasser l'obstacle alphabético-centriste grâce aux possibilités ouvertes par l'automatisation de la gestion des inscriptions numériques, méconnaît la nature de la pensée. En effet, celle-ci se forme grâce aux pressions qu'elle subit pour s'extérioriser, s'écrire ou... s'hypertextualiser. Viser le sens indépendamment de sa transcription, c'est pointer vers une idéalité intangible[184]. Les cadres actuels d'élaboration, de stockage et de transmission de la

pensée ne semblent nullement délivrés des pesanteurs de l'extériorisation dont les phases orales ou scripturaires traduisent des violences spécifiques... et productrices. Les technologies intellectuelles contemporaines initient d'autres types de violences, métabolisant sans les renier celles des phases antérieures, contraintes à tisser du sens avec et contre l'instantanéité, avec et contre la simultanéité, avec et contre l'hypertextualité. Et l'on pourrait ajouter : contre et avec la linéarité. Linéarité et réception des récits interactifs L'interactivité transforme le spectateur en spect-acteur et autorise l'intervention sur le déroulement des récits. Certes, la subjectivité des concepteurs s'exprime dans les cadres narratifs interactifs. Mais elle s'exprime plus difficilement que dans les formes séquentiellessi l'on conçoit que chacun des multiples parcours doit être porteur de significations ou d'émotions particulières- et plus indirectement, si le spect-acteur doit appréhender les qualités singulières des moteurs narratifs à la source des différentes propositions qu'il actualise. Mais la narration interactive n'a pas fait disparaître le récit séquentiel de l'horizon de nos désirs, et ceci pour des raisons fondamentales qui tiennent à ce que le récit séquentiel, explicitant les choix subjectifs d'un montage textuel ou cinématographique arrêté, manifeste clairement une intentionnalité, une altérité constituée. C'est pour cette raison que la forme narrative linéaire ne s'effondrera pas sous la pression de l'hypermédiation, même si elle en accueille l'influence. Elle exprime le désir qu'on nous raconte des histoires et non pas qu'on se les raconte soimême en enchaînant des libres choix agencés par des machines narratives. La culture hypertextuelle, ou hypermédiatique, ne dépasse pas l'ère alphabétique, elle la radicalise. De la même manière que, sous l'angle de la conservation, la culture du livre ne dépasse pas celle de l'écriture, mais la radicalise en réalisant les promesses qu'elle ne faisait que murmurer (le voeu d'une inscription définitive, voeu que seule la multiplication à l'identique de l'imprimé viendra exaucer). D - La retraite de l'auteur et l'amour des génériques La culture des réseaux rend-elle obsolète le statut de l'auteur individuel ? On sait que la notion d'auteur individuel et le souci de l'attribution personnelle des oeuvres (écrites ou picturales) prennent leur essor à l'ère de l'imprimerie[185]. On a vu comment, élargissant cette démarche, des courants de l'épistémologie contemporaine ont mis en lumière l'importance de la mobilisation de réseaux sociaux dans l'élaboration des connaissances nouvelles (l'étude, par Bruno Latour, de la découverte du vaccin par Pasteur est un modèle du genre). On rappelle, que dans cette perspective, l'auteur, le découvreur devient un noeud singulier par lequel passent des groupes sociaux ; il se réduit à une interface entre des réseaux, au mieux un agent capable de potentialiser la rencontre de lignages hétérogènes. Réactualisant une forme de pensée structuraliste (le locuteur prête ses lèvres au langage, ici l'inventeur prête son cerveau et ses instruments aux réseaux socio-techniques), ces courants s'en séparent cependant dans la mesure où ils n'ont pas recours à des structures universelles qui "surdétermineraient" les acteurs. Dans la "sociologie de la science", l'idée des grandes Idées fait place à l'étude des bricolages astucieux et des manipulations rusées qui permettent de contrôler et d'enrôler d'autres réseaux d'acteurs. L'acteur lui-même perd son individualité anthropologique. Il devient un élément composite, un alliage humain/non-humain mêlant des personnes, des stratégies de prélèvements sur la "nature" et des systèmes techniques.

Une vue superficielle pourrait laisser croire, qu'à travers les réseaux, l'auteur singulier disparaît au profit d'agencements collectifs qui seraient devenus la seule source productrice des connaissances[186]. Nous avons déjà discuté la validité de cette assertion. Qu'il faille prendre la mesure du caractère culturellement et techniquement distribué de toute création (artistique, scientifique, etc.), on ne le contestera évidemment pas. En revanche, doit-on tenir pour argent comptant l'idée que les télé-technologies annihilent le sujet créateur sous sa forme personnelle ? Ces vues -qui font signe (de manière nostalgique ?) vers l'époque classique où l'auteur, vu comme sujet individuel, n'a pas d'espace propre- font de la création un processus d'émergence absolument collectif. À l'ère des réseaux et de la complexification des alliages numériques façonnant notre outillage intellectuel, le sujet individuel me semble devenir, a contrario, un point de passage stratégique, plus nettement même qu'à l'époque de l'imprimerie triomphante ou de l'audiovisuel conquérant. La profusion des sources de production d'informations et la densification -hypermédiatique, notamment- des relations entre ces corpus majore l'importance du moment de la synthèse individuelle, du jugement subjectif personnel, de la production d'idées réorganisatrices originales. Que ce moment soit pris et produit dans un chaînage techno-culturel, on l'accordera sans peine. Que les maillages actuels des réseaux densifient ces chaînages comme jamais auparavant et qu'ils mobilisent l'automaticité des programmes informatiques à un degré inédit, on ne saurait trop le souligner. Mais diagnostiquer, pour autant, la disparition de l'auteur, c'est aller bien vite en besogne. Il n'est que de constater à quel point notre époque est amoureuse des génériques -et en particulier dans le multimédia- pour s'en convaincre. Dans le moindre CD-Rom, dès qu'un site sur le Web semble relever de la création artistique, personne ne doit être oublié (comme dans l'audiovisuel). L'importance croissante de la signature des articles scientifiques -de la hiérarchie des signatures, plus exactement- ainsi que le développement des logiques citationnelles (comptage du nombre de citations faites à un auteur dans les publications d'un domaine) abondent dans le même sens. (Certains logiciels sur Internet s'attachent même à débusquer les renvois systématiques d'ascenseurs pour éviter que des légitimités s'établissent sur le dénombrement automatique des références). Parallèlement à la systématisation de la coopération productive, plutôt qu'un évanouissement, c'est bien une hypertrophie de la signature qui se propage. Le contexte de l'hypermédiation devrait plutôt inciter à penser un concept d'auteur en collectif (et non d'auteur collectif) qui dépasse la dénégation de l'individualité au profit d'un renforcement parallèle des deux pôles. E - Panoptisme et réglage individuel des trajets Corrélativement à l'expansion des technologies de l'image, nos représentations de l'espace sont en mutation. De nouvelles formules de visibilité se découvrent, mues par de puissants mouvements inséparablement culturels et techniques qui, par exemple, transforment la cartographie, valorisent le réglage des échelles de vision et confèrent un nouveau statut au détail. S'y expriment aussi des confrontations originales entre individualisation et collectivisation du regard. Comment interpréter ces figures visuelles, non plus sous l'angle des rapports entre territoire et inscription, mais comme représentation de l'espace ? S'agit-il d'une abdication de tout dessein panoptique par prolifération des vues ? À moins que l'on y décèle une revanche d'un panoptisme d'auto-contrôle, sous les auspices d'une dissolution de toute expérience collective au profit d'une perception purement individuelle de l'espace. Après avoir décrit quelques propositions particulièrement exemplaires des nouvelles scènes spatiales en construction, nous montrerons que, sur ce terrain aussi, des régimes inédits combinent unicité

collective et définition subjective individuelle des représentations spatiales. On verra donc comment la fragmentation et l'individualisation autorisent le maintien d'un nouveau genre de point de vue panoptique global. Échelles de vision et libres ballades urbaines Face à un écran géant, on tient la terre entière sous sa main, grâce à une manette de commande. La planète numérisée offre chacun de ses continents à une descente (aux enfers ?) par un zoom continu (ou presque, car les cartes qui correspondent aux différents niveaux de vision se raccordent avec un certain temps de latence). Le dispositif T-Vision[187] se rapproche progressivement d'une carte régionale, puis locale, enfin d'une vue aérienne (issue d'images satellitaires mapées sur ces cartes), dans laquelle on pénètre jusqu'à apercevoir des détails tels que des immeubles, des carrefours et des rues. Les Systèmes d'Informations Géographiques mettent en oeuvre les mêmes procédés. Par zooms ou agrandissements d'une rue, d'un quartier, d'une ville, on circule, en continuité, du plan local à la carte de France. Comme dans le film Les puissances de dix, la plongée dans l'image ressemble plus à un survol, depuis l'espace, et à un atterrissage qu'à la saisie d'un panorama. L'effet de simulation réside ici dans l'irréalité d'un franchissement accéléré des échelles de vision, depuis l'observation à partir d'un satellite jusqu'à la focalisation rapprochée. Il ne s'agit pas seulement de l'hétérogénéité des échelles. À cela, les dispositifs optiques nous avaient déjà habitué. Ici, en revanche, le lissage est continu entre ce que le regard humain peut saisir (une rue, une place) et ce qui exige un artifice technique (voir simultanément la rue et le plan de la ville ou contempler la terre depuis l'espace, par exemple). L'élision de la frontière entre ces deux types de saisie dessine un espace lisse et partout disponible, ouvert à tous les trajets visuels, à l'image de la métaphore de la "toile", enserrant le globe dans ses mailles en constante densification. Une fois que toutes les données cartographiques et topographiques terrestres seront réunies et stockées dans la mémoire de la machine -ce qui est loin d'être le cas- le mythe panoptique sera-t-il réalisé ? Le CD-Rom "Paris"[188] poursuit, à l'échelle d'une ville le même type de projet. Ici, on se ballade dans Paris ; sorte de flânerie urbaine sur écran, avec des fonctions de déplacement et de vision assez évoluées, prenant comme modèle la libre déambulation dans un espace urbain. Cette déambulation est assistée par les fonctions propres au visionnage numérique (déplacement sur plan, signalétique surimprimée par des flèches, fenêtres d'informations sur les sites, monuments, etc.). Face au plan de la ville, le promeneur choisit son point de départ : le pont Neuf, par exemple. À chaque carrefour, le flâneur peut choisir sa direction. Rotation d'un tour sur soi-même pour découvrir le panorama, zoom avant dans la direction indiquée par une flèche, la visite se poursuit selon ses inclinations. D'où la promesse de cette réalisation : un déplacement, par zoom, en un infini plan-séquence qui nous amènerait, à partir d'un site, en tous points de l'espace visible. Mais est-il possible de s'engouffrer dans une ruelle entr'aperçue au détour d'une promenade, ou d'entrer dans l'échoppe, là juste à droite ? Fameux désir de transcrire l'infinie profondeur de la réalité dans un média nécessairement fini. Car les capacités de stockage limitées du CDRom ne permettent pas d'emmagasiner toutes les rues de Paris. Et la génération des DVDRom, reculant les limites, ne parviendra pas plus à capturer toutes les cours d'immeubles avec leurs recoins, tous les escaliers et tous les intérieurs d'appartements. Un système mondial omniprésent de Webcams, d'une densité aussi serrée qu'on voudra n'y suffirait pas plus. On comprend qu'il ne s'agit pas là d'une limitation de l'espace- mémoire des supports ni de la

quantité d'équipements de transmission télécommandés nécessaire, mais de l'impossibilité constitutive d'envisager l'explosion fractale des curiosités potentielles : curiosités qui se révèlent, non pas en tant que projets préalables à l'exploration, mais dans son cours même. Faire reculer sans cesse les contraintes qui enserrent nos déplacements, augmenter sans répit nos latitudes exploratoires, nourrit parallèlement notre insatisfaction face à des promesses qui, se voulant approcher la vraie vie, nous font miroiter toujours plus de libertés. La frustration en est d'autant plus vive ; ce faisant, elle devient un moteur pour relancer une quête que l'on sait sans fin. "Place" ou l'intérieur et l'extérieur en court-circuit Avec Place-A User's Manual[189], l'artiste Jeffrey Shaw renouvelle, avec les moyens de l'imagerie interactive, le genre "diorama" et imagine ainsi une nouvelle formule panoptique. Placé sur une plate-forme, au centre d'un cylindre, le visiteur manipule une caméra-interface qui fait tourner la plate-forme motorisée. Sa rotation délimite une portion de l'écran circulaire, toujours en face de lui. L'image projetée représente une série de cylindres (une dizaine en tout) sur lesquels des panoramas (numérisés à partir de photographies prises avec de très grands angles), eux-mêmes circulaires, sont affichés[190]. La caméra-interface permet de contrôler le déplacement, deux boutons commandant les zooms dans les panoramas. Arrivé très près du cylindre, une rupture se produit et on se retrouve à l'intérieur du panorama circulaire, découvrant le paysage sur la surface englobante du cylindre devenu enceinte. Mais en arrière-fond, derrière le paysage affiché, se dessinent les autres cylindres aperçus précédemment. Un autre zoom et l'on franchit à nouveau la surface pour retrouver le paysage panoramique initial des cylindres. L'exploration librement interactive de l'univers virtuel englobant prend la forme d'un franchissement permanent de la frontière entre intérieur et extérieur des cylindres. La scène cylindrique princeps (celle d'où le visiteur déclenche l'exploration), qu'on pourrait nommer le lieu réel de la visite, se redouble dans la forme cylindrique des lieux visités. Lesquels sont parcourus, selon notre choix, par leur surface externe ou interne. Vision d'un espace paradoxal où l'intérieur contient l'extérieur et où l'extérieur s'affiche à l'intérieur. Cet espace courbe se dérobe au contrôle panoramique (indissolublement visuel et moteur), non pas dans le point de fuite de l'espace perspectiviste, mais parce que les notions de proximité et d'éloignement, de successions hiérarchisées de plans, d'avant et d'après sont confondues, inversées, mises en abîme dans ce qui n'est plus une visite mais une circulation où chaque paysage contient tous les autres, à l'infini. Mixte de labyrinthe (où l'on revient sur ses pas sans s'en apercevoir), de figure paradoxale à la Escher, l'exploration rappelle la circulation hypermédiatique sans fin, où les chemins liant des sites sont parcourus plusieurs fois à partir de sites différents, si bien que naît le sentiment de découvrir à l'infini de nouveaux paysages d'un même lieu, dans une même enceinte. Une forme fractale -la partie contient bien le tout- mais selon un schéma qui se reproduit à l'identique (alors que dans une fractale pure, les générations de formes sont de même complexité mais toutes différentes). Finitude des composants spatiaux et multiplicité des trajectoires, l'oeuvre de Jeffrey Shaw -parfaite réunion de monades leibniziennes- est homogène à l'espace de la circulation hypermédiatique dans les réseaux. "18 h 39" ou le panoptisme en surplomb Le CD-Rom "18h39" propose de consulter "un instant photographique" présenté sous forme d'un quadrillage en seize pavés, chacun d'eux se prêtant à des avancées possibles sur quatre niveaux de profondeurs[191]. Le spect-acteur s'aperçoit très vite que le photogramme de

départ est, en réalité, plus un sommaire multimédia qu'une surface opaque. Un sommaire et un instrument d'exploration tout à la fois, puisque que la photographie centrale contient les moyens de sa propre dissection. Le viseur photographique (ou celui de l'arme de précision) sert de pointeur et on peut, en effet, découvrir et actionner, à l'intérieur de l'image, des instruments de visionnage (dénommés "machine de vision" tels que panoramas, visionneuse de diapositive, séquences vidéo, plans de situation, cartes, etc.). La photographie apparaît alors comme une lucarne dont il est possible de déplacer les limites : repousser les bords, changer de point de vue pour découvrir ce qui se cache derrière un personnage ou un meuble, faire fonctionner un objet. Les limites temporelles sont, elles aussi, mobiles puisque certaines informations glanées au cours de l'exploration (films vidéo, par exemple) présentent des événements antérieurs. Le regardeur acquiert des indices relatifs aux événements qui ont abouti à la vue de départ : séquences vidéo, analyse spectrale d'objets, sonogrammes d'un tir de fusil, fiches signalétiques d'objets, analyse d'empreintes digitales, par exemple. Cumulant tous les formes d'archives (fiches documentaires, photographies, vidéos, simulation d'objets), l'explorateur raccorde certaines bribes et établit des chaînes associatives reliant événements, objets et personnages. Fouille archéologique, enquête policière, criminologie scientifique, les genres se mêlent pour tenter de comprendre ce qui s'est passé à 18 h 39 (1839 est, rappelons-le, l'année où la photographie fut inventée). Il n'y a pas de trame narrative, mais on s'aperçoit que des indices appartiennent à des familles de faits. D'où l'idée qu'une histoire se tient en arrière plan, laquelle orienterait la succession des signes mis à jour. Mais cette histoire n'existe pas. On peut -on ne manque pas de- s'en fabriquer une. (Même si ce n'est pas son objectif, cette proposition résout de manière astucieuse, la contradiction entre narration et interactivité. Pas d'histoire, mais des matériaux, des trames, des associations pour s'en fabriquer autant qu'on veut. Toutes sont valides et consistantes puisque c'est nous qui les imaginons, avec leurs incongruités éventuelles, et qu'aucune n'a été conçue en particulier. C'est, en creux, tout l'intérêt de la réalisation : montrer qu'un moteur narratif fonctionne toujours en nous). La scénographie d'ensemble combine astucieusement des plongées qu'on peut croire infinies dans des détails avec un retour régulier à l'image initiale. Si bien que le sentiment d'une réalité de complexité insondable, provoqué, en particulier, par la multiplication des niveaux d'analyses, ce sentiment est tempéré par le rappel constant à une représentation centrale. La grille matricielle en fil de fer, appliquée sur cette image symbolise assez bien l'alliance entre l'autonomie de chacune de ses parties d'une part, et le maintien d'un certain contrôle panoptique global, de l'autre. Mais, bien sûr, il s'agit là d'un panoptisme original qui nous confirme qu'une image dissimule autant qu'elle révèle. Un panoptisme distribué Nous avons volontairement choisi des champs d'activités hétérogènes (oeuvres artistiques et outils d'informations logistiques) pour questionner le statut de l'espace tel que les technologies numériques le modèlent et le présentent. Mais comment comprendre ces diverses propositions ? Quel cadre d'analyse permet d'en révéler les mouvements princeps ? On se souvient que Foucault symbolisait la société de surveillance par le panoptisme. Lequel supposait un centre unique de vision, lieu du pouvoir. Ici, le "tout visible" cher au projet panoptique est remplacé par une autre formule, le tout réglable, pénétrable, mais grâce aux décisions du regardeur. Et, surtout le centre panoptique est potentiellement démultiplié puisqu'il se confond avec la disponibilité du dispositif. Il est vrai que T-Vision reste un prototype nullement appelé à s'installer dans nos foyers. Mais d'autres équipements, notamment de guidage routier,

s'apprêtent, eux, à offrir largement leurs services. Ètudiés selon les mêmes principes, ils permettent, outre la localisation dynamique, de régler les échelles de vision. En revanche, l'unicité de l'espace -que symbolisaient les cartes imprimées - n'est plus une donnée évidente. Elle devient un horizon abstrait : la même Terre, la même ville mais qui se déforme selon les inclinations de chacun. Les trajets sont multiples, subjectifs, seul leur champ d'opération est maintenu commun (le globe, Paris ou une zone géographique). Au tout visible, à partir d'un lieu unique et surplombant, fait place un panoptisme collectif, truffé d'instruments de navigation à l'image de la possible commande par tout un chacun, via Internet, d'une photographie satellitaire de n'importe quel point du globe avec une précision digne des services de renseignements militaires[192]. Le panoptisme moderne est distribué. Ce n'est plus l'oeil du maître qui en est le siège, chacun peut s'y exercer. Mais, différence fondamentale, en sachant qu'une portion seule de l'espace lui est visible ; celle, finie, correspondant à ses trajets. On pourrait, à première vue, affirmer que le nouveau panoptisme qui s'invente illustre parfaitement l'omniprésence du réglage individuel des parcours. Mais alors pourquoi continuer à parler de "panoptisme" et ne pas y substituer la diffraction individuelle de l'observation ? Une telle interprétation ne rendrait pas compte d'un phénomène essentiel : l'obsession d'une saisie commune de l'espace, de son rassemblement dans une même vue techniquement organisée. L'interprétation orwellienne (le contrôle absolu par un regard anonyme et omniprésent), tout comme la perspective strictement individualiste, monadologique, ne semblent pas rendre compte des scénographies spatiales qui s'installent dans nos modernes fenêtres. Les Webcams[193] sur Internet, sortes de viseurs démultipliés par lesquels chacun peut voir ce qu'un autre a décidé de lui montrer, relèvent d'une exposition généralisée. Mais ces lucarnes ouvertes à qui veut bien s'y glisser délivrent une vue fragmentée de l'espace. Et l'exhibitionniste, même s'il autorise la manipulation, par l'Internaute, de la caméra, conserve le contrôle des champs de vision. La multiplication des Webcams fait signe vers une couverture instantanée complète des vues possibles sur la planète, une improbable saisie de toutes les images du monde où chacun met son regard à la disposition de tous. Cet exercice "d'omnidiffusion", est le pendant visuel de la conversation multipolaire, éclatée qui s'alimente sans cesse sur le réseau. "Vu sans savoir qui voit" (et non plus seulement "voir sans être vu") pourrait en résumer le fonctionnement ; idéal d'un panoptisme réparti en autant de volontés assurant la diffusion d'un morceau infime du grand puzzle non-totalisable. Paul Virilio, dans son article "OEil pour oeil, ou le krach des images"[194], interprète unilatéralement le développement des Webcams dans une perspective de contrôle généralisée. Les Webcams deviendraient "des régies vidéo des comportements", "postes de contrôle de la perception du monde". Le panoptisme est logiquement sollicité dans une version inquisitrice classique, avec le "marché du regard" ouvrant au "panoptique de télésurveillance généralisée". Mais ce diagnostic présuppose qu'un oeil unique est en position sommitale pour totaliser toutes les observations (et symétriquement qu'un corps unique produit toutes les exhibitions). Or c'est bien à l'opposé du rassemblement des points de vues qu'oeuvre la diffraction des téléregards par Webcams interposés. Et si l'on osait une prédiction socio-technique, il faudrait postuler l'émergence d'une industrie du rassemblement des images de Webcams, aujourd'hui indépendantes, à l'aide de puissants robots- chercheurs visuels organisant l'affichage gradué des visions du local, au régional puis au mondial, avec toutes sortes de focalisations spatiales,

thématiques, etc. La dialectique diffraction/réunion -autre manière de nommer la question du mode de collectivisation de l'expérience sociale- n'a probablement pas fini de nous étonner L'oeuvre de Jeffrey Shaw (Place) manifeste, elle aussi, l'impossibilité d'un point de vue unique dès lors qu'aucune position ne permet une véritable vision panoptique, impliquant le contrôle d'un espace devenu réversible. Sous les espèces de la fusion de l'intérieur et de l'extérieur, là aussi, l'obsession de la clôture de l'espace est évidente. Bien qu'on y voyage librement et indéfiniment, on ne sort pas du paysage. Tous les lieux de la Terre rassemblés dans une même base de données et liés continûment les uns aux autres, tous les sites d'une ville accessibles par les mêmes procédures, tous les réseaux fonctionnels d'une commune mémorisés sur un même support : comment ne pas y déceler la marque d'une inquiétude, celle d'une fuite des repères communs ? Mais aussi une réponse assez forte à cette inquiétude, sous la forme d'un compromis ingénieux maintenant le cadre collectif tout en organisant la dispersion des saisies et des trajets. F - Le régime temporel des télé-technologies : ralentir la communication Lorsqu'on diagnostique, comme Paul Virilio, l'assomption de l'instantanéité (l'arrivée précédant le départ) comme forme dominante régissant les espaces public et privé, n'érige-ton pas trop rapidement -c'est le cas de le dire- la vitesse en ordonnateur de civilisation ? Ne néglige-t-on pas une composante essentielle de la programmatique, poussant, malgré l'accélération de l'acte communicationnel lui-même, à ralentir le régime social de la communication. L'usage du concept de "temps réel" révèle, tout particulièrement, les doutes qu'on peut avoir sur ces diagnostics. Mûri, au cours des années cinquante dans les arcanes du M.I.T., à travers les recherches militaires d'automatisation de la couverture radar du territoire américain (le fameux programme SAGE), la notion de "temps réel" s'est socialisée dans l'univers de l'informatique des années soixante-dix lorsque la mise en oeuvre des programmes est devenue "conversationnelle". Cette désignation qualifie des applications (machines et logiciels) dont le temps de traitement est compatible avec le phénomène à contrôler (quelques secondes pour une billetterie automatique, quelques millièmes de secondes pour des dispositifs de sécurité dans les transports, par exemple). En caractérisant le régime temporel contemporain par ce concept de "temps réel", on identifie la quasi-instantanéité du calcul informatique avec les conditions d'usage des programmes. Or, si le traitement interne s'effectue bien en "temps réel", le traitement externe -qu'on nomme aussi interaction- épouse une toute autre logique, celle de la temporalité humaine de saisie, de questionnement, parfois de doute, de décision et finalement d'action. On fait trop souvent un usage décalé du concept de "temps réel". En fait, il exprime parfaitement le régime des télécommunications dès lors que la réception coïncide avec l'émission. Dans la communication de flux (radio, télévision), l'adéquation est parfaite. Sur un plan temporel -et non sémiotique ou affectif- la réception épouse l'écoulement linéaire de l'émission. (On pourrait d'ailleurs faire remonter la notion de temps réel au processus "indiciel" de la prise d'empreinte, avec la capture photographique de l'apparence, dès que les temps d'exposition eurent été réduits à la commutation de l'objectif). Avec l'installation massive des procédures informatiques, le régime temporel dominant s'infléchit à nouveau en redécouvrant des modalités de différance, d'espacement, d'attention propre au traitement de l'information, modalités qui exigent une durée et non pas une simple affiliation à un flux. Mise en oeuvre de logiciels de traitement de texte, exploration interactive de CD-Rom,

activation de jeux vidéo, navigation sur Internet, pour ne citer que quelques activités phares de l'ère du traitement de l'information : toutes pratiques qui nécessitent une série de choix, de réglages, de manipulation d'interfaces. Ces fréquentations se déroulent dans une durée qui n'est plus programmée par un flux indépendant des acteurs, mais qui dépend du jeu de l'interaction. L'automatisation (dont Gilbert Simondon nous a appris qu'elle ne simplifie pas les processus auxquels elle s'applique mais les complexifie) accélère le traitement de l'information mais ralentit son appropriation. La formalisation des savoirs dans des logiciels spécialisés a pour conséquence d'augmenter la longueur et la difficulté de leur mise en oeuvre. Du traitement de texte à l'usage d'un photocopieur, tout le monde a pu se convaincre que le perfectionnement des versions -rimant avec automatisation grandissante- était dangereusement chronophage. Survivance de la logique de l'enregistrement et parfaite expression de la télédiffusion (de textes, de sons et d'images), l'instantanéité ne caractérise plus le paradigme temporel qui émerge à l'ère du traitement de l'information et des connaissances. La toute-puissance du "temps réel", la prédominance de l'immédiateté s'altèrent progressivement au profit de régimes qui renouent, par certains aspects, avec ceux de la lecture/écriture et des logiques éditoriales : temps différé, variabilité des durées, ajournement des effets immédiats d'une diffusion de programmes dont il appartient à chacun d'actualiser les règles. Nous avons proposé de nommer "présentielle" cette confrontation locale, par opposition à la culture du "temps réel" fondée sur une sollicitation -jamais totalement réalisée- d'absence à soi exprimée dans une invitation projective. Par opposition, aussi, à la lecture où les dimensions de "présence" dans le récit sont quasi-exclusivement interprétatives, imaginaires (si on fait abstraction du rapport mécanique, automatique à la conformation matérielle du livre ou d'autres supports imprimés). Avec la posture interactive, on l'a vu, le transport imaginaire s'articule plus nettement avec les dimensions corporelles (enchaînements de gestes, de vision, d'audition propres à l'exercice de l'interaction). Dans l'univers des récits interactifs, par exemple, les transports obligent le spect-acteur à se prendre comme objet de questionnement, l'assignent au choix, à la décision, où encore à l'exploration de l'écran, tout ceci ordonné par un moteur narratif organisant la pluralité des parcours possibles. Cette confrontation fait alterner les phases d'adhésion/pénétration dans le récit, et de décrochage -recherche aveugle par cliquages exploratoires- ou de prise de décision dans une série explicite d'enchaînements possibles. Toutes ces postures provoquent une interpellation beaucoup plus nette qu'avec le récit audiovisuel et donnent une vigueur nouvelle à la durée locale. Instantanéité, réactivité et programmation : une temporalité mise sous pression Nous n'ignorons pas qu'un pan entier des usages de la programmatique vise à augmenter la réactivité (c'est-à-dire la vitesse de réaction) des acteurs et des systèmes engagés dans les mêmes activités (automatisation industrielle, organisation des entreprises en réseau, interconnexion mondiale des places boursières, etc.). Faut-il en conclure que dans la sphère productive et commerciale la recherche de l'instantanéité orienterait fondamentalement les restructurations en cours, alors qu'elle déclinerait dans l'espace public organisé par les médias ? C'est une hypothèse plausible. Une autre approche permet de rendre compte de cette apparente disjonction de formes temporelles dans ces champs sociaux. Tout en reconnaissant la spécificité des régimes de durée propres aux sphères médiatiques et productives, elle offre l'avantage de ne pas les opposer. En effet, si on prend un peu de recul face à la scène de l'instantanéité telle que les

opérateurs tétanisés sur les marchés financiers nous en offrent un spectacle exemplaire, on découvre une organisation temporelle où le moment de la décision, de l'action est préparé par un gigantesque compactage temporel, que l'on nomme habituellement "programme automatique". Le nez collé sur les transactions boursières déclenchées automatiquement par un Program trading basé sur l'analyse instantanée des différences de cotations entre les Bourses de New-York et Chicago, et nous voilà prêt à signer toutes les thèses sur la prédominance de l'immédiateté. Ce faisant, on néglige peut-être l'essentiel : le temps passé à réaliser et à tester les programmes d'interventions automatiques, véritables réserves, sous pression, de données, de calculs et de raisonnements formalisés, qu'un diagnostic adéquat libère dans une fulgurance. La précession programmatique, dont chacun imagine la quantité d'hommes-années qu'elle rassemble, est la condition du déchaînement instantané. (Un programme aussi couramment utilisé que Word représente environ deux cents hommesannées de travail). Paul Virilio avait déjà attiré notre attention sur ces mécanismes à propos des stratégies militaires de la dissuasion. La planification de la machine militaire précède le déclenchement des opérations et le moment stratégique se déplace de l'actualité du champ de bataille vers l'antériorité de la programmation militaro-économique des systèmes automatiques qui, en assumant l'engagement, disqualifient les capacités humaines de décision. On le sait, tout le régime politico-militaire de "l'équilibre de la terreur" a reposé sur ces déplacements de primauté. On peut discuter cette vision d'une guerre d'automates pré-programmés (les plus récentes doctrines militaires américaines semblent, en revanche, redonner une place importante à l'initiative sur le terrain). Mais elle recèle incontestablement une part importante de vérité, que l'automatisation de l'observation géographique, du déroulement des missions aériennes et du dépouillement de l'information acquise confirme. De même, croît le caractère stratégique de la maîtrise des communications. Le vocabulaire législatif suit la même logique d'accumulation lorsque les parlements votent régulièrement des lois de "programmation militaire" à cinq, dix, voire vingt ans. Les mêmes principes sont à l'oeuvre dans toutes les activités fondées sur la réactivité quasi instantanée des systèmes ou des organisations : commutations automatiques dans les réseaux de télécommunications, programmes d'investissement boursier, intégration industrielle des fonctions de conception, de production, de marketing, de commercialisation, ou encore dispositifs de sécurité industrielle[195]. Ainsi voit-on émerger une temporalité dissociée où la rapidité de la décision-action est en rapport avec l'immensité du temps passé à la préparer. Le "temps réel", lorsqu'il se matérialise dans l'action -à la différence du régime ralenti de la communication sociale dont nous avons fait état précédemment- déclenche une sorte de courtcircuit où l'énergie accumulée se décharge en contractant à l'extrême la durée de l'opération. L'une des résultantes de ce processus est l'augmentation des durées d'étude et de conception (dix ans ou plus pour les programmes militaires, vingt ou trente ans pour les institutions japonaises de programmation économiques, par exemple). Ces durées considérables, allant de pair avec la rationalisation de l'activité des véritables usines intellectuelles technoscientifiques assurant ce travail, mettent en réserve une temporalité sous pression. Le fonctionnement de cette programmation sous pression, c'est-à-dire la prise de décision et l'action détend -au sens de la détente d'un volume gazeux- le système et réalise la capitalisation temporelle préalablement accumulée. On pourrait, ici aussi, parler d'un

ralentissement de la "communication" sous l'effet de l'augmentation de la charge de travail que représente la programmation de systèmes à complexité croissante. Temps réel et temps différé en confrontation La réévaluation que nous proposons n'implique pas que l'instantanéité soit appelée à disparaître de notre horizon et soit systématiquement remplacée par l'épaisseur temporelle d'un traitement. Loin de nous, l'idée que le modèle de l'émission/réception immédiate soit balayé par les formes programmatiques émergentes. Ce modèle est puissamment installé dans notre paysage et il ne s'évanouira pas dans un avenir prévisible. En revanche, il ne recèle plus la puissance irradiante qu'il possédait à l'ère de la télédiffusion triomphante. Aujourd'hui, sa capacité à organiser la structure temporelle de l'espace public, tout en demeurant notable, n'en est pas moins déclinante. Et cela n'est pas sans rapport, on l'a vu, avec la crise de confiance qui affecte les massmedia et la croissance corrélative des principes d'expérimentabilité qui en prennent la relève. Notre espace public voit émerger, sur les réseaux notamment, des formules de mixité des régimes temporels du "temps réel" et du "temps différé". Internet, par exemple, fait coexister plusieurs régimes temporels. Le réseau peut accueillir l'émission de flux radiophonique ou télévisuel. Avec la conversation écrite -lorsque les partenaires sont connectés simultanément -il héberge une semi-instantanéité (semi-instantanéité, car l'écriture télé-textuelle s'opère en deux temps : rédaction puis validation). Et enfin, il abrite une temporalité du traitement différé s'étageant des formes classiques de lecture aux circulations hypermédiatiques les plus raffinées. (On pourrait affiner les distinctions en analysant plus précisément, par exemple, la temporalité différée propre à l'usage des robots chercheurs, temporalité qui procède de la logique de l'accumulation/décharge, que nous avons mise à jour plus haut, à propos de la programmation militaire ou industrielle). Ce passage en revue rapide des régimes temporels du réseau mondial ne constitue pas encore une typologie organisée. Des formules d'hybridation absolument inédites, hétérogènes à la séparation "temps réel"/"temps différé", font, en effet, leur apparition. Des applications sont aujourd'hui proposées qui mixent l'intervention instantanée convoyée par réseau, avec des traitements locaux sur supports opto-numériques (CD-Rom, aujourd'hui en attendant le DVD et autres "galettes" démultipliant les volumes d'informations stockées). Le Deuxième monde[196] illustre parfaitement ce type de mixage. L'expérience débute par l'autocomposition d'un avatar : choix d'un visage, d'un costume, éventuellement d'un appartement, modelage des espaces, installation des ameublements... Elle se poursuit par la libre déambulation dans le centre de Paris, modélisé en trois dimensions de manière étonnamment réaliste. On y rencontre d'autres avatars connectés au même moment sur Internet. Les fichiers transmis ne contiennent qu'une information limitée décrivant leur aspect physique et leur position géographique. L'ordinateur qui réceptionne ces fichiers se charge de construire l'image affichée sur l'écran puisque le CD-Rom local contient déjà tous les matériaux nécessaires à cette reconstruction (formes de visages, costumes, lieux visités, etc.). Ici, le "temps réel" ne se juxtapose pas au traitement différé, il s'y mélange. L'expérience d'une interaction allie, en effet, la confrontation avec une présence instantanée, convoyée par le réseau avec un travail sédentaire, momentanément isolé. La mixité des sources événementielles sous-tend une dialectique entre processus pré-programmé local et événement inattendu sur le réseau. L'univers maîtrisé de la scénographie interactive locale s'expose à l'irruption intempestive des spect- - agents branchés au même moment sur le site d'Internet. On pourrait comparer cette temporalité à un modèle simplifié de notre existence quotidienne faite d'alternances (ou de combinaisons) de moments d'ouverture au monde et d'isolement.

Mais dans ces univers, on gouverne, plus systématiquement que dans la vie ordinaire, sa présentation publique (choix de visage, de costume, etc.) et l'on sélectionne sa disponibilité à l'interpellation (la possibilité de ne pas répondre est facilitée par la décorporéisation de l'avatar tiers). L'idée se fait jour d'une temporalité trouée, où à tout moment la durée d'une exploration peut basculer dans l'instantanéité d'une confrontation avec un spect-agent éloigné. À l'inverse, l'immédiateté d'une présence lointaine peut se figer et chuter vers l'exploration sédentaire. Hypermédiation et réception de flux sur Internet Nous avons déjà évoqué, dans une autre partie de ce travail, l'apparition de chaînes multimédias distribuées sur Internet (Webcasting), en soulignant la rupture qui s'ensuit avec le mode de réception habituel de la télévision. Ainsi, par un accord, conclu en juillet 1997, DirectTV (leader américain de la diffusion numérique par satellite) et Microsoft ont annoncé la mise sur le marché d'un ordinateur-récepteur mariant la réception télévisuelle et la navigation sur le Web. Par exemple, en visionnant un film, le télénaute pourra rechercher les biographies des acteurs ou des indications sur son tournage. Dans une perspective voisine, une firme américaine met au point un projet de "CD-Rom infini" contenant mille cassettes vidéo, actualisé en permanence, et dans lequel l'abonné peut faire son marché. Avec le Webcasting, l'usager sélectionne des thèmes qui alimentent des moteurs de recherches lesquels lui ramèneront une information préalablement triée et parfois même évaluée[197]. Prolongeant cette forme d'usage, les push technologies inaugurent une nouvelle forme médiatique, transformant l'écran de l'ordinateur en récepteur de chaînes multimédias thématiques (météo, sports, finances, etc.). Outre la diffusion de chaînes, ces logiciels permettent, par exemple, la mise à jour directe de logiciels sur les disques durs des abonnés au service. Mariant l'instantanéité de la télévision avec la navigation multimédia, ces techniques combinent les outils de recherches (type moteurs) avec le téléchargement en continu d'informations. Mais ce faisant, le Webcasting redistribue les polarités temporelles en bousculant l'opposition classique entre l'instantanéité propre à la culture de flux et la temporisation de l'hypermédiation. Ces alliages temporels sont d'ailleurs loin d'être figés. L'apparition de nouvelles normes d'édition de documents appelées à succéder à H.T.M.L. [198], rendront encore plus complexe la consultation des sites. L'utilisateur pourra, par exemple, modifier la composition des pages qu'il reçoit, les dynamiser, y ajouter des informations personnelles et s'y déplacer de manière intuitive[199]. Instantanéité de la réception, rapidité de la navigation et temps de réglage de la composition personnelle se combineront d'autant plus. Alors que les flux de l'émission de la radio et de la télévision se diffractent dans leur mise en ligne, la diffusion électronique de l'écrit est sujette à un mouvement inverse. Dans le on line l'écrit connaît une mise un mouvement qui le rapproche, dans certains contextes, de l'information audiovisuelle. La version électronique du Wall Street Journal est réactualisée quatre à six fois par jour. Et il ne s'agit pas seulement des cours de la Bourse, une part significative des articles sont réécrits au fil de l'actualité. "Le Web, ce n'est pas la télévision, ce n'est pas le journal, c'est entre les deux" affirme M. Garcia, l'un des spécialistes mondiaux du design des journaux électroniques. Ici, la permanence de l'écrit s'allie à son rafraîchissement instantané. L'horizontalité de la page imprimée se moule dans le flux de la diffusion temporelle. Mais rien n'est consolidé en la matière et les premiers enseignements de la presse électronique ne permettent pas d'affirmer avec certitude que le renouvellement des informations séduira plus les lecteurs que, par exemple, la recherche "motorisée" dans des

banques de données. Autre témoignage des mixages en cours entre les logiques éditoriales (stock) et de consultations en ligne (flux) : l'abonnement à des services spécialisés téléchargeant à date fixe, l'intégralité d'un site afin de permettre une consultation locale hors connexion[200]. Plus généralement, ces propositions techniques seront-elles favorablement accueillies, et sous quelles formes ? Tout est ouvert. Nous ne prédisons pas le succès automatique de ces formules qui se confrontent à de solides ancrages, notamment en matière de réception télévisuelle[201]. Mais, quels qu'en soient les modalités, les rythmes et l'ampleur, nous constatons qu'un virage est pris, lequel redistribue les rapports spécifiques entre réception et navigation, virage qui confirme que les structures temporelles émergentes ne sauraient opposer séquentialité et hypermédiation, ou instantanéité et temporisation, mais plutôt les assembler en les insérant dans des configurations qui font coexister (pacifiquement ?) leurs régimes spécifiques. [159] Voir la revue Réseaux, Dallas et les séries télévisées, n° 12, CNET, 1985, et notamment l'article de J. Bianchi, Dallas, Les feuilletons et la télévision populaire, pp. 21/28. [160] Howard Rheingold, dans son livre, Les communautés virtuelles, (Addison- Wesley, Paris, 1995) véritable hymne à la vie virtuelle, multiplie les exemples où l'usage des réseaux consolide, voire même engendre, des collectifs locaux. Howard Rheingold mentionne notamment le rôle social du réseau WELL (pour Whole Earth Electronic Link), village virtuel en vogue dès les années 87, fréquenté essentiellement par des Internautes habitant autour de la baie de San Francisco. [161] Depuis septembre 1997, deux services de guidages -Carminat Infotrafic et Skipper développés respectivement par Renault et Europe Grolier- sont commercialisés. Dans sa version complète, Carminat intègre un récepteur G.P.S. localisant le véhicule. Collectant, en temps réel, toutes les informations sur le trafic (et la disponibilité des parkings), il propose un trajet optimisé et calcule sa durée. [162] Que la carte puisse être lue comme une préfiguration de l'hypermédiation, voilà d'ailleurs la pénétrante suggestion de Françoise Agez dans son article, "La carte comme modèle des hypermédias", in Catalogue d'Artifices 4, Ville de Saint-Denis, 1996, pp. 54/59. [163] Voir l'intéressant article de Pierre Alain Mercier, Dopo ze bip... Quelques observations sur les usages du répondeur téléphonique, in Réseaux, n° 82/83, mars/juin 1997, CNET. Il y montre, en particulier, que les fonctions de protection (simuler l'absence) et de filtrage des répondeurs sont progressivement devenues essentielles. [164] Dominique Carré, Les technologies mobiles, quels enjeux ?, AFETT/EUROCADRES, Lab. SIC Université Paris-Nord, fév. 1997, p. 9. [165] Jacques Perriault, La communication du savoir à distance, L'Harmattan, Paris, 1996, p. 78. [166] "Les institutions de formation à distance connaissent aujourd'hui, on l'a vu, une demande de regroupement de plus en plus forte " (Jacques Perriault, op. cit., p. 227).

[167] Certains usages d'Internet illustrent aussi, d'une autre manière, ces mixages de relations à distances et de déplacements géographiques. Un industriel des pellicules photos propose, depuis 1997, d'accéder par Internet au fichier de la pellicule envoyée au laboratoire pour développement. L'utilisateur peut accéder, via Internet, aux vignettes composant sa pellicule, les retravailler sur son ordinateur, corriger les dominantes de couleurs, les cadrages ou assembler plusieurs images. Une nouvelle connexion, et il renvoie les images modifiées qui corrigeront automatiquement les fichiers haute définition détenus par le laboratoire. Il lui restera à aller chercher les tirages papiers dans son quartier... en attendant, bien sûr, la haute définition à domicile. [168] Le mediaspace d'Euro PARC en Angleterre couplé à celui de Xerox PARC à Palo- Alto en Californie, organise aussi les relations locales des chercheurs anglais. [169] Voir Bernard Prince, Les paradoxes de l'Internet, in Terminal, n°74, L'Harmattan, Paris, été-automne 1997, pp. 89/96. [170] La révolution Internet, sur Arte, le 19/11/96. [171] Cité par Christian Huitema, Et Dieu créa l'Internet..., Eyrolles, Paris, 1996, p. 34. [172] On pourrait postuler que la "cyberelation" combinant présence à distance et modélisation numérique (travail, formation, jeux, etc.) définit en tant que tel l'idéal intangible d'un rapport social totalement auto-gouverné, absolument immanent. [173] Pierre Lévy est l'un de ceux qui ont thématisé, d'une manière radicale, cette idée de gain cognitif par disparition d'une concrétisation du contexte. Ainsi écrit-il : "La structure en collecticiel permet en effet de faire une fantastique économie d'écriture. En effet les tenants et aboutissants d'un énoncé n'ont plus à être explicités par du discours puisqu'ils sont impliqués dans des liens hypertextuels. Le contexte et les références sont toujours déjà là..." L'intelligence collective, La Découverte, Paris, 1994, p. 98. [174] Bernard Stiegler, La technique et le temps - La désorientation, Galilée, Paris, 1996, p. 276. [175] Op. cit., p. 277 [176] L'écriture multimédia recherche toujours un équilibre -variable selon les genres et les auteurs- entre libre exploration et axes directeurs structurants. [177] Sur ces questions voir Sally Jane Norman, L'empire des sens, in Le Monde de l'éducation, avril 1997, p. 46. [178] Le logiciel Umap Web, déjà cité au chapitre V, édite au fur et à mesure de la consultation de pages Web, des cartes répertoriant les proximités entre thèmes ou concepts, à partir des sélections effectuées par l'utilisateur. Les zones contenant des mots principaux y apparaissent grossies. [179] La circulation dans un "anneau" est une alternative au surfing ainsi qu'à l'usage souvent imprécis des moteurs de recherche. Ici, tous les sites concernent le même sujet. Un simple clic suffit pour passer immédiatement au site suivant (et ainsi de suite jusqu'à revenir au départ),

supprimant ainsi les temps d'attente inévitables lors de l'activation des liens classiques. On estimait, en septembre 1998, à plus de 700 000 le nombre de sites fédérés en près de 50 000 "anneaux". [180] Alain Lelu, Interfaçages automatiques d'hypertextes, in Rencontres Médias 1, B.P.I., Centre Georges Pompidou, 1997, p. 125. [181] "L'exposition des connaissances perdra le caractère unidimensionnel. Ce ne seront plus seulement les mots, au fil du discours, qui donneront sa densité au savoir, mais des interactions de toutes natures entre des mots et des énoncés figurés, animés, relationnels, etc. Les interactions elles-mêmes ne seront pas seulement logiques (implication, causalité, hiérarchies de classes et de sous-classes, etc.) mais topologiques". Pierre Lévy, Métamorphoses de l'écriture, in Communication et lien social, Éd. Descartes et Cie et Cité des Sciences, Paris, 1992, p. 99. D'autres analyses suivent la même inspiration, jouant le spatial contre le linéaire, alors que ces deux dimensions ne sont pas de même ordre. Ainsi Philippe Quéau affirme : "Les mondes virtuels permettent de fait d'exprimer des idées abstraites d'une manière entièrement nouvelle, en utilisant des configurations spatiales d'objets concrets ou de symboles imaginaires [....]", Le Virtuel, Champ Vallon/INA, Seyssel, 1993, p. 99. [182] Pierre Lévy, L'intelligence collective, La Découverte, Paris, 1994, p. 15 [183] Marshall McLuhan, Pour comprendre les média, Le Seuil, Paris, 1968, p. 102. [184] Pour une critique plus détaillée de ces hypothèses, voir notre article, Nouvelles technologies intellectuelles, pensée et langage, in Terminal n°68, Paris, L'Harmattan, pp. 69/80. [185] Elisabeth L Eisenstein, dans La révolution de l'imprimé dans l'Europe des premiers temps modernes, (La Découverte, Paris, 1991) montre que la notion d'auteur est typiquement typographique. Elle cite notamment saint Bonaventure, lequel nous rappelle, qu'à l'ère du manuscrit, il y a au moins quatre manières de faire des livres : le scribe qui copie, le compilateur qui croise différents écrits, le commentateur qui ajoute des explications, et enfin l'auteur qui cite d'autres textes (voir p. 109). "Les nouvelles formes d'attribution de la qualité d'auteur et les droits de la propriété littéraire sapèrent les idées anciennes d'autorité collective non seulement en matière de composition des livres bibliques mais aussi de textes philosophiques, scientifiques et juridiques" p. 110. [186] Yves Maignien, dans son article,"La bibliothèque de Michel Foucault" sur le projet de "Poste de Lecture Assistée par Ordinateur " à la BNF (in Rencontres Médias 1, BPI, Centre Georges Pompidou, Paris 1997, pp. 83/105) convoque à nouveau l'antienne foucaldienne de la disparition de l'auteur-sujet au profit de l'auteur-actualisateur de "nappes discursives". L'activité bibliologique privilégie par nature la "transdiscursivité" où l'émergence de convergences, d'épistémés traverse les auteurs plus qu'elle ne les suscite. Mais le regard archival, intensifié par l'informatique documentaire, n'est pas le seul possible. Érigé en vérité ultime d'un texte particulier, il ignore, par constitution, les dimensions subjectives singulières qu'il exprime, privilégiant, non sans légitimité, la tectonique des flux discursifs. (Question structurellement identique à celle du regard unilatéralement socio-technique porté par la nouvelle anthropologie des sciences sur l'activité scientifique). Substituer "l'ordre du discours" à l'irruption intempestive d'une pensée réorganisatrice relève d'un parti pris peu explicité. Foucault se réduit-il à la "nappe discursive" structuraliste ?

[187] T-Vision a été installé dans l'exposition Voyages virtuels, 4/8 octobre 1995 à Paris. [188] Ce CD-Rom est édité par Hazan et 3e Vague. [189] L'installation a été montée à Artifices 4, Saint-Denis, novembre 1996. [190] Voir le commentaire kabalistique qu'apporte Pierre Lévy, sur la scénographie, homogène au symbolisme de l'arbre séphirotique de la tradition mystique juive (Cyberculture, Odile Jacob/Conseil de l'Europe, Paris, 1997, pp. 82/83). [191] Réalisation de Serge Bilous, Fabien Lagny et Bruno Piacenza, Flammarion "Art & Essais", Paris, 1997. [192] On peut désormais mobiliser de chez soi, via Internet, le satellite Earlybird I, lancé depuis décembre 1997 par une société américaine. Moyennant quelques centaines de dollars, on obtiendra une photographie d'une précision de l'ordre de 3 mètres (les prochains succcesseurs d'Earlybird promettent de descendre à 1 mètre). Le monopole militaire du renseignement spatial est ainsi brisé. [193] Une Webcam diffuse en permanence l'image d'une scène (carrefour, intérieur privé, etc) sur un site Internet. Par exemple, le tournage, à Franconville, du film La Patinoire s'est accompagné de la création d'un site, où l'on pouvait consulter le scénario in extenso mais aussi la feuille de service quotidienne, et à intervalle régulier, les images des trois Webcams installées. Le son, en revanche, a été coupé pour préserver l'intimité des rapports entre le réalisateur et les acteurs. L'expérience a été rééditée sur le tournage de Regarde mon père, ma mère, film de Charlotte de Turckheim. Une nouvelle forme de promotion ? [194] Article paru dans Le Monde diplomatique, mars 1998, pp. 26/27. [195] Par exemple, la sécurité du métro VAL est assurée par un logiciel comportant quelque dix mille lignes de codes dans les équipements au sol et cinq mille dans la rame. [196] Laissons son promoteur Philippe Ulrich, co-fondateur de Cryo Interactive, présenter le projet : "Le CD-Rom, qui proposera une connexion à Internet, contiendra un Paris contemporain entièrement redessiné... Une fois connectés, les abonnés pourront se promener de l'île de la Cité à Notre-Dame, des Champs- Elysées aux quais en passant par la place de Grève. Évoluer dans Paris, dialoguer, visiter les monuments, aller dans les cabarets de jazz ou au cinéma..." Le visiteur compose son apparence grâce à une bibliothèque de formes : visage, peau, yeux, cheveux, costumes. Il séjourne dans un appartement conforme à son style. L'obsession du doublage va jusqu'à imaginer une monnaie, une circulation financière, la perception d'aide sociale voire une Constitution et des codes de comportement moraux. Il est même envisagé de pouvoir faire "naître" un enfant qui sera incarné par un nouvel avatar. Tenant à la fois du jeu vidéo, du jeu de rôle, de la messagerie visuelle et de l'agora, ce "deuxième monde" est appelé à se perfectionner constamment. On pourra emprunter des sas pour déambuler dans d'autres métropoles (Berlin, New York...). (Interview au supplément multimédia de Libération, 24 mai 1996, p. I ). Seul Canal + continue le Deuxième monde. Cryo a préféré prendre son autonomie et s'attache plutôt, sur ce terrain, à diffuser SCOL (voir note 41).

[197] Fishwrap, par exemple, mis au point au M.I.T. à Boston, est l'un des logiciels de personnalisation les plus perfectionné. Il permet à l'utilisateur de sélectionner des rubriques composant son journal (politique nationale, théâtre, basket-ball, etc.). Le serveur actualise constamment sa base documentaire à partir de quotidiens californiens et des dépêches d'Associated Press. On peut, à tout moment, afficher la dernière édition du journal, en perpétuelle transformation, car continuellement rafraîchi par de nouvelles informations et nettoyé des nouvelles obsolètes. Par ailleurs, un système de vote, article par article, est à la source de la production d'un journal unique reflétant les goûts majoritaires des lecteurs. Enfin, le logiciel détecte l'ordre dans lequel l'abonné lit les articles et affichera donc, par exemple, dans la rubrique culture, les concerts avant les films et les critiques de livres. [198] Ces langages déclineront la norme X.M.L. (eXtensible Mark up Language), définie comme métalangage. Elle permettra aux concepteurs de pages de définir leurs propres langages de programmation selon qu'ils mettent en ligne des partitions musicales, des plans industriels, des représentations spatiales de molécules ou des parchemins antiques. (Voir Michel Alberganti, L'introduction de nouvelles normes enrichit le contenu d'Internet, in Le Monde, 14/10/97, p. 29). [199] Le logiciel SCOL, par exemple, développé par la société Cryo devrait permettre aux Internautes de créer assez facilement leurs propres mondes virtuels en 3D et d' y déposer leur avatar en scannant une photo, par exemple. Toutes les composantes des scènes conçues sont cliquables et peuvent renvoyer par liens à d'autres lieux, afficher des sources documentaires ou lancer des applications. Voir Yves Eudes, Scol, une multitude de mondes indépendants..., in Le Monde, supplément multimédia, 1 et 2/03/1998, p. 34. [200] Par exemple, le magazine Les enfants du Web à destination des 8-12 ans, est téléchargé automatiquement chaque mois, moyennant un abonnement, avec une panoplie de fonctions connexes : contrôle des sites reliés, limitation de la durée de connexion... [201] À l'inverse, on a vu comment une innovation, apparemment mineure, telle que la télécommande a profondément, et rapidement, bouleversé la réception de la télévision.

Table des matières

Conclusion
Une culture de la relativité élargie s'annonce. Une autre localisation est provoquée par la déterritorialisation. La suppression des intermédiaires engendre l'apparition de mécanismes médiateurs. On redécouvre la puissance de la linéarité grâce à la luxuriance de l'hypermédiation. Le réglage individuel des prises de vues donne naissance à une formule panoptique inédite. Le ralentissement de la communication est l'autre face de l'augmentation des vitesses de computation. Et on pourrait allonger la liste des paradoxes repérables dans l'horizon des technologies numériques[202]. De tels effets paradoxaux pouvaient déjà être décelés avec les technologies intellectuelles classiques. (L'originalité, l'unicité de l'oeuvre écrite, par exemple, est un effet de la multiplication à l'identique des imprimés et non pas son origine). Il n'y a pas lieu de s'étonner que de tels processus soient aussi à l'oeuvre aujourd'hui. Qu'il s'agisse de la suppression des intermédiaires dans l'espace public, du statut du récit dans le contexte de l'hypermédiation, de la saisie de l'espace, du régime temporel propre à la programmatique, les incidences culturelles des technologies numériques sont donc souvent paradoxales, voire contradictoires. Peut-on identifier des principes généraux qui permettraient d'appréhender le statut du nouveau milieu qu'érige la téléinformatique ? Quelques conjectures peuvent être, en effet, formulées. Nouveau milieu ne signifie pas effacement des anciens, mais reprise, redéfinition. On fait ici l'hypothèse que les nouvelles technologies intellectuelles ont une efficacité paradoxale qui consiste, non pas à redéfinir l'ancien par négation, mais par relativisation généralisée : relativisation de l'espace par la mise en proximité, relativisation de la temporalité par l'obsolescence de la vectorisation passé/présent/futur au profit d'une temporalité de la simulation, u-chronique, locale, expérimentale, ou encore relativisation du récit unique par l'injection du destinataire dans le moteur narratif, etc. Les télé-technologies revivifient les anciennes formes de présence, de durée, de récit, à l'ombre et en résonance avec les mutations évoquées précédemment. Il ne s'agit pas là de survivances, d'archaïsmes, de résistances (toutes réactions qui se manifestent par ailleurs). L'exemple des communautés virtuelles est, à cet égard, emblématique. Elles inaugurent, en effet, un nouveau rapport au territoire à travers -et non pas contre ou indifféremment àl'expérience d'un réseau trans-territorial. (La notion de glocalisation -qui, dans l'univers des médias désigne, on le rappelle, l'usage local d'un média global- résume assez bien ces rapports d'ajustement, de co-définition du local et du global). La relativisation se traduit notamment par des formes inédites de coexistence entre récentes et anciennes modalités. Une forme de saisie unifiée de l'espace, par exemple, se fraye une voie à travers le maquis complexe des réglages individuels. La temporalité du "direct" -le temps réel- côtoie celle du temps différé au coeur des applications les plus récentes qui allient l'usage local et le recours aux réseaux informatiques. Les processus de mixages temporels se complexifient, de ce fait, sans qu'on puisse pressentir une forme dominante qui révélerait la formule chimiquement pure de la temporalité des télé-technologiques. Si, dans ces exemples, relativisation est synonyme de passage en position surplombante et d'inclusion des différences, cela n'épuise pas les significations potentielles de ce processus. Il ne faut pas exclure, par principe, l'apparition de contradictions fortes telles que, dans le cyberespace les oppositions frontales entre principes commerciaux et logiques d'espace

public, entre propriété intellectuelle et domaine public ou encore entre intégration, refus et détournement des propositions d'innovation. L'hypothèse de la relativisation généralisée ne s'identifie donc pas à celle de l'obtention de consensus. Elle ne prétend pas, non plus, livrer la formule ultime des enjeux de la programmatique, mais décrire l'un de ses mouvements majeurs. De l'indétermination des télé-technologies On sait que toute culture est une méta-culture en ce que les contenus élaborés ne peuvent s'abstraire des chaînes matérielles, matrices méta-culturelles par lesquelles ils se créent, se conservent, se modifient et se transmettent. Mais ces rapports entre matrices et contenus ne sont pas mécaniques. À propos de l'écriture, par exemple, nombre d'études portant sur les conséquences intellectuelles de l'inscription du langage ménagent une zone d'indétermination bien éloignée de toutes les tentations réductionnistes. Ainsi, Jack Goody, interrogeant, dans La raison graphique, les incidences de l'écriture sur les processus cognitifs, notait immédiatement dans une parenthèse : "quoique à mon avis la nouvelle technique fournisse seulement des outils sans pour autant déterminer les résultats"[203]. L'ethnologue nous prévient donc d'un usage du concept de technologie intellectuelle qui déduirait, directement, les fruits du travail intellectuel à partir de ses équipements : pratique coutumière, qui relève d'une démarche réflexe, déduisant sans ambages, une forme culturelle à partir d'un système technique. C'est le travers auquel prête le flanc, par exemple, Jacques Derrida, pourtant en général attentif à ces dangers, lorsqu'il fait l'hypothèse que "...dans le passé la psychanalyse (pas plus que tant d'autres choses) n'aurait pas été ce qu'elle fut si le E mail, par exemple, avait existé"[204]. Et Derrida d'insister sur les "raisons historiques et non accidentelles" qui ont relié l'institution psychanalytique à la forme courrier manuscrit, à sa vitesse de circulation dans l'Europe d'avant-guerre ; "rien n'est jamais indépendant de ce délai"[205]. Parle-t-on des dimensions "pratiques", "théoriques" de la psychanalyse, ou de la construction de ses institutions ? Autant, la technologie "courrier manuscrit" conditionne le fonctionnement de l'institution, autant n'interfère- t- elle pas directement dans les cures, dont la technologie est basée sur la parole, ni même peut-être, principalement, dans l'édification théorique freudienne. S'il est vrai que les "délais" conditionnent l'échange épistolaire, il resterait à montrer comment précisément, l'instantanéité de ces transferts aurait modifié, quant à sa nature, l'émergence de la pratique et de la théorie psychanalytique. Rien n'est évident en la matière et, que l'on sache, à l'heure d'Internet, les "technologies" des cures ne se distinguent pas fondamentalement de celles élaborées dans la Vienne d'avant guerre, même si le fonctionnement des écoles`psychanalytiques, les conditions de production des livres, l'accès aux corpus sont touchés par la téléinformatique. Jacques Derrida souligne, à juste titre, quelques lignes plus loin, que le développement du courrier électronique "ne peut pas ne pas s'accompagner de transformations juridiques donc politiques"[206] de l'espace public. Mais la psychanalyse ne s'insère pas directement dans cet espace, elle fait même de cet écart tendanciel l'un de ses fondements. Demeure l'idée générale et invérifiable que si le passé avait été différent, alors la psychanalyse l'aurait, sans doute, aussi été. L'appréhension de la sphère des "outils", des méthodes devrait respecter une certaine autonomie qui interdit d'en inférer directement des formes de pensée. Qui n'a jamais éprouvé un malaise, par exemple, lorsque l'on tente de dessiner les traits saillants de la "culture informatique" et que l'on répond : culture du calcul, de la combinatoire, de la formalisation. Le même malaise nous saisit quand on essaie de caractériser une pensée propre aux réseaux

en suggérant des notions telles que décontextualisation, collectivisation, perte de la séquentialité. Ces propositions méritent un examen plus soucieux de la préservation d'une certaine autonomie des processus cognitifs et des champs disciplinaires dans leur rapport aux technologies qu'ils mobilisent. Et aujourd'hui, cette autonomie relative serait -c'est notre hypothèse- majorée, et non amoindrie, par l'ingénierie informatisée de la connaissance. Surplomber sans dominer Nous conjecturons que la culture programmatique et hypermédiatique accroît les traits métaculturels de nos cultures et augmente leur réflexivité[207]. En effet, l'ingénierie informatique consiste essentiellement en la diffusion de machine de production de micro-mondes. Cette ingénierie s'apparente à une méta-machine, dont la mise en oeuvre produit d'autres machines d'écriture, de création d'univers, de déplacements dans des récits, de déplacements de présence. Une certaine unification procédurale se concrétiserait alors à travers une diversification des pratiques. Pour faire image, on dira que les modes de repérage s'unifient sous les logiques de la délocalisation, de la numérisation et de la programmatique, mais que cette homogénéisation des méthodes engendre, plus qu'avec les anciennes technologies intellectuelles (imprimerie, massmédia, télévision) une multiplicité d'accomplissements singuliers ainsi que des affirmations identitaires différenciées. On sait qu'au XVIe siècle, des langues vernaculaires se sont conservées et parfois même créées, grâce à l'essor de l'imprimerie (laquelle, il est vrai, provoquera aussi une déperdition des langues littéraires non imprimées). La malléabilité de la téléinformatique pourrait, paradoxalement, consolider des cultures locales, tout en les faisant passer par l'orbite de la programmatique et de la Téléprésence. Ceci n'empêche pas que naissent des collectifs déterritorialisés, effets propres de la tendance à l'augmentation de la présence à distance. Mais ces collectifs ne sont que rarement totalement émancipés de leurs attaches territoriales. De même que toute formalisation procédurale engendre un ajustement par négociation entre les acteurs, ajustement indispensable pour injecter de la souplesse dans des mécanismes formalistes risquant de devenir, sinon, trop rigides, de même la diffusion mondiale de la programmatique et de la Téléprésence n'est pas mécaniquement homogénéisante. Elle secrète une diversification qui est son double. Tout comme le bricolage est le fils de l'algorithmisation et non une survivance anachronique, la différenciation est la fille de la mondialisation télé-technologique. Dans Transmettre, Régis Debray développe une analyse voisine, en pointant l'hétérogénéité des temporalités propres aux "aires de civilisation" et aux logiques techniques[208]. Peut-être a-t-il raison de dissocier ainsi l'héritage culturel, fruit d'une transmission symbolique, de la réception de la technique obéissant à la logique de la communication (bien que cette perspective risque d'engager une pensée de la technique dissociée de l'univers culturel : "deux régions de l'être irréductibles l'une à l'autre"[209] où l'on retrouve les fameuses dichotomies éthique/technique, relativisme culturel/universalisme technique, convergence technique/divergence ethnique). L'idée à laquelle nous tentons de donner forme ne contredit pas formellement cette conception de l'hétérogénéité des temps techniques et culturels. Elle insiste, en revanche, sur les distorsions culturelles internes à l'aire technique, et plus précisément à l'aire télétechnologique. Il n'est peut-être pas indispensable de requérir un pôle intemporel de l'existence humaine (le relativisme de la culture, de l'art, de la morale) pour contrebalancer un supposé universalisme technique réglé par la performativité. Si on oppose la mondialisation

des objets et des signes à "une tribalisation des sujets et des valeurs"[210], point n'est besoin de localiser la tribalisation à l'extérieur de la sphère technique. On peut discerner, en son sein même, les mouvements qu'on repère d'ordinaire dans sa périphérie culturelle : vitesse/ralentissement, déterritorialisation/localisation, etc. Notre culture, comme les précédentes, se définit par un couplage entre l'équipement techno-intellectuel hérité et les nouvelles propositions émergentes. Si l'on retient l'hypothèse de la longue durée chère à Bernard Miège[211], on conjecturera que ce couplage est un processus ni linéaire, ni uniforme. Aujourd'hui, l'alliance de la programmatique et des réseaux convoyant la présence à distance aboutit à une configuration inédite. La diffusion mondiale accélérée de métaconception du monde fondée sur ces environnements socio-techniques provoque finalement une crise de la problématique des effets culturels des technologies. Comme si le niveau d'efficience atteint par l'intensification cognitive avait pour résultat d'injecter les anciennes modalités intellectuelles (temps différé de la lecture/écriture, notamment) et formes de rapports sociaux (échange en face à face, présence corporelle) au coeur des espaces cognitifs, sensibles et relationnels actuels. On a coutume d'affirmer que la photographie n'a pas détruit le dessin à la main, mais qu'elle a contraint les peintres à redéfinir l'acte de vision (et aussi le mouvement), donc la peinture elle-même qui s'est dès lors attachée à rendre visible l'invisible (ce qui, par effet retour, a influencé la vision ordinaire). On s'accorde à considérer que l'image de synthèse ne se substituera pas aux techniques d'enregistrement, mais que l'enregistrement tend à devenir numérique. Dans ces effets en retour d'une technologie nouvelle sur celles qui la précèdent on sauvegarde la coexistence des deux formes, tout en reconnaissant les contraintes inédites qui pèsent sur la première. Notre hypothèse concernant l'incidence des technologies intellectuelles contemporaines ne se limite pas à noter ces effets de réinterprétation. Elle affirme que ces agencements n'oblitèrent pas les anciennes organisations cognitives mais les revivifient dans de nouveaux costumes. Il est vrai, par exemple, qu'une séquence de lecture d'un texte -ou d'une vidéo- dans un hypermédia reconduit la linéarité de la lecture d'un imprimé. Mais cela n'autorise pas à confondre un hypermédia avec un livre et à oublier sa puissance organisatrice. Ce module linéaire s'accouplera, en effet, à des débranchements volontaires bouleversant la structure ordonnée du livre. Ce faisant une vie nouvelle s'ouvre à la linéarité. Cet exemple montre comment, dans les nouveaux contextes installés par la téléinformatique, non seulement se manifestent, mais se renforcent certains traits (séquentialité, durée, différance) propres aux technologies classiques (écriture, imprimerie, photographie, etc.). J'ai le sentiment que la téléinformatique crée un milieu favorable à un désajustement entre traits culturels hérités et émergents. Et je parle bien de traits culturels (la linéarité, la saisie panoptique, l'accélération, etc.) et non de cultures concrètes (occidentale ou chinoise, par exemple). Je poursuis l'idée -ou peut-être est-ce elle qui me poursuit- que la notion d'effet culturel des technologies numériques serait en crise, non pas parce qu'elles n'en auraient pas, mais parce que ces effets ne font pas système. La souplesse, la malléabilité des technologies du virtuel accueillent, par exemple, les anciennes logiques symboliques beaucoup plus respectueusement que la tradition écrite n'a accueilli la tradition orale ou que l'imprimerie n'a abrité le manuscrit. Mais accueil ne signifie pas duplication. En schématisant le propos on pourrait affirmer qu'aujourd'hui quatre phénomènes coexistent : - la translation apparemment inerte (comme ce qui s'est produit entre le CD et le disque vinyle et qui relève de la traduction/réinterprétation puisque la musique enregistrée coule maintenant dans le lit du fleuve numérique et nourrit donc le multimédia, on le voit en particulier sur Internet),

- le renforcement de certains traits antérieurs dans les nouveaux contextes : le numérique redonne vigueur au temps différé de la lecture/écriture, la vitesse de la communication sociale décroît, l'exigence de linéarité se renforce, - l'apparition de traits inédits : des outils automatiques ouvrent à de nouvelles pratiques de recherches, ou comme on l'a vu, se déploie une percolation de la réception et de la production, par exemple dans ce que j'ai appelé le "home multimédia", - et enfin, l'hybridation des traits inédits avec les anciens, tels que les alliages entre linéarité et hypermédiation. Qui, de l'apparition des traits inédits ou du renforcement des caractéristiques traditionnelles, l'emporte ? Cette question n'a probablement pas de sens. L'hypothèse est plutôt que la singularité de la situation réside dans le couplage, l'hybridation de ces deux mouvements. D'où l'idée de relativisation généralisée, conjecture plus mobile qu'une supposée révolution de nos conditions expressives et cognitives. Loin de tout fixisme, cette perspective ne saurait se confondre avec on ne sait trop quel paradoxe circulaire dans lequel les nouvelles conditions équivaudraient aux anciennes. Renforcer certains caractères temporels hérités d'anciennes technologies provoque de nouveaux agencements dans les environnements cognitifs et sensibles actuels. Ce sont donc des alliages inédits qui s'instaurent, par exemple, entre linéarité et hypermédiation, fragmentation et unicité de la perception spatiale, instantanéité et différemment, séquence de flux insécable et libre navigation. En fait, ces observations -à propos de la temporalité, de la linéarité et de l'hypermédiation, du panoptisme et de l'individualisation de la saisie, etc.conduisent à penser un concept de position surplombante sans domination, où les logiques de la téléinformatique envelopperaient celles de l'oralité, de l'écriture, de l'imprimerie, de l'enregistrement et des télécommunications sans les assujettir. Suivre ces chevauchements et rebroussements, en façonner une cartographie est un jalon indispensable pour comprendre les mouvements complexes qui animent notre techno-culture ; c'est aussi une aventure intellectuelle passionnante. Pour suivre Traiter de la Téléprésence, comme de toute question à caractère général, tend à la faire passer, du statut de sujet d'investigation, à celui d'instrument d'observation. Ausculter notre société à l'aide de cet outil engendre mécaniquement une opération de sélection et un effet de loupe. Entendons-nous bien. Il ne s'agit pas de tempérer l'importance de la tendance culturelle à la présence à distance, par on ne sait trop quel mouvement de balancier. Mais d'articuler plus finement cette tendance aux autres processus à l'oeuvre. Par exemple, nous avons maintes fois insisté sur la méfiance nécessaire face aux affirmations unilatérales pronostiquant une substitution des conditions habituelles de "l'être ensemble" par la Téléprésence. Mais certaines hypothèses et observations fragmentaires relevées dansce mémoire gagneraient à faire l'objet d'études de terrain plus systématiques afin de mieux comprendre comment les relations de proximité interagissent avec les nouveaux rapports à distance : enseignement, travail coopératif, etc. De même, dans le domaine politique, de nombreuses questions à peine effleurées restent à approfondir. Il faudra, en particulier, comprendre quelles peuvent être les incidences de la situation de "multi-présence" -être à la fois ici et partiellement ailleurs- sur les formes d'exercice du pouvoir fondées, jusqu'à présent, sur la séparation physique des représentants et des représentés.

Approfondir les enjeux de la Téléprésence, affiner les outils méthodologiques proposés ; bref, vérifier ou infirmer des conjectures, ce travail appelle prolongements. Les commentaires qui précèdent ne forment, en réalité, une conclusion de ce livre que parce qu'elles surgissent, chronologiquement, à la fin de sa rédaction. Il serait quelque peu artificiel de leur faire jouer un rôle de clôture logique, au sens où elles en délivreraient la signification condensée. Enregistrons-les donc comme une incitation à poursuivre l'enquête. Le rédacteur de ce livre ne peut d'ailleurs dissimuler sa frustration à encapsuler son propos dans un imprimé clos -facilités du traitement de texte aidant- alors que le champ de l'hypermédiation s'enrichit sans cesse de nouvelles problématiques et réalisations obligeant à repenser certaines conclusions et à ouvrir de nouveaux chantiers interprétatifs. Mais il n'a pas le sentiment, non plus, qu'une publication en flux sur le réseau constituerait une solution parfaitement satisfaisante : il faut savoir terminer un livre pour comprendre, plus tard, quels en sont les points faibles, et renouveler alors les approches. [202] Par exemple, le mouvement de virtualisation basé sur la modélisation numérique pouvait laisser croire qu'il signait le triomphe de l'abstraction ainsi que la primauté de la vision. Mais la Réalité Virtuelle a injecté le corps au centre du couplage homme/machine pour donner forme à un genre de déplacement de présence incomparablement plus charnel et engagé que les anciens dispositifs de simulation. De même, la radicalisation de la simulation va de pair avec une concrétisation croissante dans l'élaboration des modèles (qui engage, il est vrai, des relations assez inédites entre actualité, réalité et présence), concrétisation qui ne se confond évidemment pas avec l'ancienne matière physique de l'expérimentation traditionnelle, mais qui ne relève pas non plus d'un univers éthéré et de pures abstractions logiques. [203] Jack Goody, La Raison graphique, Les Éditions de Minuit, Paris, 1979, p. 143. Jack Goody est souvent cité, à juste titre, comme l'auteur de travaux majeurs sur l'invention de l'écriture comme technologie intellectuelle. [204 ]Jacques Derrida, Mal d'Archive, Galilée, Paris, 1995, p. 34. [205] Jacques Derrida, op. cit., p. 35. [206 ]Jacques Derrida, loc. cit. [207]Dans son livre Les conséquences de la modernité (L'Harmattan, Paris, 1994), Anthony Giddens considère même que cette réflexivité croissante constitue l'un des traits dominants de notre époque (voir en particulier pp. 43/60), l'autre grand fondement de la modernité étant la dé-localisation. Il y montre, par exemple, comment les effets de connaissance des sciences sociales, tout particulièrement, sont immédiatement réinvestis dans les pratiques sociales, les transformant immédiatement. L'objet et le sujet de la connaissance se conditionnant mutuellement, l'idée d'un savoir stable apparaît comme dénuée de fondement. D'où la subversion de l'idée de "raison". Tout en reconnaissant l'acuité de son analyse, on pourrait se demander si Anthony Giddens n'accorde pas une trop grande importance à la conscience que se forment les acteurs des motivations de leurs comportements. La manière dont les discours d'expertise informent les pratiques qu'ils visent, par exemple, leur reprise par les acteurs sociaux, peuvent-elles masquer des conflits profonds d'intérêts lesquels se frayent toujours une voie pour polariser les terrains de confrontation ? Bref, ne tend-il pas à confondre exagérément perception, discours et pratiques ? Cela étant,

l'attention portée à la réflexivité met incontestablement en lumière un phénomène majeur qui qualifie profondément les principes de fonctionnement de l'Occident. [208] "Un système technique traduit les cohérences qui se tissent, pour chaque époque donnée, entre ses différents appareillages - et en tous les points de l'espace ; un système culturel assure, pour un lieu donné et un seul, les cohérences qui se tissent entre les époques et les générations". Régis Debray, Transmettre, Odile Jacob, Paris, 1997, p. 83. [209] Régis Debray, loc. cit. [210 ]Régis Debray, op. cit., pp. 99/100. [211] Sur cette question de la temporalité propre aux techniques de communication, Bernard Miège suggère de prendre en compte la question de la "longue durée". Il attire, en effet notre attention sur la nécessité de ne pas céder à l'idéologie de l'explosion -qui se donne libre cours dans la quasi-totalité des analyses- pour envisager les transformations d'usages mais aussi de façonnages des objets communicationnels sur une longue période, par définition inaccessible à notre regard actuel. Ainsi écrit-il : "...Les usages sociaux des techniques connaissent rarement de brutales modifications, tout simplement parce qu'ils restent en "correspondance" avec l'évolution des pratiques sociales, et pour le cas qui nous intéresse présentement, avec les formes prises par la médiation sociale. Ainsi, une fois encore s'impose à nous l'intérêt d'une approche par le temps long qui seul peut nous permettre d'inscrire les changements observés dans le cadre de mouvements de la société repérables." Bernard Miège, La société conquise par la communication, Tome II : La communication entre l'industrie et l'espace public, Presse Universitaire de Grenoble, 1997, p. 167.

Table des matières

Index
Les numéros renvoient aux pages de l'édition papier. A Agez, Françoise, 244 (note) Agret, R., 74 Aigrain, Philippe, 181 (note) Alberganti, Michel, 46 (note), 277 (note) Allen, Woody, 47, 194, 195, 219 Alphonsi, Philippe, 74 Amanpour, Christiane, 69 Amkraut, Susan, 174, 237 André, A., 103 (note) Apollinaire, Guillaume, 22, 24 Arendt, Hannah, 72 Armanetti, Gilles, 196 (note) Arseneault, Michel, 114 (note) Ascher, François, 154 (note) Atlan, Henri, 145 (note) Aumont, Jacques, 52 (note) B Balazs, Béla, 229 (note) Balladur, Édouard, 68 Balpe, Jean-Pierre, 45 (note), 174, 178, 182, 197, 198, 199, 200, 201, 202, 203, 205, 221 (note) Balzac, Honoré de, 194 (note), 228 (note) Barboza, Pierre, 97 (note) Barel, Yves, 60 (note), 135 Barlow, J.P., 81 (note) Barnu, Franck, 34 (note) Barthes, Roland, 95, 96, 192 Bateson, Gregory, 156 Baudrot, Sylvette, 235 (note) Beaudoin-Jafon, Michel, 29, 30n Benayoun, Maurice, 174, 182 Benjamin, Walter, 17, 141, 209 (note) Bergeron, F., 135 Bergson, Henri, 17, 25 (note), 208, 209, 210 (note), 211, 212, 213 (note), 225, 238 Bianchi, J., 239 (note)

Bilous, Serge, 266 (note) Binkley, Tim, 219 Blair, Tony, 120 Boissier, Jean-Louis, 49 (note) Borges Jorge Luis, 227, 228 Bougnoux, Daniel, 89, 94 Brauman, Rony, 72 Bret, Michel, 38 Breton, André, 58, 59 Breton, Philippe, 61, 158 (note) Briançon, P., 82 (note) Brun, Jean, 20, 21, 22 (note), 23, 24 (note) Bullimore, 71 C Cadoz, Claude, 38, 39 Callon, Michel, 147 (note) Carré, Dominique, 246 Castro, Fidel, 67 Charron, Jean-Marie, 127 Chartier, Roger, 62 Chiffot, Jacky(note) Clark, Dave, 130 Clément, Jean, 222 (note) Clinton Bill, 81, 110, 120 (note) Cocco, Giuseppe, 165 (note) Cookson, Clive, 55 (note) Couchot, Edmond, 38 Couleau, Christèle, 194 (note), 228 (note) D Dajez, Fédéric, 180 (note) Darras, Bernard, 38 (note), 70 (note), 218 (note) Debord, Guy, 61 Debray, Régis, 57, 58, 60, 62, 64, 65, 70, 91 (note), 148 (note), 283, 284 (note) de Certeau, Michel, 136 de Gournay, Chantal, 47, 50 Deleuze, Gilles 12, 17, 25 (note), 58, 60, 207, 208, 209, 213, 214, 215, 216, 217, 218, 219, 220, 222, 223, 224, 226, 227, 229, 230, 231, 232 (note), 233 (note), 234, 235, 236, 238 Delmas, Patrick, 180 (note) Denel, Francis, 168 (note) Derrida, Jacques, 57, 96, 97, 98, 139, 165, 166, 167, 168, 169, 241, 281, 282 Descartes, René, 119 (note) de Turckheim, Charlotte, 269 (note) Diderot, Denis, 194 (note), 228 (note) Dousset, B., 121 (note) Dreyer, Carl, 235 Drudge, Matt, 110 (note)

Duby, Georges, 154 (note) Dufour, Franck, 196 (note) Duplat, Bernard, 34 Duvignaud, Jean, 154 (note) E Eco, Umberto, 193, 194, 199 Eichmann, Adolf, 72 Eisenstein, Elisabeth L, 19 (note), 140 (note), 261 (note) Escher, Maurice Cornelis, 266 Eudes, Yves, 76 (note), 82 (note), 84 (note), 114 (note), 277 (note) F Fallen, Lennart E., 41, 42 (note) Feiner, Steven, 31 (note) Flichy, Patrice, 147 (note), 153 (note) Foucault, Michel, 262 (note), 268 Fournier, Alain, 216 Freinet, Célestin, 189 Freud, Sigmund, 59 (note), 166, 169 G Gaillot, Jacques, 249 Garcia, M., 278 Giddens, Anthony, 282 (note) Girard, Michael, 174, 237 Giussi, B., 108 Godard, Jean-Luc, 217, 232, 234 Goody, Jack, 140, 281 Goujon, Philippe, 203 (note) Granier-Deferre, K., 111 (note) Guillaume, Marc, 52 H Habermas, Jürgen, 131 Hegedüs, Agnes, 38, 174 Hudrisier, Henri, 63 Hulten, Eric, 33 Huitema, Christian, 130, 131, 249 (note) Husserl, Edmund, 208, 222 I Ishii, H., 30 (note) J

Jarre, Jean-Michel, 190 (note) Jörg, Cristoph, 74 Joubert, Isaac 19 (note) Juppé, Alain, 68 K Kasparov, Gary, 106 (note) Khamenei, 151 King, David, 68 (note) Klein, Mélanie, 13 (note) Kubrick, Stanley, 234 Krumeich, C., 117 (note) Kundera, Milan, 194n, 228 (note) L Labbé, C., 121 (note) Lagny, Fabien, 266 (note) Lanoue, A., 115 Latour, Bruno, 141, 145, 146, 147 (note), 159 Laufer, Roger, 66 Le Bot, Marc, 174 Leblanc, Gérard, 75 Lefebvre-Desnouettes, 154 (note) Leibniz, Gottfried Wilhelm, 227 Lelu, Alain, 258 Leroy-Gourhan, André, 53, 143 Lévy, Pierre, 105, 134 (note), 144, 158 (note), 185, 187 (note), 241, 252 (note), 259, 265 (note) Lévinas, Emmanuel, 96 Lewinsky, Monica, 110 Lionet, C., 115 (note) Lumière, Louis, 67 Lyotard, Jean-François, 173, 174 M Maignien, Yves, 262 (note) Maixent, Jocelyn, 194 (note), 228 (note) Malaval, Catherine, 74 (note) Malesherbes, Chrétien 19 (note) Mallarmé, Stéphane, 199 Mandel, Jean-Louis, 142 Mannoni, Octave, 52 (note) Marazzi, Christian, 44 (note), 162 (note) Marin, Louis, 50 Matisson, Jean-Marie, 110 McLuhan, Marshall, 16, 17, 140, 154, 209 (note), 259

Méliès, Georges, 67 Mendeleïev, Dimitri Ivanovitch, 254 Mercier, Pierrre Alain, 246 (note) Merleau-Ponty, Maurice, 17, 170, 208, 220, 222 Miège, Bernard, 51, 284 Missika, Jean-Louis, 91 (note) Munari, B., 193 (note) N Negri, Toni, 162 (note) Nietzsche, Friedrich, 220 Nonogaki, Hajime, 44 (note) Norman, Sally Jane, 255 (note) O O' Neil, Mathieu, 127 (note) Oury, Jean, 13 (note) Ozu Yasujiro, 235 P Papert, Seymour, 177 Papon, Maurice, 110 Parnet, Claire, 220 (note) Parody, E., 118 (note) Parrish, L., 115 (note) Pasteur, Louis, 146, 147, 261 Peirce, Charles S., 59, 96 Pentland, Alex, 32 Perriault, Jacques, 115 (note), 247 Perrin, J.-P., 151 (note) Piacenza, Bruno, 266 (note) Pickett, R., 255 Platon, 22, 52 Poguszer, Franck, 85 (note) Pousseur, Henri, 193 (note) Prince, Bernard, 248 Proust, Marcel, 96, 192 Q Quéau, Philippe, 259 (note) Queneau, Raymond, 186, 199 R Regaya, Kamel, 52 (note) Reich, Robert, 161 (note)

Renoir, Jean, 233 Resnais, Alain, 201, 204, 235 Rheingold, Howard, 135, 243 (note) Richtel, Matt, 112 (note) Rosenberg, Howard, 69 Rosh, Eleanor, 153 (note) Roskis, Edgar, 67 (note) Rouble, A., 117 (note) Rousseau, O., 121 (note) Rutkowski, A., 249 S Sabatier, P., 81 (note) Saint Bonaventure, 261 (note) Saint-Pol-Roux, 22, 23 Sarraute, Nathalie, 84 Schefer, Jean-Louis, 233 Schneidermann, Daniel, 67, 68 (note) Schopenhauer, Arthur, 220 (note) Ségura, Jean, 36 (note), 72 (note) Serres, Michel, 215 Shaw, Jeffrey, 174, 265, 266, 269 Simeray, Alain, 108 Simon, Gérard, 222 (note) Simondon, Gilbert, 153, 271 Simpson, O.J., 82, 87 Sims, Karl, 182, 221 (note) Sivan, Egyal, 72 Soulages, Jean-Claude, 75 Stiegler, Bernard, 54 (note), 84, 95, 96, 97, 98 (note), 153, 187 (note), 253 T Tchernia Pierre, 68 (note) Thompson, Evan, 153 (note) Titien, 24 Türing, Alan, 179 U Ulrich, Philippe, 275 (note) V Vaisseyx, G., 143 Valéry, Paul, 21, 23, 24 Varela, Francisco, 145 (note), 153 (note) Vélasquez, 219 Virilio, Paul, 241, 269, 270, 273

Von Neumann, John, 150 (note) W Welger-Barboza, Corinne, 168 (note) Welles, Orson, 214, 215, 216 Wiener, Norbert, 23, 24, 25, 26, 55, 103, 158 (note) Wolton, Dominique, 61, 127 Y Yoshida Alsuya, 44 (note) Z Zarafian, Philippe, 44 (note), 161 (note) Zinn-Justin, Jean, 109 (note)

Table des matières

BIBLIOGRAPHIE

Avertissement : Comme tout classement, cette répartition bibliographique pose de délicats problèmes de frontières que le lecteur pourra déplacer selon ses propres inclinations taxinomiques. Enjeux culturels et politiques des technologies d'information et de communication BALPE Jean-Pierre, Hyperdocuments, hypertextes, hypermédias, Eyrolles, Paris, 1990. BOUGNOUX Daniel, La communication par la bande, La Découverte, Paris, 1993. BRETON Philippe et PROULX Serge, L'explosion de la communication, La Découverte, Paris, 1996. CASTELS Manuel, La société en réseau, Fayard, Paris, 1998. DEBRAY Régis, L'état séducteur, Gallimard, Paris, 1993. DEBRAY Régis, Transmettre, Odile Jacob, Paris, 1997. FLICHY Patrice, Une histoire de la communication moderne, La Découverte, Paris, 1991. GIDDENS Anthony, Les conséquences de la modernité, L'Harmattan, Paris, 1994. GUILLAUME Marc (sous la direction de), Où vont les autoroutes de l'information, Descartes & Cie, Paris, 1997. HUITEMA Christian, Et Dieu créa l'Internet..., Eyrolles, Paris, 1996. LAUFER Roger & SCAVETTA Domenico, Texte, Hypertexte, Hypermédias, PUF, Paris, 1992. LEFÉBURE Antoine, GARçON François, Interférences, deux siècles de communication à distance, MNT/CNAM/AIHTI, Paris 1985. LÉVY Pierre, Cyberculture, Odile Jacob/Conseil de l'Europe, Paris, 1997. LÉVY Pierre, L'intelligence collective, La Découverte, Paris, 1994. LÉVY Pierre, Qu'est-ce que le virtuel ?, La Découverte, Paris, 1997. McLUHAN Marshall, Pour comprendre les média Le Seuil, Paris, 1968. MARAZZI Christian, La place des chaussettes, L'Éclat, Paris, 1997 MARCOVITCH Emmanuel, L'Amérique numérique, Le Métafort, Aubervilliers, 1997. MATTELART Armand, L'invention de la communication, La Découverte, Paris, 1994. MATTELART Armand, La communication-Monde, La Découverte, Paris, 1992. MIÈGE Bernard, La société conquise par la communication, Tome 2 : La communication entre l'industrie et l'espace public, Presse Universitaire de Grenoble, 1997. MONGIN Olivier, Vers la troisième ville ?, Hachette, Paris, 1995. MUSSO Pierre, Télécommunications et philosophie des réseaux, PUF, Paris, 1997. NEGROPONTE Nicholas, L'homme numérique, Laffont, Paris, 1995. PERRIAULT Jacques, La communication du savoir à distance, L'Harmattan, Paris, 1996. POSTMAN Neil, Se distraire à en mourir, Flammarion, Paris, 1994. REICH B. Robert, L'économie mondialisée, Dunod, Paris, 1993. RHEINGOLD Howard, Les communautés virtuelles, Addison- Wesley, Paris, 1995. ROSNAY Joël de, L'homme symbiotique, Le Seuil, Paris, 1995.

SERRES Michel, Les messages à distance, Fides, Paris 1995. VIRILIO Paul, Cybermonde, la politique du pire, Textuel, Paris, 1996. VIRILIO Paul, L'art du moteur, Galilée, Paris, 1993. WELGER-BARBOZA Corinne, Le devenir documentaire du patrimoine artistique - Perméabilité du musée aux technologies numériques, thèse de doctorat, Université de Bourgogne, 1998. WIENER Norbert, Cybernétique et société, coll. 10-18, Paris,1962. WOLTON Dominique, Éloge du grand public, Flammarion, Paris, 1990. ZARAFIAN Philippe, La nouvelle productivité, Paris, L'Harmattan, 1991. Ouvrages collectifs Revue Terminal, Spécial Internet, ndeg. 71/72, L'Harmattan, Paris, 1996. Pour penser la Technique, Alliage, ndeg.20/21, automne-hiver 1994. Ouvrages sur l'image ARNHEIM Rudolph, La pensée visuelle, Flammarion, Paris, 1976. AUMONT Jacques, L'oeil interminable, Séguier, 1989. BARBOZA Pierre, Du photographique au numérique - La parenthèse indicielle dans l'histoire des images, L'Harmattan, Paris, 1996. BARBOZA Pierre, Les nouvelles images, Somogy - Cité des Sciences et de l'Industrie, Paris, 1997. BARTHES Roland, La chambre claire, Les Cahiers du cinéma/Gallimard/Le Seuil, Paris, 1980. BELLOUR Raymond, L'entre-Images, La Différence, Paris, 1990. BELLOUR Raymond, DAVID Catherine, VAN ASSCHE Christine, Passages de l'image, Centre Georges Pompidou, Paris, 1990. BESANçON Alain, L'image interdite, Fayard, Paris, 1994. CADOZ Claude, Les réalités virtuelles, Flammarion, Paris, 1994. COUCHOT Edmond, Images, de l'optique au numérique, Hermès, Paris, 1988. COUCHOT Edmond, La technologie dans l'art, Jacqueline Chambon, Nîmes, 1998. DAMISCH Hubert, L'origine de la perspective, Champs- Flammarion, Paris, 1993. DANEY Serge, Devant la recrudescence des vols de sacs à main, Aléa, Lyon, 1991. DEBRAY Régis, Vie et mort de l'image, une histoire du regard en Occident, Gallimard, Paris, 1992. DELEUZE Gilles, L'image-temps, Les Éditions de Minuit, 1985. DELEUZE Gilles, L'image-mouvement, Les Éditions de Minuit, Paris, 1983. DERRIDA Jacques, STIEGLER Bernard, échographie de la télévision, Galilée, Paris, 1996. JULLIER Laurent, L'écran post-moderne, L'Harmattan, Paris, 1997. KING David The Commissar Vanishes, Metropolitan Books, New- York, 1997. MARIN Louis, De la représentation, Gallimard-Le Seuil, Paris, 1994. MERLEAU-PONTY Maurice, L'oeil et l'esprit, Gallimard, Folio, Paris, 1964. MONDZAIN Marie-José, Image, icône, économie, Seuil, Paris, 1996. QUÉAU Philippe, Virtuels, vertus et vertiges, Champ Vallon/INA, Paris, 1993. SAUVAGEOT Anne, Voirs et savoirs, PUF, Paris, 1994. SIMON Gérard, Le regard, l'être et l'apparence dans l'Optique de l'Antiquité, Le Seuil, Paris, 1988. WEISSBERG Jean-Louis (et al.), Paysages virtuels, Dis-Voir, Paris, 1988. WEISSBERG Jean-Louis (sous la direction de), Les chemins du virtuel, Centre Georges Pompidou, Flammarion, Paris, 1989. Ouvrages collectifs

Destins de l'image, Nouvelle revue de psychanalyse, ndeg. 44, Gallimard, Paris, automne 1991. Nouvelles technologies - Un art sans modèle ?, sous la direction de Norbert HILLAIRE et Michel JAFRENNOU, Art Press spécial, ndeg.12, 1991. Vers une nouvelle pensée visuelle, Réseaux, ndeg.61, CNET, sept. 1993. Icône Image et Image & média sous la direction de Bernard DARRAS, MEI ndeg.6 et ndeg.7, L'Harmattan, Paris, 1997. Images numériques - L'aventure du regard (sous la direction de Odile BLIN et Jacques SAUVAGEOT), École régionale des Beaux- arts de Rennes, Rennes, 1997. Le déplacement virtuel de Lascaux (sous la direction de Jean- Louis WEISSBERG), Fédération des oeuvres laïques de la Dordogne, Périgueux, 1994`. Histoire et philosophie de la technique BENJAMIN Walter, L'oeuvre d'art à l'ère de sa reproductibilité technique, in Essais 19351940, Denoël Gonthier, Paris, 1983. BRETON Philippe, Une histoire de l'informatique, La Découverte, Paris, 1987. DEBRAY Régis, Cours de médiologie générale, Gallimard, Paris, 1991. EISENSTEIN Élisabeth, La révolution de l'imprimé dans l'Europe des premiers temps modernes, La Découverte, Paris, 1991. FLICHY Patrice, L'innovation technique, La Découverte, Paris, 1995. GILLE Bertrand, Histoire des techniques, Gallimard, Paris, 1978. GOODY Jack, La raison graphique, Les Éditions. de Minuit, Paris, 1979. GOODY Jack, La logique de l'écriture, Armand Collin, Paris, 1986. LATOUR Bruno, La clef de Berlin, La Découverte, Paris, 1993. LATOUR Bruno, Les microbes : guerre et paix, A. M. Métailié, Paris, 1984. LEROY-GOURHAN André, Le geste et la parole, tome I : Technique et langage ; tome II La mémoire et les rythmes, Albin Michel, Paris, 1965. LEROY-GOURHAN André, L'homme et la matière, Albin Michel, 1973. LÉVY Pierre, Les technologies de l'intelligence, La Découverte, Paris, 1990. LÉVY Pierre, L'idéographie dynamique, Le concept moderne/Éditions, Genève, 1991. PRADES Jacques, La technoscience, L'Harmattan, Paris, 1992. SIMONDON Gilbert, Du mode d'existence des objets techniques, Aubier-Montaigne, Paris, 1969. STIEGLER Bernard, La technique et le temps, Galilée, Paris, Tome 1, 1994 et tome 2,1996. WOOLGAR Steve, LATOUR Bruno, La vie de laboratoire, La Découverte, Paris, 1988. Philosophie - Épistémologie ATLAN Henri, A tort et à raison, Le Seuil, Paris, 1986. BAREL Yves, La société du vide, Le Seuil, Paris, 1984. BERGSON Henri, Matière et mémoire, PUF, 1985. BRETON André, Manifeste du surréalisme, Folio-Gallimard, 1985. BRETON André, Qu'est-ce que le surréalisme ?, Actual/Le temps qu'il fait, Paris/Cognac, 1986. COHEN - TANNOUDJI Gilles (sous la direction de), Virtualité et réalité dans les sciences, Frontières, Gif sur Yvette, 1995. COULON Alain, L'ethnométhodologie, PUF, Paris, 1987. DELEDALLE Gérard, Théorie et pratique du signe : introduction à la sémiotique de Charles S. Peirce, Payot, Paris, 1979. DELEUZE Gilles, Logique du sens, Les Éditions de minuit, Paris, 1969. DELEUZE Gilles, PARNET Claire, Dialogues, Champs, Flammarion, Paris, 1996 DERRIDA Jacques, L'écriture et la différence, Le Seuil, Paris, 1967.

DERRIDA Jacques, Spectres de Marx, Galilée, Paris, 1993. DERRIDA Jacques, Mal d'Archive, Galilée, Paris, 1995.[] LATOUR Bruno, Nous n'avons jamais été modernes, Paris, La Découverte, 1991. LYOTARD Jean-François, L'inhumain, Galilée, Paris, 1988. MERLEAU-PONTY Maurice, Le visible et l'invisible, Gallimard, Paris, 1964. PEIRCE Charles S., Écrits sur le signe, Le Seuil, Paris, 1978. VARELA Francisco, Connaître : les sciences cognitives, Le Seuil, Paris, 1989. VARELA Francisco, THOMPSON Evan, ROSH Eleanor, L'inscription corporelle de l'esprit, Le Seuil, Paris, 1993. Articles cités Image, recherches sur les interfaces, Réalité Virtuelle BARNU Franck, Programmer le virtuel, in La Recherche, Mai 1994. BEAUDOIN-LAFON Michel, Les habits neufs du travail en équipe, Collecticiels et médiaspace au service de la communication formelle et informelle, in L'ordinateur au doigt et à l'oeil, Spécial La Recherche, ndeg. 285, mars 1996. BOISSIER Jean-Louis, Bambous : pour que poussent les images, in Les chemins du virtuel, Centre Georges Pompidou- Flammarion, Paris, 1989. FAHLEN Lennart E., DIVE, Actes d'Imagina 1994, INA. MACKAY Wendy E., Réalité augmentée : le meilleur des deux mondes, in L'ordinateur au doigt et à l'oeil, Spécial La Recherche, ndeg. 285, mars 1996. PENTLAND Alex, Smart rooms, smart clothes, in Actes d'Imagina, Monaco, 21 au 23 fév. 1996. SÉGURA Jean, La panoplie du virtuel, in La recherche, mai 1994, ndeg. 265. VANDEGINSTE Pierre, Réinventer l'interface ? Ils l'ont fait, Dossier in SVM MAC, avril 1994, ndeg. 50. YOSHIDA Atsuya et NONOGAKI Hajime, Habitat, in Actes d'Imagina 1994. Communication, enjeux des technologies intellectuelles AGEZ Françoise, La carte comme modèle des hypermédias, in Catalogue d'Artifices 4, Ville de Saint-Denis, 1996. ASCHER François, Dynamiques métropolitaines et enjeux socio-politiques, in Futur Antérieur, ndeg. 29, 1995/3, L'Harmattan, Paris. BALPE Jean-Pierre, Un roman inachevé, in Littérature ndeg.96, Larousse, Paris, décembre 1994. BIANCHI Jean, Dallas, les feuilletons et la télévision populaire, in Réseaux ndeg. 12, Dallas et les séries télévisées, CNET, 1985. BOUGNOUX Daniel, Bis ! ou l'action spectrale, in Les Cahiers de médiologie, ndeg.1, Gallimard, Paris. CARRÉ Dominique, Les technologies mobiles, quels enjeux, AFETT-EUROCADRES, Lab. SIC Université Paris-Nord, fév. 1997. CHARTIER Roger, Médiologie, sociologie des textes et histoire du livre, in Le Débat, ndeg. 85, mai - août 1995, Gallimard, Paris. COULEAU Christèle, Balzac interactif ou la virtualisation du sens, in La voix du regard Aux frontières du virtuel, ndeg. 10, E.N.S. de Fontenay/Saint- Cloud, mars 1997. de GOURNAY Chantal, Le deuil de l'image, in Réseaux ndeg. 61, L'Harmattan, 1993. DEBRAY Régis, à propos du spectacle, in Le Débat, ndeg. 85, Gallimard, Paris. DELEUZE

Gilles, L'actuel et le virtuel in DELEUZE Gilles, PARNET Claire, Dialogues, Champs Flammarion, Paris, 1996. DENEL Francis, Les archives de radiotélévision, patrimoine et objet/sujet de recherche, in Rencontres Médias 1, B.P.I., Centre Georges Pompidou, Paris, 1997, GOUJON Philippe, Les limites de la vie artificielle "forte", in Raison Présente "Autour du chaos", ndeg. 115, N.E.R., Paris, 1995. LAUFER Roger, Mort ou résurrection de la médiologie ?, in Le Débat, ndeg. 85. LE BOT Marc, L'art ne communique rien à personne" in Art et communication, Osiris, Paris, 1986. LEBLANC Gérard, Happy ending, in Esprit 1, janvier 1993. LELU Alain, Interfaçages automatiques d'hypertextes, in Rencontres Médias 1, B.P.I. (sous la direction de Jean- Pierre BALPE), Centre Georges Pompidou, 1997. LÉVY Pierre, Métamorphoses de l'écriture, in Communication et lien social, Éd. Descartes et Cie et Cité des Sciences, Paris, 1992 MAIGNIEN Yannick, La bibliothèque de Michel Foucault, in Rencontres Médias 1, BPI (sous la direction de Jean-Pierre BALPE), Centre Georges Pompidou, Paris 1997. MAIXENT Jocelyn, Diderot, Kundera et les romans virtuels : le récit des mondes possibles, in La voix du regard - Aux frontières du virtuel, ndeg. 10, E.N.S. de Fontenay/Saint- Cloud, mars 1997. MERCIER Pierre Alain, Dopo ze bip... Quelques observations sur les usages du répondeur téléphonique, in Réseaux, ndeg. 82/83, mars/juin 1997, CNET. NEGRI Toni, La première crise du postfordisme, in Futur antérieur, Paradigmes du travail, ndeg. 16, 1993/2. NORMAN Sally Jane, L'empire des sens, in Le Monde de l'éducation, avril 1997. PRINCE Bernard, Les paradoxes de l'Internet, in Terminal, ndeg.74, L'Harmattan, Paris, étéautomne 1997. REGAYA Kamel, Du cinéma à la télévision : quel régime perceptif ? in Télévisions - La vérité à construire, L'Harmattan, Paris, 1995. ROSKIS Edgar, in Le Monde diplomatique, Mascarades (décembre 1996), Mensonges du cinéma (novembre 1997) et La deuxième vie de l'image (avril 1998). SIMS Karl, Images génétiques, in Revue Virtuelle, Carnet 5, Centre Georges Pompidou, mars 1993. VIRILIO Paul, OEil pour oeil, ou le krach des images, in Le Monde diplomatique, mars 1998. WEISSBERG Jean-Louis, La simulation de l'autre, approche de l'interactivité informatique, in Réseaux ndeg.33, janvier 1989, CNET, Paris. WEISSBERG Jean-Louis, Virtualités réelles : une phénoménologie appliquée, in Chimères, ndeg.16, été 1992. WEISSBERG Jean-Louis, Nouvelles technologies intellectuelles, pensée et langage, in Terminal ndeg.68, Paris, L'Harmattan, été 1995. WEISSBERG Jean-Louis, L'augmentation tendancielle du taux de présence à distance, in Terminal, ndeg. 69, automne 95, Paris, L'Harmattan. WEISSBERG Jean-Louis, Internet, un récit utopique, in B.P.I. en Actes (sous la direction de Jean-Pierre BALPE), Actes de l'Observatoire des lectures hypermédias, Centre Georges Pompidou, Paris, 1997. WEISSBERG Jean-Louis, Images hybrides : virtualité et indicialité, in MEI, ndeg.7, L'Harmattan, Paris, 1998. ZARAFIAN Philippe, Travail industriel, socialisations et liberté, in Futur antérieur, Paradigmes du travail, ndeg. 16, 1993/2. ZINN-JUSTIN Jean, L'influence des nouveaux outils informatiques sur la publication des travaux en physique, in Terminal, ndeg.71/72, 1996. Revues et ouvrages généraux

- Les carnets de la Revue Virtuelle, Centre Georges Pompidou, 1992/1995. - La Querelle du spectacle, Les Cahiers de médiologie ndeg.1, Gallimard, Paris, 1996. - Pourquoi des médiologues ?, Les Cahiers de médiologie ndeg.6, Gallimard, Paris, 1998. - Enseignement, formation et nouvelles technologies, Dossiers de l'audiovisuel, ndeg.75, La documentation française/INA, sept/oct 1997. - Apprendre à distance, hors-série du Monde de l'éducation, sept. 1998. - Patrimoine et multimédia, Acte du colloque des 23/25 octobre 1996 à la B.N.F., La Documentation française, Paris, 1997. Produits, oeuvres et installations multimédias cités ALMANETTI Gilles, CHIFFOT Jacquy, DUFOUR Frank, "Sale temps", Drame interactif, CD-Rom édité par Microfolies, 1997. AMKRAUT Susan et GIRARD Michael, Ménagerie, OEuvre en Réalité Virtuelle présentée notamment à La Revue Virtuelle, Centre Georges Pompidou, Décembre 1992. BALPE Jean-Pierre, Un roman inachevé, Roman génératif présenté à la "Revue parlée", Centre Georges Pompidou, 1996. BENAYOUN Maurice, Dieu est-il plat ?, Installation présentée à Artifices 3, St Denis, novembre-décembre 1994. BILOUS Serge, LAGNY Fabien, PIACENZA Bruno, 18h39, CD-Rom, Flammarion "Art & Essais", Paris, 1997. BINKLEY Timothy, Watch yourself, installation présentée au Festival "Vidéoformes" à Clermont-Ferrand en 1994. COUCHOT Edmond et BRET Michel, La plume et le pissenlit, installation d'image de synthèse interactive, présentée à l'Espace Landowski, Boulogne-Billancourt, décembre 1998. HEGEDÜS Agnes, Handsight, installation en Réalité Virtuelle réalisée au Zentrum für Kunst und Medien de Karlsruhe (Allemagne) et présentée à Artifices 3, Saint - Denis, décembre 1994. SHAW Jeffrey, Place-A User's Manual installation présentée à Artifices 4, Saint - Denis, novembre 1996. SIMS Karl, Genetic Images, installation présentée à la "Revue virtuelle" au Centre Georges Pompidou, 4 mars 1993. Croisades, CD-Rom, Index+, 1997. T-Vision, installation présentée à l'exposition "Voyages virtuels II", 4/8 oct. 1995, Paris. Paris, CD-Rom, Hazan et 3e Vague, 1995. Le deuxième monde, CD-Rom et site Internet, Canal+, Paris, 1997.