Vous êtes sur la page 1sur 1

Individualisation de la recherche sur internet : le scénario du pire?

Par Christophe Deschamps www.outilsfroids.net

Publié le 19 mars 2006

QT saver est un moteur de recherche un peu particulier. Si le lancement d'une requête

y est classique, l'interface de résultats l'est moins. En effet, plutôt que de vous proposer le titre d'une page et l'extrait dans lequel votre mot-clé a été découvert, il présente plusieurs phrases extraites des meilleures pages identifiées sur Yahoo et Google. Mais

surtout, et c'est là son intérêt principal, il vous permet d'en tirer un rapport au format html en choisissant, via un système de cases à cocher, les extraits de résultats qui vous ont semblé les plus pertinents. Vous obtenez alors un document pouvant servir, par exemple, à prendre la mesure d'un sujet neuf. En fait, avec un peu plus de développement, QTsaver pourrait devenir une sorte d'alternative "automatisée" et constamment renouvelée à la Wikipedia. Bien sûr cela ne va pas sans poser quelques problèmes. J'en vois au moins deux. Le premier est que ce constant renouvellement ne permet pas de "poser dans le temps" des connaissances stables capables d'en générer de nouvelles. Là où la Wikipedia fonctionne par ajouts successifs, QTsaver ne donne qu'un instantané dénué d'historique et donc de fondements. Le second problème est illustré par ce service mais concerne plus globalement notre rapport au web et, plus spécifiquement, à la recherche de données susceptibles d'asseoir un raisonnement, d'écrire un article ou un ouvrage. Le web peut en effet être utilisé comme une immense base de données dans laquelle nous puisons les matériaux dont nous avons besoin, un dictionnaire des citations de 12 milliards de pages. Sauf que, son immensité quasi infinie, en tout cas à l'échelle humaine, en fait un espace dont on ne peut prendre la mesure. Concrètement la quantité de résultats correspondant à une requête oblige à faire des choix et on peut alors penser que la démarche scientifique exigeant la

nécessaire prise en compte de la totalité des sources existantes (l'état de l'art) perd ici tout son sens. Ce n'est pas nouveau me direz-vous, il en était déjà de même avec les sources papiers, et la parcellisation des savoirs scientifiques est un phénomène

constatée depuis les débuts du cartésianisme (corrigez-moi si je me trompe)

Sauf qu'il

est maintenant démultiplié par le web. En anticipant un peu (mais pas tant que cela en fait) on pourrait imaginer construire un raisonnement en ne choisissant que les matériaux qui nous arrangent, ceux qui collent à nos présupposés, à nos biais cognitifs, mettant ainsi de côté les exigences d'une démarche scientifique ou, a minima, celle d'une volonté d'objectivité. On connaît la facilité des politiciens à faire parler les statistiques en fonction de leurs besoins partisans. Il en va de même avec le web tant il propose de données permettant de soutenir à la fois tout et son contraire. Ce phénomène pourrait conduire à une hyperindividualisation du web, un web à son image,

miroir stérile d'une réflexion tournant à vide. L'évaluation par les pairs n'y serait plus possible car chacun serait le seul expert de son propre parcours cognitif. Chaque individu

y deviendrait "son propre pair (père?)" à la fois modèle et disciple de lui-même, expert

de sa propre expertise. Elucubrations de ma part autour d'un scénario du pire ou mise en abîme emblématique de mes propos, à vous de voir.