Vous êtes sur la page 1sur 1

Individualisation de la recherche sur internet : le

scénario du pire?
Par Christophe Deschamps
www.outilsfroids.net

Publié le 19 mars 2006

QT saver est un moteur de recherche un peu particulier. Si le lancement d'une requête


y est classique, l'interface de résultats l'est moins. En effet, plutôt que de vous proposer
le titre d'une page et l'extrait dans lequel votre mot-clé a été découvert, il présente
plusieurs phrases extraites des meilleures pages identifiées sur Yahoo et Google. Mais
surtout, et c'est là son intérêt principal, il vous permet d'en tirer un rapport au format
html en choisissant, via un système de cases à cocher, les extraits de résultats qui vous
ont semblé les plus pertinents. Vous obtenez alors un document pouvant servir, par
exemple, à prendre la mesure d'un sujet neuf. En fait, avec un peu plus de
développement, QTsaver pourrait devenir une sorte d'alternative "automatisée" et
constamment renouvelée à la Wikipedia. Bien sûr cela ne va pas sans poser quelques
problèmes. J'en vois au moins deux. Le premier est que ce constant renouvellement ne
permet pas de "poser dans le temps" des connaissances stables capables d'en générer
de nouvelles. Là où la Wikipedia fonctionne par ajouts successifs, QTsaver ne donne
qu'un instantané dénué d'historique et donc de fondements. Le second problème est
illustré par ce service mais concerne plus globalement notre rapport au web et, plus
spécifiquement, à la recherche de données susceptibles d'asseoir un raisonnement,
d'écrire un article ou un ouvrage. Le web peut en effet être utilisé comme une immense
base de données dans laquelle nous puisons les matériaux dont nous avons besoin, un
dictionnaire des citations de 12 milliards de pages. Sauf que, son immensité quasi
infinie, en tout cas à l'échelle humaine, en fait un espace dont on ne peut prendre la
mesure. Concrètement la quantité de résultats correspondant à une requête oblige à
faire des choix et on peut alors penser que la démarche scientifique exigeant la
nécessaire prise en compte de la totalité des sources existantes (l'état de l'art) perd ici
tout son sens. Ce n'est pas nouveau me direz-vous, il en était déjà de même avec les
sources papiers, et la parcellisation des savoirs scientifiques est un phénomène
constatée depuis les débuts du cartésianisme (corrigez-moi si je me trompe)... Sauf qu'il
est maintenant démultiplié par le web. En anticipant un peu (mais pas tant que cela en
fait) on pourrait imaginer construire un raisonnement en ne choisissant que les
matériaux qui nous arrangent, ceux qui collent à nos présupposés, à nos biais cognitifs,
mettant ainsi de côté les exigences d'une démarche scientifique ou, a minima, celle
d'une volonté d'objectivité. On connaît la facilité des politiciens à faire parler les
statistiques en fonction de leurs besoins partisans. Il en va de même avec le web tant il
propose de données permettant de soutenir à la fois tout et son contraire. Ce
phénomène pourrait conduire à une hyperindividualisation du web, un web à son image,
miroir stérile d'une réflexion tournant à vide. L'évaluation par les pairs n'y serait plus
possible car chacun serait le seul expert de son propre parcours cognitif. Chaque individu
y deviendrait "son propre pair (père?)" à la fois modèle et disciple de lui-même, expert
de sa propre expertise. Elucubrations de ma part autour d'un scénario du pire ou mise
en abîme emblématique de mes propos, à vous de voir.