Académique Documents
Professionnel Documents
Culture Documents
•
•
Fonctionnement des moteurs de recherche
Les moteurs de recherche sont indispensables au bon fonctionnement du Web. Ils permettent de trouver des
informations dans des pages dont on ne connaît pas l’adresse, voir dont on ignore l’existence.
Un moteur de recherche est un service qui permet aux internautes de rechercher du contenu via le Web. Un
utilisateur y entre des mots ou phrases-clés et reçoit une liste de résultats de sites Web, d'images, de vidéos
ou d'autres données en ligne. La liste du contenu renvoyé à un utilisateur par un moteur de recherche est
appelée « page de résultats ». Chaque jour, nous effectuons des recherches en ligne, mais pour faire des
recherches efficaces, il est préférable d'utiliser une variété de stratégies de recherche plutôt qu'une seule
source d'informations et ainsi exercer son jugement critique par rapport aux résultats.
SÉLECTIONNER des questions et des outils de recherche : élaborer les questions essentielles de la
recherche et choisir les outils de recherche.
EXTRAIRE des mots-clés et des termes : trouver des mots-clés efficaces en surlignant les principaux
termes de leurs questions.
APPLIQUER des stratégies de recherche : appliquer certaines des stratégies de recherche par
exemple, mettre des mots entre guillemets ou préciser le type d'information désiré.
RECHERCHER : effectuer la recherche avec plusieurs sources.
CHOISIR de consigner la recherche : pour éviter de répéter des recherches déjà faites, consigner le
sujet cherché et les sources consultées.
QUESTIONS
① Sélectionnez/Donnez au moins 3 questions de recherche.
.....................................................................................................................................
.....................................................................................................................................
.....................................................................................................................................
.....................................................................................................................................
② Extraire des mots-clés et des termes.
.....................................................................................................................................
.....................................................................................................................................
.....................................................................................................................................
③ Appliquer des stratégies de recherche. Décrire les stratégies appliquées.
.....................................................................................................................................
.....................................................................................................................................
.....................................................................................................................................
.....................................................................................................................................
.....................................................................................................................................
➢ Comment fonctionnent-ils ?
Des « robots »ou « crawlers » ou « spyder » (programmes informatiques) parcourent le Web et indexent les
pages à partir des mots qu’elles contiennent et en lien avec leur adresse URL. Les crawlers récoltent
l’information sur les pages Web.
Une fois les données collectées pas les robots ces données vont être
indexé, un algorithme va les classer en fonction de plusieurs critères,
comme le nombre de liens pointant vers
une page. Le principe de
fonctionnement est fondé sur le fait que
plus un site est cité par d’autre sites,
plus il sera considéré comme pertinent
et donc plus son score sera élevé.
➢ Coté utilisateur…
Le « Deep Web »
► Quand on parle du Web, on pense généralement à la partie visible, indexée par les moteurs de
recherche. Pourtant, il existe tout une partie invisible, que l'on appelle le Web profond (Deep Web). Il
comprend toutes les pages qui ne sont pas accessibles par les moteurs de recherches classiques. Elles peuvent
être de tous les types, mais ce sont le plus souvent des bases de données, des bibliothèques en ligne ou
encore des pages protégées par un mot de passe.
Toutes les pages web, bien qu’accessibles avec un navigateur internet, ne sont pas référencées par les
moteurs de recherche, car le développeur n’a pas codé la page pour qu’elle le soit. Ces pages ont des
particularités : elles sont dynamique, protégées par un mot de passe et contiennent des ressources
volumineuses, entre autres. Ces ressources non indexées par les moteurs de recherche composent le « Deep
Web » (96% du Web). Le Dark Web représente la partie illégale, seulement 6% du Deep Web. Les ressources
indexées quant à elles, composent le Web de surface.