Académique Documents
Professionnel Documents
Culture Documents
Régis Micheli
Pascal Albericci
BOD Editions
Remerciements pour leur participation à cet ouvrage à :
Sophie Nebois, Marianne Maestrini, Cécilia Charpentier, Sébastien Dassé, Jean-Noël Anderruthy, Jérôme Caproni,
Nicolas Morardo, Louis Perello, Emmeline Razafindrabeza et Jean-Louis Paparone.
Les Clés du Référencement sur le Web
Edition 2014
Le Code de la propriété intellectuelle interdit les copies ou les reproductions destinées à une utilisation collective.
Toute représentation ou reproduction intégrale ou partielle faite par quelque procédé que ce soit, sans le consentement
de l'auteur ou de ses ayant droits, est illicite et constitue une contrefaçon sanctionnée par les articles L.335-2 et suivants du
Code de la propriété intellectuelle.
Régis Micheli :
Diplômé de l’Université de Santa Barbara (Etats-Unis) et de
SKEMA Business School, Régis a débuté sa carrière aux Etats-
Unis en tant que Webmaster dans une start-up de la Silicon
Valley. De retour en France il a exercé différentes fonctions
autour du web-marketing, avant de créer en 2002, l’agence de
marketing digital Visiplus. Régis a obtenu en 2005, la
certification Google Advertising Professional avant d’acquérir
en 2009 la certification Google Analytics Individual Qualified.
Pascal Albericci :
Ancien élève d’HEC et diplômé SKEMA Business School,
Pascal a exercé différentes responsabilités chez Microsoft,
Airbus Group ainsi que dans une start-up aujourd’hui propriété
d’Autodesk. Co-fondateur de Pingwy, racheté par un des leaders
du web français en 2007, Pascal a également été intervenant à
l’Ecole PolyTech Nice et Professeur vacataire à SKEMA
Sophia-Antipolis où il fût en charge de cours sur le commerce
électronique et les techniques d’analyse d’audience. Pascal est
aujourd’hui en charge du développement de nouvelles offres
autour d’avis et de conseils aux voyageurs chez Amadeus, un
des leaders mondiaux de systèmes de réservation de voyages.
5
TABLE DES MATIERES
Introduction....................................................................................................................13
Fondamentaux du référencement..........................................................................21
Chapitre 1 : Historique du référencement.................................................................20
1. Ancêtres des moteurs......................................................................................................21
1994-1995 : arrivée de Yahoo!, d’AOL et de Lycos............................................................22
1996 : le besoin de pertinence..........................................................................................24
Chapitre 3 : Spamdexing................................................................................................228
1. Généralités........................................................................................................................228
2. Pages satellites.................................................................................................................228
3. Autres exemples de spamdexing.......................................................................................229
Chapitre 4 : Attention à son image................................................................................231
1. Fausses astuces.................................................................................................................231
2. Situations qu’il vaut mieux éviter.......................................................................................232
3. Comment se tenir éloigné du spam ?................................................................................232
4. Penser à bien choisir son CMS..........................................................................................233
Conclusion.........................................................................................................................235
Six préceptes pour un référencement efficace.......................................................................236
Prospective sur le référencement..........................................................................................237
Choix d’un prestataire...........................................................................................................237
Prospective sur les moteurs de recherche.............................................................................239
Glossaire............................................................................................................................243
Bibliographie.....................................................................................................................269
INTRODUCTION
INTRODUCTION
Avoir un site Web ne suffit pas : encore faut-il qu’il soit consulté. Comme n’importe
quelle boutique, il convient de se rendre visible. A cet effet, différents outils de
marketing Internet existent, tels que l’emailing, la publicité en ligne et le
référencement dans les moteurs de recherche comme Google, Yahoo! ou bien encore
Bing.
C’est à ce dernier support de marketing appelé aussi « marketing de la recherche » que
se consacre cet ouvrage. L’optimisation d’un site doit non seulement couvrir le besoin
de prospection de nouveaux visiteurs mais également s’étendre à la notoriété et à
l’image de marque d’une société. D’un côté le référencement prospectif (commercial),
qui permet au site de générer des ventes ou des contacts au travers des moteurs de
recherche, et de l’autre un référencement de notoriété, ou d’image de marque, qui
consiste à se placer en tête des résultats sur sa marque ou sur le nom de ses produits.
Pour permettre au lecteur d’appréhender précisément la nécessité d’être visible dans
les moteurs de recherche, voici quelques chiffres présentant l’état de la recherche en
ligne dans le monde :
Un chiffre d’affaires en hausse de 13.5% par rapport à 2012 et dont 10 milliards ont été
concentrés sur la période des achats de Noël.
Cette même étude révèle une augmentation soutenue du nombre de sites marchands
avec 20 000 créations en 2013 (+17%) ;
Il existe 138 000 sites de commerce électronique en France ;
78% des internautes français achètent en ligne ;
Toujours en 2013, les ventes sur tablettes et smartphone ont quasiment doublé avec un
chiffre d’affaires de plus de 2.5 milliards d’euros (5% du marché global sur Internet) ;
34% des internautes de plus de 18 ans déclarent se servir de leur smartphone pour
comparer les prix lorsqu’ils sont en magasin ;
En sens inverse, on estime que près de 70% des Internautes utilisent Internet comme
source d’information pour un achat final en magasin (Baromètre Echo – Janvier 2012).
Le Syndicat des régies internet et l’Union des entreprises de conseil et achat média ont
publié, dès janvier 2014, leur étude sur l’e-publicité en France. Voici les chiffres les
plus significatifs :
Le digital représente 22% des dépenses publicitaires totales en France. C’est le seul
support à avoir enregistré une croissance sur les trois premiers trimestres de l’année
2013 (+3% contre -5% pour la télévision ou -8.6% pour la presse) ;
Le real-time bidding (enchère en temps réel) représente 16% du marché publicitaire
display en France en 2013, en croissance de 125% en 2013 (la vente directe reste reine
avec 69%) ;
Les vidéos concentrent 18% de la publicité display en 2013, contre 14% en 2012 ;
En dépit de fortes prévisions de croissance, le mobile ne représente que 8% des
dépenses digitales publicitaires en France ;
Le Search cristallise 1 671 millions d’euros (+ 5% en un an).
15
INTRODUCTION
Cet ouvrage se destine tout particulièrement aux personnes souhaitant avoir une vision
globale mais également pratique du référencement. Il se scinde en cinq parties, pour mieux
expliquer les cinq étapes clés identifiées comme étant essentielles à la réussite de son
référencement. Afin de ne pas risquer d’induire en erreur le lecteur, l’ouvrage s’axe
en priorité sur le référencement naturel. L’achat de liens sponsorisés, même s’il est
complémentaire au référencement naturel, est un métier bien différent qui est exposé dans un
autre ouvrage publié en 2013 “Le Référencement Publicitaire avec Google AdWords”.
Donner envie à nos lecteurs de se pencher sur leur référencement, éclaircir les zones
d’ombre, informer des meilleures pratiques actuelles et démystifier un métier trop
souvent incompris, voici les principaux objectifs de ce livre.
Depuis la première version d’Altavista jusqu’à celle de Google que nous connaissons
aujourd’hui, le fonctionnement des moteurs de recherche a largement progressé. En
perpétuelle avance sur les besoins des internautes, les moteurs se livrent à une guerre
acharnée et implémentent en permanence des fonctionnalités, poussant toujours plus
loin leur service de recherche.
Avec 98% de parts de marché cumulées en France, Google, Yahoo! et Bing offrent à
l’internaute toujours plus de matière et de pertinence, et modélisent la manière de
rechercher en ligne (source : StatCounter – Avril 2014).
L’internaute ne peut plus se passer de ces derniers : selon une étude baptisée « Yahoo
Search Academy », 68 % des internautes ont déjà cherché, sur Internet, une marque
sans se souvenir de son nom. Dans ce cas, 69 % d'entre eux ont utilisé un slogan ou un
élément publicitaire vu ou entendu (musique, personnalité...). Selon cette même étude,
71 % trouvent alors le site de la marque (Yahoo! France, Avril 2010).
Après avoir replacé le référencement dans son contexte, les 5 grandes étapes qui
président à sa mise en œuvre seront détaillées.
Première étape : le choix des mots-clés. Pour commencer sur des fondations stables,
des méthodes permettent de sélectionner au mieux les mots-clés les plus efficaces.
Entre les expressions de notoriété relatives au nom de la société et l’effet longue traîne,
les sites peuvent jouer sur différents leviers pour capitaliser des visites sur l’ensemble
de leurs pages.
Tous ces efforts peuvent être mesurés directement et adaptés au fur et à mesure des
retours chiffrés obtenus à partir des statistiques du site. C’est dans la quatrième étape
abordée dans cet ouvrage que sont expliquées les différentes mesures du succès, la
manière dont il convient de les calculer, et plus important, savoir comment en tirer
parti. L’analyse de ces chiffres fera la différence face à la concurrence. Certains outils
permettent d’aider dans l’élaboration d’un plan d’action et d’effectuer le suivi des
positions sur chaque moteur. L’outil Google Analytics, logiciel de statistiques fournit
par le moteur Google, propose de nombreuses fonctionnalités particulièrement
intéressantes pour tout détenteur de site. Un chapitre sera consacré à sa présentation.
17
INTRODUCTION
Certaines techniques « Black Hat » sont automatiquement détectées par les moteurs.
Pour ne pas mettre son site en mauvaise posture, il convient de rester vigilant en évitant
toute forme de spam Avant de livrer son site aux robots des moteurs de recherche,
mieux vaut s’assurer de sa bonne conformité avec les règles des moteurs, mais aussi
avec les besoins techniques des robots d’indexation, en éliminant de ses pages les
facteurs bloquants et éléments perturbateurs. La cinquième et dernière étape de ce livre
livrera toutes les clés pour mener à bien cette vérification.
La compétition sur les moteurs n’est aujourd’hui plus la même qu’il y a dix ans. Le
nombre de pages sur le Web a été multiplié de manière considérable. Jusqu’en 2005,
Google laissait apparaître sur son site le nombre de pages que ses robots avaient
indexées.
En juillet 2008, Google annonçait recenser, dans son index, plus de 1000 milliards
d’URLs. Voici les derniers chiffres connus pour 2012 :
Google a indexé 30 trillions de documents sur le web, soit 30 000 milliards ;
Google parcoure environ 20 milliards de pages par jour ;
Plus de 100 milliards de requêtes sont faites chaque mois sur Google, soit près de 3.3
milliards chaque jour (ou 40 000 chaque seconde) ;
Sur ces 100 milliards, 15% sont nouvelles, c'est-à-dire qu'aucun internaute n'a encore
eu l'idée de saisir cette requête sur Google ;
En décembre 2013, Matt Cutts a révélé qu’entre 25% et 30% du Web était du «
Duplicate Content » (contenu dupliqué).
Une masse de pages contre laquelle un site doit lutter pour ressortir. Qu’il s’agisse de
nouveaux acteurs, de concurrents internationaux ou de partenaires d’un même secteur :
sur le Web, la concurrence est amplifiée.
D’autant plus que la durée d’existence des sites ne cesse de se raccourcir. Après trois
ans de service, un site devient obsolète. Tout va très vite sur Internet, qu’il s’agisse de
design, de navigation ou bien de contenu. De nouvelles technologies Web apparaissent,
toujours plus performantes, et viennent bousculer les anciennes. Il est désormais assez
facile de donner un âge à un site Web, de la même façon que l’on repère dans Paris les
façades de style haussmannien de celles d’époque Art Nouveau. Une mise à jour
régulière permet non seulement de préserver une image « actuelle » mais aussi
d’adapter l’optimisation du site au plus près de ses besoins.
19
FONDAMENTAUX DU REFERENCEMENT
FONDAMENTAUX DU REFERENCEMENT
Pour mieux comprendre les moteurs de recherche d’aujourd’hui, il est toujours utile
de connaître leurs histoires et leurs évolutions au fil du temps. En quinze ans, les
moteurs et le référencement sont déjà caractérisés par des strates, accentuées par un
succès rapide.
Note : lors d’une conférence aux États-Unis, Hal Varian, chef économiste chez
Google, a expliqué que le moteur proposait une douzaine d’expérimentations en ligne,
soit environ 5 000 tests par an !
Trois ans plus tard, c’est Matthew Gray qui réalise une nouvelle avancée dans la
recherche, avec un outil nommé Wanderer. Le premier robot voit le jour. Matthew Gray
avait imaginé un programme automatique permettant de détecter les nouvelles pages
ajoutées sur le Web.
La même année, Martijn Koster va utiliser les avancées d’Archie et de Wanderer pour
développer Aliweb. Martijn Koster donne l’opportunité à tous les créateurs de sites
d’inscrire leurs pages dans une base dédiée, en y accompagnant une description. Il
s’agit là du tout premier annuaire en ligne.
Inspirés, les développeurs veulent ensuite aller plus loin. Les robots se perfectionnent.
De nouveaux programmes les rendent totalement autonomes dans le « crawling » de la
toile du Web. L’apparition des nombreux robots entrainera d’ailleurs de forts
ralentissements sur les pages, un effet indésirable qui sera corrigé par la suite.
23
FONDAMENTAUX DU REFERENCEMENT
Lycos puis Infoseek arrivent dès 1995 sur le marché. Commence alors la guerre de la
taille de l’index. A l’époque, la couverture du Web était le point le plus travaillé sur les
moteurs : plus l’index d’un moteur était volumineux, plus l’outil paraissait performant.
En 1996, constatant les écarts de résultats entre les différents acteurs, MetaCrawler
lance le marché des méta-moteurs, c'est-à-dire la recherche multi-moteurs. Avec une
requête saisie dans l’outil, l’utilisateur se voyait proposer les meilleurs résultats extraits
de plusieurs moteurs.
Le 1er juin 2009, Microsoft annonce une refonte de son moteur et décide de le
rebaptiser « Bing ». De nouvelles fonctionnalités sont proposées dont certaines
proviennent de Powerset, moteur de recherche sémantique qui a été racheté par la
firme de Richmond en 2008.
A ce jour, Google sort grand vainqueur de ce combat. En France et en mars 2014, les 10
sites les plus visités en termes de visiteurs uniques sont : Google, Facebook, YouTube,
Microsoft, MSN/Windows Live, Orange, Le Bon Coin, Free, Les Pages Jaunes.
Selon les dernières statistiques de NetMarketShare, effectuées en avril 2014, Google
représente, dans le monde, 69.55% des requêtes ; Baidu est numéro deux avec 16.77%,
suivi par Yahoo! avec 6.53% ; Bing occupe la quatrième position avec 6.18% de parts
de marché ; AOL est en cinquième position avec 0.26%.
25
FONDAMENTAUX DU REFERENCEMENT
1. Moteurs
1.1. Moteurs classiques
Google
Larry Page et Sergey Brin étaient largement inspirés lorsqu’ils ont conçu Google. Avec
plus de 1000 milliards de pages web indexées, le moteur continue d’être à la pointe de
la pertinence. Une aptitude travaillée rapidement par ses créateurs, avec notamment le
PageRank, critère mesurant la popularité d'un site par rapport à son marché. Cette
notoriété est calculée en fonction des liens pointant d’une page à une autre. Selon la
réputation du site émetteur du lien, la page prend plus ou moins d'importance. Cet
indice, appelé PageRank, est mesuré à l’aide d’une valeur allant de 0 à 10, appelé
PageRank.
Au centre de toutes les attentions des référenceurs se trouve la recherche des critères
constituant l’algorithme de Google. Parmi les principaux éléments devinés figurent,
entre autres, le contenu des pages, les échanges de liens, la structure du site, les
caractéristiques de l’URL ou encore le titre des pages et les balises meta.
A l’origine, Google n’était qu’un simple moteur de recherche. Dans ses premières
années d’existence, l’acteur s’est entièrement concentré sur son outil et s’est taillé un
avantage face à la concurrence. Une fois sa notoriété faite, le moteur a constamment
grignoté des parts de marché en proposant une myriade de services gratuits :
applications et services de cartographie (Google Maps, Google Earth), bureautique en
ligne (Google Drive, Google Agenda), plateforme de blog (Blogger), outils de création
de sites Web (Google Sites), services de réseautage social (Google+), sites de partage de
vidéos (YouTube), sites de partage de photos (Panoramio, Picasa), régies publicitaires
(Google AdWords, Google AdSense), services de messagerie (Gmail), etc.
Yahoo!
Lancé à partir d’un annuaire, Jerry Yang et David Filo ont fait de Yahoo! un portail
mondialement reconnu. La recherche n’est pas la seule activité du moteur, qui fournit
également une foultitude d'autres services comme un portail d'actualités, un service de
messagerie, etc. Yahoo! possédait également un comparateur de prix, qui a été revendu en
novembre 2008 à un fond d’investissement. Ce n’est qu’en 2003 que le groupe décide de se
lancer seul dans l’aventure de la recherche en ligne, avec le rachat d'Inktomi. Jusque là, il
proposait à ses utilisateurs la technologie de Google, une mise en avant qui a d’ailleurs pesé
lourdement dans le succès de Google.
Yahoo! arrive troisième dans le classement mondial, loin derrière Google. Néanmoins,
le moteur est très populaire dans certains pays, comme au Japon, où il devance Google
avec plus de 51.4% de parts de marché (source : Internet World Stats - Avril 2014).
Pour rester dans la course, Yahoo! n’a pas hésité à mettre de côté son annuaire, qui a
fait sa renommée, pour mieux orienter sa stratégie sur son contenu et son moteur.
Bing
Alias Windows Live Search, le moteur fait peau neuve en juin 2009 en rebaptisant son
moteur « Bing ». Un nouveau baroud d’honneur qui vise à replacer la recherche au
cœur de ses services.
Avec une première version publiée en 2005, Microsoft souhaite conquérir le marché
de la recherche et passer devant Google. Un objectif ambitieux et largement affiché qui
justifie les investissements déboursés par l’acteur. Malgré ses efforts, le moteur ne se
détache pas de ceux de ses deux principaux concurrents. Pourtant, Bing dispose d’une
puissance de frappe avantageuse grâce à l’implantation mondiale de Microsoft et la
popularité de son service de messagerie instantanée Messenger.
Avec des parts de marché limitées, Microsoft envisageait depuis longtemps un
rapprochement avec Yahoo!. Deux offres successives ont été faites au conseil
d’administration de Yahoo! en 2007 et en 2008, toutes deux refusées par ce dernier.
En 2009, les deux sociétés signent un partenariat stipulant que la technologie de
recherche développée par Microsoft sera intégrée au portail Yahoo!
27
FONDAMENTAUX DU REFERENCEMENT
AOL
Aux Etats-Unis, AOL cumule 1.4% des requêtes. Filiale de Time Warner, AOL fait
figure d’ancêtre sur le marché des moteurs. Alors qu’il était jusque là un grand
fournisseur de service Internet, AOL a placé ses pions dans la recherche en ligne dès
1995 avec l’acquisition de WebCrawler, le premier acteur parcourant et indexant
l’intégralité des documents en ligne. A la fin de l’année 2005, un accord entre les deux
sociétés stipule, entre autre, que Google continuera de fournir à AOL ses solutions de
recherche.
Ask
Après un lancement remarqué aux Etats-Unis en 1996, Ask Jeeves est racheté par la
société InterActive Corp, détenteur des marques Expedia, Match.com ou encore
CitySearch en 2006.
Ask Jeeves est alors rebaptisé Ask. Ce moteur cumule outre-Atlantique 2.9% de parts
de marché. Encore anonyme en France, Ask souhaite se hisser à la troisième place en
Europe.
Orange
C’est le moteur francophone grand public. Accessible depuis le portail Orange et Voilà,
le moteur bénéficie des visites des abonnés à la marque Orange et Voilà. Le moteur de
France Télécom recense 0.4% de parts de marché en France (source : AT Internet –
Avril 2014).
Baidu
Moteur de recherche chinois fondé en 2000 par Li Yanhong, Baidu est devenu rapidement le
leader de la recherche en Chine où il détient plus de 75% du marché et se place sur la
deuxième marche, derrière Google, dans la liste des moteurs les plus utilisés dans le monde.
Introduit en 2005 au Nasdaq, l’acteur s’est lancé à la conquête du marché japonais en 2007.
29
FONDAMENTAUX DU REFERENCEMENT
Ces outils de recherche verticaux veulent surtout pallier au manque de qualité des
moteurs de recherche génériques.
2. Agences de référencement
Arrivées peu de temps après la naissance des premiers moteurs de recherche, les agences de
référencement ont toujours eu la même mission : le positionnement de sites sur les moteurs
de recherche. Les tout premiers fournisseurs de services de positionnement sont apparus
d’abord aux Etats-Unis vers 1995.
Dès l’année suivante, le marché du référencement s’est développé, notamment grâce
aux premières amorces d’investissements des sociétés sur le Web. En France, c’est en 1998
que le référencement commence à se faire connaître. Depuis cette date, les agences de
référencement se sont multipliées. Entièrement dépendants des moteurs de recherche, les
acteurs ont dû faire preuve de souplesse, tant sur leurs offres que sur leurs services, au fur et à
mesure de l’avancée des moteurs. Entre les années 2000 et 2002, le marché de l’optimisation
est en plein essor. Le spam sur les moteurs bat son plein jusqu’en 2005. Pour stopper les abus,
les principaux outils prennent des sanctions exemplaires.
31
FONDAMENTAUX DU REFERENCEMENT
4. Objectifs du référencement
Savoir se placer dans les premières positions devient une obligation pour les marques.
Les dernières études parues insistent bien sur le fait que les internautes ne dépassent
généralement pas les trois premières pages de résultats et que la majorité d’entre eux ne
se contente que des premiers sites listés ou au mieux ceux de la première page.
En plus de l’objectif de trafic, le référencement s’avère également une activité primordiale
pour l’image de marque d’une entreprise. Ressortir en tête des moteurs pour une expression
donnée permet à une marque non seulement de se faire connaître des internautes, mais
également de prouver son importance. 33% des internautes pensent qu'une société présente
dans les premières positions des moteurs de recherche est leader sur son marché ! (Source :
SEO Inc – 2011).
Face à ces chiffres, le besoin de positionnement sur les différents moteurs de recherche est
prioritaire, pour ne pas dire vital. Reste à positionner le site sur des expressions amenant une
conversion de ses visiteurs en prospects, clients ou inscriptions à une newsletter par exemple.
Inutile pour un institut de beauté de ressortir sur des requêtes relatives aux institutions
publiques. Il faut savoir au préalable sélectionner les bons mots-clés qui amèneront sur le site
une conversion en termes de ventes ou de contacts. Le référencement est une opération qui
s’inscrit dans le long terme.
33
FONDAMENTAUX DU REFERENCEMENT
1. Algorithmes
L’algorithme est la pièce secrète des moteurs de recherche. C’est le cœur même du
métier. Dans le domaine informatique, un algorithme de recherche est un ensemble de
règles permettant d’évaluer pour un problème donné les différentes possibilités de
réponses, pour mettre en avant, au final, la solution la plus adaptée. Dans le cas des
moteurs, il s’agit donc d’une technique de sélection des pages – compilées au sein
d’une base de données – en fonction des mots-clés saisis.
Ces algorithmes de recherche se classent selon des catégories bien précises :
la liste de recherche (list search) : il s’agit d’une technique de recherche linéaire.
En général, une seule réponse sortira parmi une liste.
35
FONDAMENTAUX DU REFERENCEMENT
1.2. La fréquence
Ce critère prend en compte la récurrence d’un mot dans une page. Une expression
revenant plusieurs fois marque l’importance du thème dans la page. Cette répétition
est relevée par les moteurs. Ce n’est pas pour autant une raison de rajouter des mots-
clés. Ce spamdexing est aujourd’hui connu et peut être détecté.
1.3. Les liens
Il s’agit là d’un des critères les plus récents. Les moteurs comptabilisent non
seulement les liens qui mènent vers un site, mais également ceux qui sortent du site.
Ces liens leur permettent de bien comprendre quelle est la thématique du site et de
déterminer sa popularité sur le Web.
A partir d’une simple biographie, l’internaute peut explorer les autres sujets et thèmes
qui sont liés à la vie du personnage principal.
2. Robots
C’est l’outil qui relie les moteurs aux sites Web. Ces programmes naviguent sur le Web
à la recherche de nouveaux contenus. Chaque nouvelle page mise en ligne est analysée
et indexée. Le robot navigue de lien en lien sur le Web. Il détecte les nouveaux
contenus mais également les mises à jour sur des pages déjà crawlées. Toutes ces
données sont ensuite rapatriées dans les serveurs des moteurs.
37
FONDAMENTAUX DU REFERENCEMENT
Ces robots passent selon les moteurs plus ou moins fréquemment. De nouveau, Google
est en tête de peloton dans cette catégorie. Il peut, en effet, détecter des modifications
apportées à un site web en moins de 6 secondes (montre en main !) et les indexer
immédiatement dans son moteur. Une actualité peut donc se trouver rapidement en tête
des résultats naturels. Il s’agit là d’une avancée remarquable dans l’histoire des
moteurs. Ce même acteur se contentait encore jusqu’en 2003 de passer une fois par
mois sur les sites. Le moteur mettait à jour son index en fonction du calendrier des
pleines lunes, une opération appelée la Google Dance.
Une des conditions fondamentales avant qu’un robot vienne visiter un site : l’accessibilité.
Textes, images, vidéos ou encore PDF : le robot ne néglige aucun format. Seuls le
JavaScript ou encore le format Flash restent mal assimilés par les robots. Les robots de tous
les moteurs sont régis par certaines règles. Il est ainsi toujours possible de bloquer l’accès de
pages Web avec un fichier nommé « robots.txt ».
Note : en l’absence de fichier Robots.txt, votre site web ne sera tout simplement pas
exploré.
Après de nombreuses études effectuées, force est de constater que plus un site Web
disposera d’un PageRank élevé, plus le moteur Google aura tendance à visiter
fréquemment ce site Web.
Il existe différents programmes : ceux en charge de relever du contenu, de l’actualité,
ou encore des produits mis en vente. Il est possible de détecter sur ces statistiques la
visite des robots. Grâce à ce décompte, nous pouvons nous rendre compte que plus un
site est mis à jour, plus le robot reviendra vérifier l’actualisation des données.
La fonctionnalité du robot se limite à la collecte. Il ne classe en aucun cas les données.
3. Index
Avec des milliards de pages constituant le Web, les robots ont du travail devant eux. Ils
rapatrient toutes les données dans l’index. Ce dernier est une gigantesque base où sont
recensées toutes les pages que les robots ont relevées. Mieux encore, les moteurs
conservent les archives du Web. Ainsi, l’internaute peut retrouver les anciennes
versions. Il est toutefois possible pour un détenteur de site d’interdire cet archivage en
ajoutant dans son code source la balise suivante :
La taille des index n’est aujourd’hui plus affichée et les moteurs ne communiquent que
très partiellement dessus. Cependant, comme nous l’avons déjà dit précédemment,
Google a indiqué en août 2008 avoir recensé dans ses bases pas moins de 1 000
milliards d’URLs.
4. Classement
Le classement dépend directement du travail des robots, de la gestion de l’index et
du fonctionnement de l’algorithme. C’est en fonction de l’algorithme que le tri dans
l’index du moteur sera effectué puis présenté aux utilisateurs. Et c’est sur ce
classement que tout le travail de référencement dépendra. En comprenant le
fonctionnement des moteurs de recherche, il devient possible de travailler, au plus près,
son optimisation.
Le classement dans les moteurs n’est pas figé, comme dans les annuaires. Bien au
contraire, il est en mouvement permanent. L’indexation en continu de nouvelles pages,
de données mises à jour et le changement constant des algorithmes, sont à l’origine de
ces mouvements.
Rien n’est donc jamais acquis sur les moteurs. Les robots se perfectionnent, les
algorithmes se compliquent et les index ne cessent de grossir. Autant de critères à
prendre en compte dans une stratégie d’optimisation.
5. Services annexes
5.1. Fonctions avancées des moteurs de recherche
Les moteurs de recherche s’avèrent être des outils puissants, utilisés généralement à
10% de leurs capacités. Pour aller chercher toujours plus profondément dans le Web,
ces derniers proposent des fonctionnalités de recherche avancée, très pratiques pour
une investigation poussée.
Fonctions avancées
de recherche dans Google (1)
39
FONDAMENTAUX DU REFERENCEMENT
L’ordre des mots-clés saisis agit directement sur le classement des résultats. Ainsi, avec
la requête « décoration plante intérieur », les résultats obtenus sont différents que pour
« plante décoration intérieur ».
Parmi les autres fonctionnalités avancées, celle de la langue ou du pays, qui permet de
délimiter géographiquement où Google doit chercher. Pour une recherche de
documents, il suffit de préciser dans le menu déroulant si l’on ne souhaite que des PDF,
des fichiers Excel ou encore PowerPoint.
La recherche de pages similaires offre aux internautes la possibilité de repérer dans
l’index du moteur les pages ayant des caractéristiques similaires avec un site. Ainsi, en
saisissant l’URL d’un journal en ligne, le moteur listera d’autres domaines qu’il aura
détectés comme appartenant à la même catégorie.
La recherche de pages liées permet de connaître les sites ayant réalisé un lien vers les
pages du site mentionné. Une information qui sert pour les internautes souhaitant
explorer un univers soigneusement délimité ou bien dans le cadre d’une veille
concurrentielle en recherche de liens.
Cette fonction permet de retrouver des informations qui sont apparues en ligne mais
qui n’y sont plus comme, par exemple, les anciens termes d’un contrat qui a été depuis
modifié, ou encore des chiffres avant leur réactualisation. Plusieurs moteurs proposent
cette recherche spécifique, excepté Ask Search.
« site: www.nomdusite.com/fr... »
Avec cette mention, il est possible de limiter la recherche à un site donné. Fonction très
utile si un site ne propose pas d’outil de recherche interne ou si son outil ne donne pas
satisfaction.
« intitle: » ou « allintitle: »
Il existe une différence dans l’emploi des opérateurs intitle et allintitle. Si une
recherche comporte plus d’un mot-clé, le second opérateur oblige le moteur à
rechercher des pages dont les titres contiennent l’ensemble des mots-clés définis :
allintitle: android google
« inurl: » ou « allinurl:»
La même remarque que celle que nous avons faite précédemment s’applique à l’emploi
de l’opérateur allinurl.
« filetype: » ou « ext:»
Cette fonctionnalité est utilisée pour rechercher uniquement les documents indexés sur
le Web, comme des feuilles Word, des fichiers Excel, des présentations PowerPoint,
des PDF. Voici la liste officielle des extensions qui sont possibles : .pdf, .ps, .dwf, .kml,
.kmz, .xls, .ppt, .doc, .rtf, .swf.
En pratique, il est possible de spécifier toutes sortes d’extensions : KML, EXE, DOCX,
etc.
41
FONDAMENTAUX DU REFERENCEMENT
« link: »
Une commande utilisée pour connaître la popularité de son site ou de celle des
concurrents. Les sites ayant créé un lien vers une marque ou un site particulier seront
affichés.
Exemple de commande link: dans Yahoo!
5.3. Outils
Autant les moteurs sont avares en informations, autant ils fournissent généreusement nombre
d’outils utiles aux Webmasters. Indispensables dans une optique d’indexation dans les résultats
naturels comme sur les liens sponsorisés, ces services gratuits deviennent de plus en plus
complets et peuvent largement rivaliser avec les outils professionnels dédiés au référencement.
Afin de mieux comprendre l’origine du trafic, l’outil détaille les requêtes les plus
fréquentes et liste les sites ayant des liens pointant vers ses pages.
Par ailleurs, les outils Google pour webmasters permettent de suivre son
positionnement de manière très précise… Pour chacun des mots-clés sur lesquels vous
êtes bien placés sur Google, il sera indiqué :
Le nombre total d’impressions qui ont été générées ;
Les différentes positions occupées par vos liens ;
Le nombre de clics par mot-clé.
Requêtes les plus fréquentes dans Google - Source Google Webmaster Tools
43
FONDAMENTAUX DU REFERENCEMENT
Page de l’outil Webmaster Center pour Live Search - Source : Live Search
L’outil propose une rubrique dédiée aux éventuels problèmes de crawls en listant les
erreurs rencontrées par ses robots sur les pages du site. L’outil met en évidence les
erreurs 404, les URLs dynamiques trop longues, le type de contenu que son robot ne
prend pas en compte et les facteurs bloquants.
Accès aux résultats des visites des robots de Microsoft - Source : Live Search
Afin d’apporter une notion de valeur ajoutée pour l’utilisateur internaute, Google a
introduit la notion de qualité dans ses annonces. Le moteur intègre en plus dans son
calcul du CPC le « Quality Score », un facteur de qualité. Plus le « Quality Score » est
élevé, plus le CPC minimum sera faible et l’annonce bien positionnée dans les
premiers résultats.
45
FONDAMENTAUX DU REFERENCEMENT
La lisibilité
Un autre point important. Un site doit être lisible et compréhensible afin que le moteur
détecte et indexe tout son contenu.
L’architecture des liens
Qu’ils s’agissent de liens internes comme externes, la présence d’un lien est
systématiquement notée et joue un rôle dans le positionnement de la page contenant le lien et
de la page de destination.
Exemple de résultats naturels dans Google
Note : quels sont les critères d’un bon contenu ? En novembre 2012, Google a publié
un fichier PDF des directives données aux personnes qui, au sein de l’entreprise, sont
chargés d’évaluer la qualité du moteur de recherche et donc, indirectement, des sites
web qui sont présentés :
http://static.googleusercontent.com/media/www.google.com/fr//insidesearch/howsear
chworks/assets/searchqualityevaluatorguidelines.pdf
Afin de se rendre visible sur ces services, une inscription préalable s’impose. Là encore,
être indexé ne suffit pas et quelques astuces permettent de travailler sa visibilité :
Le titre doit être optimisé, c'est-à-dire contenir une expression clé accompagnée du
nom de la société
Le texte de présentation doit être précis et doit faciliter le travail du moteur en
précisant la thématique de son métier
Il est possible de transmettre au moteur des images : cette solution est conseillée.
Dans les outils de recherche locaux, une entreprise peut également acheter des mots-
clés pour figurer dans les liens commerciaux. Enfin, une présence localisée peut être
bénéfique dans un positionnement global. Si la requête le nécessite, les moteurs
intègrent directement ses données dans les résultats classiques, comme le montre, en
exemple, la capture d’écran présentée ci-dessous.
49
FONDAMENTAUX DU REFERENCEMENT
Présentation de résultats différents pour la requête « Jessica Alba » : images, actualités, wiki,…
Une mise en avant de ces formats change les règles du référencement. Les sociétés qui
avaient acquis une première place se voient reléguées à des places inférieures.
Un site doit aujourd’hui intégrer cette nouvelle donnée et proposer des formats
innovants aux internautes pour communiquer au plus près de leurs attentes. Actualités,
images, wikis, vidéos sont autant de nouveaux médias sur lesquels doivent investir les
sites marchands pour s’assurer d’une visibilité accrue auprès des internautes.
De nouveaux éléments devront également être optimisés. Et la tâche n’est pas si facile.
Les vidéos et photos sont très abstraites pour un robot qui ne peut pas en comprendre le
contenu. Les données textuelles qui entourent l’image (ainsi que le nom du fichier
image) seront directement utilisés par le moteur de recherche.
On peut remarquer la présence de Snippets (nous y reviendrons un peu plus loin dans
ce livre) ainsi que l’utilisation presque systématique des liens profonds et des PlusBox.
En septembre 2013, la société BrightEdge a publié une étude qui indique que les taux de clics
(CTR) est encore plus important sur les trois premières positions des résultats de Google pour les
smartphones et tablettes. Par exemple, voici les données pour le résultat placé en première position
:
Ordinateur : 24%, Tablette : 24%, Smaphone : 33%.
C’est un des eldorados des moteurs de recherche que de pouvoir vous proposer des
résultats qui soient taillés, sur mesure, pour vous. Il existe de nombreuses façons de
personnaliser une page de résultats… Mais, principalement, Google en distingue cinq :
Pour les utilisateurs connectés à leur compte Google, les liens affichés seront calculés
en fonction de votre historique de recherches ;
En fonction des recherches précédentes qui auront été enregistrées dans un fichier de
cookie (pour les utilisateurs non connectés) ;
Selon votre adresse IP ;
Selon les sites de réseautage social auxquels vous êtes inscrit ;
En fonction de nombreux critères comme l’interface linguistique et la version du
moteur que vous utilisez.
Votre localisation géographique joue un rôle majeur puisque, pour la requête « hôtel »,
selon que vous soyez à Nantes ou à Nice, les résultats ne seront les mêmes.
Et Google a tout prévu puisqu’il vous offre la possibilité de « changer de lieu ».
53
FONDAMENTAUX DU REFERENCEMENT
Quelles sont les implications pour les éditeurs de site web ? Quand on parle mainte-
nant de référencement, il est difficile d’annoncer, de manière péremptoire, que, sur tel
ou tel mot-clé, on est en première ou en seconde position. Tout est une question de
contexte (en fonction du profil de l’internaute qui saisit sa recherche) et va se résu-
mer à des moyennes. Est-ce que cela va rendre plus difficile le travail de référence-
ment ? Oui, sans aucun doute puisque, dans ce cas, un bon référencement devra se
mener sur plusieurs fronts et que la place convoitée ne le sera jamais de manière dé-
finitive.
Et c’est aussi une bonne manière de mettre un pied dans le référencement géoloca-
lisé… Puisqu’un grand nombre de requêtes le sont déjà explicitement (« Plombier
Nantes ») ou implicitement (un internaute habitant à Nantes lance cette requête :
« Plombier »). Enfin, on peut se demander s’il existe alors une vraie manière d’avoir
une vue objective de sa position pour une requête donnée ? Oui ! Google a prévu des
outils performants vous permettant d’interroger ce que l’on pourrait appeler un « Juge
de paix » et qui vous montre des résultats « objectifs ».
Voici les pourcentages tels que qu’ils ont été relevés lors d’une étude menée en 2014
par Conductor :
Images : 28% ; Actualités : 9% ; Résultats « Shopping » : 1%.
Force est de constater que la prédominance de la recherche universelle dans les Serps
n’arrête pas de se renforcer.
Une étude menée par Comscore en octobre 2012 vient renforce ce constat.
Concernant la part de voix :
Résultats naturels : 85%, Résultats payants : 15%.
55% des pages de résultats contiennent des liens publicitaires (appelés aussi « liens
contextuels »).
En juillet 2012, la société Wordstream, lors d’une étude portant sur le marché
américain, a calculé que, lors de requêtes transactionnelles, 64.6% des clics allaient
vers les liens publicitaires (35.4% pour les résultats naturels ou organiques).
C’est une manière de démontrer que plus l’internaute est prêt à acheter un produit ou à
se décider pour un service, plus l’influence des annonces Google AdWords est
prépondérante.
Enfin, selon l’étude précédente, 89% du trafic généré par les liens publicitaires est un
type de trafic différent de celui généré par les résultats naturels.
Notez que la firme de Mountain View propose, via Google AdWords, un outil qui
permet, pour les mêmes requêtes, de comparer le trafic naturel et le trafic payant. Pour
y avoir accès, en plus de posséder un compte Google AdWords, vous devez avoir lié
votre compte Google Outils pour webmaster avec votre compte Google Adwords.
Plutôt que d’opposer ces deux médias, pensez plutôt à développer des synergies de
façon à :
Augmenter votre visibilité sur le Web ;
Faire de la notoriété et de l’image de marque ;
Provoquer du retour sur attention ;
Optimiser votre surface de vente ;
Augmenter le taux de clics de vos liens (naturels et payants).
Même si ces chiffres datent de quatre ans, force est de constater que la prédominance
de la recherche universelle dans les Serps n’arrête pas de se renforcer.
Si ce n’était pas déjà le cas, voici une raison supplémentaire de travailler votre
référencement multimédia !
55
FONDAMENTAUX DU REFERENCEMENT
Le M-acheteur ne concentre pas ses achats uniquement sur les micro-paiements (33%
de ses achats : produits de type sonneries, logos). Il s'intéresse également aux produits
culturels (49% des achats effectués) ainsi qu'aux produits de consommation courante
(21% : vêtements, produits de beauté, produits alimentaires).
Il existe deux voies pour qui veut être présent sur le Web mobile :
Les « Native apps » : applications que le mobinaute doit installer sur son
Smartphone ;
Les « Web apps » : sites web mobiles qui peuvent être visités en utilisant un
navigateur adapté.
Les applications se distinguent par leur capacité à utiliser les particularités
« Hardware » des Smartphones (accéléromètre, 3D, réalité augmentée,
géolocalisation, appel direct, etc.) et le fait qu’une application mobile peut être
accessible hors-connexion.
57
FONDAMENTAUX DU REFERENCEMENT
Et le choix entre les deux solutions tiendra compte de multiples critères comme les
fonctionnalités, le type de contenu qui sera accessible (contenus froids ou contenus
chauds) et les habitudes de l’audience que l’on souhaite atteindre.
Notez qu’il n’est pas rare de voir, lorsqu’on analyse les statistiques de fréquentation
des sites e-commerce ou des sites média, qu’entre 6 et 10% des visites sont effectuées
à partir d’un appareil mobile. Et il est dommage de ne pas avoir prévu, pour ces
mobinautes, une version du site web qui soit parfaitement adaptée à ce type de
périphérique.
Une fois votre site mobile sur les rails, vous devrez placer un script spécialisé sur le
site classique afin que les mobinautes, qui le visitent, soient immédiatement redirigés
vers la version adéquate.
Un site mobile suppose une stratégie différente en termes de référencement : le robot
d’exploration de sites pour mobile, propre à Google, s’appelle « Googlebot-Mobile ».
De fait, les résultats renvoyés par le moteur de recherche mobile sont différents de
ceux fournis par son « grand-frère ».
Afin que votre site mobile soit indexé, soumettez, dans les outils pour webmasters de
Google, un fichier Sitemap XML contenant les URLs de pages Web dédiées aux
mobiles.
N’oubliez pas qu’un site mobile correctement référencé n’est pas tout et que
l’ergonomie ainsi que l’offre présentée par les pages web doivent être adaptées aux
particularités de ces périphériques : parcours de navigation simplifiés, tailles des
images réduites, inventaire resserré aux 20% des produits les plus populaires, etc.
Signalons que la question de la distinction entre mobile et ordinateur classique est mal
posée puisque certains smartphones présentent une résolution d’écran supérieure à
nombre d’ordinateurs. L’idée est donc plutôt de s’adapter à une multitude de
résolutions d’écran différentes. Au premier trimestre 2013, le nombre de résolutions
d’écran répertoriées s’élevait à 232.
59
FONDAMENTAUX DU REFERENCEMENT
2. Challenges du référencement
60%
50%
40%
30%
20%
10%
0
Surf Météo Recherche
en ligne
Visites Recherches Informations Email
Networking pour hobby
Parmi les grands profils distingués lors de cette étude sur les internautes, les utilisateurs
des moteurs de recherche ont en général un background scolaire poussé :
66% sont diplômés d’une université,
49% ont effectué des études en université,
Les ménages à hauts revenus sont habituellement les plus susceptibles d’utiliser les
moteurs dans une journée classique sur le Web :
revenus supérieurs à 75 000 $ : 62%,
revenus situés entre 5 0 000 et 74,999 $ : 56%,
revenus situés entre 30 000 et 49,999 $ : 34%,
revenus inférieurs à 30 000 $ : 36%.
Enfin, les jeunes internautes sont les plus susceptibles d’effectuer des recherches en
ligne :
entre 18 et 29 ans : 55%,
entre 30 et 49 ans : 54%,
entre 50 et 64 ans : 40%,
plus de 65 ans : 27%.
Avec le haut débit en voie de développement, les internautes n’ont plus de limites dans
leur consultation du Web et passer par un moteur ne leur fait aujourd’hui plus perdre de
temps, bien au contraire. La masse grandissante d’informations, au travers des blogs,
des sites d’actualités, des vidéos ou encore des images, ne cesse de croître dans des
proportions importantes. Clés d’entrée, les moteurs deviennent toujours plus puissants
et offrent des réponses de plus en plus pertinentes.
2.2. Définition du SEO
SEO est l’acronyme de Search Engine Optimization. En constatant l’importance
croissante des moteurs, les entreprises se sont rapidement penchées sur le
fonctionnement de ces derniers pour pouvoir figurer en tête des résultats. Une solution
s’est imposée : l’optimisation des sites pour les moteurs de recherche.
Bien entendu, certaines astuces sont possibles, mais la sophistication des algorithmes
permet d’en limiter la portée et provoque souvent la mise à l’index des sites qui ont
franchi la ligne rouge.
61
FONDAMENTAUX DU REFERENCEMENT
Le SEO consiste donc à bien comprendre comment sont gérés les moteurs et à étudier
les meilleures solutions pour coller à leurs critères sans pour autant jouer avec ces
derniers. Plus les développements seront solides, plus le référencement se placera dans
une logique de long terme. La patience s’impose pour des résultats de qualité : selon le
secteur, les premiers résultats peuvent s’étaler entre quelques semaines et plusieurs
mois.
Les moteurs de recherche – et, entre autres, les firmes spécialisées dans les nouvelles
technologies – sont entrés dans le quotidien des internautes, comme le montre l’étude
de Millward Brown, qui place Apple et Google comme les marques les plus puissantes.
Pour 2013, voici le classement des cinq marques les plus puissantes dans le monde en
termes de capitalisation boursière (en milliard de dollars) :
Apple : 185.1
Google : 113.67
IBM : 112.54
Mc Donalds : 90.26
Coca-Cola : 78.42
Le classement 2013 de la société Interbrand diffère quelque peu (d’autres critères sont
pris en compte) :
Apple
Google
Coca-Cola
IBM
Microsoft
General Electric
Mc Donalds
Samsung
Intel
Google a fait son entrée dans le dictionnaire américain en 2006 sous la forme d’un verbe
transitif : « to google », qui signifie rechercher dans le moteur des informations.
La plupart des internautes en phase d’achat commence leur tri dès les moteurs de recherche.
Il est toujours possible de passer outre et de se concentrer entièrement sur la publicité en
ligne. Pourtant, les coûts d’acquisition avec le référencement sont largement inférieurs à ceux
de la publicité classique. Le cabinet américain Piper Jaffray & Co. a mené une étude pour
comparer les coûts d’acquisition moyens. Le référencement ressort comme étant le moins
coûteux, avec une moyenne à 8,5 dollars. En comparaison, la publicité en ligne implique un
coût moyen de 50 dollars.
Le référencement est l’un des outils proposant le meilleur taux de retour sur investissement,
comme le montre le graphique de la Direct Marketing Association publié en Octobre 2007.
Alors que l’emailing présente le ROI le plus élevé, le référencement se place en seconde
place, devant le télémarketing et le marketing direct.
ROI des différents outils de marketing direct aux USA en 2008 - en USD
Emails commerciaux
Search, display
Marketing direct
Télémarketing
0 10 20 30 40 50
Les chiffres publiés en 2009 par ce même institut ne sont pas différents : pour 1 dollar
investi, l’e-mailing offre un ROI de 43 dollars contre 11 dollars en moyenne pour les autres
canaux de marketing direct. Les statistiques 2010 donnent un ROI de 30 dollars pour
l’emailing et de 15 dollars pour le mailing postal.
63
64 Les Clés du Référencement sur le Web
PREMIERE ETAPE :
CHOIX DES MOTS CLES
CHOIX DES MOTS CLES
1. Connaître sa cible
67
CHOIX DES MOTS CLES
Le travail sur les mots-clés prend du temps et coûte de l’argent : il faut donc penser «
qualité » dès sa constitution.
Toujours faire attention aux mots-clés à multiple audience
Comme le mot-clé « sécurité », qui peut faire référence aussi bien à la sécurité civile, à
la sécurité des bâtiments ou bien à la protection des données en ligne. Autre exemple
avec le mot-clé « moteur », qui renvoie aux outils de recherche ou au secteur
automobile. Dans la même idée, « portable » s’accorde aussi bien avec les ordinateurs,
les téléphones ou encore les consoles de poches.
Vigilance avec les expressions trop larges
Si le site vend uniquement des robes en soie et se place sur la requête « robes », il peut
accumuler beaucoup de visites, mais avec un taux de déperdition conséquent. Ce taux
est à calculer en fonction du ROI.
Les acronymes sont à prendre avec des pincettes
Les balnéothérapies par exemples se retrouvent confrontées à ce problème avec le mot-
clé « spa », qui signifie également Société Protectrice des Animaux.
Dans la sélection de mots-clés, il faut toujours se poser des questions sur sa cible : quels
sont ses besoins, quels mots utilisera-t-elle pour exprimer ses besoins ? Quel contenu
attend-elle ?
3. Mots-clés dérivés
Singulier ou pluriel
Les moteurs font la différence entre les deux. Si des internautes recherchent dans les
deux formats, il est utile d’être présent dans les deux cas.
Les fautes d’orthographe
Une question largement débattue dans le secteur du référencement. Règles
orthographiques ou erreur de frappe, les internautes commettent des impairs dans leur
requête, que ce soit sur le nom d’une marque ou sur un nom commun. Faut-il être
présent sur des mots-clés mal rédigés ? Une réponse positive implique nécessairement
de présenter dans son contenu des mots-clés avec des fautes, ce qui ne colle sûrement
pas avec la ligne éditoriale fixée. La récurrence d’une faute et le potentiel de
transformation indiquera si le filon a besoin d’être exploité.
Certains outils existent sur le Net simplifiant la recherche de fautes d’orthographes
Les déclinaisons
Penser à étendre sa présence autour d’un mot-clé commun, comme par exemple « hotel
paris », « hotel 4 étoiles paris », « hotel spa paris », « réserver un hôtel paris centre »…
Cette méthode peut être très utile pour ressortir dans une recherche géolocalisée.
Les synonymes
Google conseille d’utiliser les synonymes de certains termes pour mieux faire
comprendre au moteur la thématique traitée dans la page web.
Plutôt que de se contenter d’un seul mot pour définir un produit ou un service,
l’utilisation des synonymes vient compléter de manière avantageuse le descriptif. Il
existe plusieurs outils permettant d’obtenir des expressions similaires, à l’image du site
www.synonymes.com.
Exemple de synonymes pour le mot « crédit » - Source : www.synonymes.com
69
CHOIX DES MOTS CLES
On peut tester les résultats renvoyés par Google sur ces 4 requêtes et s’apercevoir
que les pages de résultats présentent des différences.
Bien entendu, la présence d’un mot vide (en) complique quelque peu notre tâche.
Une manière de contourner le problème est d’utiliser dans la balise Titre, une phrase
qui répète les termes : « Conseil propriété industrielle : Nos meilleurs conseils en
propriété industrielle dévoilés ».
Bien entendu, une recherche dans Google Suggest, Google Tendance des recherches
ou l’outil Générateur de mots-clés de Google AdWords peut aider à classer les
expressions par ordre de popularité.
Ce même procédé peut être appliqué à la balise Description et aux balises Alt des
images. Si le contenu de ces balises est invisible pour les internautes (sauf si elle est
reprise dans les SERPs), il n’en va pas de même pour les titres de paragraphes. Une
solution possible est de mettre le titre en capitales : CONSEILS EN PROPRIETE
INDUSTRIELLE, par exemple.
71
CHOIX DES MOTS CLES
En gris clair figurent les mots-clés ramenant le plus de visites. La partie gris foncé est la
longue traîne, c'est-à-dire une multitude de mots-clés, amenant moins de trafic que les
mots-clés issus de la partie gris clair. Et pourtant, en additionnant le trafic issu des
mots-clés de la longue traîne, la somme sera supérieure aux mots-clés populaires.
Tous les sites présentent ce schéma. La traîne sera plus ou moins courte selon la
spécialité du site. Un site ultra spécialisé aura une traîne plutôt courte, n’ayant pas
suffisamment de mots-clés sur lesquels figurer. En revanche, un site d’actualité
généraliste aura une traîne conséquente, en figurant sur des expressions liées à
l’économie, la politique, le cinéma ou encore les faits divers.
Développé avec des mots-clés, voici un exemple de longue traîne
En clair, un site libraire cherchant à se positionner sur la requête « livre enfant » devra
« batailler », cette requête étant visée par de nombreux professionnels. Les expressions
connexes à « livre enfant », sont moins recherchées, donc moins concurrentielles.
Cependant la somme des recherches de ces requêtes dépasse celle de l’expression
généraliste : « livre enfant ».
Se fixer sur des expressions à deux ou trois mots-clés reste préférable qu’un mot-clé
unique. Les internautes sont toujours plus précis sur les moteurs. Bien souvent après
avoir tapé un seul mot-clé, ils doivent reformuler plus précisément leur demande pour
arriver sur des résultats adaptés. De manière continue, les requêtes qui font partie de la
longue traîne, sont en progression continue.
Selon une étude plus récente menée par Synodiance, le nombre moyen de mots-clés
par requête est aujourd'hui en France de 2,93 :
Près du tiers des requêtes analysées contenait 2 termes ;
28,2% en comportaient 3 ;
Les requêtes de 4 termes représentaient 15,8% ;
Celles d'un mot-clé 10,9%.
"En comparaison des études déjà publiées sur le sujet, on observe une baisse
significative des requêtes à un mot-clé, au profit des requêtes à 2 et surtout à 3 et 4
mots-clés", conclut l'étude.
73
CHOIX DES MOTS CLES
1. Brainstorming
Appelé aussi le « remue-méninge ». Cette première étape permet de constituer une
première liste avec un maximum de mots-clés. Effectuer un brainstorming laisse la
possibilité d’imaginer le plus de mots-clés possibles autour de son activité en
multipliant le nombre de pistes. En aucun cas, il ne s’agit de faire un tri dès cette étape :
tout doit être pensé, mis en commun et débattu par la suite. Des idées originales
peuvent être découvertes lors de ce moment.
Chacun doit partir d’un mot relatif à un secteur, à un produit ou à un service et le
décliner. Avec « voiture » par exemple, voici les catégories dans lesquelles les mots-
clés peuvent se décliner :
Par type : 4x4, cabriolet, coupé sport ou berline haut de gamme, etc.
Par constructeur : Renault, Peugeot, Volkswagen, BMW, etc.
Par modèle : pour Renault : Clio, Kangoo, Safrane, Twingo, etc.
Par type de carburant : Diesel, essence, GPL, etc.
Par action : vente, location, achat, prêt, etc.
Par état : neuf, occasion, première main, etc.
Avec l’équipement ou la couleur : climatisation, 3 portes, bleu métallisé, etc.
Il est même possible d’imaginer une déclinaison par lieu : voiture Paris,
voiture Bordeaux, etc.
2. Analyse de la concurrence
Examiner les positions de la concurrence peut aider à la composition de sa liste de
mots-clés. S’informer sur les mots-clés mis en avant dans le contenu, constater le ton
adopté dans le texte et le vocabulaire utilisé dans la description des produits. Toutes ces
données permettent d’explorer des pistes auxquelles on n’avait pas songé, et
permettent également de déterminer les expressions à soigner en prévision d’une forte
compétition.
Attention toutefois à ne pas reprendre à tort et à travers des marques appartenant
à la concurrence. Cela peut être inutile mais également risqué.
Des outils peuvent aider à analyser les mots-clés de la concurrence en crawlant les
pages de ces derniers (point détaillé plus tard dans ce chapitre). Certains programmes
proposent même d’étudier la position de la concurrence sur les moteurs à l’instar du
site SEOdigger.com, disponible uniquement en version bêta anglaise. Sur ce site, après
avoir saisi l’URL d’un concurrent, on retrouve sa position par outils de recherche sur
les mots-clés les plus populaires.
Copie d’écran du site SEOdigger
75
CHOIX DES MOTS CLES
En bref, on ne positionne par une page en fonction d’une liste de mots-clés mais selon
des intentions de recherche distinctes. En conséquence, vous devez :
Définir une structure de site web qui soit cohérente ;
Créer des pages qui soient les plus spécialisées possibles ;
Rédiger des contenus qui répondent exactement aux attentes des internautes ;
Proposer des contenus qui soient alignées avec vos objectifs marketings.
Exemple d’un moteur de recherche interne à un site Web - cf. champ « search » de la page
4. Sélection
Après avoir constitué une liste, vient le tour de la sélection. Tout dépendra des objectifs
de visibilité et de la stratégie de communication globale de l’entreprise. Une priorité est
ensuite attribuée à chacun des mots-clés, pour savoir par quel mot le travail doit
commencer et où les efforts doivent être accentués. Là encore, des questions doivent
être posées : quels sont les mots-clés vitaux et quels sont les objectifs de trafic ?
77
CHOIX DES MOTS CLES
Le tri doit se faire en fonction de la popularité et il ne faut pas hésiter à écarter les mots-
clés présentant une audience quasi-nulle (moins de deux recherches par mois par
exemple). La compétition sur les mots-clés pourra être mesurée après avoir tenté de
s’y positionner. Une fois le ROI calculé, il sera toujours temps de savoir si le mot-clé
vaut le coup de se battre.
Il est assez facile de se rendre compte qu’un mot-clé est populaire : il suffit de le
rechercher dans un moteur et de vérifier le nombre de résultats obtenus dans le moteur.
Prenons un exemple… Sur la requête Hôtel, Google France renvoyait, en avril 2014,
plus de 44 500 000 résultats. Par contre, la requête « Hôtel Strasbourg deux étoiles » ne
comptait plus que 685 000 liens organiques.
1. Générateurs de mots-clés
Il existe sur le marché des outils simplifiant la sélection des mots-clés. Services gratuits
ou payants, ils permettent de connaître la popularité des mots ou expressions clés.
Parmi les outils gratuits figurent ceux proposés par les moteurs de recherche, comme
celui de Yahoo!, de Bing et de Google.
Les générateurs de mots-clés fournissent en général trois types d'informations :
79
CHOIX DES MOTS CLES
Pour ce qui est des outils payants, les acteurs en place proposent généralement une
étude complémentaire sur la présence de mots-clés dans une page et le poids de
chacun. Une donnée qui permet de cibler où se situent ses faiblesses et où le travail doit
se mener.
2. Etude de la concurrence
L’étude des différents sites de la concurrence permet de comparer l’état d’avancée
de ces derniers sur les moteurs, mais également de comprendre leurs stratégies de
référencement. Leurs besoins en termes de visibilité définiront les mots-clés sur
lesquels la concurrence sera plus accrue et sur lesquels la société devra se défendre.
Dans son outil, Google offre la possibilité d’indiquer une URL. A partir de cette
dernière, il préconise des mots-clés après avoir étudié le champ lexical du site Web.
81
CHOIX DES MOTS CLES
Pour le mot-clé « canon digital camera », l’outil estime la probabilité d’achat suite à
cette requête comme étant très élevée (0,972). L’utilisateur ayant précisé dans sa
requête le produit et la marque, il confirme donc son choix. Il lui reste à trouver le
produit au prix désiré.
83
CHOIX DES MOTS CLES
Google Adwords
Google propose un module permettant d’obtenir les prévisions de trafic pour de
nouveaux mots-clés. Adapté à l’achat de liens sponsorisés, l’outil peut néanmoins
fournir des informations intéressantes pour le référencement naturel, comme le volume
de recherche et la concurrence. Plus un mot-clé coûte cher dans Google Adwords, plus
le travail de référencement pour se placer dans l’index classique sera important.
85
CHOIX DES MOTS CLES
C’est donc une manière de faire du marketing prédictif et de voir quelles sont les
grandes tendances du moment dans toutes sortes de secteurs d’activité.
87
DEUXIEME ETAPE :
METHODES D’OPTIMISATION « ON SITE »
METHODES D’OPTIMISATION « ON SITE »
Une fois la liste de mots-clés définie, c’est au tour du site d’être étudié et adapté.
Commencer par l’étape des mots-clés reste préférable, ces derniers permettent de
décider des orientations apportées au référencement. De cette orientation découle
l’optimisation du site. Comme vu précédemment, les moteurs de recherche
n’utiliseraient pas moins de 200 critères pour classer leurs résultats. Deux catégories se
distinguent dans l’optimisation : les critères on site, c'est-à-dire directement mis en
place sur le site, comme les liens hypertextes, la densité des mots-clés, l’optimisation
des meta ou encore la mise à jour du site. Et les critères off site, intégrés plus
tardivement par les moteurs dans leur quête de pertinence.
Les critères on site regroupent tous les critères présents sur un site et figurent tous dans
le code source des pages. L’architecture des pages est adaptée en fonction des objectifs
fixés. Le code source se simplifie pour offrir aux robots des moteurs plus de clarté et
une accessibilité qui facilitera leur travail d’indexation.
De manière générale, une extension en .com ou en .fr doit avoir votre préférence. Bien
entendu, le nom de domaine doit aussi être celui de votre société ou de la marque que
vous allez promouvoir.
Hélas, il arrive souvent que l’extension tant convoitée soit déjà réservée et qu’une des
seules solutions soit d’opter pour une autre extension en .org ou .net.
Il est tout de même possible de jouer sur les mots en procédant par ajout : plutôt qu’un
domaine comme mickaeljackson.com, pourquoi ne pas choisir mickaeljackson-
live.com ?
Vous avez aussi la possibilité d’utiliser un tiret dans le nom : mickael-jackson.com ou
d’utiliser une abréviation : mj.com.
Ultime solution : utilisez un mot-clé ou une expression qui décrit le mieux votre société
ou votre marque : roi-de-la-pop.com ou moonwalk.com.
Pour le reste, réservez le maximum d’extensions avec votre nom de société et n’hésitez
pas à le faire sur toutes les plateformes d’hébergement de blogs : WordPress, Blogger,
Canalblog, etc. C’est une bonne manière d’éviter toute tentative de Cybersquatting (ou
« squatting des noms de domaine »). En fait, il arrive souvent que l’on réserve des
noms de domaine moins parce qu’ils nous intéressent que pour empêcher la
concurrence de s’y installer.
Enfin, l’organisation en sous-domaine peut avoir une justification dans le cas d’un site
multilingue. En bref et comme en toute chose, il faut savoir rester dans les limites du
bon sens…
Chapitre 3 : Diagnostic
L'audit d’un site Web se pratique généralement afin de comprendre pourquoi les
positions stagnent dans le classement des moteurs et pour mettre en avant les
améliorations à apporter sur la structure ou le contenu. Il permet de comparer ses
positions par rapport à celles des concurrents.
Le diagnostic se compose de plusieurs parties. Une analyse des mots-clés utilisés pour
le référencement permet de vérifier leur conformité avec les objectifs fixés. Le calcul
de l’indice de densité des mots-clés indique ensuite quelles pages sont à travailler pour
adapter leurs contenus.
Une étude technique complète le diagnostic afin de mettre en valeur les facteurs
bloquants, comme le flash, le texte, ou les pages dynamiques. Tester la conformité des
pages permet de mettre en évidence les lignes de codes qui empêchent le passage des
robots des moteurs.
Enfin, l’audit de la popularité consiste à identifier les liens externes pointant vers les
pages du site et à qualifier la valeur de ces liens.
91
METHODES D’OPTIMISATION « ON SITE »
Source : http://tools.seobook.com/firefox/seo-for-firefox.html
Chapitre 4 : Structure
Plus largement, la façon dont une page est construite apporte déjà beaucoup d’éléments
aux moteurs de recherche. Ces derniers décortiquent le site dans les moindres détails.
Totalement automatisés, les moteurs de recherche ne peuvent pas vraiment
comprendre le sens des phrases comme le ferait un humain. Ils compensent cette
incapacité en multipliant les analyses sur la position de chaque mot dans une phrase,
dans un paragraphe et dans une page.
93
METHODES D’OPTIMISATION « ON SITE »
que ce soit dans l'URL ou dans le corps de texte. La virgule et le tiret sont en revanche
bien considérés comme valeur séparatrice.
A la place de www.hotelxxx.com/informations/chambres_doubles.html
Mieux vaut mettre : www.hotelxxx.com/informations/chambres-doubles.html.
1.4. Optimiser les liens hypertextes
Ce sont les liens hypertextes qui relient des pages Web entre elles. Ils permettent
notamment de naviguer de page en page. Le texte de chaque lien doit être
attentivement soigné. Un lien avec le texte « cliquez ici » est à éviter. Il n’apporte
aucune information pour le moteur. Il vaut mieux lui préférer une expression ou un
mot-clé.
Par exemple :
<a href=http://www.unepagexxx.com/dossier/fichier.html>réserver une
chambre d’hôtel </a>
Les liens internes comme les liens externes doivent être soignés de cette manière.
La présence des mots-clés cibles dans les textes de liens appelés aussi les « anchor text »
représente en 2009 un des critères phare pris en compte par les moteurs pour classer les
sites Web.
Mot-clé ou expression
Densité = ______________________________
Nombre total de mots dans une page
En prenant l’exemple du site CNN, le mot-clé qui revient le plus souvent est
« news » (actualités), avec une densité de 6,40% et les expressions avec deux mots-
clés les plus redondantes sont « white house » et « breaking news » avec 3,87 %.
95
METHODES D’OPTIMISATION « ON SITE »
Il existe chez les référenceurs deux écoles autour du calcul de la densité : ceux qui
incluent les mots de liaisons et les articles, et ceux qui les écartent.
Lors de la rédaction du contenu, il convient de garder toujours en mémoire que l’on
s’adresse en premier aux internautes. Les moteurs ne passent qu’après. La priorité
doit être de donner envie aux visiteurs de continuer la consultation du site et de passer
du stade de simple visiteur à celui de client.
Snippet qui contient 8 liens vers les pages les plus importantes (ou sensées l’être).
Présentation du snippet
Si la requête porte sur le nom de domaine, Google affichera ce qui semble être les
pages les plus populaires du site.
Récemment, Google s’est mis à proposer des liens de pages. Le Snippet contient 3 à
4 liens qui permettent d’accéder directement au paragraphe marqué par une ancre.
Accès direct aux pages populaires
Mentionnons aussi l’existence des fils d’Ariane dans les résumés de page web. En
bref, l’internaute reçoit, avant même d’avoir cliqué sur le lien, une indication du
contexte dans laquelle est placée la page de destination ainsi qu’un aperçu du plan du
site.
Enfin, certains forums montrent un Snippet qui comporte plusieurs liens empilés vers
des sujets adjacents (les liens profonds).
97
METHODES D’OPTIMISATION « ON SITE »
Le principe consiste à décrire des entités et les relations qui les relient entre elles :
« Régis Micheli est le directeur d’une société appelée « Visiplus » dont le siège social
se trouve à Sophia-Antipolis… »
Le principal avantage du Web sémantique est de produire des Snippets enrichis qui
sont, de fait, beaucoup plus « présents » dans les pages de résultats. Et puisqu’ils sont
mis en avant, ils suscitent, logiquement, plus de clics.
Snippet Allociné
Yahoo! évalue à 15% l'augmentation du CTR sur les Snippets optimisés. Depuis que
le comparateur de prix Best Buy intègre du Web sémantique, le site a enregistré une
progression de 30% de trafic sur certaines de ses pages.
99
METHODES D’OPTIMISATION « ON SITE »
Il ne s’agit pas de mettre une suite de mots-clés. Le titre est visible par les internautes
dans les résultats et il doit donner envie de cliquer en accrochant l’œil des internautes.
Chaque page doit avoir un titre personnalisé, en fonction de son contenu.
Le titre doit être court : entre cinq et dix mots. Google présente dans ses résultats des
titres de 68 signes ; Yahoo! Search monte jusqu’à 120 signes.
Il existe trois règles à un bon titre :
Une page pour chaque produit, service ou question (problème, besoin, etc.)
Une page pour chaque cluster sémantique mais sans viser une granularité trop
importante (billard américain + billard américain pas cher, etc.)
La balise Title doit :
Mettre en évidence la spécificité de la page en termes de contenu ;
Être unique et non réutilisée sur d’autres pages web.
Capture d’écran de Wikipédia : personnalisation des titres sur chaque page
Pour les petits sites, cette opération peut être faite manuellement. En revanche pour
les sites présentant de gros volumes de pages vues, il est souhaitable d’avoir un CMS
gérant automatiquement la balise Title et les meta tag, et permettant, si nécessaire, de
modifier manuellement ces données.
En fonction du classement sur les moteurs et des statistiques de visites, il ne faut pas
hésiter à changer le titre afin de voir lequel obtient plus de clics et de conversions par
la suite.
101
METHODES D’OPTIMISATION « ON SITE »
Même si les robots collectent les informations de cette balise, elle n’est pas
systématiquement reprise dans les résultats des moteurs. Le fait ou non de reprendre
en partie ou en totalité de la balise Meta description, ne dépend que de la bonne
volonté de Google. C’est la requête saisie par l’internaute qui va décider de
l’apparence du Snippet.
La balise meta description ne doit pas contenir plus de 158 signes. Il est inutile de
répéter le titre de la page. Il est inutile de répéter le titre de la page. Un bon résumé
est préférable à une enfilade de mots-clés. Cet aperçu doit être l’occasion de proposer
des mots-clés au singulier comme au pluriel. Les mots-clés ne doivent en aucun cas
être collés les uns aux autres, pour ne pas donner l’impression au moteur qu’il ne
s’agit que d’une simple liste de mots.
Et pour Bing ?
De manière générale, les recettes employées avec Google réussissent avec Bing. : les
extraits d’une page (snippets) ne font pas plus de 170 signes (espaces compris).
103
METHODES D’OPTIMISATION « ON SITE »
Les différences pages d’un forum qui traitent d’un même problème sont regroupées
Snippet de Google
A priori, il faut donc réfléchir à une balise meta description qui n’excède pas les 150
signes mais qui présente, pour les 20 caractères suivants, une phrase cohérente. De
cette façon, le Snippet visible dans les pages de résultats montrera un contenu clair
et compréhensible pour les internautes.
105
METHODES D’OPTIMISATION « ON SITE »
Une autre balise existe pour les robots : la balise « revisit ». Elle propose au robot de
revenir sur la page dans une période donnée.
Exemple :
<meta name="revisit-after" content="7 days">
Concrètement, cela ne se passe pas aussi facilement. Cette donnée n’est, en effet, pas
vraiment prise en compte par les robots. Les moteurs ont conçu leurs robots de manière
à revisiter le site en fonction du taux et de la fréquence de mise à jour. Cette balise ne
présente pas d’intérêt pour le référencement.
Cette manœuvre, en plus d’éclairer les robots sur le contenu d’une image, renseigne
également les personnes non voyantes et les internautes ayant choisi de naviguer sans
images.
L’image du logo doit également être renseignée. Bien souvent ignorée, il est
intéressant d’y insérer le nom de la marque, et il est toujours bien d’ajouter une petite
accroche avec une phrase simple et explicite.
107
METHODES D’OPTIMISATION « ON SITE »
Lors de la construction de son site, mieux vaut donc choisir un menu en HTML /CSS.
C’est le menu qui indiquera au robot l’étendue de son site et permettra l’indexation de
l’intégralité des pages web. Si le robot ne comprend pas les liens, il aura alors plus de
difficultés à intégrer les pages suivantes.
Il est toujours possible d’utiliser les CSS pour améliorer le rendu des titres.
109
METHODES D’OPTIMISATION « ON SITE »
Il est préférable d’éviter les titres avec des images, puisque comme vu précédemment,
les moteurs ne comprennent pas ces dernières.
Précisons que le fait que votre site soit en conformité avec les standards Web ne
participe pas à un meilleur référencement. C’est juste une façon d’améliorer
« l’expérience utilisateur » et de jouer sur un des meilleurs leviers du webmarketing : la
relation de confiance.
<html>
<head>
<title> titre de la page </title>
<meta-name= "keywords" content="5 ou 6 mots-clés>
< meta-name ="description" content ="150 à 200 caractères : résumé de
la page reprenant les principaux mots-clés">
< meta-name ="robots" content ="index, follow">
</head >
111
METHODES D’OPTIMISATION « ON SITE »
En 2011, SEOMOZ change sa manière de procéder et publie les résultats d’une étude
portant sur plus de 10000 mots-clés. Voici le poids respectif des facteurs tels qu’ils ont
pu être relevés :
Liens entrant au niveau de la page : 21% ;
Qualité des liens entrants au niveau du domaine : 21% ;
Densité et usage des mots-clés au niveau de la page : 16% ;
Statistiques sociales au niveau de la page : 7% ;
Statistiques liées à la notoriété de la marque : 7% ;
Absence de facteurs bloquants au niveau des mots-clés : 7% ;
Traffic enregistré sur la page web : 6% ;
Densité et usage des mots-clés au niveau du domaine : 6% ;
Absence de facteurs bloquants au niveau du domaine : 5%.
Le point principal est que les Serps donneront une prime à la fraîcheur et que les pages seront
indexées et analysées de manière beaucoup plus fine qu’auparavant.
MayDay marque, quant à lui, un changement significatif dans le Ranking des pages :
beaucoup d’éditeurs de sites web en ont fait récemment les frais. Et, comme son nom
l’indique, cette mise à jour date de mai 2010… Son propos est d’optimiser les résultats pour
les requêtes de type « longue traîne ».
113
METHODES D’OPTIMISATION « ON SITE »
C'est-à-dire, l’ensemble des recherches qui portent sur des expressions précises et qui, prises
individuellement, vous apportent peu de trafic mais, cumulées, peuvent constituer une part
substantielle des visites enregistrées sur votre site web.
Une des principales conséquences est que les pages de votre site sont maintenant analysées
individuellement et que sa notoriété ne suffit plus à assurer, à une page nouvelle, un Ranking
immédiat. En bref, chaque page doit faire ses preuves et posséder suffisamment de qualités
intrinsèques et de liens entrants pour figurer en bonne position dans Google.
Chez Visiplus, nous avons pu constater que ce nouvel algorithme touchait majoritairement
les sites e-commerce. Heureusement qu’un certain nombre de contre-mesures permettent de
redresser rapidement la barre !
Google Panda a officiellement été déployé à partir d’avril 2011 aux Etats-Unis.
Officieusement, Panda a commencé à faire ses premiers dégâts, en France, dès juillet
2011.
D’ores et déjà, des milliers de sites ont enregistré des pertes de position conséquentes
dont, notamment, les sites d’actualités et d’agrégation de contenus.
Un autre type de sites semblent aussi être visés : les sites vitrine qui ne proposent
pas de réel contenu ou qui, pour des raisons techniques, ne paraissent pas en fournir
(site en Flash, par exemple).
L’effet Panda a été une sorte de mini-révolution dans le monde du SEO et permet de
vérifier un adage bien connu des professionnels du référencement : aucune place,
même chèrement acquise, n’est définitive !
Et ce n’est pas terminé car Matt Cutts, le porte-parole de Google, a annoncé qu’au
cours de l’année 2014, de nouvelles améliorations à l’ensemble des algorithmes et
filtres sont prévues. De fait, nous pouvons penser que les effets de cette mise à jour
vont être durement ressentis par nombre d’entreprises !
115
METHODES D’OPTIMISATION « ON SITE »
Penguin
Une première mise à jour de cet algorithme a eu lieu 26 mai 2012… Comme Panda,
Penguin vise à améliorer l'expérience utilisateur en diminuant le positionnement des
sites utilisant des techniques de référencement abusives (netlinkink et backlinks non
naturels). En analysant les caractéristiques de 26 sites qui ont été pénalisés par le filtre
Penguin, la société GSQI en déduit que ces critères de sélection :
Spam sur les forums : liens trop optimisés ;
Spam sur les profils des utilisateurs des forums ;
Blogs qui proposent des liens en dofollow ;
Blogrolls : liens n’ayant pas de lien avec les contenus web vers lesquels les liens ont
été effectués ;
Annuaires ou sites de faible pertinence ;
Commentaires répétitifs dans les articles de blogs.
En sens inverse, la page qui fait un lien vers une de vos pages doit contenir le plus
possible de :
Mots rares ;
Phrases longues ;
Mots longs.
Dans le cas contraire, l’éventualité que le lien retour soit considéré comme "toxique"
sera important.
(Source : MatSight – Janvier 2014)
En bref, vous devez retenir deux choses :
Évitez des textes d’ancre qui sont sur-optimisés ;
Fuyez à tout prix les sites qui proposent des liens de faible qualité car étant trop
artificiels.
Hummingbird
C’est en septembre 2013 que ce nouvel algorithme de pertinence (Hummingbird pour
« Colibri ») a commencé à être déployé. Voici ses caractéristiques :
90% des requêtes dans le monde impactées ;
Amélioration de la pertinence des résultats notamment pour les requêtes exprimées
en langage naturel ;
Importance du changement technique qu’il implique en termes de traitement des
requêtes et des résultats qui sont proposés.
En résumé, l’objectif de cet algorithme n’est pas de classer les pages en fonction des
mots-clés qu’elles contiennent mais de leur pertinence par rapport à l’intention de
recherche exprimée par l’internaute. Par exemple, est-ce qu’un internaute qui saisit le
terme « couverture » dans Google parle de couverture sociale ou de couverture de lit ?
117
METHODES D’OPTIMISATION « ON SITE »
Le Knowledge Graph
Selon une étude menée par le site Moz.com en août 2013, le pourcentage de pages
présentant des informations issues du Knowledge Graph (« le graph du savoir ») est
passé à 26.7%. Quel est son principe de fonctionnement ?
Lorsque nous effectuions une recherche, il arrive que nous soyons désireux d’affiner
notre intention de départ. Le Knowledge Graph permet de mieux comprendre les
éléments du monde réel (entités) ainsi que les relations qui les relient entre eux. Le
carrousel qui sera alors visible en haut de la fenêtre ou sur la droite va permettre aux
internautes d’avoir une vue d'ensemble du sujet qui les intéresse.
En avril 2013, Google avait recensé plus de 500 millions d’entités ainsi que 3.5
milliards de faits et de relations autour d’elles. En pratique, cette gigantesque base de
données est structurée de cette façon :
Objet de base : entité,
Attribut : caractéristique de l’objet,
Relation : lien entre plusieurs objets,
Classe : ensemble d’entités.
Quels sont les avantages pour les internautes ?
Désambiguïsation des résultats,
Instantanéité des informations les plus importantes,
Mise en avant des liens les plus pertinents.
Si les implications en termes se SEO semblent limitées, les webmasters ont intérêt à
intégrer les microdonnées à l’ensemble de leurs pages de contenu.
119
METHODES D’OPTIMISATION « ON SITE »
Note : pour la pagination de vos pages, utilisez les balises rel=next et rel=prev. Elles
servent à :
Indiquer au moteur de recherche que les différentes pages soient reliées de manière à
ne faire qu’une ;
Indiquer à Google l’adresse URL de la première page de la pagination.
Cette dernière fonctionnalité est précieuse puisque, de fait, les internautes seront
redirigées vers la bonne page d’entrée.
Le 18 octobre 2011, Google annonce que les internautes connectés à leur compte
Google basculent en connexion sécurisée et que les mots-clés qu'ils utilisent ne seront
plus transmis aux outils d’analyse des sites visités. Dans Google Analytics, la mention
(not provided) figure à la place de la requête saisie. Et force de constater que, depuis
cette date, la part du (not provided) dans le trafic n'a cessé de croître.
En février 2014, une étude de la société At Internet indiquait que, pour la France, le
pourcentage de requêtes en (not provided) atteignait 80%.
S’il n’existe pas de solutions définitives pour y échapper, voici quelques pistes :
Analyser les pages d’entrée de votre site et en déduire les comportements des
internautes ;
Utiliser les données issues des Outils Google pour webmasters ;
Examiner les données de Google AdWords ;
Croiser vos statistiques avec celles d’outils spécialisés en veille concurrentielle.
Personnellement, nous pensons que la meilleure façon de s’en affranchir est de créer
des pages qui soient les plus spécialisées possibles. Une autre manière de dire que pour
chaque page, ne doit correspondre qu’un seul mot-clé de ciblage.
121
METHODES D’OPTIMISATION « ON SITE »
Chapitre 5 : Contenu
Le contenu du site : ce qui donnera envie aux internautes comme aux moteurs de
recherche de revenir sur le site. Les pages doivent s’adapter aux besoins et à la
navigation des internautes. Une mise à jour régulière des informations apportera
également une valeur supplémentaire qui sera valorisée par les moteurs.
1. Management du site
1.1. Mettre à jour les pages régulièrement
Sur la toile, nombre de sites ont été abandonnés. Les moteurs, dans leur quête de
pertinence, écartent ces sites obsolètes, c'est-à-dire ceux qui ne sont plus mis à jour.
Cette actualisation doit donc se faire au moins une fois par mois. Pour les sites n’ayant
pas de nouveaux produits ou services à présenter, il est toujours possible d’ajouter une
rubrique d’actualités ou de créer des événements réguliers autour de son contenu.
Outre la possibilité de constater la visite des robots dans les statistiques, en consultant
la version en cache à partir de Google, on aperçoit la dernière date à laquelle le robot
est passé sur une page.
Fichier « .htaccess » (cette solution fonctionne également pour les pages effacées, ce
fichier est à déposer à la racine de votre site ou de votre dossier) :
<?
?>
La redirection 301 est la solution prise en compte par les robots indexeurs. Ils suivent le
lien indiqué et indexent la nouvelle URL. La préservation du PageRank de Google est,
la plupart du temps assurée.
L’idéal consiste à adapter la redirection page par page. En clair, l’ancienne page
de présentation de la société doit pointer vers la nouvelle page de présentation,
l’ancienne page de contact vers la nouvelle. Ainsi, les internautes ne se retrouvent pas
parachutés vers une page d’accueil qui ne correspond pas à leurs attentes. Une solution
qui s’avère chronophage pour des sites à taille importante.
Evitez la redirection JavaScript ou Meta refresh, que les robots n’arrivent pas à suivre.
Un changement de nom de domaine peut réduire à néant le travail de référencement
effectué par le passé.
123
METHODES D’OPTIMISATION « ON SITE »
Le danger qui guette le référenceur est qu’il peut se retrouver en face d’une dilution de
la popularité d’une page puisque ce critère est calculé en fonction de chacune d’elle.
Ajoutons que si le « Duplicate Content » peut nuire à votre référencement, plusieurs
porte-paroles de Google ont précisé que cet état de fait n’entraîne pas de pénalités de la
part du moteur de recherche.
Une des solutions parmi les plus simples à mettre en œuvre est d’utiliser ce type de
commandes dans le fichier .htaccess :
RewriteEngine On
RewriteCond %{HTTP_HOST} !^www\.monsite\.fr [NC]
RewriteRule (.*) http://www.monsite.fr/$1 [QSA,R=301,L]
RewriteRule ^index.php$ http://www.monsite.fr/ [NC,L,R=301]
On indique que si un internaute saisit une de ces deux adresses URL : http://monsite.fr
ou http://www.monsite.fr/index.php, il sera redirigé vers celle-ci :
http://www.monsite.fr.
Bien entendu, vous devez faire attention que ce choix soit en accord avec la façon dont
vous avez procédé pour lier la page avec les autres pages du site.
1.5. Soigner l’hébergement de son site
Le site doit en permanence être accessible, sans problèmes de serveurs. Un serveur
inaccessible et le site perd les visiteurs et les robots. Ce dernier peut penser que le site
n’existe plus et supprimera en conséquence les pages de son index.
Des services tels que Pingwy ou InternetVista permettent d’analyser la disponibilité de
son site web.
Le site Pingwy propose des solutions de surveillance de site Web
125
METHODES D’OPTIMISATION « ON SITE »
Il est également possible d’interdire au robot d’afficher un snippet avec cette balise :
<meta name="robots" content="nosnippet">
Cette action permettra d’empêcher des extraits de textes de la page sur laquelle se
trouve cette balise. Les balises META Tags sont à intégrer dans le site Internet à
l’intérieur des balises d’en-tête.
<head>
<title></title>
<meta name="description" content="." />
<meta name="keywords" content="" />
<meta name="robots" content="noodp">
<meta name="robots" content="nosnippet">
</head>
127
METHODES D’OPTIMISATION « ON SITE »
Le titre proposé par les moteurs est le titre de la page contenu dans le meta title. 30%
des utilisateurs consultent le titre dans les résultats des moteurs.
Une technique d’eye tracking (méthode pour mesurer la position et le mouvement des
yeux), permettant de suivre le parcours des yeux sur une page Web, a calculé qu’un
internaute consacre en moyenne 2,2 secondes à la lecture du premier résultat, puis 1,5
secondes au deuxième et moins d’une seconde pour le troisième. Les internautes lisent
donc les résultats de recherche de manière linéaire.
Il est toujours possible d’essayer d’améliorer son snippet. Pour visualiser ce dernier, il
suffit de taper une requête pour observer quel est le résumé proposé. S’il ne convient
pas, le détenteur du site peut ajouter en tête de la page une phrase compréhensible,
reprenant les mots-clés de la requête.
De plus, il est essentiel d’éviter que, dans son résumé, figure des problèmes techniques.
Les robots fonctionnent sans plugin, cookies ou JavaScript, et il arrive souvent que
des sites n’affichent pas leur contenu sans ces pré-requis. Dans ce cas, ces sites
prennent le risque de voir ce message apparaître :
Présentation d’un message d’erreur que l’on peut rencontrer dans un résultat de recherche
Un tel message ne donne pas envie à l’internaute de cliquer dessus, bien au contraire.
Autre élément donnant plus de chance au site d’être visité par les internautes : sa place
dans les résultats.
Les résultats placés en bas de page sont donc automatiquement moins vus et leurs
pages moins visitées. Un site en première et deuxième position affiche un taux de clics
de 84 %, contre 11% pour le site en 8ème position.
Exemple d’eye tracking sur des résultats de moteur de recherche - source : Tracking des yeux mené par Edward Cutrell
de Microsoft Research et Zhiwei Guan de l'université de Washington
129
METHODES D’OPTIMISATION « ON SITE »
A l’origine, une page d'atterrissage, ou landing page, est une page créée dans le cadre
d’un projet de référencement publicitaire sur laquelle un visiteur qualifié accède après
avoir cliqué sur une annonce publicitaire présente sur les moteurs. Ces pages sont
devenues de véritables outils stratégiques permettant d’offrir, aux nouveaux visiteurs,
un contenu pertinent et adapté aux besoins exprimés lors de leurs recherches.
Le principe de la landing page s’est ensuite étendu au référencement naturel, son but
étant dans ce cas de créer du contenu tout autour des pages de son site. Les landing
pages sont généralement utilisées dans un univers fortement concurrentiel ou pour des
sites développés en Flash.
La page doit être courte. L’information doit être vite repérée par l’utilisateur et
la page peut aussi être une piste vers des produits ou des informations plus spécialisés.
Lors de la construction de la page, son objectif doit être gardé en tête en permanence :
abonnement à la newsletter, incitation à la vente, proposition d’informations, etc.
Plutôt que de proposer aux visiteurs de simples liens vers la suite du contenu, elle peut
les inciter à passer à l’action dès cette page.
Prendre garde aux liens externes qui risquent de détourner l’attention des visiteurs.
L'erreur 404 est un code d'erreur renvoyé par un serveur HTTP qui indique que la page
Web demandée (ou le document) n'existe pas. En règle générale, l’internaute est
confronté à une page qui est automatiquement générée par le navigateur. S’il a installé
la Barre d’outils de Google, il lui est proposé de lancer une recherche dans ce moteur
en utilisant la partie « signifiante » de l’adresse URL.
Un lien brisé qu’il soit interne ou externe au site pose deux problèmes :
Le visiteur et donc le futur contact ou client présente de bonnes chances d’être perdu à jamais ;
La perception qu’il a de votre site est entachée de méfiance.
Le but est alors de personnaliser cette page afin de ne pas perdre le visiteur et l’inciter à
découvrir (ou redécouvrir) votre site.
La première étape consiste à éditer le fichier .htaccess et de placer cette commande :
ErrorDocument 404 /404.html
131
METHODES D’OPTIMISATION « ON SITE »
Google propose un Widget qui peut être personnalisé avec un peu de connaissance en
feuille de style CSS. En plus de suggérer le lien correct, ce gadget peut aussi afficher un
lien vers le répertoire parent, vers le plan du site et offrir un formulaire avec des
suggestions de recherches. Par ailleurs, les outils pour webmasters permettent de
relever toutes les pages externes qui font des liens erronées vers un site.
Prenez les devants et ne perdez plus jamais un seul de vos prospects !
Exemples de présentation :
www.monsite.com pour la version anglophone
www.monsite.fr pour cibler les francophones
www.monsite.es pour les hispaniques
www.monsite.de pour le marché allemand
133
METHODES D’OPTIMISATION « ON SITE »
6.2. Sous-domaine
Plus économique, l’utilisation d’un sous domaine pour chaque langue offre une bonne
visibilité sur les moteurs. Pour ces derniers, un sous-domaine est équivalent à un site
Web à part entière. Afin d’éviter les abus, Google tend à limiter les sous domaines
multiples dans ses résultats.
Exemples de présentation :
www.monsite.com pour la version anglophone
fr.monsite.com pour la version française
es.monsite.com pour la version espagnole
de.monsite.com pour le marché allemand
6.3. Répertoires
Autre alternative lors de la création de sites internationaux : la mise en place de
répertoires. Simple, cette méthode est également peu coûteuse puisque l’acquisition
d’un seul nom de domaine suffit. Elle permet également de cumuler la notoriété sur
l’intégralité du site, point essentiel pour un moteur comme Google.
Exemples de présentation :
www.monsite.com, toujours pour la version anglophone
www.monsite.com/fr pour la version française
www.monsite.com/es pour les hispaniques
www.monsite.com/de pour la version allemande
6.4. Hébergement
Comme le nom de domaine, l'hébergement peut également jouer un rôle essentiel dans
le positionnement. Les extensions locales, comme le ".fr", le ".be" ou le ".au", priment
généralement sur l'hébergement. Par contre, pour les sites en ".com", ".net" ou ".info",
ce sera la localisation de l'hébergement qui sera retenue par les moteurs.
Beaucoup d’hébergeurs proposent aujourd’hui de choisir une adresse pays. Google va
regarder attentivement la géo-localisation du site Web. Pour se rendre compte de
l’information relevée par Google, l’extension SEO for Firefox indique en cliquant sur
le lien Whois les données d’hébergement qui seront récupérées sur le site.
Héberger le site dans un pays cible reste la meilleure configuration. Sinon, pour un
hébergement unique, le choix doit s’effectuer en fonction du pays qui cumule le plus de
visiteurs qualifiés.
6.5. Contenu
Les habitudes de recherche diffèrent en fonction des pays. Les expressions utilisées par
les internautes dans le cadre d’une recherche peuvent être singulières en fonction de
chaque région. Une simple traduction de son contenu n’est donc pas suffisante. Le
discours doit s’adapter à la cible locale et la méthodologie dans le choix des mots-clés
doit être répétée pour chacun des pays visés, en tenant compte des expressions les plus
recherchées et celles qui génèreront a priori le plus de conversions.
Il faut également intégrer que sur les moteurs de recherche internationaux, la pression
de la concurrence n’est pas la même, en particulier sur les moteurs anglophones.
Soigner son contenu devient donc primordial pour être visible.
<head>
<title> titre de la page </title>
<meta name ="language" content="fr">
<meta name="description" content="résumé de la page">
<meta name="keywords" content="liste mots-clés">
</head>
Il existe dans ce domaine des standards à respecter, ceux-ci correspondent aux codes
ISO de chaque pays. Il est donc conseillé d’utiliser ces « standards » dans le déve-
loppement de votre site.
Exemple : http://www.loc.gov/standards/iso639-2/php/French_list.php
135
METHODES D’OPTIMISATION « ON SITE »
Un autre moyen, plus simple, consiste à proposer une page d'accueil avec une langue
par défaut, a priori celle amenant le plus de visiteurs qualifiés. L'internaute a ensuite
la possibilité de choisir sa langue rapidement avec un menu proposé en tête de page.
Voici quelques spécificités locales signalées par la société « Return non Now » :
Par ailleurs et pour l’année 2013, les statistiques par pays par pays sont disponibles :
http://returnonnow.com/internet-marketing-resources/2013-search-engine-market-
share-by-country/
En résumé, concentrer ses efforts sur un seul moteur revient à mettre tous ses œufs dans
le même panier. Le jour où Google décidera d’exclure votre site web ou de changer ses
règles d’indexation, votre trafic peut s’écrouler du jour au lendemain.
Cette liste est loin d’être exhaustive… L’intérêt de ce type de raccourci de recherche est
de permettre à l’internaute d’avoir une réponse instantanée à sa recherche tout en lui
laissant le choix d’accéder ou non à la page d’un des sites qui est mentionné en tant que
lien. Par exemple, Boursorama pour les cotations du titre de la société TF1.
Même si ce type de traitement est réservé aux sites institutionnels, il existe une autre
source de référencement : les définitions qui apparaissent quand, dans Google, on
utilise la fontion « define: ». Par exemple : « define: seo ».
137
METHODES D’OPTIMISATION « ON SITE »
Il faut noter que le délai avant que vos définitions apparaissent dans les pages de
résultats de Google peut être très long.
8. Le référencement géolocalisé
Nous avons déjà vu que Google sait géolocaliser ses résultats puisqu’il connaît
l’adresse IP de l’internaute et donc, par déduction, l’emplacement où il se trouve.
Lorsque vous lancez une recherche comme hôtel, une OneBox affichera la liste des
hôtels situés près de vous.
C’est donc le moment de travailler son référencement local (inscription dans les
annuaires ou portails régionaux, sites de recommandation, Mashups tournés vers la
géolocalisation, etc.). Il est aussi possible de créer une fiche Google Adresses
(http://www.google.com/local/add/businessCenter).
Ce service permet de créer une sorte de mini-site dont les résultats seront visibles
dans Google Maps mais aussi sur le moteur de recherche. Si vous avez pris la peine
d’envoyer des photos ou des vidéos, vous bénéficierez d’une visibilité qui vous offrira
un avantage non négligeable par rapport à vos concurrents.
139
METHODES D’OPTIMISATION « ON SITE »
Vérifier que l’adresse URL de la page soit pertinente et porte la mention de la ville
voulue ;
Créer des balises Meta Description qui soient à chaque fois différentes ;
Créer un titre différent pour chacune des pages ;
Varier le contenu des pages en utilisant des mots-clés qui ne soient pas toujours les
mêmes ;
« Enfoncer le clou » en reprenant la liste des principales communes dans le pied de
page du site ;
Pousser encore votre avantage en créant, par exemple, une page dédiée à un
département (Ile-et-Vilaine) puis, des pages pour chacune des villes (Betton, Bruz,
Fougères, etc.).
On peut dresser un comparatif entre Google et Bing mais, sans trop rentrer dans les
détails, ces deux moteurs indexent des métadonnées qui sont parfois différentes : Titre
- Sujet - Auteur - Mot-clé - Contenu textuel - Adresse URL.
Nous avons déjà vu que pour filtrer un type de fichiers dans Google, vous pouvez
utiliser un de ces deux opérateurs : ext: ou filetype:. L’opérateur filetype: est aussi
supporté par Bing.
141
METHODES D’OPTIMISATION « ON SITE »
La première règle qui vient à l’esprit est donc d’imaginer comme première page, un
résumé court et descriptif sans image ni fioriture. Attention de travailler l’en-tête et
le pied de page car il y a de fortes chances que le contenu du premier soit aussi celui
qui sera repris dans le Snippet.
Si vous devez renseigner les méta données de vos fichiers, arrangez-vous pour utiliser
les mots-clés sur lesquels vous souhaitez vous placer.
Notez enfin que Google offre la possibilité aux internautes d’afficher un fichier PDF
comme une page web en cliquant sur le lien Version HTML. De manière assez
similaire, les utilisateurs de Bing peuvent utiliser le lien Page en cache.
Google l’a annoncé depuis longtemps déjà : le temps de chargement de vos pages est
pris en compte dans le « Ranking » de votre site. A l’instar de ce qui prévaut dans
Google AdWords, vos pages de destination doivent, maintenant, s’afficher à la vitesse
de la lumière (ou presque !).
Cette question peut être examinée sous deux angles différents : les moteurs de
recherche et les internautes. Puisque l’on connaît maintenant la position de Google,
expliquons le second point…
Il existe beaucoup d’études qui permettent de mettre en corrélation, le temps de
chargement d’une page et le taux de rebond qui lui sera associé.
On estime généralement qu’au-delà de 4 secondes, une page aura toutes ses chances
contre elle…
Voici quelques chiffres fournis par les deux géants du « Search » :
Perdre 500ms, c'est aussi perdre 20% de trafic pour Google ;
Perdre 400ms, c'est avoir 5 à 9% de taux d'abandon supplémentaire pour Yahoo!.
De fait, la vitesse est, maintenant, un facteur qui va vous permettre de fidéliser vos
visiteurs et les inciter à revenir sur votre site.
Et, en conséquence, ce critère fait partie d’une réflexion approfondie sur la « Web
conversion » : augmenter son trafic c’est une chose, c’en est une autre de le
« convertir » en rationnalisant et optimisant les ressources de son site web.
Il existe beaucoup d’outils qui permettent de mesurer et de mettre en évidence les
ralentissements survenus dans le chargement de vos pages : vous pourrez ainsi dresser
un diagnostic précis des faiblesses de votre site.
143
METHODES D’OPTIMISATION « ON SITE »
Par la suite, vous devez améliorer le temps de chargement (et d’affichage) de vos pages
en utilisant un très grand nombre de techniques éprouvées : optimisation d’images
(sans perte de qualité !), optimisation des feuilles de style CSS, meilleure gestion du
cache de vos serveurs, du cache des navigateurs, compression des fichiers de script,
etc.
Le temps de chargement des pages constitue un signal qui est pris en compte par
Google de la même façon pour les sites mobile que pour les sites classiques.
Il faut également signaler que l’intégration de Google Analytics avec les recherches
personnalisées permettent maintenant de savoir ce que les internautes ont recherché
sur votre site et, en conséquence, de mieux comprendre leurs attentes et leurs besoins.
Cela peut être une page qui n’est pas assez exhaustive, un produit ou un service auquel
vous n’aviez pas pensé, un nouveau sujet d’article, etc.
Un moteur de recherche personnalisé, une fois qu’il a été mis dans la perspective des
métriques, est une source inépuisable d’enseignements. Enfin, c’est une vraie valeur
ajoutée qui est apportée à votre site et au confort de navigation des internautes.
Navigation :
La page principale est-elle rapidement accessible ?
Les menus de navigation sont-ils clairs et bien adaptés ?
Le logo de la société renvoie t-il sur la page d’accueil ?
Les liens sont-ils compréhensibles et clairement identifiés ?
Le formulaire de recherche propre au site est-il directement accessible ?
Contenu :
Les titres principaux sont-ils clairs et descriptifs ?
Le contenu important est-il situé dans la partie supérieure de la fenêtre ?
Le style du site est-il homogène d’une page à l’autre ?
Les balises d’emphase (gras, …) sont-elles utilisées à bon escient ?
Le contenu textuel est-il clair et concis ?
Les adresses URLs sont-elles « Google et User Friendly » ?
Les titres de vos pages sont-ils descriptifs ?
Bien entendu, cette liste n’a rien d’exhaustif mais elle constitue déjà un bon début !
145
TROISIEME ETAPE :
METHODES D’OPTIMISATION « OFF SITE »
METHODES D’OPTIMISATION « OFF SITE »
A l'image de Google, qui utilise le PageRank pour classer ses sites, la popularité est un
des éléments majeurs pour un bon classement dans les moteurs de recherche.
1.1. PageRank
Critère utilisé par Google dans le classement des résultats de recherche, il tient son
nom de Lawrence Page, son créateur et l’un des fondateurs de Google. Pas moins de
100 variables seraient utilisées dans le calcul du PageRank. Lawrence Page s’est
inspiré d’une méthode de classement utilisée pour les documents scolaires. Plus un
document est cité, plus son importance ou sa valeur augmente pour le système.
L’augmentation de cette valeur permet de le retrouver plus facilement lors d’une
recherche ultérieure. Appliquée sur le Web, cette méthode met en avant les pages Web
détenant plus de liens vers leurs contenus. Ce système est particulièrement adapté au
Web où les liens hypertextes relient les sites entre eux.
Afin d’éviter toutes les dérives de spam consistant à augmenter artificiellement cette
note, Google ne présente plus qu’un chiffre global, mis à jour moins régulièrement que
le vrai PageRank gardé secret par Google.
De la même manière que Google, d’autres moteurs ont élaboré un système permettant
de calculer la popularité d’une page en fonction des liens pointant sur cette dernière.
Les liens permettent aux internautes de naviguer d’un site à un autre, sans recourir aux
moteurs de recherche.
149
METHODES D’OPTIMISATION « OFF SITE »
Les moteurs, après avoir prôné la popularité, se sont ensuite tournés vers la notion de
notoriété. L’importance donnée dans le classement des moteurs à ce critère de
popularité peut se mesurer avec des résultats plutôt amusants : pendant quelques
années, il était possible de trouver en première place de Google sur la requête
« miserable failure » la biographie de Georges W Bush. Une première place
entièrement acquise grâce aux millions de liens créés par des internautes avec le lien
texte « miserable failure » amenant à la page de biographie du président américain.
Ce détournement du PageRank, nommé Google Bombing, consiste à jouer avec le
facteur de popularité en créant massivement des liens vers une page, généralement à
des fins satiriques. D’autres Google Bombing avaient notamment ciblé Nicolas
Sarkozy, Jacques Chirac ou encore Rachida Dati.
Ces affaires ayant fait grand bruit, le moteur de recherche a revu certains de ses
critères pour atténuer l’effet du Google Bombing.
En termes d’optimisation, vouloir améliorer ce critère demande un dosage précis :
avoir trop de liens de mauvaise qualité pointant vers son site risque de le décrédibiliser.
Un nombre insuffisant de liens peut en revanche ne servir à rien. En favorisant une
politique de netlinking, le détenteur prend le risque de voir ses visiteurs partir sur les
sites partenaires mais aussi d’être associé à une pratique de « link farm ».
Exemple de Google Bombing, lorsque « miserable failure » renvoyait sur la biographie de George W Bush
Exemple du cache de Google sur le Google Bombing de Nicolas Sarkozy avec Iznogoud
Note : contrairement à une idée reçue, Matt Cutts a expliqué, en novembre 2013, qu’il
était tout à fait possible de proposer, sur une page web, plusieurs centaines de liens
sortants. Bien entendu, cela n’empêche pas qu’on veuille limiter la dilution du
Pagerank en diminuant le nombre de liens !
1.3. E-reputation
Sociétés, individus, produits, marques… les documents visibles sur le Web sont
souvent compulsés en ligne par des internautes en recherche d’informations. Pour
surveiller ce qui se dit sur sa société, sur soi ou encore les dernières rumeurs autour
d’un produit, l’outil de Google Alertes devient vite incontournable. Il est possible de
créer une alerte par mail informant régulièrement des derniers résultats intégrés dans le
moteur traitant d’un sujet précis.
Face aux communautés qui se créent sur le Web, la gestion de la réputation sur Internet
devient un métier à part entière, obligeant les sociétés à surveiller les rumeurs, défendre
leur image et maîtriser leur notoriété.
Pour aider dans la surveillance de sa marque
l’outil Google Alerts peut s’avérer très utile.
151
METHODES D’OPTIMISATION « OFF SITE »
153
METHODES D’OPTIMISATION « OFF SITE »
Les liens externes peuvent servir aux visiteurs souhaitant s’informer plus précisément
sur un secteur. Pour les moteurs, de tels liens indiquent clairement l’environnement
dans lequel évolue le site et ils localisent plus facilement sa place sur le marché.
Comme pour les liens entrants, lors de la création de liens vers l’extérieur, il est
préférable de suivre quelques principes :
Optimiser la lisibilité
Des pages remplies de liens peuvent gêner les visiteurs lors de la navigation et nuire à
la lisibilité de la page. D’un point de vue ergonomique, mieux vaut se limiter à trois ou
quatre liens par article.
Présentation de Xenu
155
METHODES D’OPTIMISATION « OFF SITE »
3. Cross-linking efficace
Une opération de netlinking doit être la plus naturelle possible. Si un site fait un lien
vers d’autres sites, avec des liens entrants provenant uniquement de ces mêmes sites,
les moteurs pourront considérer cette technique comme « étrange ».
liens circulaires
Un site doit donc présenter des liens sortants et des liens entrants ne provenant pas
forcément d’une même galaxie d’acteurs.
Une stratégie de netlinking prend du temps. La qualité des liens est à préférer à la
quantité. Lors de l’établissement de ces liens, mieux vaut penser avant tout à son
contenu.
Par ailleurs, les liens ne doivent pas tous amener vers la page d’accueil, mais desservir
les grandes rubriques du site, ce qui permet de mieux disséminer la popularité sur
l’ensemble des pages de son site.
Comme pour les liens externes, les liens internes sont plus facilement compris par les
moteurs lorsqu’ils sont au format texte. Se contenter du menu et du plan de site pour
lier les pages entre elles ne suffit pas. Ces dernières doivent se lier par le biais d’articles
renvoyant vers d’autres pages du site. La newsletter par exemple est un bon moyen de
renvoyer ses visiteurs sur les différents contenus de son site.
Les moteurs peuvent détecter les liens internes via trois moyens :
Whois similaire
Lors de l’enregistrement du nom de domaine, les sociétés laissent des informations
dans une base accessible à tous. Si ces informations présentent le même nom de
déposant, la même adresse et un numéro de téléphone identique, les moteurs de
recherche classeront ces liens comme internes.
Schématiquement, on peut dire que la qualité d’un lien entrant est fonction de
l’autorité du nom de domaine (TrustRank) émetteur du lien. Moins ce dernier est
susceptible d’avoir des pratiques douteuses en termes de référencement, plus le lien
que vous recevrez possèdera, aux yeux des moteurs, de la valeur.
Pour les moteurs de recherche, les liens externes (provenant d’un site différent du
vôtre) ont plus d’importance que les liens internes (les pages qui, à l’intérieur d’un
site, font un lien vers une autre page). Néanmoins, les liens internes sont une manière
efficace d’attribuer une priorité à certaines pages de votre site au détriment des autres.
Si une page de votre site Web est essentielle parce qu’elle représente une part
significative de votre activité, vous devez privilégier sa visibilité auprès des
internautes et des moteurs de recherche en créant un maillage efficace de liens vers
cette page. A contrario, une page moins stratégique ne devra pas bénéficier d’un tel
traitement de faveur (en termes de liens).
Le PageRank de la page qui fait un lien vers une de vos pages est essentiel. On dit
souvent qu’il vaut mieux un lien provenant d’une page possédant un fort indice de
popularité que plusieurs liens provenant de pages moins bien notées.
Le texte qui sert d’ancre au lien doit être efficace d’un point de vue sémantique. Par
exemple, le lien sur “cet article” dans l’expression “cet article sur les feuilles de style
CSS”, est moins pertinent et efficace qu’un lien sur “feuilles de style CSS” si l’on
souhaite voir son site positionné sur l’expression “feuilles de style CSS”.
L’emplacement du lien rentre aussi en ligne de compte. Un lien contenu dans le corps
de la page ou de l’article aura forcément plus d’impact que ceux visibles dans les
volets de droite ou de gauche et qui contiendraient, par exemple, une liste de blogs
« amis » (Une Blogroll).
La page qui fait un lien vers la vôtre doit traiter de la même thématique. Inutile, par
exemple, d’obtenir un lien de la part d’un site spécialisé dans la vente de chaussures
si le vôtre parle de négoce de café ou de services auprès des entreprises
pharmaceutiques.
La localisation géographique de la page émettrice de lien aura un impact sur la future
légitimité de la page liée. En admettant que vous développiez un service particulier
à une région de France, des liens provenant de sites offrant des informations en termes
de proximité géographique (annuaires régionaux, mention d’une adresse précise, etc.)
joueront en votre faveur.
La présence du Tag rel="nofollow" a été adoptée par Google en 2005. Concrètement,
il spécifie au robot du moteur de recherche de ne pas suivre le lien qui est marqué de
cette manière. En bref, la page émettrice de lien ne transmet pas à la page cible un peu
de son PageRank (ou de son autorité). Pour l’instant, les experts débattent encore de
savoir si les moteurs, et Google en particulier, suivent au pied de la lettre cette
directive ou, dit de manière un peu triviale, s’il n’existe pas des « fuites de
PageRank ».
Il existe trois principaux types de liens : texte, image et JavaScript. A priori, les liens
de type Texte sont les plus efficaces ; suivis des liens sous forme d’image et ce en
tenant compte des mots-clés qui sont présents dans la balise Alt. Les liens JavaScript
ferment la marche et sont bon derniers du point de vue de leur valeur.
Voici une liste des critères qui vous permettent de juger de la qualité d’un
« backlink » :
Pagerank de la page émettrice du lien ;
Autorité du domaine par rapport à sa thématique métier, produit ou de contenu (à ne
pas confondre avec la popularité du site !) ;
Indice de confiance du site et nombre de liens entrants vers ce site (notion de
réputation du domaine) ;
Emplacement des liens : plus un lien est placé dans un contenu intéressant, plus
grande sera son influence) ;
159
METHODES D’OPTIMISATION « OFF SITE »
Nombre de liens sortants de la page : plus la page contient de liens sortants, moins
grande sera l’efficacité de ces mêmes liens ;
Adéquation entre le domaine qui fait le lien et votre domaine (similarité en termes de
thématique métier ou d’univers produit) ;
Qualité et pertinence du texte qui sert d’ancre ;
Qualité et pertinence du texte qui entoure le lien ;
Absence de la balise « Nofollow ».
Les tactiques les plus utilisées pour obtenir des liens entrants sont les suivantes :
Relations presses digitales,
« Guest blogging » (partenariat rédactionnel sur un blog),
Campagnes de marketing de contenu,
Infographies,
Échange de liens avec d’autres sites,
« Broken link building »
Qui fait des liens vers son contenu ? L’analyse de ces liens entrants éclaire sur la
visibilité dont dispose le site. En plus de logiciels spécialisés dans le suivi du
référencement, certaines commandes listent les principaux acteurs ayant produit un
lien vers son contenu.
Pour Google :
link:http://www.monsite.com/
liste les pages principales ayant produit un lien vers son contenu
Pour Yahoo! :
link:http://www.monsite.com/ado/
liste les pages principales ayant produit un lien vers le contenu d’une page
site:www.monsite.com ou site:monsite.com
liens externes amenant sur le contenu d’une page
linkdomain:www.monsite.com
liens externes amenant sur la totalité du site
La commande « inanchor » vient compléter la liste. Elle est utilisée pour vérifier le
nombre de liens existant avec une expression définie.
Cette requête permet de savoir quelles sont les pages Web qui font un lien vers le site
monsite.com à partir d’un lien hypertexte contenant l’expression « voiture de sport ».
Il est à noter que Yahoo! semble être l’un des moteurs les plus performants à détecter
les liens externes pointant vers une page donnée.
161
METHODES D’OPTIMISATION « OFF SITE »
Source : http://forums.entreprises-commerces.fr
163
METHODES D’OPTIMISATION « OFF SITE »
Qu’est-ce que nous entendons par là ? Les leviers « off site » consistent à occuper
le terrain et à retrouver les internautes là où ils se trouvent : Facebook, Twitter,
Google+ Viadeo, LinkedIn, YouTube, etc.
165
METHODES D’OPTIMISATION « OFF SITE »
Pour quel intérêt et quels objectifs ? C’est simple : profiter de la puissance de feu de
sites comme Facebook pour vous permettre de :
Vendre plus ;
Susciter des commentaires clients et l’émergence d’une FAQ collaborative ;
Faciliter les processus d’inscription sur votre site ;
Susciter l’adhésion des internautes à votre marque ;
Faciliter la diffusion de vos contenus sur le Web et, indirectement, leur rang à
l’intérieur des Serps.
Facebook
Plus d’1 milliard d’utilisateurs (réels) dans le monde ;
28 millions d’utilisateurs en France, 17 millions sur mobile ;
11 millions d’utilisateurs quotidiens via mobile ;
Les utilisateurs quotidiens se connectent en moyenne 14 fois par jour à l’application ;
Facebook représente 1 minute sur 5 du temps consacré à l’utilisation d’applications
mobiles ;
14% des utilisateurs français affirment avoir acheté un cadeau après l’avoir vu dans
leur fil d’actualité Facebook ou Twitter.
(Source : Facebook – Novembre 2013)
Facebook est bien plus qu’un réseau social : pour les marques, c’est une formidable
tribune pour faire du « Branding », renforcer son modèle RFM et déployer des
stratégies d’acquisition clientèle. En ce sens, on parlera plus justement de média
social…
Et les Fan Pages sont l’outil idéal permettant aux sociétés de créer une sorte de mini-
site web presque complètement personnalisable et même faire du e-commerce (le
f-commerce).
Une des particularités du moteur de recherche de Facebook est que l’on s’en sert moins
pour trouver de nouvelles marques que pour retrouver celles que l’on connait déjà. De
fait, la marque doit tisser des liens forts avec ses fans pour pouvoir bénéficier d’un bon
Ranking à l’intérieur de ce moteur de recherche qui fonctionne, avant tout, par
affinités.
167
METHODES D’OPTIMISATION « OFF SITE »
Par ailleurs, les leviers de progression sont à trouver dans les mécanismes viraux
propres à Facebook : c’est parce que vos fans vont relayer vos contenus qu’ils seront
visibles dans les fils d’actualités de leurs amis et que ces derniers, à leur tour, les
diffuseront auprès de leur communauté. Cet effet « boule de neige » rappelle aussi le
mécanisme des cercles concentriques qui se forment quand on fait ricocher une pierre
sur l’eau.
En ce sens, les stratégies d’acquisition sont très différentes de celles que l’on peut
déployer sur les autres médias qui reposent plus sur le marketing d’interruption.
Les nombreuses fonctionnalités de Facebook peuvent aussi s’utiliser en dehors de
Facebook : les boutons J’aime, Recommander, Envoyer, la Like Box, le bouton
Facebook Connect, le module de commentaires, de recommandations, etc.
Il est nécessaire, pour les entreprises, de mettre en place des stratégies de présence
pérennes sur les médias sociaux et de profiter de toutes les possibilités offertes par le
SMO (« Social Media Optimization »).
Twitter
Twitter est, à beaucoup d’égards, un média incontournable :
232 millions d’utilisateurs actifs mensuels (Peerreach – Février 2014) ;
5.5 millions d’utilisateurs en France (Peerreach – Février 2014) ;
79% des twitternautes ont entre 15 et 34 ans (Twitter – Février 2014) ;
41.6% sont des CSP+ (19% de cadres supérieurs) (Twitter – Février 2014) ;
13% des comptes auraient envoyé plus de 100 tweets - 56% des comptes créés n’ont
jamais publié de tweet (Wall Street Journal – Avril 2014) ;
49% des utilisateurs de Twitter interagissent avec un programme TV en live (SNPTV
- Mars 2014) ;
68% des membres utilisent un mobile pour accéder à Twitter (Twitter – Février
2014).
169
METHODES D’OPTIMISATION « OFF SITE »
Selon une étude de Compete (Juin 2011), 17 % des utilisateurs tweetent des messages
qui portent sur le programme télévisé qu'ils sont en train de regarder. Plus
classiquement, 61 % des utilisateurs de Twitter lisent les tweets, 39 % y répondent,
35 % retweetent, 28 % envoient des messages privés (« DM ») et 24 % regardent
quels sont les sujets de conversation du moment.
56 % des internautes qui suivent une marque sur Twitter se déclarent « plus
susceptibles » à acheter un produit de cette marque. Ils sont aussi plus enclins à
recommander un produit d'une marque qu'ils suivent que lorsqu'ils sont sur Facebook.
Selon cette même étude, Twitter est la plate-forme sociale préférée des internautes
désireux de s'informer sur les nouveautés « produits ». Enfin, Twitter serait plus
efficace que Facebook pour inciter ses utilisateurs à acheter.
Avec Twitter, vous allez toucher un public possédant une excellente culture web, à la
fois « Geek » et « Early-adopter ».
Les entreprises l’utilisent pour se positionner comme étant le référent sur leurs
secteurs de prédilection, faire de la relation clientèle, fidéliser leurs membres les plus
actifs (les ambassadeurs), prolonger des campagnes de relation presse digitale (les
prescripteurs) et relayer leurs offres réservées : jeu-concours, promotions, soldes, etc.
Google+
Les marques peuvent aussi être présentes sur Google+ et les objectifs sont nombreux :
Profiter de la personnalisation des Serps ;
Utiliser les possibilités offertes par les balises Authorship et Publisher ;
Faire partie des articles de fond ;
Anticiper sur l’inévitable croissance de Google+.
Si le fonctionnement des pages Google+ est très similaire à celui de Facebook, deux
outils ont une vraie valeur « SEO »…
La balise « Authorship »
La balise Authorship permet d’afficher la photo de l’auteur d’une page web dans les
Serps.
Intégration de la balise « Autorship » dans les Serps
La balise Publisher
C’est la parfaite continuité de la balise Author puisqu’elle permet de répondre à un
constat simple : votre site web contient aussi beaucoup de contenus qui ne peuvent pas
être attribué à un auteur en particulier. Voici les étapes pour l’implémenter :
1ère étape : Ajoutez la balise Publisher à la page d’accueil de votre site web ;
2ème étape : Procédez de même à partir de votre page Google+ ;
3ème étape : Associez les deux entités en vous servent du bouton correspondant ;
4ème étape : Vérifiez que tout est en ordre en utilisant cet outil en ligne :
http://www.google.com/webmasters/tools/richsnippets.
Lorsque les internautes saisiront une requête de notoriété, ils verront un résultat
spécialisé sur la droite des Serps. Les avantages sont nombreux :
Optimisation de la visibilité de la société et donc plus grand indice de confiance accordée
à cette même société ;
Mise en avant de la page Google+ et de sa dernière publication.
Voici une liste des médias qui sont mis à la disposition des sociétés :
Page Facebook, Profil Twitter,
Page Google+, Page Google Adresses,
Profil Pinterest, Page entreprise LinkedIn,
Page entreprise Viadeo, Profil Instagram,
Chaîne YouTube, Chaîne Dailymotion, Profil sur SlideShare, …
173
METHODES D’OPTIMISATION « OFF SITE »
Cette interview n’aborde pas le rôle de Google+ et de son éventuel influence sur le
positionnement mais une étude, datant de septembre 2013 et menée par la société
StoneTemple, montrait que l'influence des partages de Google+ en termes de SEO ne
pouvait pas être démontrée. A contrario, Le site « The Moz Blog » a prouvé, en août
2013, qu’il existait une corrélation entre le nombre de +1 et le positionnement de la
page dans les Serps. Mais lien de corrélation ne veut pas dire lien de causalité…
175
METHODES D’OPTIMISATION « OFF SITE »
A chaque fois, les sociétés concernées semblent paralysées par l’ampleur que prennent
les évènements et peinent à mettre en place un plan de communication ainsi que des
contre-mesures efficaces.
Les moteurs de recherche et, en particulier, Google ont de plus en plus tendance à mettre
en avant les résultats « frais » et, en exergue, les liens issus des sites d’actualités, des
forums, des newsgroups, etc. Aussi, rien d’étonnant à ce que le « Top 10 » des SERPs,
suite à une requête sur le nom de certaines sociétés, ressemblent plus à un champ de
bataille qu’à un brevet de respectabilité en ligne.
C’est donc le rôle des sociétés de travailler leur référencement en optimisant, sur le long
terme, leur présence sur le Web mais aussi, en cas de coups durs, de multiplier des
contenus qui fassent contrepoids, dans l’esprit des internautes ainsi que dans les pages
de résultats.
Une preuve supplémentaire, s’il en était besoin, qu’un travail de référencement s’inscrit
dans l’histoire de l’entreprise et des marques qu’elle commercialise. Et que les questions
propres au Web marketing sont bien les mêmes que celles qui taraude le monde du SEO.
Exemple de TrendyBuzz
Il existe donc deux principales tendances : les services qui vous permettent de traquer
le Buzz sur Internet et vous donnent les tonalités autour d’une marque, d’un produit,
etc. Et d’autres applications qui sont spécialisées dans la recherche et l’intelligence
collective… Elles permettent de renforcer et développer la connaissance que vous avez
de votre métier, de votre société et de vos concurrents.
177
METHODES D’OPTIMISATION « OFF SITE »
La soumission de son site aux moteurs de recherche semble appartenir à une époque
révolue. Les moteurs intègrent beaucoup plus rapidement les nouveaux sites ayant un
lien d’entrée figurant sur des sites partenaires. Pour la soumission de son site dans un
annuaire, l’opération reste, quant à elle, nécessaire.
1. Annuaires
S’inscrire dans les annuaires continue d’être un passage incontournable dans le
référencement. Il existe en ligne des milliers d’annuaires. Généralistes ou spécialisés, il
convient de faire un tri et de sélectionner uniquement ceux qui conviennent à ses
objectifs.
Pour rappel, un annuaire est semblable aux Pages Jaunes, son but étant de fournir aux
visiteurs une liste de professionnels avec coordonnées et informations commerciales.
Habituellement mis à jour manuellement par des personnes, l’intégration dans un
annuaire suit un processus de relecture et de validation.
1.1. Annuaires généralistes
Voici l’adresse d’un annuaire régulièrement cité : Dmoz. Développé par une
communauté d'éditeurs bénévoles, l’annuaire est totalement libre. Le moteur Google
se sert d’ailleurs de ce dernier pour compléter et mettre à jour son index. Pour
s’enregistrer au sein des listes de l’annuaire, il suffit de suivre les instructions après
avoir cliqué sur « proposer un site ».
Le choix d’un titre est crucial : reflet du site, il doit donner envie de cliquer et mettre en
avant les mots-clés les plus importants. Même constat pour la description. En moins de
25 mots, le challenge doit être de résumer le plus clairement possible son activité.
179
METHODES D’OPTIMISATION « OFF SITE »
Les internautes, dans le cas d’une recherche bien identifiée, se tournent volontiers vers
ces derniers. Là encore, il convient de choisir le bon discours. Moins réputés que les
annuaires généralistes, mieux vaut s’assurer du professionnalisme des portails avant
d’entreprendre une inscription payante et de décider d’attribuer ou non un budget pour
être présent dans ces annuaires.
2. Moteurs
Comme cela était évoqué un peu plus haut, la majorité des moteurs de recherche est
aujourd’hui capable de détecter un site sans soumission préalable. L’indexation devient
alors une question de temps. La soumission manuelle s’adresse donc aux plus
impatients ou s’adapte dans le cas de pages encore ignorées par les moteurs
181
METHODES D’OPTIMISATION « OFF SITE »
En revanche, cette soumission gratuite n’assure pas une indexation immédiate. Après
l’opération, quelques jours voire quelques mois peuvent passer. Pour savoir si sa page a
bien été indexée, il suffit d’effectuer une recherche sur le nom de sa compagnie.
Afin de savoir si toutes les pages sont bien intégrées dans l’index des moteurs,
la commande « site:monsite.com » permettra d’y répondre. Une vérification qui
contrôlera que les données privées interdites aux robots des moteurs n’ont pas été
divulguées.
Si son site ne figure pas dans l’index, malgré plusieurs tentatives, il faut alors
commencer à se poser des questions et rapidement définir d’où vient le problème : s’il
est issu d’un facteur bloquant ou si le site est en contre-indication avec les moteurs. Il
peut, en effet, avoir été banni par les moteurs pour avoir violé des consignes de bonnes
pratiques.
Si aucun robot de recherche n’a franchi la page d’accueil, cela signifie que cette
dernière n’est pas accessible et que les robots butent sur un problème technique. La
consultation des statistiques précisera à quel moment les robots ont stoppé l’indexation
et dans ce cas, permettra d’éliminer les pièges techniques. Ce passage peut être vérifié
à partir des statistiques de logs et également dans l’interface Google Webmaster Tools.
2.2. Sitemap
Proposé par les plus grands moteurs de recherche, le format sitemap protocol est
aujourd’hui standardisé et fonctionne aussi bien sur Google, Yahoo! et Bing.
Ce fichier présente un avantage pour les gestionnaires de sites comme pour les
moteurs. Les premiers voient une simplification dans la soumission régulière de leur
contenu, et les seconds bénéficient d’un gain de temps et de ressource dans le parcours
du Web.
Proposer un fichier Sitemap n’est pas une obligation puisque les moteurs continuent de
crawler quotidiennement le Web. La solution est surtout utile pour les nouveaux sites
ou pour les acteurs mettant régulièrement en ligne de nouveaux contenus.
Les tags <urlset>, <url> et <loc> sont obligatoires, <lastmod> : précise la date
de la dernière modification, <changefreq> : précise la fréquence de mise à jour de la
page. Choix possibles :
always hourly daily weekly
monthly yearly never
<priority> indique le droit de priorité de certaines pages. La note se chiffre entre 0,1
et 1,0. Par défaut, les moteurs estimeront une priorité à 0,5.
Le fichier ne peut pas contenir plus de 50 000 URLs. Il est toutefois possible de
présenter plusieurs fichiers. Chaque URL peut s’accompagner de la date de dernière
modification et de la fréquence de mise à jour. Même si les moteurs acceptent tout aussi
bien le format XML et TXT, mieux vaut favoriser le premier.
Une fois le fichier mis en place, il doit être mis à jour et entretenu.
Exemple de la page Sitemaps de Google
Pour transmettre ce fichier aux moteurs,
les Sitemaps disposent d’une zone dédiée.
Pour Google, elle se trouve dans les
Webmasters Tools, et pour Yahoo!,
directement dans la page de soumission de
liens.
183
METHODES D’OPTIMISATION « OFF SITE »
Ces outils génèrent automatiquement les Sitemaps. Après une analyse des URLs du
site, ils fournissent un résultat sous la forme d’un fichier TXT.
3. Désindexation
Extraire volontairement des pages de l’index des moteurs, c’est possible. Pages
publiées par erreur, contenus dépassés ou site encore en construction, de nombreuses
raisons peuvent expliquer le besoin de désindexer du contenu des moteurs de
recherche. Plusieurs solutions sont possibles.
3.1. Utilisation du fichier .htaccess
En plus des redirections et réécritures d’URLs, le fichier .htaccess permet les
restrictions d’accès. Solution recommandée pour garder les robots à distance de son
contenu, le fichier .htaccess gère les accès serveur.
Il est possible de bloquer l’accès de toutes les pages d’un dossier à certains ou tous les
robots des moteurs de recherche. Pour cela, on utilise un fichier .htaccess que l’on
place à la racine du dossier concerné.
RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} ^nomdurobot1 [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^nomdurobot2 [NC, OR]
Etc.
RewriteCond %{HTTP_USER_AGENT} ^nomdudernierrobot [NC]
RewriteRule ^.* - [F,L]
185
METHODES D’OPTIMISATION « OFF SITE »
La balise META noindex comme toutes les autres balises META tags est à intégrer
dans le site internet à l’intérieur des balises d’en tête :
<head>
<title></title>
<meta name="description" content="" />
<meta name="keywords" content="" />
<meta name="robots" content="noindex">
</head>
Seule limite à cette commande : tous les moteurs ne gèrent pas de manière identique
cette balise. Google et Ask, par exemple, respecteront ce choix et leurs robots passeront
leur chemin. Yahoo! et Bing, en revanche, choisiront de montrer la page dans les
résultats, sans associer de résumé.
User-Agent: *
Disallow: /
User-Agent: *
Disallow:
User-Agent: *
Disallow: /repertoire/dossier/nom-page.html
User-Agent: *
Disallow: /repertoire/dossier/nom-page1.html
Disallow: /repertoire/dossier/nom-page2.html
Disallow: /repertoire/dossier/nom-page3.html
Attention ! l’absence de liens externes pointant sur une page ne signifie pas que celle-ci
ne sera pas indéxée par les moteurs. Si tel est votre souhait, il ne suffit pas de se limiter
à ne faire aucun lien vers une page pour qu’elle ne soit pas référencée. Il est impossible
de gérer des liens externes amenant sur cette page. Mieux vaut opter pour une solution
.htaccess pour protéger tout ou partie du contenu de son site.
187
METHODES D’OPTIMISATION « OFF SITE »
Il aurait pour objectif de retenir des résultats (une sorte de mise en quarantaine) sur
des mots-clés très concurrentiels. Le temps de quarantaine permet à Google de vérifier
leur respect des consignes d'optimisation Google et selon l’évolution du site, lui donner
sa confiance en l’incorporant dans l’index.
Personne ne sait de façon certaine si l'effet Sandbox existe réellement. Force est de
constater que les sites Web venant d'être crées éprouvent certaines difficultés pendant
les 3 à 6 mois suivants leur lancement. Est-ce dû à une réelle pénalité infligée par
Google ou est-ce tout simplement le fait qu'un site Web qui se crée ne dispose que de
très peu de liens pointant vers lui et donc d’une popularité plus faible ? Les avis des
experts divergent encore sur ce sujet.
Avec la mise en place de la recherche universelle par les moteurs de recherche, les sites
Web doivent élargir leur présence et proposer d’autres formats qu’une page Web
classique. C’est une nouvelle tendance dans le référencement. En effet, il ne s’agit pas
d’une stratégie d’optimisation « on site », mais d’une diversification des sources de
résultats.
1. Google Actualités
Il est possible de proposer gratuitement son site à Google News pour faire partie des
milliers de sources d'infos en France validées par Google.
Exemple d’actualité dans les résultats Google
Attention, cette indexation est principalement dédiée aux éditeurs de contenu et seuls
les sites Web “créateurs” d’actualités sont éligibles au service Google Actualités en
France.
Afin d’apparaître dans le service « Google News » et donc de bénéficier d’un
référencement supplémentaire et gratuit, il est nécessaire de respecter au moins cette
contrainte : les adresses URL de vos articles doivent être uniques, permanentes et
afficher un numéro à 3 chiffres.
Plus d’infos sur http://www.google.fr/support/news_pub/bin/topic.py?topic=11665
Par exemple cette URL http://www.monsite.com/article-google-2.php ne pourrait faire
partie de Google Actualités, alors que celle-ci
189
METHODES D’OPTIMISATION « OFF SITE »
2. Google Images
Si votre site dispose d’images, autant se servir de ce contenu pour ressortir dans les
moteurs. Ceux-ci n’hésitant pas à mettre en avant des visuels dans leurs résultats, il est
conseillé d’optimiser toutes les images de son site.
Affichage des résultats Google images dans les résultats classiques
Les moteurs de recherche d’images constituent une source non négligeable de visites
bien que souvent les internautes qui visitent votre site en utilisant, par exemple, Google
Recherche d’images, sont souvent moins bien « ciblés » que les autres. Il n’existe pas
de règle absolue et seules des investigations poussées en utilisant un logiciel d’analyses
comme Google Analytics vous permettra de vous en faire une idée précise.
Les images doivent être intégrées dans des balises DIV ;
Les titres des images doivent être signalés par des balises H3 ;
Il vaut mieux placer ses images dans la partie supérieure de votre article ;
Les images doivent être correctement nommées ;
Les images doivent être légendées ;
Elles doivent être renseignées grâce à la balise Alt.
On sait depuis longtemps que le contenu de la balise Title n’est pas pris en compte
par les moteurs. Voici d’autres recommandations :
En mars 2014, Matt Cutts a expliqué que les métadonnées associées aux photos
(format EXIF par exemple) peuvent être lues par Google. Il faut donc les optimiser
en vue d’une meilleure indexation par le moteur de recherche d’images.
Créer des liens à partir d’autres pages de votre site vers les images dont vous
souhaitez « booster » le référencement ;
Utiliser le format JPEG pour des photos réalistes qui présentent des dégradés et
une large palette de tonalités. A contrario, les formats PNG et GIF sont à préférer
pour les images aux couleurs unies (graphiques, logos, etc.).
3. Google Vidéos
191
METHODES D’OPTIMISATION « OFF SITE »
Format encore assez peu exploité par les professionnels, la vidéo a pourtant le vent en
poupe sur Internet. Publicités, opérations de marketing viral, présentations de ses
services etc., toutes les vidéos peuvent être utilisées dans le référencement.
Affichage des résultats Google vidéos dans les résultats classiques
Pour s’assurer que les vidéos sur votre site Internet sont indexées par Google, il est
possible d’utiliser les Google Webmaster Tools pour générer un plan de site de ces
vidéos. Ce plan de site vidéos fonctionne de manière similaire à ce lui d’un Google
Sitemap traditionnel et rendra plus facile l’indexation de vos videos dans les
principaux moteurs de recherche.
Il faut aussi publier des vidéos sur les plates-formes de partage et de diffusion comme
YouTube et Dailymotion de manière à ce qu’elles soient intégrées au moteur de
recherche classique.
Le blog officiel de Google a rappelé que le moteur prenait en charge mRSS, un module
RSS qui complète les capacités de l'élément de RSS 2.0 afin d'optimiser la syndication
de supports multimédia et dont les spécifications ont été publiées sur cette page :
http://video.search.yahoo.com/mrss. Par ailleurs, il est recommandé de publier un plan
Sitemap pour les vidéos qui fait appel au protocole Sitemap et auquel s'ajoutent des
balises vidéo spécifiques qui sont énumérées sur cette page :
http://www.google.com/support/webmasters/bin/answer.py?answer=80472.
193
METHODES D’OPTIMISATION « OFF SITE »
Dans un autre message blog, Google annonce le support de deux autres normes de
balisage : Facebook Share et les métadonnées au format RDF
Ces deux formats permettent donc d’optimiser l’indexation des vidéos en fournissant
des informations comme le titre, la description du clip ou l’image à utiliser comme
miniature dans les pages de résultats ou sur les sites de réseautage social. Le principe
est donc de modifier le code HTML de la page qui contient la vidéo afin d’optimiser
son référencement. Voici deux exemples…
Facebook Share (le code est à placer dans l’en-tête de la page HTML) :
Métadonnées au format RDFa (le code d’insertion de la vidéo est optimisé afin de
donner du grain à moudre aux moteurs) :
195
QUATRIEME ETAPE :
MESURE DU SUCCES
MESURE DU SUCCES
199
MESURE DU SUCCES
La conversion permet de faire la distinction entre les simples visiteurs et ceux qui
ont franchi des étapes bien définies.
Par exemple, un site vendant des appareils photos a réalisé au mois d’octobre 5 000
commandes, pour un total de 100 000 visites. Le taux de conversion est donc de 5%
(5 000 commandes divisées par 100 000 visites, multipliées par 100). Dans cet
exemple, l’étape choisie pour calculer la conversion est la vente.
Calcul de la conversion en ligne
Juin 2014
Nombre de visites 100 000
Nombre de commandes 5 000
Taux de conversion 5%
201
MESURE DU SUCCES
Par exemple : 5 000 internautes ont imprimé le coupon de réduction spécial. 500
coupons ont été utilisés lors d’un achat dans la boutique. Le taux de conversion est
donc de 10%.
Calcul de la conversion
Coût de la campagne
Coût par vente =
Nombre de ventes effectives
Profit net par vente = Profit réalisé lors de la vente – Coût par vente
203
MESURE DU SUCCES
3. Cycle de conversion
Une fois l’internaute décidé à rester sur le site, le cycle de conversion suit un schéma
bien défini. Un prospect arrivant sur un site s’informe dans un premier temps sur les
produits correspondant à un besoin. Lorsque la solution est trouvée, il peut ensuite
choisir dans la boutique en ligne le produit désiré. Il compare les prix et les
caractéristiques avant de passer à l’achat. Après livraison, le prospect peut utiliser le
nouveau produit et revenir ensuite sur le site pour de nouveaux besoins.
Les étapes 2, 3 et 4 sont réalisées sur le site Web. La quatrième étape pourra également
se faire en ligne, par téléphone ou par courrier.
205
MESURE DU SUCCES
Enfin, la partie « service après-vente » peut également être un point fort dans le
référencement. Là encore, un contenu efficace, une FAQ détaillée et des conseils
d’experts feront la différence sur les moteurs comme auprès des internautes. Les
utilisateurs rencontrant un problème avec un produit ne se rendent pas forcément sur le
site du marchand. Ils recherchent bien souvent en premier sur les moteurs de recherche.
Non seulement ce service pourra satisfaire ses propres clients, mais il sera repéré par
des futurs chalands et gardé en mémoire pour un futur achat.
vtt occasion Commerciale Une liste de VTT mots-clés dans Titre de la page
d’occasion avec le titre et dans et snippet avec mots-clés
le prix et l’année le contenu
Décathlon Nominative La page mots-clés dans URL et titre concordant
d’accueil du magasin le titre et l’URL
Comprendre et anticiper les besoins des internautes après une recherche procure au site
un avantage spécial sur ses concurrents.
En comparant le succès d’une page à une autre, il est possible de déterminer les sujets
phares recherchés par ses visiteurs.
Le nombre de visites indique combien de fois un même utilisateur est venu sur son site
au cours de la journée, de la semaine ou du mois. Le nombre de visiteurs correspond au
nombre d’individus ayant consulté le site.
207
MESURE DU SUCCES
<script type="text/javascript">
var _gaq = _gaq || [];
_gaq.push(['_setAccount', 'UA-1234567-1']);
_gaq.push(['_trackPageview']);
(function() {
var ga = document.createElement('script'); ga.type =
'text/javascript'; ga.async = true;
ga.src = ('https:' == document.location.protocol ? 'https://ssl' :
'http://www') + '.google-analytics.com/ga.js';
var s = document.getElementsByTagName('script')[0];
s.parentNode.insertBefore(ga, s);
})();
</script>
1. Analyse du trafic
1.1. Session
L’outil indique le nombre de visiteurs reçus par le site.
Afin de bien appréhender les chiffres, il est important de comprendre la différence
entre les sessions et les visiteurs : le nombre de sessions correspond au nombre de fois
qu’une personne a visité le site. Le nombre de visiteurs chiffre le nombre de personnes
étant venu sur le site sur une période donnée. Un visiteur peut revenir plusieurs fois
sur le site. Plus ces visites par visiteur sont nombreuses, plus le site pourra être
considéré comme fidélisant.
Avec une segmentation poussée des données, il est possible de détailler le nombre de
visites, les conversions ou encore les évolutions par région.
Avec un croisement de cette base de visites avec celle des objectifs, il est également
possible de connaître la région proposant le taux le plus transformant, voire même la
ville avec les meilleurs retours. Une donnée très utile dans Google Adwords qui
permet de localiser des mots-clés. Pour le même prix, proposer des mots-clés
localement peut rapporter jusqu’à 10 fois plus de trafic ciblé. En période de crise,
l’outil prend toute sa valeur.
2. Analyse de l’acquisition
211
MESURE DU SUCCES
Ainsi, selon les résultats obtenus, on peut se rendre compte que si les moteurs sont les
outils qui amènent le plus de trafic, ils ne sont peut-être pas les plus efficaces en termes
d’objectifs commerciaux.
213
MESURE DU SUCCES
Un exemple des calculs sur les performances des différentes versions d’une même page web
Test A/B sur 2 versions d’une même page afin de savoir quelle est la plus performante - source : Google
Ces tests reposent sur un précepte : plutôt que de faire confiance aux avis des personnes qui
travaillent avec vous (« J’ai l’impression que cette mise en page plaira plus aux internautes
que celle-ci, qu’en penses-tu ? »), un test A/B ou multi-variable va vous permettre de
prendre des décisions qui reposeront sur un échantillon très important d’internautes.
Il existe deux systèmes :
Les tests A/B (Split Run Testing) qui servent à évaluer les performances respectives
de deux versions différentes d'un même élément :
Par exemple, deux versions d’un formulaire, d’une bannière, d’un encadré textuel, etc.
Les tests multivariables (MultiVariable Testing) qui vous permettent de comparer,
de manière simultanée, différentes versions de plusieurs éléments d’une même page.
Dans ce cas, le test va porter sur des variations concernant, à la fois, l’apparence d’un formulaire,
les différentes versions de l’image d’illustration, le texte affiché par une bannière, etc.
De manière similaire, il existe deux types de rapports :
Les rapports sur les combinaisons : affichent les performances de l’ensemble des
combinaisons de page générées à partir des variantes des éléments de page que vous
avez créées ;
Les rapports sur les sections de page : indiquent quelles sont les variantes les plus
efficaces de chaque section de la page web.
Réalisées volontairement ou non, certaines actions sont à éviter pour ne pas risquer de
mettre à mal son référencement. Les facteurs bloquants doivent être éliminés de son
site pour faciliter le passage du robot sur ses pages et ouvrir l’intégralité de son contenu
aux moteurs de recherche. Les techniques de spam doivent être, quant à elles,
complètement éradiquées de votre site. Un blacklistage réduirait à néant tous les efforts
menés vers la tête des résultats des moteurs et placerait le site dans une position
délicate vis-à-vis des moteurs.
« Si je cache du texte blanc sur un fond blanc, Google n’en saura rien »
Même si certaines techniques « Black Hat » ne sont pas comprises techniquement par
les moteurs de recherche, les « Google Quality Raters » sont là pour veiller au grain et
rechercher manuellement les techniques inappropriées !
219
PRECAUTIONS A PRENDRE
Le design représente une section importante dans la vie d’un site. Il met en avant des
rubriques, alerte sur des actualités et peut aider les visiteurs dans leur navigation. Flash,
DHTML, JavaScript ou encore feuille de style sont pourtant autant d’éléments qui
peuvent interférer et gêner le référencement.
1. JavaScript
Le JavaScript est un langage de programmation utilisé pour rendre des pages Web
interactives. Utilisé généralement pour concevoir des pop-up, des formulaires ou
encore des rollovers, le contenu d’une action en JavaScript n’est pas relevé par les
robots.
Pour ceux qui ne peuvent pas se passer de JavaScript, quelques solutions existent pour
améliorer le passage des robots. Il est préférable de placer ce code entre les balises
<head> ou <body>
<html>
<head>
<title> titre de la page </title>
<meta name="description" content="résumé de la page">
<meta name="keywords" content="liste mots-clés">
<script language="Javascript" type="text/javascript">
Contenu du javascript
</script>
</head>
Placer le JavaScript à la fin du tag "body" permet de s’assurer que les robots intègrent
la totalité du contenu HTML placé au dessus et diminue le risque de perdre les robots
lors de leur scanner. Reste que cette solution peut accroître le temps de chargement des
pages, surtout si le code JavaScript est long.
La meilleure solution pour le JavaScript reste, dès que c’est possible, de placer le code
dans un fichier externe.
<head>
<title> titre de la page </title>
<meta name="description" content="résumé de la page">
<meta name="keywords" content="liste mots-clés">
<script language="Javascript" src="scripts/nomduscript.js"
type="text/javascript">
</script>
</head>
<head>
<title> titre de la page </title>
<meta name="description" content="résumé de la page">
<meta name="keywords" content="liste mots-clés">
<noscript>contenu</noscript>
</script>
</head>
Seul problème, de nombreux abus ont amené les moteurs à accorder beaucoup moins
d’importance au contenu de la balise <noscript>.
221
PRECAUTIONS A PRENDRE
Le concept des feuilles de style en cascade a pour principe de regrouper dans un même
document des caractéristiques de mise en forme associées à des groupes d'éléments.
Alors que le code HTML offre un certain nombre de balises pour mettre en page le
contenu et définir le style d'un texte, les feuilles de style viennent compléter les styles
de présentation. En modifiant la composition d’une feuille de style, la présentation
s’applique au site entier.
Une solution qui facilite grandement la gestion du site et améliore l’homogénéité des
pages. Seul inconvénient, ces styles ne sont pas compris par les moteurs. Comme le
JavaScript, il est possible de créer des fichiers externes pour les CSS.
<head>
<title> titre de la page </title>
<meta name="description" content="résumé de la page">
<meta name="keywords" content="liste mots-clés">
<link rel="stylesheet" type= text/css" href="css/style.css" >
<style type="text/css"></style>
</head>
3. Frames
Cadres en français, les frames permettent d'afficher plusieurs pages HTML dans
différentes zones. Cette solution doit être évitée au maximum. Non seulement peu
ergonomiques, les cadres déroutent les robots et cumulent les handicaps pour les
visiteurs.
Certains navigateurs ne sont pas compatibles avec les frames, comme les robots. Il est
prudent de proposer son contenu sous une autre forme que des cadres. Pour ce faire, le
contenu d’un cadre doit être placé dans la section <noframes>.
Les abus d’utilisation de la base <noframe> l’on rendu beaucoup moins importante
voire totalement ignorée par certains moteurs de recherche.
4. Flash
Le Flash offre aux visiteurs des contenus interactifs au travers de graphiques, de vidéos
et d’animations. Très design, les internautes doivent posséder un lecteur Flash (plugin)
pour visualiser l’animation. Les robots étant dépourvus de ce lecteur, ils ne peuvent ni
détecter l’animation, ni la comprendre.
Google et Yahoo! ont annoncé travailler main dans la main avec Adobe (éditeur Flash)
afin d’améliorer la prise en compte du format Flash par les moteurs de recherche.
Depuis cette année, le format est de mieux en mieux reconnu et interprété par les
robots. Reste que les pages Flash ne sont pas toujours bien placées dans les résultats
des moteurs. Aujourd’hui, une page entièrement en Flash ne contient pas ou peu de
texte à indexer. Le même constat peut être fait pour les liens à suivre que les robots
n’arriveront pas à détecter. Le site restera dans l’ombre.
Présenté sous la forme de fichiers .swf, le Flash est inséré dans les pages d'un site. Pour
sortir de cette impasse, plusieurs solutions sont préconisées. Certaines sont toutefois
risquées et peuvent reléguer le site au rang de spammeur.
Afin de mettre toutes les chances de son côté, les sites utilisant du Flash créent des
pages attenantes, proposant des éléments textes pour le référencement, en utilisant la
balise 'noembed'. Cette dernière permet de rendre accessible le contenu Flash aux
navigateurs et robots n'ayant pas de plugin Flash.
Le risque d’une telle solution est de placer le site en contre-indication avec les règles
des moteurs. En effet, le contenu que voient les moteurs doit être identique à celui
visible par les internautes. L’opération doit donc être menée avec finesse.
Une autre astuce consiste à intégrer la balise SWFObject et d’intégrer dans cette
dernière les textes et images pour un contenu alternatif.
Aujourd’hui, les moteurs intègrent de mieux en mieux le format Flash. Malgré tout, le
site doit proposer le choix entre une visite du site en Flash ou en HTML, une solution
qui permettra à la page de contenir suffisamment d'éléments comme des mots-clés et
un plan du site.
223
PRECAUTIONS A PRENDRE
De nombreux sites proposent des pages dont les contenus textes et visuels sont issus en
temps réel d'une base de données. Généralement écrits en ASP (Active Server Pages),
en CFM (Cold Fusion), en PHP (Hypertext PreProcessor) ou encore en JSP
(JavaServer Pages), les moteurs appréhendent les pages dynamiques de façon très
différente. Ces pages créées « à la volée » peuvent vite être trop nombreuses : en
multipliant le nombre d’options possibles autour d’un produit, comme les différentes
variétés, leur taille, leur couleur ou encore leur zone de livraison, des commerçants
comme la Fnac ou comme les 3 Suisses disposent chacun de centaines de milliers de
pages web pour présenter chacun de leur produit de façon unique. Les robots se
retrouvent submergés par la somme des pages à indexer. Sans compter qu’une même
page peut être accessible sous plusieurs URLs.
C’est, en effet, sur ce dernier critère que les robots trébuchent. Dans les sites
dynamiques, l’URL est générée automatiquement et présente des caractères spéciaux,
comme le point d'interrogation ("?") et l'esperluette ("&").
www.monsite.com/products.asp?=product_no=32&catalogId=10001
http://www.monsite/listing.php?annee=2008&mois=08&jour=26&minutes=53
http://www.monsite/2008/08/26/53.html
Rendre plus explicite le contenu et rendre plus lisible la lecture de l’URL qui
s’affichera dans les résultats de recherche ;
Pour aller plus loin sur la mise en œuvre de la réécriture d’URL, prenons l’exemple
d’un site de vente en ligne utilisant le langage de programmation PHP. Les produits du
site sont stockés dans une base de données, chaque « page produit » est donc générée
dynamiquement (la référence du produit est passée en variable par méthode GET).
L’idée est donc de réécrire cette URL pour la rendre plus « intelligible ». Pour cela, on
utilise un fichier .htaccess avec le code suivant :
RewriteEngine On
RewriteBase /
RewriteRule ^article/([0-9]+)/(.*)l$ article.php?id=$1 [NC,L]
RewriteBase /: cette ligne permet de dire à Apache à partir de quelle adresse web vous
souhaitez réécrire vos URLs. Si votre fichier .htaccess se trouve dans un dossier, vous
devez donc préciser l’adresse ; exemple : /nomdudossier.
225
PRECAUTIONS A PRENDRE
Expliquons cette dernière ligne en détail : la première partie est l'adresse récupérée à
partir du navigateur. Celle-ci sera donc de la forme article ou un nombre. L'expression
([0-9]+) va récupérer l'ensemble des nombres : suite de chiffres de 0 à 9. Ce nombre est
stocké dans la variable $1. L'adresse est ensuite redirigée vers la page article.php avec
en argument le nombre demandé. [NC,L] signifie que la règle n’est pas sensible à la
casse (NC) et que celle-ci est la dernière règle à appliquer (L).
Pour savoir si son site Web comporte des facteurs bloquants, il est possible d’utiliser
des outils de simulation de passage d’un moteur de recherche tel que celui de Summit
(http://tools.summitmedia.co.uk/spider/).
De façon plus basique et visuelle, il est possible de mettre en évidence la méthode avec
laquelle un moteur de recherche examinera son site Web grâce à un vieux navigateur
du type Lynx.
227
PRECAUTIONS A PRENDRE
Chapitre 3 : Spamdexing
1. Généralités
Le spamdexing est apparu très rapidement après la création des premiers moteurs de
recherche. Une première position sur les moteurs de recherche peut faire tourner la tête
et certains sites ont largement détourné les critères de classement des moteurs pour
arriver à leur fin.
Avec un index trop pollué par le spam, Altavista s’est laissé dépasser. Ne voulant pas
commettre la même erreur, les moteurs, et en particulier Google, appliquent une
politique anti-spam de plus en plus vigoureuse. Beaucoup de sites y ont laissé des
plumes. Les sanctions envers les spammeurs se diversifient, allant d’un simple
avertissement à une désindexation complète.
Les moteurs ont d’ailleurs mis en place des outils permettant de détecter
automatiquement les abus d’optimisation, complétés par des formulaires de rapport de
spam.
Tricher pour apparaître en première position n’est donc pas la solution. La frontière
entre spammeur et référencement a dans un premier temps été floue. Quels sont les
risques liés à une optimisation ? En effet, la détection de spam étant automatisée, ne
prend-on pas un risque en accordant son site avec l’algorithme des moteurs ? Ces
derniers compliquent d’autant plus l’exercice, en ajoutant régulièrement de nouvelles
règles. Le référenceur se doit également de se tenir au courant des dernières décisions
des moteurs.
Avec une notion en perpétuel changement, le spam reste difficile à détailler. D’une
manière générale, le spamdexing consiste à travestir son site et à le faire passer pour ce
qu’il n’est pas : il s’agit d’un référencement abusif. Différentes techniques sont
largement connues et sanctionnées automatiquement. Voici les principales.
2. Pages satellites
Les doorways pages, appelées aussi pages satellites, ne doivent pas être confondues
avec les pages d’atterrissage. Les doorways sont uniquement créées pour les moteurs
de recherche. Alors que les premières sont générées automatiquement, les secondes
sont rédigées par un humain, dans le but d’apporter aux utilisateurs un renseignement.
Les doorways pages n’ont également pas le même design que le reste du site,
expressément allégées pour les robots.
Rempli de texte autour d’un mot-clé ou d’une expression, le contenu est, quant à lui,
sans valeur ajoutée pour l’internaute qui devra, soit cliquer sur un lien contenu dans la
page, soit retourner aux résultats de recherche.
Cette technique de spamdexing peut être détectée automatiquement par les moteurs ou
risque d’être dénoncée par des concurrents ayant décelé le subterfuge, voire même par
des internautes mécontents d’avoir été gênés par ce type de contenu.
La répétition de mots-clés
Le texte enchaîne des mots-clés sans tenir compte du sens de la phrase.
La balise H1
Les moteurs prenant en compte les titres des pages et du contenu, certains ont utilisé la
balise H1 pour tout leur contenu. Cependant, les moteurs notent seulement les
éléments mis en valeur. Comme le contenu est intégralement en H1, les robots ne
distingueront aucun contenu à valeur ajoutée.
Le cloaking
En français, la dissimulation. Technique qui consiste à fournir une page différente aux
moteurs et aux internautes. Une première sur-optimisée et une seconde plus graphique
et ergonomique.
229
PRECAUTIONS A PRENDRE
Le splog
Contraction de spam et de blog, le procédé utilise des blogs factices pour améliorer
artificiellement sa popularité.
Le duplicate content
Un contenu similaire figure sur plusieurs pages. Le moteur Google ne sélectionnera
qu’une seule de ces pages pour figurer dans son index.
L’achat de liens
Technique récemment classée par Google dans le spam. Ce dernier sanctionne les sites
ayant mis en place un système de backlinks payants.
Même si la tentation est grande pour arriver à être en première place des résultats de
recherche, employer de telles méthodes peut s’avérer néfaste pour son image de
marque.
Le spamdexing reste un fléau largement détesté par les internautes. Si un internaute,
après avoir mené une recherche sur les moteurs, sent qu’il a été floué en arrivant sur un
site, sa réaction sera de faire marche arrière.
Un blacklistage sur les moteurs de recherche peut également coûter cher à un site,
contraint de passer par les liens sponsorisés pour s’assurer un minimum de trafic.
L’image de marque prendra elle aussi un coup si la sanction arrivait aux oreilles de ses
clients.
La course aux liens peut également dériver sur du spam. Des webmasters et détenteurs
de sites se font spammer régulièrement par des mails de demande de liens. Peu
personnalisés et envoyés en masse, ces mails peuvent nuire à l’image du site
demandeur.
1. Fausses astuces
231
PRECAUTIONS A PRENDRE
Pour éviter d’avoir affaire de près ou de loin au spam, il est important de construire un
site d’abord pour ses visiteurs, en respectant ensuite les directives des moteurs.
Il n’existe pas de solution miracle pour ressortir en première place des moteurs. Le
référencement est un travail de fond. A chaque proposition alléchante promettant un
classement en tête ou une popularité démultipliée sans aucun effort, il convient
toujours de penser à la notion de transparence, requise aussi bien par les internautes
que par les moteurs de recherche.
Certains CMS, également appelés systèmes de gestion de contenu, peuvent être mal
interprétés par les moteurs de recherche. Mieux vaut donc s’assurer de leur bonne
compatibilité avec ces derniers, avant d’y investir du temps et de l’argent. Il en existe
aujourdhui un certain nombre identifiés comme « search engine friendly », tels que
WordPress, Joomla, Typo3 ou encore Drupal.
233
CONCLUSION
CONCLUSION
Etre en top liste des moteurs s’avère une mission de longue haleine. Au cœur de la
navigation des internautes, les moteurs peuvent être une source considérable de trafic
et participer à la construction de la notoriété de la marque.
Le référencement est une activité multi-facettes, aussi bien technique que marketing,
nécessitant du temps et de l’organisation. Une première place ne peut s’acquérir et se
conserver qu’avec une politique d’optimisation poussée et efficace. Celle-ci sera
d’autant plus performante qu’elle sera intégrée dans la politique globale de
l’entreprise.
1. Penser à l’utilisateur
Construire son site en fonction des besoins des internautes offre un avantage capital et
incite les visiteurs à revenir d’autant plus souvent. Comme le conseillent les moteurs,
un site proposant un contenu à valeur ajoutée sera un site favorisé dans le classement.
Un temps de chargement des pages rapide, une structure solide, une architecture
logique, un nom de domaine et des noms de dossiers adaptés, sont autant d’éléments
qui pourront inscrire le référencement dans une optique durable.
Ce conseil est utile pour ne pas s’engager dans une mauvaise direction. Ce plan de
route fixe d’abord ses objectifs et adapte ensuite les actions à mettre en place pour y
parvenir, en sélectionnant les bons mots-clés et en choisissant les bons outils.
Il faut intégrer le référencement dans une démarche globale : former et informer sur le
thème de l’optimisation aussi bien les webmasters, les rédacteurs que la direction.
Dans une campagne de marketing classique, le référencement doit être intégré en
amont.
Articles, communiqués de presse, débats, conseils, vidéos, buzz, etc. Le site doit
s’imposer dans son secteur. Internet est un terrain de communication à appréhender.
236 Les Clés du Référencement sur le Web
CONCLUSION
237
CONCLUSION
Faire appel à un prestataire peut être justifié par un secteur très concurrentiel, un besoin
vital de visibilité ou encore lorsqu’un site doit développer rapidement ses positions.
Incluant des métiers multiples allant de la technique au marketing, les sociétés
rencontrent des difficultés à trouver une personne au fait de ces différents métiers. Les
agences disposent de pôles de compétences dans chacun de ces métiers. Autant de
raisons qui justifient le recours à un professionnel. L’offre même des référenceurs s’est
adaptée pour coller aux attentes des entreprises. Alors que les agences travaillaient
« pour » le client, elles ont de plus en plus tendance à travailler « avec » le client.
Certains points doivent néanmoins être surveillés lors du choix d’un prestataire. Les
garanties sont en effet à prendre avec des pincettes. Il est tout simplement impossible
pour un prestataire de garantir une première place sur un moteur, puisqu’il ne
commande pas les moteurs de recherche. Un changement d’algorithme ou encore un
travail poussé de la concurrence sont des facteurs que le professionnel du
référencement ne peut pas maîtriser. Sauf, bien sûr, dans le cas d’achat de liens
sponsorisés où la première place sera dépendante du budget alloué au mot-clé.
Pour s’assurer que le prestataire détient toutes les compétences requises, voici une liste
de questions à poser au préalable :
Le site américain Search Engine Guide donne quelques conseils lors d’une
externalisation à cette adresse : http://www.searchengineguide.com/scott-
buresh/using-a-search-engine-optimization-compa.php
Le positionnement étant une opération qui s’inscrit dans le temps, le détenteur du site
Web se retrouve forcé de travailler sans avoir de retour sur les chiffres au début de la
prestation. Au bout de trois mois, les premiers effets se font sentir. Les professionnels
tablent en général sur six mois. Pour partir sereinement dans la prestation, mieux vaut
avoir fixé des objectifs par trimestre, mais aussi sur l’année, ne serait-ce que sur les
actions à mettre en place.
La multiplication des formats sur le Web amène les moteurs à revoir leurs outils et à
adapter des réponses en fonction du type de requêtes formulées. En intégrant les
photos, les vidéos ou encore les formats audio, les moteurs généralistes souhaitent
offrir une diversité à leurs utilisateurs. De nouveaux formats qui ont permis de voir
le paysage du marché des moteurs s’agrandir, avec des acteurs verticaux entrant dans
la course.
Avec le Web 2.0, les moteurs vont peut-être se servir de la communauté des
internautes pour sécuriser leur index et les sites qui le constituent. Aux Etats-Unis,
Google a déjà lancé des tests en demandant à ses utilisateurs de noter les sites figurant
dans ses résultats. Plus que jamais, un site doit donc rendre service à l’internaute et
apporter des bénéfices à ses clients.
239
CONCLUSION
Le référencement naturel va devenir une activité toujours plus pointue, avec des bases
de données de plus en plus importantes et un fonctionnement des moteurs toujours plus
complexe (indexation en temps réel, Recherche Universelle, Web sémantique, etc.).
La concurrence va s’accroître : le nombre de noms de domaine déposés est estimé à
plus de 947 millions, contre 210 millions en 2010 et 1 million en 1997 (Netcraft – Avril
2014).
Une rivalité qui redouble avec l’apparition de nouveaux acteurs comme les médias
sociaux. En mars 2012, NM Incite estimait qu’il y avait 173 millions de blogs. Une
nouvelle concurrence qui peut rafler des places chèrement acquises.
Les « autres leviers », basés sur un modèle à la performance, résistent bien en période
de crise : +0,5% pour un total de 454 millions d’euros investis :
L’affiliation progresse de 1% (219 millions d’euros) ;
Les comparateurs comptent pour 141 millions d’euros de chiffre d’affaires ;
L’emailing affiche une baisse de 1% sur l’ensemble de l’année.
Si une société est dans l’obligation d’être présente sur le Web, elle ne doit négliger
aucun des canaux d’acquisition marketing : SEO (« Search Engine Optimization »),
SEA (« Search Engine Advertising »), Mobile marketing, SMO (« Social Media
Optimization »), etc. C’est dont un défi considérable que doivent relever les entreprises
à la pointe des meilleures stratégies e-marketing.
241
GLOSSAIRE
GLOSSAIRE
A
A/B Testing
Un test A/B consiste à créer 2 versions d’une page ou campagne web et à les tester
toutes les deux afin de déterminer quelle sera la plus efficace en fonction d’un objectif
précis. Chaque page est montrée aléatoirement à l’internaute et un suivi statistique
permet de déterminer la version gagnante.
Adresse IP
Abréviation de « Internet Protocol », une adresse IP est une série de numéros
permettant d’identifier un ordinateur et tout autre matériel connecté à un système
informatique qui utilise Internet Protocol. Une adresse IP se présente sous la forme
suivante : xxx.xxx.xxx.xxx. Chaque adresse IP peut être convertie en un nom de
domaine, plus facilement lisible et mémorisable par l’internaute. Exemple d’adresse IP
: 01.234.56.789
Algorithme
En termes de référencement, un algorithme est un ensemble de formules
mathématiques complexes (ou règles secrètes), mises à jour régulièrement, permettant
d’attribuer un score de pertinence et de classer les pages d’un serveur Web dans les
résultats des moteurs de recherche, en fonction des requêtes faites par les internautes.
B
Balise alt / Alt text
Balise HTML permettant de joindre un texte alternatif à un visuel afin d’enrichir le
contenu d’un site web. Cette pratique est recommandée par les moteurs de recherche et
joue un rôle en termes de référencement. De plus, lue par un logiciel de synthèse
vocale, elle favorise l’accès aux mal ou non-voyants.
245
GLOSSAIRE
C
Canonical URL / URL canonique
L’URL canonique d’un site est son adresse « officielle ». Elle doit être définie lors de la
création du site, évitant ainsi tout problème de « duplication de contenu » en
redirigeant les autres URLs vers celle-ci.
Exemple d’URLs de page d’accueil pouvant contenir les mêmes informations :
http://www.monsite.com/
http://www.monsite.com/index.html
http://monsite.com/
http://monsite.com/index.html
Clustering
Pratique des moteurs de recherche qui consiste à limiter le nombre d’apparitions des
pages d’un même site dans les résultats de recherche. Cette pratique a pour but d’éviter
qu’un site monopolise la ou les premières pages de résultats. Sur Google, un site est
limité à deux apparitions sur une même page de résultats suite à une requête... Il sera
néanmoins possible de trouver en dessous d’un premier résultat l’option « Autres
résultats… » permettant à l’internaute d’accéder à d’autres URLs du site Internet.
L’objectif du Clustering est de permettre à plus de sites Internet différents d’apparaître
dans les premières pages de résultats.
247
GLOSSAIRE
D
Densité de mots-clés
Score établi en fonction du nombre de fois qu’un mot-clé est répété par rapport au total
de mots présents dans une page web. Cette densité de mots-clés joue un rôle important
lors du référencement, après passage des robots sur toutes les pages du site web.
Cependant une récurrence excessive d’un même mot-clé peut être interprétée par les
robots des moteurs de recherche comme du Spamdexing.
Duplication de contenu
Aussi appelé « duplicate content ». On parle de duplication de contenu lorsque l’on
retrouve des blocs de contenus (importants ou non) identiques ou similaires sur un
même nom de domaine ou sur différents domaines. Cette pratique peut être considérée
comme trompeuse par les moteurs de recherche si son but est de manipuler les
classements sur les moteurs. Elle peut entraîner des pénalités telles qu’un recul du
positionnement du site Internet dans les pages de résultats, voire un Blacklistage de
celui-ci.
F
Fil d’Ariane
Egalement appelé « chemin de fer », le fil d’Ariane est une technique permettant à
l’internaute de naviguer sur un site et de hiérarchiser les informations de ce même site.
Concrètement, il consiste en une succession de liens allant de la page d’accueil jusqu’à
la page consultée.
Flash
Technologie développée par la société Adobe permettant la création d’animations
graphiques et interactives sur une page web. Cette technologie n’étant pas encore
lisible par les robots des moteurs de recherche, elle peut entraver le référencement d’un
site sur les moteurs de recherche.
Frame
« Cadre » en français, un frame permet d'afficher dans une unique fenêtre de navigateur
plusieurs pages ou sections web indépendantes en même temps. Chaque frame
représente une page Web indépendante avec une URL qui lui est propre.
249
GLOSSAIRE
G
Geo-ciblage (geo-targeting)
Le géo-ciblage est une méthode de ciblage des internautes par rapport à une zone
géographique. Concrètement, le geo-targeting utilise les adresses IP des internautes
pour analyser leurs localisations et afficher les sites ayant choisi cette même
localisation comme zone d’apparition. Cette technique permet d’avoir des résultats sur
les moteurs de recherche plus ciblés et plus pertinents.
Google Dance
Périodes révolues où Google mettait à jour le classement des différentes pages de son
index. Pendant ce cycle, la position et le PageRank des pages de sites web variaient sur
les résultats des moteurs de recherche, d’où le nom de « dance ».
Googlebot
Robot spécifique au moteur de recherche Google, utilisé pour analyser et indexer les
contenus et pages Web en identifiant les balises HTML. Celui-ci crawle les pages du
Web à la recherche de nouvelles informations à référencer. La notion de qualité entre
en jeu puisqu’un robot passe ainsi plus souvent sur des sites à fort PageRank.
I
Impression
Dans le cadre du référencement publicitaire, une impression correspond à l’affichage
d’une annonce sur le réseau de recherche ou de contenu d’un moteur de recherche.
Indexabilité
Egalement appelé « indexability », « crawlability » ou encore « spiderability », elle
correspond à la capacité des pages d’un site Internet à être indexées par les robots des
moteurs de recherche et donc à être ajoutées dans leurs bases de données. La présence
d’un contenu textuel pertinent sur les différentes pages d’un site Internet ainsi que de
liens hypertextes liant toutes les pages d’un site entre elles sont autant d’éléments qui
favoriseront l’indexation des pages d’un site.
251
GLOSSAIRE
K
Keyword prominence / Proéminence des mots-clés
La proéminence d’un mot-clé est la mesure déterminant sa distance par rapport au
début du texte présent sur une page. Mesurée en pourcentage, la proéminence sera
d’autant plus grande que le mot-clé est placé en début de texte. Cet élément faisant
partie des critères analysés par les moteurs pour positionner une page, il est crucial d’en
tenir compte lors de l’optimisation des pages d’un site.
Keyword stemming
Il s’agit de la capacité des moteurs à identifier des mots-clés semblables à la requête
tapée. Ce procédé permet aux moteurs de recherche de reprendre la racine d’un mot-clé
afin de faire apparaître les variantes de ce mot-clé (les pluriels / singuliers et féminins /
masculins) dans les pages de résultats.
Keyword stuffing
Ou bourrage de mots-clés en français. Pratique sanctionnée par les moteurs de
recherche consistant en une récurrence importante de mots-clés dans le contenu visible
d’une page et dans ses méta tags, afin d’améliorer son positionnement sur les résultats
des moteurs de recherche.
L
Latent semantic indexing
La LSI consiste à associer et à établir des relations entre les mots-clés d’un site afin que
les moteurs de recherche puissent plus facilement identifier la thématique du site
Internet. Pour un même thème, il est efficace d’utiliser des mots-clés différents, les
moteurs de recherche comprennent ainsi plus facilement de quoi le site traite.
Lien relatif
Un lien relatif utilise une adresse URL « cachée », c'est-à-dire sans nom de domaine. A
l’inverse, il est possible d’utiliser un lien absolu, correspondant à une URL pleine.
Lien sponsorisé
Annonce commerciale, généralement située dans les premières positions des résultats
des moteurs de recherche. L’achat de cet espace publicitaire se fait par un système
d’enchères de mots-clés et son coût est déterminé par le CPM ou le CPC. Plus les
enchères sont élevées, plus le coût sera important.
253
GLOSSAIRE
M
META moteur
Moteur de recherche analysant simultanément plusieurs moteurs afin de proposer des
résultats pertinents et dédoublonnés aux internautes, qui n’ont alors pas besoin de
consulter différents moteurs pour une même requête.
META tag
Information invisible pour l’internaute, aussi appelée balise méta, insérée dans l’en-
tête de la page, dans le code source HTML. Elle est utilisée afin de donner plus
d’informations aux robots d’indexation des moteurs de recherche. Certains moteurs de
recherche en tiennent plus compte que d’autres.
META title
Balise annonçant le titre d’une page Web. Ce titre doit contenir des mots-clés pertinents
et doit être accrocheur, puisque c’est essentiellement lui qui va décider l’internaute à
visiter la page correspondante. Un titre doit correspondre à une page et doit donc être
différent pour chaque page.
META description
Balise importante puisqu’elle décrit le contenu d’une page. Ce résumé correspond au
Snippet présent dans les Serps et incite les internautes à visiter votre site.
META language
Balise informant le robot sur la langue dans laquelle est écrit le site.
META refresh
Balise utilisée pour réactualiser une page Web au bout de x minutes ou servant de
redirection. Néanmoins une redirection 301 ou 302 est préférerable.
META keywords
Balise permettant d’annoncer les mots-clés d’une page Web aux robots. Cependant,
elle est, aujourd’hui, peu prise en compte par les moteurs.
255
GLOSSAIRE
N
Negative keyword
Mots-clés à exclure, mis en place lors de campagnes AdWords afin d’optimiser le
ciblage des internautes, de limiter le CPC et de maximiser son ROI.
257
GLOSSAIRE
O
Occurrence de mots-clés
Nombre de fois qu’un mot-clé est répété sur une page web. Il faut doser la densité de
répétition des mots-clés. Ils doivent être répétés suffisamment souvent pour que les
moteurs de recherche jugent son contenu pertinent par rapport à une requête. En
revanche, il ne faut pas en abuser au risque d’être sanctionné. Elle permet également de
calculer l’indice de densité.
ORM
La gestion de Réputation en Ligne ou Online Reputation Management consiste à
surveiller l’image de marque d’une société sur le Net. Avec l’arrivée du Web 2.0 et de
l’interactivité avec l’internaute, gérer son image de marque est devenu vital. En effet,
une société ne peut pas gérer les réactions des internautes mais peut, en revanche, les
influencer.
P
Page d'atterrissage / Landing page
Page sur laquelle un internaute arrive suite à un clic sur une annonce AdWords. Une
bonne page d’atterrissage doit répondre à de nombreux facteurs clés dont :
La qualité d’une page d’atterrissage est déterminante pour les moteurs de recherche qui
calculent ensuite son score de qualité, mais elle l’est également pour les internautes
qu’il faut convaincre de cliquer ou d’effectuer l’action souhaitée. La page
d’atterrissage ne doit donc pas être négligée mais pensée avec soin.
PageRank
Notation inventée par Larry Page allant de 1 à 10 et influençant fortement le
classement des pages des sites sur le moteur de recherche Google. Cet indice de
popularité est calculé en fonction des liens internes et des liens externes pointant vers
celui-ci.
Page satellite
Page cachée composée de mots-clés récurrents, souvent mise en place pour améliorer
le référencement d’un site Internet. Un internaute atterrissant sur cette page non
consultable est automatiquement redirigé vers le site. Cette pratique est souvent
considérée par les moteurs de recherche comme du référencement abusif.
PPC
Unité de mesure signifiant « Pay Per Click » ou « Coût Par Clic ». Le coût d’une
campagne publicitaire est fixé par un système d’enchères. De plus, l’annonceur ne paie
que si l’internaute clique sur son annonce et non pas au nombre d’impressions.
259
GLOSSAIRE
R
Requête
Ou query en anglais. Elle correspond à un mot-clé ou à une expression clé tapée par
l’internaute dans le champ de recherche d’un moteur, amenant ce dernier à interroger
sa base de données, afin de faire apparaître les SERPs (Search Engine Results Page)
correspondant au mot-clé initial.
Redirection 301
Technique se traduisant par « 301 redirect » en anglais et consistant à déplacer de façon
permanente l’URL d’une page web à une autre. L’internaute arrivant sur une page dont
l’adresse/URL a été modifiée est renvoyé automatiquement sur une autre page web.
Appliquée au référencement, la redirection 301 permet de conserver le PageRank et le
positionnement d’une page, même si l’URL de celle-ci change.
Robot / Crawler
Logiciel souvent appelé « spider », « crawler » et « bot » utilisé par les moteurs de
recherche afin de repérer et d’indexer dans leurs bases de données les pages web et le
contenu des différents sites Internet. Chaque moteur de recherche a un robot qui lui est
propre. Par exemple, le crawler de Google est appelé Googlebot.
Robot.txt
Fichier d’exclusion permettant d’indiquer manuellement à un robot d’exclure
l’indexation de certains fichiers dans sa base de données. Certains moteurs de
recherche en tiennent compte, d’autres non.
ROI
Le Return On Investment ou « retour sur investissement » permet de calculer la
rentabilité d’un investissement et l’exprimer sous la forme d’un pourcentage.
RSS
Fichier XML – Acronyme de « Really Simple Syndication » –, auquel s’abonne
l’internaute afin de consulter rapidement des informations mises à jour sur un site
Internet, sans avoir à consulter celui-ci.
261
GLOSSAIRE
S
Sandbox
La sandbox ou « bac à sable » (en français) instauré par Google consiste à mettre à
l’essai des nouveaux sites, pendant une période donnée. Pendant cette phase
d’observation, il est difficile pour les sites de réussir à bien se positionner sur les mots-
clés choisis. Un fois cette période de quarantaine finie, ces jeunes sites se voient
rapidement attribuer un meilleur positionnement.
Score de qualité
Terme spécifique à Google AdWords. Le score de qualité ou niveau de qualité est un
des deux facteurs permettant à Google de déterminer la position des annonces sur ses
pages de résultats et dans les résultats de recherche. Il dépend de plusieurs facteurs tels
que l’historique du taux de clic (CTR) de l’annonce, du mot-clé, de la pertinence du
mot-clé par rapport à l’annonce, etc. Le classement d’une annonce dépendra du score
de qualité et du coût au clic fixé par l’enchère.
SEO
Le Search Engine Optimisation ou « référencement Naturel » consiste à optimiser les
pages d’un site web pour les rendre plus lisibles par les robots des moteurs de
recherche et, par voie de conséquence, à optimiser son positionnement dans les
résultats des moteurs de recherche. Il est important de rappeler que le positionnement
et la visibilité sont travaillés dans le but d’augmenter le taux de conversions d’un site
Internet.
SERP
Le Search Engine Results Page ou « Page de Résultats d’un Moteur de Recherche » en
français permet aux internautes de trouver aisément des réponses à une requête. Ces
réponses sont générées à partir des mots-clés des sites web classés par ordre
décroissant de pertinence dans les moteurs de recherche (du plus pertinent au moins
pertinent). Les conversions commencent aux SERPs. Il est donc important de
maximiser, lors de cette étape, les appels à l’action et les rédactionnels de votre site
Web, afin de séduire rapidement l’internaute.
Snippet
Extrait d’une page Web faisant le plus souvent 2 lignes et qui sont visibles dans les
pages de résultats des moteurs. Le Snippet reprend le contenu de la balise méta-
description. Renseigné, le Snippet utilisera une partie du contenu de la page.
Spamdexing / Spamming
Procédé de référencement abusif réprimandé par les moteurs de recherche. Il consiste à
tromper les robots des moteurs de recherche dans le but d’améliorer le positionnement
d’un site web. Les tricheries sont multiples : pages masquées (Cloaking), pages
satellites (Doorway Pages), duplication de contenu, etc. Ces pratiques peuvent
entraîner un Blacklistage par les moteurs de recherche qui excluent temporairement ou
définitivement les sites fraudeurs de leur base de données.
Spam report
Pratique consistant à remplir un formulaire pour dénoncer un spammeur à un moteur
de recherche, afin de lutter au mieux contre les fraudeurs et de conserver des résultats
pertinents dans les pages de résultats. Ces formulaires peuvent cependant être utilisés
de façon malveillante ; un concurrent peut, par exemple, s’en servir contre un site
concurrent. C’est pourquoi le moteur de recherche procède ensuite à de nombreux
contrôles de vérification.
Splash page
Ou page d’entrée en français, une Splash Page est une page ergonomiquement très
épurée, ne proposant généralement comme seul contenu qu’une image/animation
Flash et deux à trois liens (choix de langue, « entrez », etc.).
Stickyness
Il s’agit de la capacité d’un site Internet à garder les internautes le plus longtemps
possible lors de la consultation de leur site et à les inciter à revenir régulièrement.
Exemple : forum en ligne, site de discussion en ligne, etc.
263
GLOSSAIRE
T
Taux de conversion / Conversion rate
Pourcentage permettant de quantifier et d’analyser les objectifs réalisés sur un site
Web. Une conversion dépend de ou des objectifs définis pour le site web. Elle peut très
bien correspondre à une demande d’information, un achat, un formulaire à compléter,
une participation à une enquête, etc. Avant toute action de référencement, il est
important de définir des objectifs réalisables quant aux conversions souhaitées.
Exemple : si sur 100 visites sur votre site Internet, 10 aboutissent à un achat en ligne, le
taux de conversion de vente en ligne sera de 10%.
Taux de fraude
Pourcentage de clics incorrects ou illicites effectués sur une annonce publicitaire de
PPC. Le but de cette manœuvre est d’augmenter le coût de la campagne publicitaire.
Plusieurs méthodes de clics illicites sont identifiées : il peut s’agir de clics manuels ou
de clics générés par des outils automatisés. Cette action peut, notamment, être l’œuvre
d’un concurrent malveillant qui souhaite augmenter les dépenses de l’annonceur
rivalisant. Elle peut aussi être le fait d’un annonceur Adsense cliquant sur les annonces
apparaissant sur son site afin d’augmenter les revenus générés par celles-ci.
Taux de rebond
Le taux de rebond représente le pourcentage de visites d'une seule page (c'est-à-dire les
visites au cours desquelles l'internaute quitte votre site dès la page d'entrée). Ce taux
évalue la qualité des visites. Lorsqu'il est élevé, il indique généralement que les pages
d'entrée (de destination) ne sont pas pertinentes pour les visiteurs. Vous pouvez réduire
les taux de rebond en adaptant correctement vos pages de destination à vos mots-clés.
(Source : centre d’aide Google)
Taux de sortie
Indique le pourcentage de visiteurs quittant un site immédiatement après avoir consulté
la page. Par exemple, si une page est consultée 100 fois et qu'à 20 reprises il s'agit de la
dernière page consultée sur votre site, le pourcentage de sorties associé sera de 20 %.
Lorsque la valeur de ce paramètre est élevée, cela signifie que la page tend à éloigner
vos visiteurs ou que les internautes quittent simplement votre site une fois la
transaction terminée. (Source : centre d’aide Google)
Trackback
Ou rétro-lien en français. Ce système consiste à envoyer automatiquement un lien ou
une alerte sur un blog, signalant un article du même thème rédigé sur un autre blog,
pour rediriger le lecteur vers cet article.
265
GLOSSAIRE
W
W3C
Le World Wide Web Consortium ou W3C, est un organisme fondé en octobre 1994
comme un consortium chargé de promouvoir l’interopérabilité et la comptabilité des
technologies du World Wide Web telles que HTML, XHTML, XML, RDF, CSS,
PNG, SVG et SOAP.
Web 2.0
Concept lancé par Tim O’Reilly en 2004 permettant à l’internaute de devenir acteur
et non plus simple spectateur. Jusqu’alors, le Web était constitué d’une masse
d’informations visibles sur un ensemble de pages statiques et qui présentaient peu
d’interaction les unes avec les autres. Cependant, avec l’augmentation rapide de la
fréquentation de celui-ci, la notion d’interactivité est née. Ainsi l’internaute peut
interagir et participer au contenu des sites Internet.
Web copywriting
Depuis l’avènement du web, il devient vital de bien savoir communiquer en utilisant ce
support. Le nouveau métier de rédacteur web fait appel à des techniques bien précises
de rédaction. Internet étant un média en constante évolution - caractérisé par une
concurrence importante - des rédactionnels concis, pertinents et accrocheurs sont
essentiels pour captiver l’attention de l’internaute et le convaincre de s’arrêter sur votre
site, sur votre page ou sur votre annonce.
Web usability
Terme faisant référence au fait de rendre le plus accessible possible un site web aux
internautes. Plus un site est facilement accessible, plus il sera visité. En effet, il ne suffit
pas uniquement de mettre en place de bons appels à l’action mais d’optimiser tous les
éléments mis au contact des internautes. Un site avec d’importantes animations Flash
par exemple et néanmoins très ergonomique, gênera la navigation des internautes.
Celle-ci doit être intuitive, facile et rapide.
267
BIBLIOGRAPHIE
BIBLIOGRAPHIE
Online Marketing
Auteurs : Richard Gay, Alan Charlesworth, Rita Esen
Editeur : Oxford University Press
Année publication : 2007
ISBN : 978-0-19-926585-5
Internet Marketing – How to Get a Website that Works for Your Business
Auteur : Nigel T. Packer
Editeur : Right Way
Année publication : 2008
ISBN : 978-0-7160-3020-1
271
BIBLIOGRAPHIE
Search Engine Optimization - SEO – How To Optimize Your Web Site For
Internet Search Engines
Auteur : Samuel Blankson
Editeur : Blankson Entreprises Ltd.
Année publication : 2008
ISBN : 978-1-905789-06-1
273
BIBLIOGRAPHIE
Get to the top on Google – Tips and techniques to get your site to the top of
the search engine rankings
Auteur : David Viney
Editeur : Nicholas Brealey Publishing
Année publication : 2008
ISBN : 978-1-85788-502-6
275
BIBLIOGRAPHIE
Insider’s Guide – How to Get Your Website to the Top of the Search
Engines
Auteur : Andreas Ramos, Stephanie Cota
Editeur : Jain Publishing
Année publication : 2004
ISBN : 0-87573-051-5
Radically Transparent
Auteur : Andy Beal, Dr. Judy Strauss
Editeur : Sybex / Wiley Publishing Inc.
Année publication : 2008
ISBN : 978-0-470-19082-1
Web design for ROI – Turning Browsers into Buyers & Prospects into
Leads
Auteur : Lance Loveday, Sandra Niehaus
Editeur : New Riders Publishing
Année publication : 2008
ISBN-13 : 978-0-321-48982-1
ISBN-10 : 0-321-48982-9
277
NOTES
NOTES
281
NOTES
283
NOTES
285
NOTES