Vous êtes sur la page 1sur 288

Les Clés du Référencement sur le Web

Régis Micheli

Pascal Albericci

BOD Editions
Remerciements pour leur participation à cet ouvrage à :
Sophie Nebois, Marianne Maestrini, Cécilia Charpentier, Sébastien Dassé, Jean-Noël Anderruthy, Jérôme Caproni,
Nicolas Morardo, Louis Perello, Emmeline Razafindrabeza et Jean-Louis Paparone.
Les Clés du Référencement sur le Web

5 étapes pour développer votre visibilité

Edition 2014
Le Code de la propriété intellectuelle interdit les copies ou les reproductions destinées à une utilisation collective.
Toute représentation ou reproduction intégrale ou partielle faite par quelque procédé que ce soit, sans le consentement
de l'auteur ou de ses ayant droits, est illicite et constitue une contrefaçon sanctionnée par les articles L.335-2 et suivants du
Code de la propriété intellectuelle.

Copyright 2009-2014 Régis Micheli et Pascal Albericci


Edition : BOD Editions, 12-14 Rond-Point des Champs Elysées, 75008 Paris, France
Imprimé par Books on Demand GmbH, Norderstedt, Allemagne
ISBN : 9782810604463
Dépôt légal : Novembre 2009
A propos des auteurs

Régis Micheli :
Diplômé de l’Université de Santa Barbara (Etats-Unis) et de
SKEMA Business School, Régis a débuté sa carrière aux Etats-
Unis en tant que Webmaster dans une start-up de la Silicon
Valley. De retour en France il a exercé différentes fonctions
autour du web-marketing, avant de créer en 2002, l’agence de
marketing digital Visiplus. Régis a obtenu en 2005, la
certification Google Advertising Professional avant d’acquérir
en 2009 la certification Google Analytics Individual Qualified.

Pascal Albericci :
Ancien élève d’HEC et diplômé SKEMA Business School,
Pascal a exercé différentes responsabilités chez Microsoft,
Airbus Group ainsi que dans une start-up aujourd’hui propriété
d’Autodesk. Co-fondateur de Pingwy, racheté par un des leaders
du web français en 2007, Pascal a également été intervenant à
l’Ecole PolyTech Nice et Professeur vacataire à SKEMA
Sophia-Antipolis où il fût en charge de cours sur le commerce
électronique et les techniques d’analyse d’audience. Pascal est
aujourd’hui en charge du développement de nouvelles offres
autour d’avis et de conseils aux voyageurs chez Amadeus, un
des leaders mondiaux de systèmes de réservation de voyages.

5
TABLE DES MATIERES

Introduction....................................................................................................................13

Fondamentaux du référencement..........................................................................21
Chapitre 1 : Historique du référencement.................................................................20
1. Ancêtres des moteurs......................................................................................................21
1994-1995 : arrivée de Yahoo!, d’AOL et de Lycos............................................................22
1996 : le besoin de pertinence..........................................................................................24

Chapitre 2 : Les acteurs ..............................................................................................26


1. Moteurs............................................................................................................................26
2. Agences de référencement...............................................................................................30
3. Internalisation versus externalisation................................................................................31
4. Objectifs du référencement...............................................................................................32
Chapitre 3 : Fonctionnement des moteurs de recherche.........................................34
1. Algorithmes........................................................................................................................34
2. Robots ..............................................................................................................................37
3. Index.................................................................................................................................38
4. Classement.......................................................................................................................39
5. Services annexes..............................................................................................................39

Chapitre 4 : Fondamentaux du référencement.........................................................45


1. Différentes solutions de référencement.............................................................................45
2. Challenges du référencement............................................................................................60

Première étape : Choix des mots-clés...................................................................65


Chapitre 1 : Définition des mots-clés.........................................................................66
1. Connaître sa cible.............................................................................................................67
2. Penser aux conversions.....................................................................................................68
3. Mots-clés dérivés..............................................................................................................66
4. Effet Longue Traîne.............................................................................................................71
5. Terme unique ou expression à plusieurs mots-clés ?.........................................................73

Chapitre 2 : Sélection des mots-clés..........................................................................74


1. Brainstorming...................................................................................................................74
2. Analyse de la concurrence.................................................................................................75
3. Utiliser ses ressources......................................................................................................76
4. Sélection...........................................................................................................................77
TABLE DES MATIERES

Chapitre 3 : Outils d’aide à la décision........................................................................79


1. Générateurs de mots-clés..................................................................................................79
2. Etude de la concurrence....................................................................................................81
3. Mots-clés les plus recherchés............................................................................................85
4. Google Tendance des recherches (Google Trends)..............................................................88

Deuxième étape : Méthodes d’optimisation “on site”.........................................90


Chapitre 1 : Choisir un nom de domaine....................................................................91
Chapitre 2 : Sous-domaines ou répertoires ?............................................................91
Chapitre 3 : Diagnostic....................................................................................................92
Chapitre 4 : Structure......................................................................................................93
1. Mots-clés dans la structure du site....................................................................................93
2. Optimiser la structure du site.............................................................................................96
Chapitre 5 : Contenu.............................................................................................................122
1. Management du site..........................................................................................................122
2. Lisibilité versus visibilité.....................................................................................................126
3. Création de pages d’atterrissage........................................................................................130
4. Les pages d’erreur 404......................................................................................................131
5. Supprimer une page de l’index Google...............................................................................133
6. Spécificités d’un site multilingue........................................................................................133
8. Le référencement géolocalisé............................................................................................129
9. Optimiser le référencement de vos fichiers PDF et DOC.....................................................141
10. Temps de chargement des pages et SEO.........................................................................142
11. Créer un moteur de recherche personnalisé.....................................................................144
12. Avant de mettre en ligne votre site...................................................................................145

Troisième étape : Méthodes d’optimisation “off site”.......................................147


Chapitre 1 : Net linking...................................................................................................148
1. Importance du net linking..................................................................................................148
2. Comment acquérir un lien ?...............................................................................................152
3. Cross-linking efficace........................................................................................................156
4. Mesurer la qualité d’un Backlink........................................................................................158
5. Mener un audit de liens efficace........................................................................................160
TABLE DES MATIERES

Chapitre 2 : Marketing online........................................................................................162


Chapitre 3 : Faire indexer son site................................................................................178
1. Annuaires.............................................................................................................................178
2. Moteurs.............................................................................................................................181
3. Désindexation....................................................................................................................185

Chapitre 4 : Référencement universel.........................................................................189


1. Google Actualités................................................................................................................190
2. Google Images...................................................................................................................191
3. Google Vidéos.....................................................................................................................191

Quatrième étape : Mesure du succès.......................................................................197


Chapitre 1 : Mesures d’analyse.....................................................................................198
1. Analyse du positionnement.................................................................................................198
2. Analyse des conversions et du ROI.......................................................................................201
3. Cycle de conversion..............................................................................................................204
4. Critères d’analyse du trafic.................................................................................................206

Chapitre 2 : Présentation de Google Analytics...........................................................208


1. Analyse du trafic................................................................................................................209
2. Analyse de l’acquisition......................................................................................................211
3. Analyse de la conversion : vers plus de conversions............................................................212

Cinquième étape : Précautions à prendre...............................................................216


Chapitre 1 : Idées fausses sur le référencement......................................................218
Chapitre 2 : Facteurs bloquants....................................................................................220
1. JavaScript..........................................................................................................................222
2. Feuilles de style CSS..........................................................................................................222
3. Frames..............................................................................................................................223
4. Flash..................................................................................................................................223
5. Pages Web dynamiques.....................................................................................................224
6. Détecter les facteurs bloquants..........................................................................................226
TABLE DES MATIERES

Chapitre 3 : Spamdexing................................................................................................228
1. Généralités........................................................................................................................228
2. Pages satellites.................................................................................................................228
3. Autres exemples de spamdexing.......................................................................................229
Chapitre 4 : Attention à son image................................................................................231
1. Fausses astuces.................................................................................................................231
2. Situations qu’il vaut mieux éviter.......................................................................................232
3. Comment se tenir éloigné du spam ?................................................................................232
4. Penser à bien choisir son CMS..........................................................................................233

Conclusion.........................................................................................................................235
Six préceptes pour un référencement efficace.......................................................................236
Prospective sur le référencement..........................................................................................237
Choix d’un prestataire...........................................................................................................237
Prospective sur les moteurs de recherche.............................................................................239

Glossaire............................................................................................................................243
Bibliographie.....................................................................................................................269
INTRODUCTION
INTRODUCTION

Avoir un site Web ne suffit pas : encore faut-il qu’il soit consulté. Comme n’importe
quelle boutique, il convient de se rendre visible. A cet effet, différents outils de
marketing Internet existent, tels que l’emailing, la publicité en ligne et le
référencement dans les moteurs de recherche comme Google, Yahoo! ou bien encore
Bing.
C’est à ce dernier support de marketing appelé aussi « marketing de la recherche » que
se consacre cet ouvrage. L’optimisation d’un site doit non seulement couvrir le besoin
de prospection de nouveaux visiteurs mais également s’étendre à la notoriété et à
l’image de marque d’une société. D’un côté le référencement prospectif (commercial),
qui permet au site de générer des ventes ou des contacts au travers des moteurs de
recherche, et de l’autre un référencement de notoriété, ou d’image de marque, qui
consiste à se placer en tête des résultats sur sa marque ou sur le nom de ses produits.
Pour permettre au lecteur d’appréhender précisément la nécessité d’être visible dans
les moteurs de recherche, voici quelques chiffres présentant l’état de la recherche en
ligne dans le monde :

En début de l’année 2014, il y avait 2.5 milliards d’utilisateurs d’Internet dans le


monde, soit un taux de pénétration de 35% ;
A cette même date, l’Europe de l’ouest comptait plus de 326 millions d’internautes,
soit un taux de pénétration de 78% (Internet World Stats) ;
Le monde compte 2 milliards d’utilisateurs de réseaux sociaux (185 millions
d’utilisateurs actifs en Europe) ;
Il existe 6.5 milliards de personnes qui ont souscrit un abonnement à un mobile (538
millions en Europe pour 416 millions de personnes) ;
En avril 2014, le nombre de sites web avoisinait les 950 millions ;
En France, le taux de pénétration d’Internet est de 83% ;
Facebook compte, dans notre pays, 28 millions d’utilisateurs ;
Le taux de pénétration du mobile est de 109% ;
Le temps passé sur le Web s’élève, par mois, à 4 heures et 7 minutes ;
Par mois, le temps moyen passé sur Internet via un téléphone mobile est de 58
minutes ;
Le taux de pénétration du Web mobile est de 54% ;
(Source : Internet World Stats)
61% des internautes recherchent des produits sur internet ;
131 milliards de recherches sont effectuées chaque mois sur Internet.
(Source : Yoda – Novembre 2013)
14 Les Clés du Référencement sur le Web
INTRODUCTION

Voici quelques chiffres intéressants qui concernent la France :


La barre des 50 milliards d’euros (51.1 milliards) a été franchie pour les ventes sur
Internet selon le bilan 2013 dressé par la Fédération e-commerce et vente à distance
(Fevad) ;

Un chiffre d’affaires en hausse de 13.5% par rapport à 2012 et dont 10 milliards ont été
concentrés sur la période des achats de Noël.

Cette même étude révèle une augmentation soutenue du nombre de sites marchands
avec 20 000 créations en 2013 (+17%) ;
Il existe 138 000 sites de commerce électronique en France ;
78% des internautes français achètent en ligne ;
Toujours en 2013, les ventes sur tablettes et smartphone ont quasiment doublé avec un
chiffre d’affaires de plus de 2.5 milliards d’euros (5% du marché global sur Internet) ;
34% des internautes de plus de 18 ans déclarent se servir de leur smartphone pour
comparer les prix lorsqu’ils sont en magasin ;
En sens inverse, on estime que près de 70% des Internautes utilisent Internet comme
source d’information pour un achat final en magasin (Baromètre Echo – Janvier 2012).

Ce phénomène est appelé « Effet ROPO » (« Reach Online – Purchase») et il touche


tous les secteurs d’activité. Selon une étude de Pew Internet (janvier 2013), lorsque les
internautes américains recherchent des informations sur la santé, 77% d’entre eux
commencent par un moteur de recherche.

Le Syndicat des régies internet et l’Union des entreprises de conseil et achat média ont
publié, dès janvier 2014, leur étude sur l’e-publicité en France. Voici les chiffres les
plus significatifs :

Le digital représente 22% des dépenses publicitaires totales en France. C’est le seul
support à avoir enregistré une croissance sur les trois premiers trimestres de l’année
2013 (+3% contre -5% pour la télévision ou -8.6% pour la presse) ;
Le real-time bidding (enchère en temps réel) représente 16% du marché publicitaire
display en France en 2013, en croissance de 125% en 2013 (la vente directe reste reine
avec 69%) ;
Les vidéos concentrent 18% de la publicité display en 2013, contre 14% en 2012 ;
En dépit de fortes prévisions de croissance, le mobile ne représente que 8% des
dépenses digitales publicitaires en France ;
Le Search cristallise 1 671 millions d’euros (+ 5% en un an).
15
INTRODUCTION

Concernant la mobilité, signalons deux points importants :


Le m-commerce a le vent en poupe : en 2014, les Français devraient dépenser près de
4.2 milliards d’euros sur mobile, selon une étude réalisée par le Centre for Retail
Research pour RetailMeNot, soit 14% de la totalité de l’ e-commerce ;
En juillet 2013, StarDust a publié les résultats de son étude sur la « m-réputation ». Il
en ressort que les applications inertes (aucune mise à jour, moins de 10 notes ou
commentaires) représentent plus de 50% du total global des applications disponibles

Cet ouvrage se destine tout particulièrement aux personnes souhaitant avoir une vision
globale mais également pratique du référencement. Il se scinde en cinq parties, pour mieux
expliquer les cinq étapes clés identifiées comme étant essentielles à la réussite de son
référencement. Afin de ne pas risquer d’induire en erreur le lecteur, l’ouvrage s’axe
en priorité sur le référencement naturel. L’achat de liens sponsorisés, même s’il est
complémentaire au référencement naturel, est un métier bien différent qui est exposé dans un
autre ouvrage publié en 2013 “Le Référencement Publicitaire avec Google AdWords”.

Donner envie à nos lecteurs de se pencher sur leur référencement, éclaircir les zones
d’ombre, informer des meilleures pratiques actuelles et démystifier un métier trop
souvent incompris, voici les principaux objectifs de ce livre.

La première partie définit tout ce qu’englobe le terme « référencement ». Il convient


de délimiter les contours d’un vecteur de communication qui a tendance à intégrer
toujours plus de données et d’informations. Depuis le lancement d’Altavista en 1995
jusqu’à aujourd’hui, le référencement n’a cessé d’évoluer, tout comme les acteurs du
marché. Après des débuts tumultueux, le marché arrive aujourd’hui à maturité. Qui
sont les acteurs aujourd’hui en place ? Entre moteurs de recherche, agences de
référencement et agences web, chacun à son rôle à tenir.

Depuis la première version d’Altavista jusqu’à celle de Google que nous connaissons
aujourd’hui, le fonctionnement des moteurs de recherche a largement progressé. En
perpétuelle avance sur les besoins des internautes, les moteurs se livrent à une guerre
acharnée et implémentent en permanence des fonctionnalités, poussant toujours plus
loin leur service de recherche.

Avec 98% de parts de marché cumulées en France, Google, Yahoo! et Bing offrent à
l’internaute toujours plus de matière et de pertinence, et modélisent la manière de
rechercher en ligne (source : StatCounter – Avril 2014).

16 Les Clés du Référencement sur le Web


INTRODUCTION

L’internaute ne peut plus se passer de ces derniers : selon une étude baptisée « Yahoo
Search Academy », 68 % des internautes ont déjà cherché, sur Internet, une marque
sans se souvenir de son nom. Dans ce cas, 69 % d'entre eux ont utilisé un slogan ou un
élément publicitaire vu ou entendu (musique, personnalité...). Selon cette même étude,
71 % trouvent alors le site de la marque (Yahoo! France, Avril 2010).

Après avoir replacé le référencement dans son contexte, les 5 grandes étapes qui
président à sa mise en œuvre seront détaillées.

Première étape : le choix des mots-clés. Pour commencer sur des fondations stables,
des méthodes permettent de sélectionner au mieux les mots-clés les plus efficaces.
Entre les expressions de notoriété relatives au nom de la société et l’effet longue traîne,
les sites peuvent jouer sur différents leviers pour capitaliser des visites sur l’ensemble
de leurs pages.

Deuxième et troisième étapes : les méthodes d’optimisation « on site » et « off site ».


C’est en partant d’un bon diagnostic qu’il est possible d’apporter à son contenu les
éléments indispensables, tout en tirant avantage de ses points forts. Deux leviers
d’amélioration peuvent se présenter : l’adaptation d’une optimisation à partir d’un
cadre existant, avec notamment la création de pages d’atterrissage et la mise en place
d’une structure dédiée lors de la création d’un site. En plus de ces critères « on site », le
référencement se pense également dans son plan de marketing online, avec non
seulement l’inscription de son site dans les annuaires et dans les moteurs, mais
également, avec la création de liens via des communiqués de presse, des partenariats
ou encore des lancements d’opérations de buzz. Ces méthodes permettront au site
d’atteindre les premières positions.

Tous ces efforts peuvent être mesurés directement et adaptés au fur et à mesure des
retours chiffrés obtenus à partir des statistiques du site. C’est dans la quatrième étape
abordée dans cet ouvrage que sont expliquées les différentes mesures du succès, la
manière dont il convient de les calculer, et plus important, savoir comment en tirer
parti. L’analyse de ces chiffres fera la différence face à la concurrence. Certains outils
permettent d’aider dans l’élaboration d’un plan d’action et d’effectuer le suivi des
positions sur chaque moteur. L’outil Google Analytics, logiciel de statistiques fournit
par le moteur Google, propose de nombreuses fonctionnalités particulièrement
intéressantes pour tout détenteur de site. Un chapitre sera consacré à sa présentation.

17
INTRODUCTION

La recherche d’une recette miracle en référencement a longtemps animé les


spécialistes. Un professionnel - Ross Dunn - avait d’ailleurs proposé en 2003 un livre
blanc intitulé : "The 10 Minute Optimization". Un élan que certains moteurs ont
souhaité briser pour assurer la fiabilité de leur index. Blacklistage ou encore Sandbox,
sont autant de mesures qui ont permis de sanctionner les sites récalcitrants. Mieux vaut
le dire tout de suite, il est aujourd’hui impossible de placer un site en tête de Google en
dix minutes, ou du moins, il est impossible d’y rester.

Certaines techniques « Black Hat » sont automatiquement détectées par les moteurs.
Pour ne pas mettre son site en mauvaise posture, il convient de rester vigilant en évitant
toute forme de spam Avant de livrer son site aux robots des moteurs de recherche,
mieux vaut s’assurer de sa bonne conformité avec les règles des moteurs, mais aussi
avec les besoins techniques des robots d’indexation, en éliminant de ses pages les
facteurs bloquants et éléments perturbateurs. La cinquième et dernière étape de ce livre
livrera toutes les clés pour mener à bien cette vérification.

La compétition sur les moteurs n’est aujourd’hui plus la même qu’il y a dix ans. Le
nombre de pages sur le Web a été multiplié de manière considérable. Jusqu’en 2005,
Google laissait apparaître sur son site le nombre de pages que ses robots avaient
indexées.

En juillet 2008, Google annonçait recenser, dans son index, plus de 1000 milliards
d’URLs. Voici les derniers chiffres connus pour 2012 :
Google a indexé 30 trillions de documents sur le web, soit 30 000 milliards ;
Google parcoure environ 20 milliards de pages par jour ;
Plus de 100 milliards de requêtes sont faites chaque mois sur Google, soit près de 3.3
milliards chaque jour (ou 40 000 chaque seconde) ;
Sur ces 100 milliards, 15% sont nouvelles, c'est-à-dire qu'aucun internaute n'a encore
eu l'idée de saisir cette requête sur Google ;
En décembre 2013, Matt Cutts a révélé qu’entre 25% et 30% du Web était du «
Duplicate Content » (contenu dupliqué).

Une masse de pages contre laquelle un site doit lutter pour ressortir. Qu’il s’agisse de
nouveaux acteurs, de concurrents internationaux ou de partenaires d’un même secteur :
sur le Web, la concurrence est amplifiée.

18 Les Clés du Référencement sur le Web


INTRODUCTION

D’autant plus que la durée d’existence des sites ne cesse de se raccourcir. Après trois
ans de service, un site devient obsolète. Tout va très vite sur Internet, qu’il s’agisse de
design, de navigation ou bien de contenu. De nouvelles technologies Web apparaissent,
toujours plus performantes, et viennent bousculer les anciennes. Il est désormais assez
facile de donner un âge à un site Web, de la même façon que l’on repère dans Paris les
façades de style haussmannien de celles d’époque Art Nouveau. Une mise à jour
régulière permet non seulement de préserver une image « actuelle » mais aussi
d’adapter l’optimisation du site au plus près de ses besoins.

Aujourd’hui, le référencement allie non seulement la technique, mais également le


marketing. Deux secteurs qui ne doivent en aucun cas être travaillés séparément, mais
au contraire, être intégrés dans la stratégie globale d’une marque. Dès l’élaboration du
cahier des charges, le référencement doit être pensé en même temps que le design, la
navigation et, lors de la mise en place du contenu, cet effort devra être poursuivi.

19
FONDAMENTAUX DU REFERENCEMENT
FONDAMENTAUX DU REFERENCEMENT

Pour mieux comprendre les moteurs de recherche d’aujourd’hui, il est toujours utile
de connaître leurs histoires et leurs évolutions au fil du temps. En quinze ans, les
moteurs et le référencement sont déjà caractérisés par des strates, accentuées par un
succès rapide.

Chapitre 1 : Historique du référencement


Depuis son apparition, le référencement a évolué. Les algorithmes des premiers
moteurs de recherche étaient simples à deviner. Il suffisait alors d’inclure les mots-clés
sélectionnés dans le titre, dans les méta tags ou encore dans le contenu de ses pages.
Une opération qui pouvait assurer de figurer en bonne place sur les moteurs. Depuis,
les algorithmes des moteurs sont devenus plus complexes. Les ingénieurs travaillant
pour les moteurs adaptent et corrigent sans relâche leurs formules mathématiques. A ce
jour, il n’y aurait pas moins de 200 critères utilisés.

Note : lors d’une conférence aux États-Unis, Hal Varian, chef économiste chez
Google, a expliqué que le moteur proposait une douzaine d’expérimentations en ligne,
soit environ 5 000 tests par an !

1. Ancêtres des moteurs


Archie : c’est le nom du tout premier moteur de recherche créé en 1990 par quatre
étudiants canadiens à l'Université McGill (Québec), Peter Deutsch, Alan Emtage, Bill
Heelan et Mike Parker. A l’époque, il avait été pensé pour retrouver plus facilement les
nombreux documents échangés et archivés sur les serveurs FTP. La recherche se faisait
à partir du nom de chaque fichier.
Présentation d’Archie - Source W3C

22 Les Clés du Référencement sur le Web


FONDAMENTAUX DU REFERENCEMENT

Trois ans plus tard, c’est Matthew Gray qui réalise une nouvelle avancée dans la
recherche, avec un outil nommé Wanderer. Le premier robot voit le jour. Matthew Gray
avait imaginé un programme automatique permettant de détecter les nouvelles pages
ajoutées sur le Web.
La même année, Martijn Koster va utiliser les avancées d’Archie et de Wanderer pour
développer Aliweb. Martijn Koster donne l’opportunité à tous les créateurs de sites
d’inscrire leurs pages dans une base dédiée, en y accompagnant une description. Il
s’agit là du tout premier annuaire en ligne.
Inspirés, les développeurs veulent ensuite aller plus loin. Les robots se perfectionnent.
De nouveaux programmes les rendent totalement autonomes dans le « crawling » de la
toile du Web. L’apparition des nombreux robots entrainera d’ailleurs de forts
ralentissements sur les pages, un effet indésirable qui sera corrigé par la suite.

2. 1994-1995 : arrivée de Yahoo!, d’AOL et de Lycos


Le lancement de l’annuaire de Yahoo! en 1994 marque une nouvelle étape. Plutôt que
de miser sur le quantitatif avec la mise en place de programmes automatiques, les
concepteurs de Yahoo! préfèrent confier à l’homme le rôle de classer le Web.
AOL, jusqu’alors fournisseur d’accès Internet américain, s’intéresse de près au marché
de la recherche. Il achète la technologie WebCrawler, un robot capable d’indexer le
contenu des pages en ligne. Pourtant, c’est Altavista qui fera sensation en 1995. Sa
rapidité et sa compréhension des requêtes feront de lui le moteur favori. Il gardera sa
position de leader jusqu’en 2003.
Page d’accueil d’Altavista - Source : Altavista.fr

23
FONDAMENTAUX DU REFERENCEMENT

Lycos puis Infoseek arrivent dès 1995 sur le marché. Commence alors la guerre de la
taille de l’index. A l’époque, la couverture du Web était le point le plus travaillé sur les
moteurs : plus l’index d’un moteur était volumineux, plus l’outil paraissait performant.
En 1996, constatant les écarts de résultats entre les différents acteurs, MetaCrawler
lance le marché des méta-moteurs, c'est-à-dire la recherche multi-moteurs. Avec une
requête saisie dans l’outil, l’utilisateur se voyait proposer les meilleurs résultats extraits
de plusieurs moteurs.

3. 1996 : le besoin de pertinence


A la suite de ces lancements successifs, les acteurs en place font face au besoin de
qualité. Ils commencent à utiliser leurs statistiques de consultation pour mettre en avant
les sites populaires et écarter ceux qui ne sont pas sélectionnés par leurs utilisateurs.
Google apparaît en 1998. Avec un algorithme plus complet, le moteur propose un index
beaucoup moins touché par le spam. C’est ce qui fera de lui le moteur le plus utilisé à
travers le monde. En 1999, Yahoo! signe un partenariat avec Google. Un accord qui
prendra fin en 2003, date à laquelle Yahoo! décide de lancer son propre moteur de
recherche.
Ce n’est qu’en 2005 que Microsoft se décide à lancer son outil. Alors qu’il utilisait
jusque là, la technologie de recherche de Yahoo!, MSN Search est officiellement mis
en ligne pour enrayer la croissance exponentielle de Google.

Le 1er juin 2009, Microsoft annonce une refonte de son moteur et décide de le
rebaptiser « Bing ». De nouvelles fonctionnalités sont proposées dont certaines
proviennent de Powerset, moteur de recherche sémantique qui a été racheté par la
firme de Richmond en 2008.

En juillet 2009, Microsoft et Yahoo! annoncent avoir signé un accord de partenariat


pour une durée de 10 ans. La technologie de recherche de Bing remplacera celle de
Yahoo! sur ses différents portails, tandis que Yahoo! s’occupera de la
commercialisation des liens sponsorisés Premium chez Microsoft. Cette alliance a été
rendue effective en 2010.

24 Les Clés du Référencement sur le Web


FONDAMENTAUX DU REFERENCEMENT

A ce jour, Google sort grand vainqueur de ce combat. En France et en mars 2014, les 10
sites les plus visités en termes de visiteurs uniques sont : Google, Facebook, YouTube,
Microsoft, MSN/Windows Live, Orange, Le Bon Coin, Free, Les Pages Jaunes.
Selon les dernières statistiques de NetMarketShare, effectuées en avril 2014, Google
représente, dans le monde, 69.55% des requêtes ; Baidu est numéro deux avec 16.77%,
suivi par Yahoo! avec 6.53% ; Bing occupe la quatrième position avec 6.18% de parts
de marché ; AOL est en cinquième position avec 0.26%.

25
FONDAMENTAUX DU REFERENCEMENT

Chapitre 2 : Les acteurs


Classiques ou thématiques, les moteurs de recherche leaders n’ont pas besoin de
publicité pour se faire connaître. Ceux qui suivent doivent, en revanche, jouer des
coudes pour être adoptés par le grand public.

1. Moteurs
1.1. Moteurs classiques

Google
Larry Page et Sergey Brin étaient largement inspirés lorsqu’ils ont conçu Google. Avec
plus de 1000 milliards de pages web indexées, le moteur continue d’être à la pointe de
la pertinence. Une aptitude travaillée rapidement par ses créateurs, avec notamment le
PageRank, critère mesurant la popularité d'un site par rapport à son marché. Cette
notoriété est calculée en fonction des liens pointant d’une page à une autre. Selon la
réputation du site émetteur du lien, la page prend plus ou moins d'importance. Cet
indice, appelé PageRank, est mesuré à l’aide d’une valeur allant de 0 à 10, appelé
PageRank.
Au centre de toutes les attentions des référenceurs se trouve la recherche des critères
constituant l’algorithme de Google. Parmi les principaux éléments devinés figurent,
entre autres, le contenu des pages, les échanges de liens, la structure du site, les
caractéristiques de l’URL ou encore le titre des pages et les balises meta.
A l’origine, Google n’était qu’un simple moteur de recherche. Dans ses premières
années d’existence, l’acteur s’est entièrement concentré sur son outil et s’est taillé un
avantage face à la concurrence. Une fois sa notoriété faite, le moteur a constamment
grignoté des parts de marché en proposant une myriade de services gratuits :
applications et services de cartographie (Google Maps, Google Earth), bureautique en
ligne (Google Drive, Google Agenda), plateforme de blog (Blogger), outils de création
de sites Web (Google Sites), services de réseautage social (Google+), sites de partage de
vidéos (YouTube), sites de partage de photos (Panoramio, Picasa), régies publicitaires
(Google AdWords, Google AdSense), services de messagerie (Gmail), etc.

26 Les Clés du Référencement sur le Web


FONDAMENTAUX DU REFERENCEMENT

Yahoo!
Lancé à partir d’un annuaire, Jerry Yang et David Filo ont fait de Yahoo! un portail
mondialement reconnu. La recherche n’est pas la seule activité du moteur, qui fournit
également une foultitude d'autres services comme un portail d'actualités, un service de
messagerie, etc. Yahoo! possédait également un comparateur de prix, qui a été revendu en
novembre 2008 à un fond d’investissement. Ce n’est qu’en 2003 que le groupe décide de se
lancer seul dans l’aventure de la recherche en ligne, avec le rachat d'Inktomi. Jusque là, il
proposait à ses utilisateurs la technologie de Google, une mise en avant qui a d’ailleurs pesé
lourdement dans le succès de Google.
Yahoo! arrive troisième dans le classement mondial, loin derrière Google. Néanmoins,
le moteur est très populaire dans certains pays, comme au Japon, où il devance Google
avec plus de 51.4% de parts de marché (source : Internet World Stats - Avril 2014).
Pour rester dans la course, Yahoo! n’a pas hésité à mettre de côté son annuaire, qui a
fait sa renommée, pour mieux orienter sa stratégie sur son contenu et son moteur.
Bing
Alias Windows Live Search, le moteur fait peau neuve en juin 2009 en rebaptisant son
moteur « Bing ». Un nouveau baroud d’honneur qui vise à replacer la recherche au
cœur de ses services.
Avec une première version publiée en 2005, Microsoft souhaite conquérir le marché
de la recherche et passer devant Google. Un objectif ambitieux et largement affiché qui
justifie les investissements déboursés par l’acteur. Malgré ses efforts, le moteur ne se
détache pas de ceux de ses deux principaux concurrents. Pourtant, Bing dispose d’une
puissance de frappe avantageuse grâce à l’implantation mondiale de Microsoft et la
popularité de son service de messagerie instantanée Messenger.
Avec des parts de marché limitées, Microsoft envisageait depuis longtemps un
rapprochement avec Yahoo!. Deux offres successives ont été faites au conseil
d’administration de Yahoo! en 2007 et en 2008, toutes deux refusées par ce dernier.
En 2009, les deux sociétés signent un partenariat stipulant que la technologie de
recherche développée par Microsoft sera intégrée au portail Yahoo!

27
FONDAMENTAUX DU REFERENCEMENT

AOL
Aux Etats-Unis, AOL cumule 1.4% des requêtes. Filiale de Time Warner, AOL fait
figure d’ancêtre sur le marché des moteurs. Alors qu’il était jusque là un grand
fournisseur de service Internet, AOL a placé ses pions dans la recherche en ligne dès
1995 avec l’acquisition de WebCrawler, le premier acteur parcourant et indexant
l’intégralité des documents en ligne. A la fin de l’année 2005, un accord entre les deux
sociétés stipule, entre autre, que Google continuera de fournir à AOL ses solutions de
recherche.
Ask
Après un lancement remarqué aux Etats-Unis en 1996, Ask Jeeves est racheté par la
société InterActive Corp, détenteur des marques Expedia, Match.com ou encore
CitySearch en 2006.
Ask Jeeves est alors rebaptisé Ask. Ce moteur cumule outre-Atlantique 2.9% de parts
de marché. Encore anonyme en France, Ask souhaite se hisser à la troisième place en
Europe.
Orange
C’est le moteur francophone grand public. Accessible depuis le portail Orange et Voilà,
le moteur bénéficie des visites des abonnés à la marque Orange et Voilà. Le moteur de
France Télécom recense 0.4% de parts de marché en France (source : AT Internet –
Avril 2014).

28 Les Clés du Référencement sur le Web


FONDAMENTAUX DU REFERENCEMENT

Baidu
Moteur de recherche chinois fondé en 2000 par Li Yanhong, Baidu est devenu rapidement le
leader de la recherche en Chine où il détient plus de 75% du marché et se place sur la
deuxième marche, derrière Google, dans la liste des moteurs les plus utilisés dans le monde.
Introduit en 2005 au Nasdaq, l’acteur s’est lancé à la conquête du marché japonais en 2007.

Voici la part de marché des moteurs de recherche aux États-Unis


(les pourcentages portent sur septembre et octobre 2013) :
Google Sites : 67.5% - 67.5%
Microsoft Sites : 18.4% - 18.6%
Yahoo! Sites : 10.3% - 10.1%
Ask Network : 2.4% - 2.5%
AOL, Inc. : 1.3% - 1.3%
(Source : Comscore - Avril 2014)

Voici le taux de pénétration, en France, des moteurs de recherche :


Google : 33.9% millions de visiteurs uniques - portée : 73.1% ;
Google Images : 20.5 millions de visiteurs uniques - portée : 44.1%.
Ask : 8.9 millions de visiteurs uniques - portée : 19.2%.
Bing : 6.4 millions de visiteurs uniques - portée : 13.7%.
Yahoo! : 5.1 millions de visiteurs uniques - portée : 11%.
(Source : Médiamétrie - Septembre 2013)

Voici les chiffres d’une étude plus récente :


Google : 92% ;
Bing 2.9% ;
Yahoo! 2% ;
MySearchDial : 0.6% ;
Orange : 0.4%.
(Source : AT Internet - Mars 2014)

1.2. Moteurs spécialisés


A côté de ces moteurs de recherche classiques, des acteurs arrivent néanmoins à se
faire une place sur le marché de la recherche. Leur tactique : ne pas attaquer de front
les géants en place, en se positionnant sur un marché de niche. Certains se spécialisent
dans une thématique, comme l’immobilier, la science ou encore les voyages. D’autres
se cantonnent à un format, comme le font les moteurs de recherche de blogs ou de
vidéos. Ils se destinent soit au grand public, soit à une audience limitée.

29
FONDAMENTAUX DU REFERENCEMENT

Ces outils de recherche verticaux veulent surtout pallier au manque de qualité des
moteurs de recherche génériques.

Un bon exemple d’un moteur qui a fait le Buzz est WolframAlpha


(http://www.wolframalpha.com). Ce moteur de recherche évolué vous permet de
lancer des requêtes en langage naturel sur des recherches de type encyclopédique ou
scientifique : who is nicolas sarkozy, weather paris, Chad language dialects, …

Résultat du moteur WolframAlpha


Les audiences de ces moteurs sont généralement
beaucoup moins importantes que les moteurs
traditionnels, mais une présence dans leur index
peut apporter à un site un trafic ciblé. A noter que
certains sites Web de partage sont devenus des
acteurs incontestés dans la recherche en ligne, à
l’image de YouTube. Lancé en 2005, les fondateurs
ont réussi un coup de maître : YouTube s’est
rapidement imposé comme la première plate-forme
de partage de vidéos dans le monde. Google s’est
d’ailleurs offert l’acteur en 2006 pour 1,65 milliard
de dollars.

2. Agences de référencement
Arrivées peu de temps après la naissance des premiers moteurs de recherche, les agences de
référencement ont toujours eu la même mission : le positionnement de sites sur les moteurs
de recherche. Les tout premiers fournisseurs de services de positionnement sont apparus
d’abord aux Etats-Unis vers 1995.
Dès l’année suivante, le marché du référencement s’est développé, notamment grâce
aux premières amorces d’investissements des sociétés sur le Web. En France, c’est en 1998
que le référencement commence à se faire connaître. Depuis cette date, les agences de
référencement se sont multipliées. Entièrement dépendants des moteurs de recherche, les
acteurs ont dû faire preuve de souplesse, tant sur leurs offres que sur leurs services, au fur et à
mesure de l’avancée des moteurs. Entre les années 2000 et 2002, le marché de l’optimisation
est en plein essor. Le spam sur les moteurs bat son plein jusqu’en 2005. Pour stopper les abus,
les principaux outils prennent des sanctions exemplaires.

30 Les Clés du Référencement sur le Web


FONDAMENTAUX DU REFERENCEMENT

Aujourd’hui, même si la mission de positionnement reste inchangée, le métier de référenceur


a complètement été bouleversé.
Alors que dans un premier temps le travail pouvait se limiter à une simple inscription dans les
annuaires de l’époque, aujourd’hui le référenceur doit jongler entre l’optimisation, la veille
concurrentielle, le suivi avec des outils dédiés et des analyses pour adapter au plus près la
visibilité de ses clients.
Le métier se complexifie. Il devient de plus en plus technique, avec l’étude des algorithmes,
l’optimisation des bases de données et l’adaptation de leurs techniques à de nouveaux types
de développement comme les sites dynamiques, les vidéos, le format Flash, l’Ajax ou encore
le Flex. Une sphère marketing vient également se greffer dans les agences, avec des analyses
toujours plus approfondies des besoins, des solutions et du suivi des positions. Face à ce
bouleversement, les agences en place se sont adaptées. Certaines sont restées indépendantes,
d’autres ont été rachetées par des Web Agencies, qui souhaitaient compléter leurs offres avec
le référencement.

3. Internalisation versus externalisation


Quel que soit le service concerné, la question de l’externalisation reste un sujet
largement débattu au sein des sociétés.
Garder la compétence en interne apporte certains avantages. Mieux intégré dans les
équipes, le référencement peut être plus facilement infléchi en fonction de la stratégie
globale définie par la direction. Les actions peuvent être plus rapidement mises en
place et facilement modifiées en fonction des résultats obtenus. Internaliser son
référencement permet d’obtenir des résultats tout aussi probants qu’en faisant appel à
un prestataire. En revanche, une internalisation peut s’avérer tout aussi chère qu’un
prestataire, voire même plus onéreuse. Une étude menée par la SEMPO (Search
Engine Marketing Professional Organization) estime qu’un expert en référencement
avec cinq années d’expérience prétend à un salaire entre 100 000 à 200 000 dollars à
l’année, soit environ 78 500 à 157 000 euros.

La solution de l’externalisation permet de bénéficier d’une expertise et d’un savoir-


faire tout en restant concentré sur son cœur de métier. Avec des agences implantées
depuis 10 ans sur le marché, les problématiques et les solutions sont plus rapidement
ciblées et mises en place. Dans une stratégie de netlinking, les professionnels
connaissent déjà une multitude de partenaires ainsi que de techniques, facilitant la mise
en place de liens.

31
FONDAMENTAUX DU REFERENCEMENT

L’importance du site déterminera l’utilité d’une externalisation. Pour un petit site


statique, quelques heures dans la semaine consacrées au référencement suffisent. Pour
un site quotidiennement mis à jour, l’optimisation devient journalière. Outre cette
notion de temps, intervient celle de la compétence. Aujourd’hui, un bon référenceur
doit présenter deux casquettes : celle d’un technicien et celle d’un marketeur. Une
société ne dispose pas forcément en interne d’un collaborateur formé. Certaines
formations pour devenir référenceur viennent d’être récemment lancées, il n’empêche
que recruter ce profil encore rare n’est pas toujours facile.
Dans le choix d’une externalisation, il faut également penser que la solution peut être
déployée à différents degrés. En allant d’une simple prestation d’audit à une solution
plus complète. Les prestataires ne se contentent plus de toucher uniquement au code
source d’une page. Elles peuvent également adapter une offre personnalisée avec au
choix : une prestation de veille, de formation, d’audit, de conseil, en passant par
l’optimisation et avec la mise en place d’une solution de suivi et d’analyses. Les petits
sites peuvent ainsi adopter une externalisation limitée. Les sites avec un contenu
quotidiennement renouvelé peuvent, quant à eux, opter pour un travail de sous-
traitance lors de la conception de la structure du site et, si besoin, faire bénéficier à ses
équipes de formations et de conseils sur la création de contenu Web.

4. Objectifs du référencement
Savoir se placer dans les premières positions devient une obligation pour les marques.
Les dernières études parues insistent bien sur le fait que les internautes ne dépassent
généralement pas les trois premières pages de résultats et que la majorité d’entre eux ne
se contente que des premiers sites listés ou au mieux ceux de la première page.
En plus de l’objectif de trafic, le référencement s’avère également une activité primordiale
pour l’image de marque d’une entreprise. Ressortir en tête des moteurs pour une expression
donnée permet à une marque non seulement de se faire connaître des internautes, mais
également de prouver son importance. 33% des internautes pensent qu'une société présente
dans les premières positions des moteurs de recherche est leader sur son marché ! (Source :
SEO Inc – 2011).

Face à ces chiffres, le besoin de positionnement sur les différents moteurs de recherche est
prioritaire, pour ne pas dire vital. Reste à positionner le site sur des expressions amenant une
conversion de ses visiteurs en prospects, clients ou inscriptions à une newsletter par exemple.

32 Les Clés du Référencement sur le Web


FONDAMENTAUX DU REFERENCEMENT

Inutile pour un institut de beauté de ressortir sur des requêtes relatives aux institutions
publiques. Il faut savoir au préalable sélectionner les bons mots-clés qui amèneront sur le site
une conversion en termes de ventes ou de contacts. Le référencement est une opération qui
s’inscrit dans le long terme.

Quelques exemples d’objectifs associés au référencement naturel :


Augmenter ses revenus online
Construire une présence internationale
Améliorer son image de marque
Se différencier de ses concurrents
Augmenter le trafic de son site
Diminuer ses coûts d’acquisition clients
Fidéliser ses visiteurs
Recruter de futurs collaborateurs
Générer du trafic sur le point de vente
Entretenir et maîtriser sa réputation sur Internet, etc.

33
FONDAMENTAUX DU REFERENCEMENT

Chapitre 3 : Fonctionnement des moteurs de recherche


Les moteurs de recherche proposaient à leur début une interface claire et épurée. Un
logo et un champ de recherche : le tour était joué. Cette présentation a fait le succès de
certains à l’époque des modems 56k, où une page mettait du temps à se charger.
Aujourd’hui, les offres des fournisseurs d’accès s’améliorent. Le surf est plus rapide.
Les moteurs s’adaptent à cette donnée et proposent aujourd’hui des pages
personnalisées, avec l’affichage de l’actualité, les derniers mails reçus ou encore
d’autres gadgets comme la météo.
Cette page n’est que la partie visible de l’iceberg. De l’autre côté se cache une véritable
machinerie. Pour proposer à leurs utilisateurs des réponses pertinentes, les moteurs
envoient des robots – connus sous le nom de spiders – pour collecter des informations
sur les milliards de pages qui composent le Web dans un index et effectuer un tri grâce
à un algorithme.

1. Algorithmes
L’algorithme est la pièce secrète des moteurs de recherche. C’est le cœur même du
métier. Dans le domaine informatique, un algorithme de recherche est un ensemble de
règles permettant d’évaluer pour un problème donné les différentes possibilités de
réponses, pour mettre en avant, au final, la solution la plus adaptée. Dans le cas des
moteurs, il s’agit donc d’une technique de sélection des pages – compilées au sein
d’une base de données – en fonction des mots-clés saisis.
Ces algorithmes de recherche se classent selon des catégories bien précises :
la liste de recherche (list search) : il s’agit d’une technique de recherche linéaire.
En général, une seule réponse sortira parmi une liste.

l’arbre de recherche (tree search) : comme son nom l’indique, la recherche se


découpe en différentes sous-parties. Cette méthode permet de lister l’ensemble des
possibilités, chacune valorisée en fonction du lien avec la recherche.

34 Les Clés du Référencement sur le Web


FONDAMENTAUX DU REFERENCEMENT

Présentation de l’arbre de recherche - source : Wikipedia

La recherche SQL (SQL search)


Ce procédé permet de compléter la solution de l’arbre de recherche. Ce dernier
recherche hiérarchiquement une solution. La recherche SQL permet quant à elle
d’entamer une recherche sans ordre précis.
La recherche avertie (informed search)
Elle utilise également la technologie de l’arbre de recherche. Cet algorithme ne
s’applique cependant pas vraiment à la recherche en ligne car elle répond trop
largement à une requête. Connue par les développeurs, l’algorithme A* ou A star (qui
fait partie des algorithmes de recherche avertie) recherche dans les cartes l’itinéraire le
plus court entre deux points.
La recherche de confrontation (adversarial search)
Là encore, la méthode de calcul n’est qu’assez peu adaptée à la recherche en ligne.
Cette technique convient en revanche dans la conception d’un jeu. La recherche de
confrontation doit imaginer toutes les solutions possibles à une action. Le jeu d’échecs
face à une machine en est un très bon exemple.
La satisfaction de contrainte (constraint satisfaction)
Plus qu’une recherche à une seule réponse, cet algorithme recherche au mieux ce qui
peut convenir. Pour la recherche en ligne, le calcul trouvera des solutions les plus
adaptées à la problématique qui lui est posée.
A chaque moteur ses propres critères et leurs pondérations. Alors qu’un moteur préfère
mettre en avant la fraîcheur, un autre favorisera la notoriété. Même si les moteurs ne
communiquent pas sur leurs critères, certains restent relativement connus et communs
à tous les acteurs.

35
FONDAMENTAUX DU REFERENCEMENT

1.1. L’emplacement des mots-clés


Afin de déterminer l’importance d’un thème dans une page, les moteurs tiennent
compte de la place des mots dans chaque page. Un mot-clé placé dans un titre ou dans
l’en-tête d’une page aura donc plus de valeur qu’un mot placé en fin de page.
Exemple avec un article extrait de Wikipedia.org

1.2. La fréquence
Ce critère prend en compte la récurrence d’un mot dans une page. Une expression
revenant plusieurs fois marque l’importance du thème dans la page. Cette répétition
est relevée par les moteurs. Ce n’est pas pour autant une raison de rajouter des mots-
clés. Ce spamdexing est aujourd’hui connu et peut être détecté.
1.3. Les liens
Il s’agit là d’un des critères les plus récents. Les moteurs comptabilisent non
seulement les liens qui mènent vers un site, mais également ceux qui sortent du site.
Ces liens leur permettent de bien comprendre quelle est la thématique du site et de
déterminer sa popularité sur le Web.

36 Les Clés du Référencement sur le Web


FONDAMENTAUX DU REFERENCEMENT

Exemple avec un article extrait de Wikipedia.org

A partir d’une simple biographie, l’internaute peut explorer les autres sujets et thèmes
qui sont liés à la vie du personnage principal.

1.4. Les clics


Les moteurs se sont servis assez tôt de leurs statistiques pour mettre en avant, dans les
résultats, les sites régulièrement cliqués. L’internaute, par le biais de sa navigation, indique au
moteur les sites qu’il sélectionne pour un mot-clé donné. Aujourd’hui, l’étude des statistiques
va plus loin : certaines rumeurs affirment que les moteurs peuvent étudier les clics vers la
page précédente, c'est-à-dire quand un internaute retourne sur l’index de la page de résultats
après avoir cliqué sur un lien. Si cette action est immédiate, elle signifie que le site figurant
dans les résultats de recherche n’était pas à sa place.

2. Robots
C’est l’outil qui relie les moteurs aux sites Web. Ces programmes naviguent sur le Web
à la recherche de nouveaux contenus. Chaque nouvelle page mise en ligne est analysée
et indexée. Le robot navigue de lien en lien sur le Web. Il détecte les nouveaux
contenus mais également les mises à jour sur des pages déjà crawlées. Toutes ces
données sont ensuite rapatriées dans les serveurs des moteurs.
37
FONDAMENTAUX DU REFERENCEMENT

Ces robots passent selon les moteurs plus ou moins fréquemment. De nouveau, Google
est en tête de peloton dans cette catégorie. Il peut, en effet, détecter des modifications
apportées à un site web en moins de 6 secondes (montre en main !) et les indexer
immédiatement dans son moteur. Une actualité peut donc se trouver rapidement en tête
des résultats naturels. Il s’agit là d’une avancée remarquable dans l’histoire des
moteurs. Ce même acteur se contentait encore jusqu’en 2003 de passer une fois par
mois sur les sites. Le moteur mettait à jour son index en fonction du calendrier des
pleines lunes, une opération appelée la Google Dance.
Une des conditions fondamentales avant qu’un robot vienne visiter un site : l’accessibilité.
Textes, images, vidéos ou encore PDF : le robot ne néglige aucun format. Seuls le
JavaScript ou encore le format Flash restent mal assimilés par les robots. Les robots de tous
les moteurs sont régis par certaines règles. Il est ainsi toujours possible de bloquer l’accès de
pages Web avec un fichier nommé « robots.txt ».

Note : en l’absence de fichier Robots.txt, votre site web ne sera tout simplement pas
exploré.
Après de nombreuses études effectuées, force est de constater que plus un site Web
disposera d’un PageRank élevé, plus le moteur Google aura tendance à visiter
fréquemment ce site Web.
Il existe différents programmes : ceux en charge de relever du contenu, de l’actualité,
ou encore des produits mis en vente. Il est possible de détecter sur ces statistiques la
visite des robots. Grâce à ce décompte, nous pouvons nous rendre compte que plus un
site est mis à jour, plus le robot reviendra vérifier l’actualisation des données.
La fonctionnalité du robot se limite à la collecte. Il ne classe en aucun cas les données.

3. Index
Avec des milliards de pages constituant le Web, les robots ont du travail devant eux. Ils
rapatrient toutes les données dans l’index. Ce dernier est une gigantesque base où sont
recensées toutes les pages que les robots ont relevées. Mieux encore, les moteurs
conservent les archives du Web. Ainsi, l’internaute peut retrouver les anciennes
versions. Il est toutefois possible pour un détenteur de site d’interdire cet archivage en
ajoutant dans son code source la balise suivante :

<meta name="robots" content="noarchive">

38 Les Clés du Référencement sur le Web


FONDAMENTAUX DU REFERENCEMENT

La taille des index n’est aujourd’hui plus affichée et les moteurs ne communiquent que
très partiellement dessus. Cependant, comme nous l’avons déjà dit précédemment,
Google a indiqué en août 2008 avoir recensé dans ses bases pas moins de 1 000
milliards d’URLs.

4. Classement
Le classement dépend directement du travail des robots, de la gestion de l’index et
du fonctionnement de l’algorithme. C’est en fonction de l’algorithme que le tri dans
l’index du moteur sera effectué puis présenté aux utilisateurs. Et c’est sur ce
classement que tout le travail de référencement dépendra. En comprenant le
fonctionnement des moteurs de recherche, il devient possible de travailler, au plus près,
son optimisation.
Le classement dans les moteurs n’est pas figé, comme dans les annuaires. Bien au
contraire, il est en mouvement permanent. L’indexation en continu de nouvelles pages,
de données mises à jour et le changement constant des algorithmes, sont à l’origine de
ces mouvements.
Rien n’est donc jamais acquis sur les moteurs. Les robots se perfectionnent, les
algorithmes se compliquent et les index ne cessent de grossir. Autant de critères à
prendre en compte dans une stratégie d’optimisation.

5. Services annexes
5.1. Fonctions avancées des moteurs de recherche
Les moteurs de recherche s’avèrent être des outils puissants, utilisés généralement à
10% de leurs capacités. Pour aller chercher toujours plus profondément dans le Web,
ces derniers proposent des fonctionnalités de recherche avancée, très pratiques pour
une investigation poussée.

Fonctions avancées
de recherche dans Google (1)

39
FONDAMENTAUX DU REFERENCEMENT

Il est possible d’indiquer au moteur quelle importance donner à chaque mot-clé de la


recherche et d’éliminer ceux qui ne doivent pas y être associés.

L’ordre des mots-clés saisis agit directement sur le classement des résultats. Ainsi, avec
la requête « décoration plante intérieur », les résultats obtenus sont différents que pour
« plante décoration intérieur ».

Fonctions avancées de recherche dans Google (2)

Parmi les autres fonctionnalités avancées, celle de la langue ou du pays, qui permet de
délimiter géographiquement où Google doit chercher. Pour une recherche de
documents, il suffit de préciser dans le menu déroulant si l’on ne souhaite que des PDF,
des fichiers Excel ou encore PowerPoint.
La recherche de pages similaires offre aux internautes la possibilité de repérer dans
l’index du moteur les pages ayant des caractéristiques similaires avec un site. Ainsi, en
saisissant l’URL d’un journal en ligne, le moteur listera d’autres domaines qu’il aura
détectés comme appartenant à la même catégorie.
La recherche de pages liées permet de connaître les sites ayant réalisé un lien vers les
pages du site mentionné. Une information qui sert pour les internautes souhaitant
explorer un univers soigneusement délimité ou bien dans le cadre d’une veille
concurrentielle en recherche de liens.

40 Les Clés du Référencement sur le Web


FONDAMENTAUX DU REFERENCEMENT

5.2. Commandes pour les recherches avancées


En plus de ces fonctionnalités, il est possible de pousser beaucoup plus loin les
moteurs, en indiquant des commandes directement lors de la requête.
« cache: www.nomdusite.com/fr... »

Cette fonction permet de retrouver des informations qui sont apparues en ligne mais
qui n’y sont plus comme, par exemple, les anciens termes d’un contrat qui a été depuis
modifié, ou encore des chiffres avant leur réactualisation. Plusieurs moteurs proposent
cette recherche spécifique, excepté Ask Search.
« site: www.nomdusite.com/fr... »

Avec cette mention, il est possible de limiter la recherche à un site donné. Fonction très
utile si un site ne propose pas d’outil de recherche interne ou si son outil ne donne pas
satisfaction.

« intitle: » ou « allintitle: »

Il existe une différence dans l’emploi des opérateurs intitle et allintitle. Si une
recherche comporte plus d’un mot-clé, le second opérateur oblige le moteur à
rechercher des pages dont les titres contiennent l’ensemble des mots-clés définis :
allintitle: android google

« inurl: » ou « allinurl:»

La même remarque que celle que nous avons faite précédemment s’applique à l’emploi
de l’opérateur allinurl.

« filetype: » ou « ext:»

Cette fonctionnalité est utilisée pour rechercher uniquement les documents indexés sur
le Web, comme des feuilles Word, des fichiers Excel, des présentations PowerPoint,
des PDF. Voici la liste officielle des extensions qui sont possibles : .pdf, .ps, .dwf, .kml,
.kmz, .xls, .ppt, .doc, .rtf, .swf.
En pratique, il est possible de spécifier toutes sortes d’extensions : KML, EXE, DOCX,
etc.

41
FONDAMENTAUX DU REFERENCEMENT

« link: »

Une commande utilisée pour connaître la popularité de son site ou de celle des
concurrents. Les sites ayant créé un lien vers une marque ou un site particulier seront
affichés.
Exemple de commande link: dans Yahoo!

5.3. Outils
Autant les moteurs sont avares en informations, autant ils fournissent généreusement nombre
d’outils utiles aux Webmasters. Indispensables dans une optique d’indexation dans les résultats
naturels comme sur les liens sponsorisés, ces services gratuits deviennent de plus en plus
complets et peuvent largement rivaliser avec les outils professionnels dédiés au référencement.

Google Webmaster Tools


Le webmaster peut, avec cet outil, connaître l’état d’indexation de ses pages, visualiser
le nombre de liens pointant vers son site, soumettre de nouvelles pages au moteur par le biais
d’un Sitemap.

42 Les Clés du Référencement sur le Web


FONDAMENTAUX DU REFERENCEMENT

Afin de mieux comprendre l’origine du trafic, l’outil détaille les requêtes les plus
fréquentes et liste les sites ayant des liens pointant vers ses pages.
Par ailleurs, les outils Google pour webmasters permettent de suivre son
positionnement de manière très précise… Pour chacun des mots-clés sur lesquels vous
êtes bien placés sur Google, il sera indiqué :
Le nombre total d’impressions qui ont été générées ;
Les différentes positions occupées par vos liens ;
Le nombre de clics par mot-clé.

En bref, cette fonctionnalité sert d’outil de suivi de positionnement et vous permet de


vous faire une idée très précise de votre « part d’impression » : le nombre de fois qu’un
lien vers une des pages de votre site aurait pu être cliqué par rapport au nombre de fois
qu’un clic a, effectivement, eu lieu.

Requêtes les plus fréquentes dans Google - Source Google Webmaster Tools

43
FONDAMENTAUX DU REFERENCEMENT

Bing Webmaster Center


Comme les Outils Google pour les webmasters, le service propose un contrôle sur le
niveau d’indexation. Il fait également le point sur les acteurs pointant vers le site et
inversement sur les liens externes.

Page de l’outil Webmaster Center pour Live Search - Source : Live Search

L’outil propose une rubrique dédiée aux éventuels problèmes de crawls en listant les
erreurs rencontrées par ses robots sur les pages du site. L’outil met en évidence les
erreurs 404, les URLs dynamiques trop longues, le type de contenu que son robot ne
prend pas en compte et les facteurs bloquants.

Accès aux résultats des visites des robots de Microsoft - Source : Live Search

44 Les Clés du Référencement sur le Web


FONDAMENTAUX DU REFERENCEMENT

Chapitre 4 : Fondamentaux du référencement


Face à ce métier relativement nouveau, il convient de bien définir ce que le terme
référencement englobe. Aujourd’hui, lorsque l’on parle de référencement, au moins
deux pratiques se distinguent : l’achat de liens sponsorisés et le référencement naturel.
1. Différentes solutions de référencement
1.1. Achat de liens sponsorisés
Ces liens promotionnels s’affichent directement sur la page de résultats d'un moteur de
recherche. Tout détenteur d’un site Web peut accéder à ce service, proposé directement
par les moteurs : Google AdWords et Microsoft adCenter.

Comment fonctionne l’achat de liens sponsorisés ?


L’annonceur achète des mots-clés aux moteurs afin d’accroître sa visibilité. Il ajoute à
chaque mot-clé un titre, un descriptif et l’URL de destination. Une fois la campagne en
ligne, l’annonceur paye à chaque clic d’internautes sur ses liens : le Coût Par Clic
(CPC). Ce coût de départ se situe généralement entre 0,05 et 0,90 centimes d’euros
puis il augmente selon la position souhaitée par l’annonceur et un système d’enchères.
Plus le mot-clé est convoité, plus la campagne risque d’être onéreuse.

Afin d’apporter une notion de valeur ajoutée pour l’utilisateur internaute, Google a
introduit la notion de qualité dans ses annonces. Le moteur intègre en plus dans son
calcul du CPC le « Quality Score », un facteur de qualité. Plus le « Quality Score » est
élevé, plus le CPC minimum sera faible et l’annonce bien positionnée dans les
premiers résultats.

Plus accessible, cette solution a longtemps été considérée comme la remplaçante au


référencement naturel. Il suffit de payer pour être positionné. Les moteurs fournissent
en prime des tableaux de bords, permettant une gestion des campagnes au jour le jour
et un retour immédiat sur ces dernières. Aujourd’hui pourtant, l’achat de liens
sponsorisés n’est bien souvent utilisé qu’en complément du référencement naturel. En
effet, ce référencement payant s’avère une activité trop fréquemment chronophage. Il
faut choisir les bons mots, adapter ses pages d’atterrissage, suivre et agir sur la
progression des enchères dans les différents moteurs et ce, pour un résultat qui n’est
que temporaire. s’il nécessite des ressources humaines et financières importantes, il
permet d’atteindre rapidement les positions que la société convoite en fonction de ses
objectifs business.

45
FONDAMENTAUX DU REFERENCEMENT

Marché des liens sponsorisés en chiffres


L'association SEMPO a publié, en février, son étude annuelle « 2013 State of Search
Marketing Report ». En France, le « Search » (liens sponsorisés) a représenté un
chiffre d’affaires de 1 671 millions d’euros net sur l’année 2013, soit 60% du marché
de la publicité en ligne en France.

Les objectifs des entreprises en termes de « Search » sont :


Générer du trafic sur un site web ;
Vendre des produits ;
Obtenir de nouveaux prospects.
Durant cette année, les dépenses des entreprises ont été faites autour du
référencement publicitaire (31%), suivi du SEO (18%) et de l'e-mail marketing
(18%). Pour les agences SEO, 70% des budgets vont augmenter en 2014, tandis que
47% seulement des annonceurs partagent cette même opinion.

Présentation des résultats issus


des liens sponsorisés dans
Google

1.2. Recherche organique, naturelle


C’est le cœur même du métier des moteurs de recherche, celui qui consiste à fournir aux
utilisateurs des pages de résultats pertinentes. Pour ce faire, chaque moteur dispose d’un
index, qui recense des milliards de pages présentes sur le Web. En fonction de la requête
formulée par l’internaute dans son outil, le moteur fait correspondre des résultats, calculés
automatiquement par un algorithme. Ce dernier tient compte dans son calcul de nombreux
critères. Même si ces méthodes de calcul sont jalousement gardées par leurs inventeurs,
certains de ces critères restent néanmoins connus :
L’authenticité
Le site doit révéler aux moteurs un contenu équilibré et pertinent. Par ailleurs, une
thématique bien définie aide le moteur à mieux classer les pages dans son index. Plus une
page sera claire et distinctive sur son contenu, mieux elle sera appréhendée par le moteur.

46 Les Clés du Référencement sur le Web


FONDAMENTAUX DU REFERENCEMENT

La lisibilité
Un autre point important. Un site doit être lisible et compréhensible afin que le moteur
détecte et indexe tout son contenu.
L’architecture des liens
Qu’ils s’agissent de liens internes comme externes, la présence d’un lien est
systématiquement notée et joue un rôle dans le positionnement de la page contenant le lien et
de la page de destination.
Exemple de résultats naturels dans Google

Note : quels sont les critères d’un bon contenu ? En novembre 2012, Google a publié
un fichier PDF des directives données aux personnes qui, au sein de l’entreprise, sont
chargés d’évaluer la qualité du moteur de recherche et donc, indirectement, des sites
web qui sont présentés :
http://static.googleusercontent.com/media/www.google.com/fr//insidesearch/howsear
chworks/assets/searchqualityevaluatorguidelines.pdf

1.3. Référencement local


Les moteurs montrent un intérêt particulier à la recherche locale. Google Maps, Yahoo!
Maps et Bing Maps ont été lancés pour proposer aux internautes des recherches géo-
localisées. Les magasins et commerces de proximité, ont la possibilité d’utiliser les
services offerts par les moteurs.
La géolocalisation est maintenant présente partout dans notre vie quotidienne.
47
FONDAMENTAUX DU REFERENCEMENT

Concernant la géolocalisation, voici quelques chiffres révélateurs :


12% des résultats dans Google intègrent une carte Google Maps (Conductor – Avril
2014) ;
70% des recherches supposent, directement ou indirectement, une dimension locale -
La dimension géolocalisée a une influence sur les positions occupés par les sites web
dans les Serps dans 69% des cas (Linkdex – Août 2012) ;
9 internautes sur 10 utilisent Internet pour, ensuite, effectuer un achat « Offline » et
donc dans un magasin proche de chez eux (Kantar Media Compete – Décembre 2013).

L’objectif consiste alors à utiliser la puissance du GeoWeb pour améliorer son


référencement naturel mais, aussi, son indexation dans les services Web 2.0 qui sont
basés sur la géolocalisation.

Présentation de l’outil Google Maps


Le service cartographique des moteurs permet de localiser de façon précise une
entreprise sur un plan.

Résultat d’une requête dans Google Maps

Afin de se rendre visible sur ces services, une inscription préalable s’impose. Là encore,
être indexé ne suffit pas et quelques astuces permettent de travailler sa visibilité :

48 Les Clés du Référencement sur le Web


FONDAMENTAUX DU REFERENCEMENT

Le titre doit être optimisé, c'est-à-dire contenir une expression clé accompagnée du
nom de la société
Le texte de présentation doit être précis et doit faciliter le travail du moteur en
précisant la thématique de son métier
Il est possible de transmettre au moteur des images : cette solution est conseillée.

Dans les outils de recherche locaux, une entreprise peut également acheter des mots-
clés pour figurer dans les liens commerciaux. Enfin, une présence localisée peut être
bénéfique dans un positionnement global. Si la requête le nécessite, les moteurs
intègrent directement ses données dans les résultats classiques, comme le montre, en
exemple, la capture d’écran présentée ci-dessous.

1.4. Recherche universelle


Pour s’adapter à l’évolution du Web et à
l’explosion des formats vidéos, les
moteurs ont tous modifié leur index pour
renvoyer ces nouveaux formats lors
d'une requête. En plus des pages Web, les
articles de journaux, les images, ou
encore les vidéos sont mises en avant
dans les résultats de recherche.

Le fait de solliciter à partir des moteurs


des formats différents à d’une page Web
classique s’appelle la recherche
universelle.
Sur 1,2 milliard de requêtes des
internautes, 220 millions s’apparentaient
à une recherche universelle (étude
comScore).

Intégration de Google Maps dans les résultats de recherche classique

49
FONDAMENTAUX DU REFERENCEMENT

Présentation de résultats différents pour la requête « Jessica Alba » : images, actualités, wiki,…

Une mise en avant de ces formats change les règles du référencement. Les sociétés qui
avaient acquis une première place se voient reléguées à des places inférieures.
Un site doit aujourd’hui intégrer cette nouvelle donnée et proposer des formats
innovants aux internautes pour communiquer au plus près de leurs attentes. Actualités,
images, wikis, vidéos sont autant de nouveaux médias sur lesquels doivent investir les
sites marchands pour s’assurer d’une visibilité accrue auprès des internautes.
De nouveaux éléments devront également être optimisés. Et la tâche n’est pas si facile.
Les vidéos et photos sont très abstraites pour un robot qui ne peut pas en comprendre le
contenu. Les données textuelles qui entourent l’image (ainsi que le nom du fichier
image) seront directement utilisés par le moteur de recherche.

50 Les Clés du Référencement sur le Web


FONDAMENTAUX DU REFERENCEMENT

1.5. La recherche universelle et Google


Depuis début octobre 2009, Google offre différentes fonctionnalités qui sont visibles à
partir du menu du haut… Les internautes ont la possibilité de filtrer les résultats par
source : forums, plateformes de partage vidéo, critiques, livres, blogs, etc. Par ailleurs,
d’autres liens permettent de mettre en avant ou en retrait les sites de e-Commerce ainsi
que les pages que vous avez déjà visitées ou celles que vous ne connaissez pas encore.
Exemple de résultat universel sur Google

On peut remarquer la présence de Snippets (nous y reviendrons un peu plus loin dans
ce livre) ainsi que l’utilisation presque systématique des liens profonds et des PlusBox.

On peut en tirer deux leçons :


C’est une tendance générale des moteurs de recherche que de développer la
personnalisation des résultats en fonction de la localisation ainsi que de l’historique
de l’internaute et, dans cet exemple, de lui laisser la possibilité de catégoriser les liens
par type de source ou en fonction de leur date de publication (pour être exact, de la
date d’indexation par le moteur).

Par ailleurs, le développement de la recherche universelle oblige le propriétaire d’un


site web à être, pour ainsi dire, présent sur une multitude de fronts : référencement de
contenu et référencement multimédia avec les vidéos et les images, visibilité sur la
Blogosphère et, pourquoi pas, référencement dans Google Actualités.
51
FONDAMENTAUX DU REFERENCEMENT

De plus, l’avènement de l’hyperlocalisation se double de celui d’une temporalité plus fine


qui fait qu’il devra tenir compte de l’importance grandissante de sites de Micro-Blogging
et de réseautage social comme Twitter ou Facebook.
Enfin, le développement du Web « intelligent » l’oblige à structurer ses pages de
façon à ce que le contenu qui, auparavant, n’était pas visible dans les SERPs, remonte
à la surface : commentaires laissés par les internautes, produits similaires trouvés sur
le site, comparaison entre les prix des différents produits, etc.
De fait, le monde du SEO tel que nous le connaissions auparavant a de bonnes chances de
disparaître au profit d’approches transversales qui nécessiteront une multiplicité de
compétences, à la fois techniques, propres au Webmarketing et au SMO (Social Media
Optimisation).

1.6. Répartition des clics dans les SERPs


La société Synodiance a publié une étude qui concerne la France :
90% des clics sont concentrés sur les 3 premiers liens ;
Pour les 5 premiers résultats, le taux de clics est, en moyenne, de 22.9% contre 6.9%, en moyenne,
pour les positions 6 à 10.
Par ailleurs, plus une requête contient de mots-clés, plus les taux de clics des positions 2 à 13
augmentent.
Enfin, l'étude note que le nombre moyen de mots-clés par requête est aujourd'hui de 2.93. Près du
tiers des requêtes analysées contenaient 2 mots-clés ; 28.2% en avaient 3. ; les requêtes de 4 mots-
clés représentaient 15.8%, et celle d'un mot-clé 10.9%.

La répartition des clics est celle-ci :


1 : 36.43% 6 : 8.86%
2 : 32.53% 7 : 6.28%
3 : 20.56% 8 : 6.41%
4 : 15.14% 9 : 6.57%
5 : 10.08% 10 : 6.25%

En septembre 2013, la société BrightEdge a publié une étude qui indique que les taux de clics
(CTR) est encore plus important sur les trois premières positions des résultats de Google pour les
smartphones et tablettes. Par exemple, voici les données pour le résultat placé en première position
:
Ordinateur : 24%, Tablette : 24%, Smaphone : 33%.

52 Les Clés du Référencement sur le Web


FONDAMENTAUX DU REFERENCEMENT

C’est un des eldorados des moteurs de recherche que de pouvoir vous proposer des
résultats qui soient taillés, sur mesure, pour vous. Il existe de nombreuses façons de
personnaliser une page de résultats… Mais, principalement, Google en distingue cinq :

Pour les utilisateurs connectés à leur compte Google, les liens affichés seront calculés
en fonction de votre historique de recherches ;
En fonction des recherches précédentes qui auront été enregistrées dans un fichier de
cookie (pour les utilisateurs non connectés) ;
Selon votre adresse IP ;
Selon les sites de réseautage social auxquels vous êtes inscrit ;
En fonction de nombreux critères comme l’interface linguistique et la version du
moteur que vous utilisez.

Votre localisation géographique joue un rôle majeur puisque, pour la requête « hôtel »,
selon que vous soyez à Nantes ou à Nice, les résultats ne seront les mêmes.
Et Google a tout prévu puisqu’il vous offre la possibilité de « changer de lieu ».

Résultats renvoyés par une requête géo-localisée

53
FONDAMENTAUX DU REFERENCEMENT

Quelles sont les implications pour les éditeurs de site web ? Quand on parle mainte-
nant de référencement, il est difficile d’annoncer, de manière péremptoire, que, sur tel
ou tel mot-clé, on est en première ou en seconde position. Tout est une question de
contexte (en fonction du profil de l’internaute qui saisit sa recherche) et va se résu-
mer à des moyennes. Est-ce que cela va rendre plus difficile le travail de référence-
ment ? Oui, sans aucun doute puisque, dans ce cas, un bon référencement devra se
mener sur plusieurs fronts et que la place convoitée ne le sera jamais de manière dé-
finitive.
Et c’est aussi une bonne manière de mettre un pied dans le référencement géoloca-
lisé… Puisqu’un grand nombre de requêtes le sont déjà explicitement (« Plombier
Nantes ») ou implicitement (un internaute habitant à Nantes lance cette requête :
« Plombier »). Enfin, on peut se demander s’il existe alors une vraie manière d’avoir
une vue objective de sa position pour une requête donnée ? Oui ! Google a prévu des
outils performants vous permettant d’interroger ce que l’on pourrait appeler un « Juge
de paix » et qui vous montre des résultats « objectifs ».

Voici les pourcentages tels que qu’ils ont été relevés lors d’une étude menée en 2014
par Conductor :
Images : 28% ; Actualités : 9% ; Résultats « Shopping » : 1%.
Force est de constater que la prédominance de la recherche universelle dans les Serps
n’arrête pas de se renforcer.

De la cannibalisation du SEO au profit du SEA


Selon une étude Ifop datant de juin 2013 :
52% des internautes cliqueraient sur les liens AdWords ;
10% indiquent ne jamais cliquer sur ces annonces ;
53% des internautes, désirant acheter un produit, utiliseraient les liens Google
AdWords pour le trouver ;
36% d’internautes n’ont pas conscience de cliquer sur des publicités.
Une étude menée par le blog JitBit en septembre 2012 montrait que, au-dessus de la
ligne de flottaison, les résultats naturels ne représentaient que 18.5% de l'espace
disponible, contre 53% en 2008.

Une étude menée par Comscore en octobre 2012 vient renforce ce constat.
Concernant la part de voix :
Résultats naturels : 85%, Résultats payants : 15%.

54 Les Clés du Référencement sur le Web


FONDAMENTAUX DU REFERENCEMENT

55% des pages de résultats contiennent des liens publicitaires (appelés aussi « liens
contextuels »).
En juillet 2012, la société Wordstream, lors d’une étude portant sur le marché
américain, a calculé que, lors de requêtes transactionnelles, 64.6% des clics allaient
vers les liens publicitaires (35.4% pour les résultats naturels ou organiques).
C’est une manière de démontrer que plus l’internaute est prêt à acheter un produit ou à
se décider pour un service, plus l’influence des annonces Google AdWords est
prépondérante.

Rappelons qu’on a coutume de distinguer quatre types de requêtes :


Transactionnelles : « comparaison hôtel Nice »,
De notoriété : « Nikon EADS 180 »,
Locales : « pizzèria Rouen »,
Navigationnelles ou informatives : « histoire de la France ».
Cette catégorisation des requête vient appuyer le processus AIDA (attention, intérêt,
décision, action) : dans un premier temps, l’internaute va s’informer sur le produit, les
différents solutions et entreprises avant d’entrer, de manière explicite, en mode «
transaction »…

Enfin, selon l’étude précédente, 89% du trafic généré par les liens publicitaires est un
type de trafic différent de celui généré par les résultats naturels.
Notez que la firme de Mountain View propose, via Google AdWords, un outil qui
permet, pour les mêmes requêtes, de comparer le trafic naturel et le trafic payant. Pour
y avoir accès, en plus de posséder un compte Google AdWords, vous devez avoir lié
votre compte Google Outils pour webmaster avec votre compte Google Adwords.

Plutôt que d’opposer ces deux médias, pensez plutôt à développer des synergies de
façon à :
Augmenter votre visibilité sur le Web ;
Faire de la notoriété et de l’image de marque ;
Provoquer du retour sur attention ;
Optimiser votre surface de vente ;
Augmenter le taux de clics de vos liens (naturels et payants).

Même si ces chiffres datent de quatre ans, force est de constater que la prédominance
de la recherche universelle dans les Serps n’arrête pas de se renforcer.
Si ce n’était pas déjà le cas, voici une raison supplémentaire de travailler votre
référencement multimédia !
55
FONDAMENTAUX DU REFERENCEMENT

1.7. Le Web mobile


Le référencement mobile devient donc un média incontournable pour les sociétés qui
souhaitent accroître leur visibilité sur Internet.

Voici quelques statistiques révélatrices :


La recherche sur mobile a augmenté de 132% sur un an ;
Le mobile génère 13% du trafic internet mondial ;
En 2013, 6 milliards d’abonnements mobiles ont été souscrits dans le monde ;
(Source : Yoda – Novembre 2013)
Selon Ericsson, le nombre de smartphones dans le monde pourrait atteindre 3.3
milliards d’ici 2018 ;
50% des mobinautes utilisent leur mobile pour démarrer une recherche ;
74% des recherches sur smartphones se concluent par un achat en magasin ;
54% des recherches sur tablettes se terminent par un achat en ligne et via un
ordinateur ;
22% des mobinautes finalisent leur achat sur smartphone ;
(Source : Telmetrics – Juillet 2013)
65% des courriels sont d’abord ouverts sur un mobile, avant de l’être sur un autre
appareil ;
Plus exactement, les e-mails sont d’abord consultés sur un smartphone (48.23% des
cas) ou sur une tablette (16.52% du temps)… (Source : Movable Ink – Décembre
2013)
Il y a, en France, 25.1 millions de mobinautes (Médiamétrie – Juin 2013) ;
57% des mobinautes ont déjà acheté via mobile (Immobi – Novembre 2012) ;
72% des mobinautes consultent l’Internet mobile quotidiennement (Médiamétrie –
Février 2013) ;
Les trois groupes majoritaires sont :
35-49 ans (26%) ;
50-64 ans (23%) ;
25-34 ans (17%).
(Médiamétrie – Décembre 2013)
79.8% des 15-24 ans sont équipés d’un smartphone (Médiamétrie – Mai 2013).
Les mobinautes utilisent l’Internet mobile comme complément à leur connexion fixe.
Le web mobile est un nouveau canal d’achat, complémentaire de l’ordinateur.
Le M-acheteur est plutôt jeune, plutôt féminin (57% de femmes) et s'ouvre aux
catégories socioprofessionnelles les moins favorisées, notamment aux employés.

56 Les Clés du Référencement sur le Web


FONDAMENTAUX DU REFERENCEMENT

Le M-acheteur ne concentre pas ses achats uniquement sur les micro-paiements (33%
de ses achats : produits de type sonneries, logos). Il s'intéresse également aux produits
culturels (49% des achats effectués) ainsi qu'aux produits de consommation courante
(21% : vêtements, produits de beauté, produits alimentaires).

Il existe deux voies pour qui veut être présent sur le Web mobile :
Les « Native apps » : applications que le mobinaute doit installer sur son
Smartphone ;
Les « Web apps » : sites web mobiles qui peuvent être visités en utilisant un
navigateur adapté.
Les applications se distinguent par leur capacité à utiliser les particularités
« Hardware » des Smartphones (accéléromètre, 3D, réalité augmentée,
géolocalisation, appel direct, etc.) et le fait qu’une application mobile peut être
accessible hors-connexion.

Exemple d’application mobile - source Groupama

57
FONDAMENTAUX DU REFERENCEMENT

Un des problèmes que va rencontrer l’entreprise est que chaque système


d’exploitation (Android, iOS, SymbianOS, Samsung, BlackBerryOS) nécessite un
développement particulier et, en conséquence, des coûts plus élevés.
En dépit des convergences qui se dessinent grâce, notamment, à l’utilisation du
HTML5 et de certaines librairies spécialisées, il existe, pour l’instant, un fossé entre
les Web apps et les Native apps, et ce, notamment, en matière de performance.

Et le choix entre les deux solutions tiendra compte de multiples critères comme les
fonctionnalités, le type de contenu qui sera accessible (contenus froids ou contenus
chauds) et les habitudes de l’audience que l’on souhaite atteindre.

Notez qu’il n’est pas rare de voir, lorsqu’on analyse les statistiques de fréquentation
des sites e-commerce ou des sites média, qu’entre 6 et 10% des visites sont effectuées
à partir d’un appareil mobile. Et il est dommage de ne pas avoir prévu, pour ces
mobinautes, une version du site web qui soit parfaitement adaptée à ce type de
périphérique.

Une fois votre site mobile sur les rails, vous devrez placer un script spécialisé sur le
site classique afin que les mobinautes, qui le visitent, soient immédiatement redirigés
vers la version adéquate.
Un site mobile suppose une stratégie différente en termes de référencement : le robot
d’exploration de sites pour mobile, propre à Google, s’appelle « Googlebot-Mobile ».
De fait, les résultats renvoyés par le moteur de recherche mobile sont différents de
ceux fournis par son « grand-frère ».

Afin que votre site mobile soit indexé, soumettez, dans les outils pour webmasters de
Google, un fichier Sitemap XML contenant les URLs de pages Web dédiées aux
mobiles.
N’oubliez pas qu’un site mobile correctement référencé n’est pas tout et que
l’ergonomie ainsi que l’offre présentée par les pages web doivent être adaptées aux
particularités de ces périphériques : parcours de navigation simplifiés, tailles des
images réduites, inventaire resserré aux 20% des produits les plus populaires, etc.

58 Les Clés du Référencement sur le Web


FONDAMENTAUX DU REFERENCEMENT

Responsive design et SEO


Le responsive design est un ensemble de techniques qui permettent d’ajuster
automatiquement les pages de votre site web aux dimensions de l'appareil utilisé par
l'internaute (ou le mobinaute ou le tablonaute).

Le site de l’Elysée en version ordinateur puis en version mobile

Signalons que la question de la distinction entre mobile et ordinateur classique est mal
posée puisque certains smartphones présentent une résolution d’écran supérieure à
nombre d’ordinateurs. L’idée est donc plutôt de s’adapter à une multitude de
résolutions d’écran différentes. Au premier trimestre 2013, le nombre de résolutions
d’écran répertoriées s’élevait à 232.

Quels sont les avantages du responsive design en termes de SEO ?


Google recommande cette technique pour propose une expérience utilisateur
optimisée pour les mobinautes et les tablonautes :
https://developers.google.com/webmasters/smartphone-sites/details ;
Un même site possédera une même URL et ce de manière à profiter au maximum des
leviers propres au SEO ;
Absence de duplication de contenu entre version mobile et version classique du site
web ;
C’est une manière de lutter contre le taux de rebond et donc une façon d’envoyer un
signal positif au moteur de recherche.

59
FONDAMENTAUX DU REFERENCEMENT

2. Challenges du référencement

2.1. Comportement des internautes


Les moteurs de recherche sont devenus pour les internautes une porte d’entrée
incontournable sur le Web. Selon une étude menée par le cabinet américain Pew
Internet, le pourcentage d’internautes utilisant des moteurs de recherche dans une
journée typique a augmenté régulièrement au fil des ans, passant d'environ un tiers en
2002, à près de la moitié (49%). En comparant les actions réalisées lors d’une
utilisation typique du Web, la recherche est la deuxième activité la plus importante,
après la consultation de ses mails.
Les activités journalières des internautes - source : the Pew Internet & American Life Project Août 2008

60%

50%

40%

30%

20%

10%

0
Surf Météo Recherche
en ligne
Visites Recherches Informations Email
Networking pour hobby

Parmi les grands profils distingués lors de cette étude sur les internautes, les utilisateurs
des moteurs de recherche ont en général un background scolaire poussé :
66% sont diplômés d’une université,
49% ont effectué des études en université,

60 Les Clés du Référencement sur le Web


FONDAMENTAUX DU REFERENCEMENT

32% sont issus d'études secondaires.

Les ménages à hauts revenus sont habituellement les plus susceptibles d’utiliser les
moteurs dans une journée classique sur le Web :
revenus supérieurs à 75 000 $ : 62%,
revenus situés entre 5 0 000 et 74,999 $ : 56%,
revenus situés entre 30 000 et 49,999 $ : 34%,
revenus inférieurs à 30 000 $ : 36%.
Enfin, les jeunes internautes sont les plus susceptibles d’effectuer des recherches en
ligne :
entre 18 et 29 ans : 55%,
entre 30 et 49 ans : 54%,
entre 50 et 64 ans : 40%,
plus de 65 ans : 27%.
Avec le haut débit en voie de développement, les internautes n’ont plus de limites dans
leur consultation du Web et passer par un moteur ne leur fait aujourd’hui plus perdre de
temps, bien au contraire. La masse grandissante d’informations, au travers des blogs,
des sites d’actualités, des vidéos ou encore des images, ne cesse de croître dans des
proportions importantes. Clés d’entrée, les moteurs deviennent toujours plus puissants
et offrent des réponses de plus en plus pertinentes.
2.2. Définition du SEO
SEO est l’acronyme de Search Engine Optimization. En constatant l’importance
croissante des moteurs, les entreprises se sont rapidement penchées sur le
fonctionnement de ces derniers pour pouvoir figurer en tête des résultats. Une solution
s’est imposée : l’optimisation des sites pour les moteurs de recherche.

En clair, il s’agit de l’optimisation d’un site Web en prévision d’une indexation et


d’un positionnement sur les moteurs, avec la mise en place d’un processus pour que le
contenu des pages soit compris par les moteurs et pour que les sujets phares soient bien
identifiés par ces derniers. Le but final étant de ressortir en pôle position sur les
résultats naturels. Il ne s’agit pas d’astuces mais d’un processus composé d’étapes.

Bien entendu, certaines astuces sont possibles, mais la sophistication des algorithmes
permet d’en limiter la portée et provoque souvent la mise à l’index des sites qui ont
franchi la ligne rouge.

61
FONDAMENTAUX DU REFERENCEMENT

Le SEO consiste donc à bien comprendre comment sont gérés les moteurs et à étudier
les meilleures solutions pour coller à leurs critères sans pour autant jouer avec ces
derniers. Plus les développements seront solides, plus le référencement se placera dans
une logique de long terme. La patience s’impose pour des résultats de qualité : selon le
secteur, les premiers résultats peuvent s’étaler entre quelques semaines et plusieurs
mois.

2.3. Importance du référencement


Le rôle majeur que jouent les moteurs de recherche dans le quotidien de l’internaute
incite les marques à se pencher sur le référencement.

Les moteurs de recherche – et, entre autres, les firmes spécialisées dans les nouvelles
technologies – sont entrés dans le quotidien des internautes, comme le montre l’étude
de Millward Brown, qui place Apple et Google comme les marques les plus puissantes.
Pour 2013, voici le classement des cinq marques les plus puissantes dans le monde en
termes de capitalisation boursière (en milliard de dollars) :
Apple : 185.1
Google : 113.67
IBM : 112.54
Mc Donalds : 90.26
Coca-Cola : 78.42

Le classement 2013 de la société Interbrand diffère quelque peu (d’autres critères sont
pris en compte) :
Apple
Google
Coca-Cola
IBM
Microsoft
General Electric
Mc Donalds
Samsung
Intel

62 Les Clés du Référencement sur le Web


FONDAMENTAUX DU REFERENCEMENT

Google a fait son entrée dans le dictionnaire américain en 2006 sous la forme d’un verbe
transitif : « to google », qui signifie rechercher dans le moteur des informations.
La plupart des internautes en phase d’achat commence leur tri dès les moteurs de recherche.
Il est toujours possible de passer outre et de se concentrer entièrement sur la publicité en
ligne. Pourtant, les coûts d’acquisition avec le référencement sont largement inférieurs à ceux
de la publicité classique. Le cabinet américain Piper Jaffray & Co. a mené une étude pour
comparer les coûts d’acquisition moyens. Le référencement ressort comme étant le moins
coûteux, avec une moyenne à 8,5 dollars. En comparaison, la publicité en ligne implique un
coût moyen de 50 dollars.
Le référencement est l’un des outils proposant le meilleur taux de retour sur investissement,
comme le montre le graphique de la Direct Marketing Association publié en Octobre 2007.
Alors que l’emailing présente le ROI le plus élevé, le référencement se place en seconde
place, devant le télémarketing et le marketing direct.
ROI des différents outils de marketing direct aux USA en 2008 - en USD

Emails commerciaux

Search, display

Information commerciale dans les journaux

Courrier adressé par des non vépécistes

Marketing direct

Télémarketing

0 10 20 30 40 50

Les chiffres publiés en 2009 par ce même institut ne sont pas différents : pour 1 dollar
investi, l’e-mailing offre un ROI de 43 dollars contre 11 dollars en moyenne pour les autres
canaux de marketing direct. Les statistiques 2010 donnent un ROI de 30 dollars pour
l’emailing et de 15 dollars pour le mailing postal.

63
64 Les Clés du Référencement sur le Web
PREMIERE ETAPE :
CHOIX DES MOTS CLES
CHOIX DES MOTS CLES

Avant tout chose, il est important de comprendre ce qu’est le référencement. L’activité


de référencement sur les moteurs de recherche s’appelle le « Search Engine Marketing »
que l’on traduit désormais en français par le marketing de la recherche. Le mot-clé
important à retenir ici est « marketing ». La technique et la technologie ne sont qu’au
service du marketing de l’entreprise.
Par conséquent, et avant tout le travail de mise en place, il est indispensable de faire
une analyse complète de ses attentes et objectifs avant d’entamer votre campagne de
référencement.

Chapitre 1 : Définition des mots-clés


Les internautes utilisent énormément les moteurs de recherche. Dans l’utilisation des
moteurs, leurs recherches peuvent prendre différentes formes. Avec une idée précise en
tête, les utilisateurs cherchent un site bien particulier. Ou bien, suite à un besoin, ils
recherchent un type de produits ou de services, sans avoir d’attente spécifique sur les
réponses. Dernier type de recherche, ils flânent sur les moteurs et glanent des
informations sans but bien précis. Dans tous ces cas, un site doit se rendre visible, pour
proposer ses services ou informer les internautes. Qu’il s’agisse de référencement
naturel ou d’achat de liens sponsorisés, le choix des mots-clés aura un impact sur le
succès d’une opération d’optimisation.

1. Connaître sa cible

Pour toute opération marketing, publicitaire ou de communication, connaître sa cible


devient nécessaire pour partir dans la bonne direction. Un bon mot-clé sera celui que
saisira un prospect sur les moteurs. Lorsqu’une entreprise rédige un discours offline,
elle élaborera un texte composé d’expressions dans lesquelles ses clients doivent se
retrouver. Pour le choix des mots-clés pour le référencement, l’opération est inversée :
il s’agit de deviner les mots-clés que l’internaute saisira pour décrire un produit ou un
service. Il n’est pourtant pas si facile d’anticiper leurs demandes et leur vision.
Imaginons le cas d’une société de produit cosmétique : là où l’entreprise privilégiera
un discours autour des « soins anti-âge », l’internaute optera pour l’expression « crème
anti-rides ». Il faut toujours se rappeler que l’entreprise utilise un langage professionnel
alors que ce n’est pas toujours le cas des internautes.
La sélection des mots-clés dépend donc à la fois, des attentes des internautes, et des
objectifs de l’entreprise. Il importe donc de connaître quelles sont les recherches dans
un secteur précis. Les expressions doivent s’adapter aussi bien aux clients de la marque
qu’aux futurs prospects.

66 Les Clés du Référencement sur le Web


CHOIX DES MOTS CLES

L’analyse d’audience aide à connaître sa cible. En consultant l’outil de statistique de


son site, il est possible de se rendre compte quels mots-clés sont importants pour ses
visiteurs. Certains mots-clés montreront un potentiel inattendu et il convient de prendre
en considération ces points forts pour les développer par la suite, en leur dédiant, par
exemple, une page de contenu spécifique. De la même manière, d’autres expressions
sortiront du lot alors qu’elles ne figurent pas dans les outils de suggestions de mots-
clés.
Les internautes accordent beaucoup de valeur aux sites situés dans les premières
positions. Pour un tiers d’entre eux, si des sites sont bien classés, c’est qu’ils comptent
dans le secteur. Certains mots-clés deviennent donc incontournables : même s’ils ne
rapportent pas énormément de trafic ou peu de conversions, l’entreprise se doit de
figurer dans les résultats pour son image de marque, une manière de montrer sa
puissance dans le secteur et de renforcer l’identité de la marque auprès des internautes.
Il arrive bien souvent que des clients ne se souviennent pas de l’adresse précise d’un
site. Plutôt que de rechercher dans leurs historiques ou dans leurs mails, ils se tournent,
là encore, vers les moteurs de recherche. C’est une nouvelle manière de surfer mais
aussi un moyen beaucoup plus rapide d’accéder au site. Il faut donc être en première
position sur sa marque ou encore sur le nom de ses produits. Même s’il paraît logique
d’être en première position sur le nom de son entreprise, ce n’est pas toujours le cas :
rien n’est jamais acquis sur les moteurs. Il faut également savoir figurer sur l’univers de
mots-clés qui représentent la marque, comme un slogan. Il faut faire correspondre
toutes les opérations lancées offline sur les moteurs, pour que les internautes trouvent
facilement le site.

2. Penser aux conversions


Autre facteur de décision dans la sélection des mots-clés : la conversion. Bien
généralement, il convient d’entamer le référencement avec une liste importante de
mots-clés, qui s’affine ensuite avec les résultats. Si un mot-clé ramène beaucoup de
trafic mais qu’il faut se battre tous les jours avec la concurrence, et que la conversion
n’est pas au rendez-vous, inutile d’insister. A l’inverse, on peut se rendre compte qu’un
mot-clé fonctionne très bien et étendre sa présence sur des mots-clés similaires en
complétant l’expression.

67
CHOIX DES MOTS CLES

Le travail sur les mots-clés prend du temps et coûte de l’argent : il faut donc penser «
qualité » dès sa constitution.
Toujours faire attention aux mots-clés à multiple audience
Comme le mot-clé « sécurité », qui peut faire référence aussi bien à la sécurité civile, à
la sécurité des bâtiments ou bien à la protection des données en ligne. Autre exemple
avec le mot-clé « moteur », qui renvoie aux outils de recherche ou au secteur
automobile. Dans la même idée, « portable » s’accorde aussi bien avec les ordinateurs,
les téléphones ou encore les consoles de poches.
Vigilance avec les expressions trop larges
Si le site vend uniquement des robes en soie et se place sur la requête « robes », il peut
accumuler beaucoup de visites, mais avec un taux de déperdition conséquent. Ce taux
est à calculer en fonction du ROI.
Les acronymes sont à prendre avec des pincettes
Les balnéothérapies par exemples se retrouvent confrontées à ce problème avec le mot-
clé « spa », qui signifie également Société Protectrice des Animaux.
Dans la sélection de mots-clés, il faut toujours se poser des questions sur sa cible : quels
sont ses besoins, quels mots utilisera-t-elle pour exprimer ses besoins ? Quel contenu
attend-elle ?

3. Mots-clés dérivés
Singulier ou pluriel
Les moteurs font la différence entre les deux. Si des internautes recherchent dans les
deux formats, il est utile d’être présent dans les deux cas.
Les fautes d’orthographe
Une question largement débattue dans le secteur du référencement. Règles
orthographiques ou erreur de frappe, les internautes commettent des impairs dans leur
requête, que ce soit sur le nom d’une marque ou sur un nom commun. Faut-il être
présent sur des mots-clés mal rédigés ? Une réponse positive implique nécessairement
de présenter dans son contenu des mots-clés avec des fautes, ce qui ne colle sûrement
pas avec la ligne éditoriale fixée. La récurrence d’une faute et le potentiel de
transformation indiquera si le filon a besoin d’être exploité.
Certains outils existent sur le Net simplifiant la recherche de fautes d’orthographes

68 Les Clés du Référencement sur le Web


CHOIX DES MOTS CLES

communes, comme celui de SEO Book (http://tools.seobook.com/spelling/keywords-


typos.cgi). Ce dernier permet d’obtenir une liste de mots-clés présentant des lettres
doublées, inversées, manquantes, supplémentaires ou avec des espaces.
Exemple de l’outil générateur de fautes de frappes SEO Book - Source SEO Book

Les déclinaisons
Penser à étendre sa présence autour d’un mot-clé commun, comme par exemple « hotel
paris », « hotel 4 étoiles paris », « hotel spa paris », « réserver un hôtel paris centre »…
Cette méthode peut être très utile pour ressortir dans une recherche géolocalisée.
Les synonymes
Google conseille d’utiliser les synonymes de certains termes pour mieux faire
comprendre au moteur la thématique traitée dans la page web.

Plutôt que de se contenter d’un seul mot pour définir un produit ou un service,
l’utilisation des synonymes vient compléter de manière avantageuse le descriptif. Il
existe plusieurs outils permettant d’obtenir des expressions similaires, à l’image du site
www.synonymes.com.
Exemple de synonymes pour le mot « crédit » - Source : www.synonymes.com

69
CHOIX DES MOTS CLES

Mots avec ou sans accents ?


Un des casse-têtes pour tout référenceur est d’être correctement placé sur le même
mot-clé quelque soit sa forme : avec ou sans accent, singulier ou pluriel. En admettant
que cette expression nous intéresse : Conseil en propriété industrielle, nous devons
envisager ces variantes :
Conseil en propriété industrielle
Conseil en propriete industrielle
Conseils propriété industrielle
Conseils propriete industrielle

On peut tester les résultats renvoyés par Google sur ces 4 requêtes et s’apercevoir
que les pages de résultats présentent des différences.

Bien entendu, la présence d’un mot vide (en) complique quelque peu notre tâche.
Une manière de contourner le problème est d’utiliser dans la balise Titre, une phrase
qui répète les termes : « Conseil propriété industrielle : Nos meilleurs conseils en
propriété industrielle dévoilés ».

Nous avons donc la déclinaison au singulier et au pluriel, le mot référencement avec


et sans accent, les expressions « Conseil propriété industrielle » et « conseils en
propriété industrielle ».

Bien entendu, une recherche dans Google Suggest, Google Tendance des recherches
ou l’outil Générateur de mots-clés de Google AdWords peut aider à classer les
expressions par ordre de popularité.

Ce même procédé peut être appliqué à la balise Description et aux balises Alt des
images. Si le contenu de ces balises est invisible pour les internautes (sauf si elle est
reprise dans les SERPs), il n’en va pas de même pour les titres de paragraphes. Une
solution possible est de mettre le titre en capitales : CONSEILS EN PROPRIETE
INDUSTRIELLE, par exemple.

70 Les Clés du Référencement sur le Web


CHOIX DES MOTS CLES

4. Effet Longue Traîne


C’est Chris Anderson, alors rédacteur en chef du magazine Wired, qui lance en 2004
l’expression « long tail », soit « longue traîne » en français. Il s’agit pour lui de décrire
une constatation sur les ventes en ligne. Dans un magasin physique, la loi Pareto
domine, c'est-à-dire que 20 % des produits représentent 80 % du chiffre d'affaires. En
ligne, l’effet est inversé : les produits des fonds de catalogue se vendent en proportion
réduite, mais leur somme des ventes dépasse la vente des produits les plus vendus.
Amazon est l’exemple même de l’effet longue traîne : avec un système d'offres
croisées performant, l’acteur bénéficie de ventes sur l’intégralité de son catalogue.
Pour le référencement, le trafic issu de l’ensemble des mots-clés à « faible valeur »
dépasse le total des visites issues des mots-clés les plus performants. Même si les mots-
clés les plus populaires sont très attrayants pour un annonceur, le coût associé pour s’y
placer, en référencement payant comme en référencement naturel, demande un budget
considérable.
Sur des expressions comme « hotels londres » ou « restaurants paris », les places sont
rares et les sites sont optimisés à l’extrême. Les détenteurs de sites peuvent donc leur
préférer des mots-clés moins recherchés qui, lorsqu’ils sont additionnés, offrent tout
autant de trafic, si ce n’est plus.

Voici schématiquement la représentation de la longue traîne

Source : The Long Tail - Chris Anderson

71
CHOIX DES MOTS CLES

En gris clair figurent les mots-clés ramenant le plus de visites. La partie gris foncé est la
longue traîne, c'est-à-dire une multitude de mots-clés, amenant moins de trafic que les
mots-clés issus de la partie gris clair. Et pourtant, en additionnant le trafic issu des
mots-clés de la longue traîne, la somme sera supérieure aux mots-clés populaires.

Tous les sites présentent ce schéma. La traîne sera plus ou moins courte selon la
spécialité du site. Un site ultra spécialisé aura une traîne plutôt courte, n’ayant pas
suffisamment de mots-clés sur lesquels figurer. En revanche, un site d’actualité
généraliste aura une traîne conséquente, en figurant sur des expressions liées à
l’économie, la politique, le cinéma ou encore les faits divers.
Développé avec des mots-clés, voici un exemple de longue traîne

Requêtes Volume de recherche approximatif sur Google

livre enfant 60 500


livres contes 18100
livres audio 9900
contes et legendes 6600
bd titeuf 5400
livre fille 5400
livre ecole 5400
livre en anglais 3600
livres pour enfant 2400
dictionnaire junior 1900
livre oui oui 1900
livres bébé 1600
livre illustré 1300
livre ados 880
livre de science fiction 720
livre poche harry potter 720
livre d eveil 720
livre histoire enfant 590
livre d aventure 480
le monde de narnia livre 320
librairie pour enfants 320
livre lecture enfant 210
livre comptine 170
72 Les Clés du Référencement sur le Web
CHOIX DES MOTS CLES

En clair, un site libraire cherchant à se positionner sur la requête « livre enfant » devra
« batailler », cette requête étant visée par de nombreux professionnels. Les expressions
connexes à « livre enfant », sont moins recherchées, donc moins concurrentielles.
Cependant la somme des recherches de ces requêtes dépasse celle de l’expression
généraliste : « livre enfant ».

5. Terme unique ou expression à plusieurs mots-clés ?

Se fixer sur des expressions à deux ou trois mots-clés reste préférable qu’un mot-clé
unique. Les internautes sont toujours plus précis sur les moteurs. Bien souvent après
avoir tapé un seul mot-clé, ils doivent reformuler plus précisément leur demande pour
arriver sur des résultats adaptés. De manière continue, les requêtes qui font partie de la
longue traîne, sont en progression continue.

Selon une étude plus récente menée par Synodiance, le nombre moyen de mots-clés
par requête est aujourd'hui en France de 2,93 :
Près du tiers des requêtes analysées contenait 2 termes ;
28,2% en comportaient 3 ;
Les requêtes de 4 termes représentaient 15,8% ;
Celles d'un mot-clé 10,9%.

"En comparaison des études déjà publiées sur le sujet, on observe une baisse
significative des requêtes à un mot-clé, au profit des requêtes à 2 et surtout à 3 et 4
mots-clés", conclut l'étude.

73
CHOIX DES MOTS CLES

Chapitre 2 : Sélection des mots-clés


Le choix de mots-clés est primordial. Pourquoi ? Le constat est simple : toute la
recherche sur un moteur est aujourd’hui constituée avec des mots ou expressions clefs.
En analysant les mots-clés, le site pourra à ce moment là comprendre les internautes et
ses visiteurs.
Pour sélectionner les bons mots-clés et ne pas passer à côté d’opportunités, un
processus d’exploration doit être mis en place. Dans un premier temps, avec la mise en
commun d’idées suggérées par son équipe, lors d’une réunion de brainstorming.
L’analyse de la concurrence permet, dans un second temps, de connaître quels mots-
clés ont été privilégiés, quels seront ceux sur lesquels la compétition sera difficile et
découvrir éventuellement de nouvelles approches. Utiliser les propres ressources de
son site constitue la troisième étape avant de faire le tri parmi toutes les expressions
recensées. Des outils peuvent également fournir des informations capitales dans le
processus de décision.

1. Brainstorming
Appelé aussi le « remue-méninge ». Cette première étape permet de constituer une
première liste avec un maximum de mots-clés. Effectuer un brainstorming laisse la
possibilité d’imaginer le plus de mots-clés possibles autour de son activité en
multipliant le nombre de pistes. En aucun cas, il ne s’agit de faire un tri dès cette étape :
tout doit être pensé, mis en commun et débattu par la suite. Des idées originales
peuvent être découvertes lors de ce moment.
Chacun doit partir d’un mot relatif à un secteur, à un produit ou à un service et le
décliner. Avec « voiture » par exemple, voici les catégories dans lesquelles les mots-
clés peuvent se décliner :
Par type : 4x4, cabriolet, coupé sport ou berline haut de gamme, etc.
Par constructeur : Renault, Peugeot, Volkswagen, BMW, etc.
Par modèle : pour Renault : Clio, Kangoo, Safrane, Twingo, etc.
Par type de carburant : Diesel, essence, GPL, etc.
Par action : vente, location, achat, prêt, etc.
Par état : neuf, occasion, première main, etc.
Avec l’équipement ou la couleur : climatisation, 3 portes, bleu métallisé, etc.
Il est même possible d’imaginer une déclinaison par lieu : voiture Paris,
voiture Bordeaux, etc.

74 Les Clés du Référencement sur le Web


CHOIX DES MOTS CLES

2. Analyse de la concurrence
Examiner les positions de la concurrence peut aider à la composition de sa liste de
mots-clés. S’informer sur les mots-clés mis en avant dans le contenu, constater le ton
adopté dans le texte et le vocabulaire utilisé dans la description des produits. Toutes ces
données permettent d’explorer des pistes auxquelles on n’avait pas songé, et
permettent également de déterminer les expressions à soigner en prévision d’une forte
compétition.
Attention toutefois à ne pas reprendre à tort et à travers des marques appartenant
à la concurrence. Cela peut être inutile mais également risqué.
Des outils peuvent aider à analyser les mots-clés de la concurrence en crawlant les
pages de ces derniers (point détaillé plus tard dans ce chapitre). Certains programmes
proposent même d’étudier la position de la concurrence sur les moteurs à l’instar du
site SEOdigger.com, disponible uniquement en version bêta anglaise. Sur ce site, après
avoir saisi l’URL d’un concurrent, on retrouve sa position par outils de recherche sur
les mots-clés les plus populaires.
Copie d’écran du site SEOdigger

75
CHOIX DES MOTS CLES

3. Utiliser ses ressources


« On n’est jamais mieux servi que par soi-même », l’expression s’applique aussi dans
la sélection des mots-clés. Consulter les statistiques de son site offre de nombreuses
informations à exploiter pour pousser toujours plus loin le site, en corrélation avec les
besoins de ses visiteurs. Il est ainsi possible de répondre à ces questions : Par quels
mots-clés l’internaute arrive sur le site ? Quelle est sa navigation par la suite ? Il est
également possible de s’aider du moteur de recherche interne du site, qui recèle toutes
les attentes et les formulations des utilisateurs.

C’est quoi un travail de sourcing ?


Le travail de sourcing n'est pas un travail sur les mots-clés. C'est une étude fouillée sur
les motivations des internautes et sur la structure de votre site web… Imaginons que
nous souhaitions nous positionner sur la requête « table de billard », nous devons aussi
réfléchir à ces différentes questions :
Quelle est la réelle intention de recherche de l’internaute ?
Est-ce que les internautes cherchent un site e-commerce, de la documentation sur les
différents types de billard ou un comparateur ?
Est-ce que la page de destination que j’ai prévue répond aux attentes des internautes
en termes de contenu et de parcours de navigation ?
Est-ce qu’il existe une parfaite cohérence (notion de fil rouge) entre la requête saisie
par l’internaute, l’extrait de mon site web affiché dans les Serps et la page
d’atterrissage correspondante ?

En bref, on ne positionne par une page en fonction d’une liste de mots-clés mais selon
des intentions de recherche distinctes. En conséquence, vous devez :
Définir une structure de site web qui soit cohérente ;
Créer des pages qui soient les plus spécialisées possibles ;
Rédiger des contenus qui répondent exactement aux attentes des internautes ;
Proposer des contenus qui soient alignées avec vos objectifs marketings.

3.1. Utiliser Google Suggest


Lorsqu’une requête est saisie dans Google, le moteur présente automatiquement
des suggestions de termes de recherche accompagnées d'une estimation du nombre de
résultats. Ces informations peuvent être reprises pour déterminer une série de mots-
clés autour d’une thématique. Ainsi, le terme « appareil photo » peut être décliné avec
« numérique », « Sony », « Canon », « Reflex », ou encore « jetable ».
76 Les Clés du Référencement sur le Web
CHOIX DES MOTS CLES

Visualisation de Google Suggest

3.2. Utiliser le moteur de recherche interne de son site Web


Le moteur de recherche d’un site peut également fournir de nouvelles pistes dans la recherche
d’expressions. Ce dernier peut fournir des conseils de recherche et présenter les différentes
catégories se référant au mot-clé.

Exemple d’un moteur de recherche interne à un site Web - cf. champ « search » de la page

4. Sélection
Après avoir constitué une liste, vient le tour de la sélection. Tout dépendra des objectifs
de visibilité et de la stratégie de communication globale de l’entreprise. Une priorité est
ensuite attribuée à chacun des mots-clés, pour savoir par quel mot le travail doit
commencer et où les efforts doivent être accentués. Là encore, des questions doivent
être posées : quels sont les mots-clés vitaux et quels sont les objectifs de trafic ?

77
CHOIX DES MOTS CLES

Le tri doit se faire en fonction de la popularité et il ne faut pas hésiter à écarter les mots-
clés présentant une audience quasi-nulle (moins de deux recherches par mois par
exemple). La compétition sur les mots-clés pourra être mesurée après avoir tenté de
s’y positionner. Une fois le ROI calculé, il sera toujours temps de savoir si le mot-clé
vaut le coup de se battre.

Il est assez facile de se rendre compte qu’un mot-clé est populaire : il suffit de le
rechercher dans un moteur et de vérifier le nombre de résultats obtenus dans le moteur.
Prenons un exemple… Sur la requête Hôtel, Google France renvoyait, en avril 2014,
plus de 44 500 000 résultats. Par contre, la requête « Hôtel Strasbourg deux étoiles » ne
comptait plus que 685 000 liens organiques.

78 Les Clés du Référencement sur le Web


CHOIX DES MOTS CLES

Chapitre 3 : Outils d’aide à la décision


Rien ne remplace le brainstorming, qui permettra d’évaluer et de trouver de nouvelles
pistes, encore inexploitées par la concurrence. Les outils d’aide à la décision
permettent quant à eux de n’écarter aucune voie et de ne pas passer à côté de mots-clés
essentiels. Ces derniers permettent un gain de temps qui pourra être décisif dans la
course aux mots-clés.

1. Générateurs de mots-clés
Il existe sur le marché des outils simplifiant la sélection des mots-clés. Services gratuits
ou payants, ils permettent de connaître la popularité des mots ou expressions clés.
Parmi les outils gratuits figurent ceux proposés par les moteurs de recherche, comme
celui de Yahoo!, de Bing et de Google.
Les générateurs de mots-clés fournissent en général trois types d'informations :

Le nombre de recherches pour un mot-clé : c'est-à-dire le nombre de fois qu’un mot-


clé a été saisi au cours de la période de référence. A savoir : cette valeur est issue du
cumul des recherches effectuées sur l'outil et l'ensemble de son réseau de partenaires et
affiliés

Des combinaisons associées : en clair, une déclinaison des requêtes connexes


utilisant le mot-clé demandé

Des outils « thématiques » et recherches similaires : des requêtes « synonymes » aux


mots-clés demandés. Les internautes qui ont cherché le mot « monsite» ont aussi
cherché le mot « votresite »
Ces outils suggèrent des mots-clés issus de requêtes courantes effectuées sur leurs
moteurs. Chaque mot-clé suggéré s’accompagne du volume approximatif de
recherche.
Dans une optique d’achat de mots-clés, l’outil indique également la concurrence entre
annonceurs. Si par exemple, la concurrence est forte dans Google AdWords, elle le
sera, certainement tout autant, dans les résultats naturels. Un gain de temps dans
l’établissement de la liste, mais qui ne remplace pas un bon brainstorming. L’utilisation
de cet outil vient surtout en complément.

79
CHOIX DES MOTS CLES

Le générateur de mots-clés présente certaines limites. Google, Yahoo! et Bing ne sont


pas des moteurs sémantiques. Ils ne comprennent pas le sens des mots recherchés. Ils
analysent et mesurent la ressemblance entre une requête et le contenu de son index.
Mais ils ne comprennent en aucun cas la signification d’une requête. L’outil de
suggestion de mots-clés n’est donc pas si sûr. En français, il est facile de se rendre
compte quand l’expression perd de son sens. Mais dans l’optique de l’utilisation de cet
outil dans une langue étrangère, pour lancer sa visibilité à l’international, il convient de
bien vérifier le sens des expressions proposées.

Capture d’écran du générateur de mots-clés de Google Adwords : étude du mot-clé « voitures »

Pour ce qui est des outils payants, les acteurs en place proposent généralement une
étude complémentaire sur la présence de mots-clés dans une page et le poids de
chacun. Une donnée qui permet de cibler où se situent ses faiblesses et où le travail doit
se mener.

80 Les Clés du Référencement sur le Web


CHOIX DES MOTS CLES

1.1. Un œil sur le site Google Rankings


Autre outil d’analyse, Google Rankings évalue les mots-clés d’un site et vérifie leur
classement dans les pages de Google. L’outil étudie non seulement les mots-clés
uniques mais aussi les expressions composées de deux à trois mots-clés. L’outil est
totalement gratuit. Cependant, seuls les détenteurs d’une clé Google SOAP Search API
peuvent l’utiliser.

1.2. Deux autres générateurs efficaces


Wordtracker
C’est un outil anglophone qui permet d’obtenir jusqu'à 1000 expressions connexes à un
mot. Comme Yahoo!, il permet de constituer une longue traîne efficace. Le réseau
Wordtracker fournit une version d’essai gratuite à cette adresse :
http://freekeywords.wordtracker.com/
Keyword Discovery
Cet utilitaire est édité par Trellian. Il est différent des autres programmes. En plus de
fournir des statistiques de recherche sur les requêtes, il permet de connaître la
saisonnalité des expressions. Comme Wordtracker, Keyword Discovery peut être testé
en version d’essai à cette adresse : http://www.keyworddiscovery.com/search.html.

2. Etude de la concurrence
L’étude des différents sites de la concurrence permet de comparer l’état d’avancée
de ces derniers sur les moteurs, mais également de comprendre leurs stratégies de
référencement. Leurs besoins en termes de visibilité définiront les mots-clés sur
lesquels la concurrence sera plus accrue et sur lesquels la société devra se défendre.

Dans son outil, Google offre la possibilité d’indiquer une URL. A partir de cette
dernière, il préconise des mots-clés après avoir étudié le champ lexical du site Web.

81
CHOIX DES MOTS CLES

Capture d’écran du générateur de mots-clés de Google Adwords : étude de la concurrence

2.1. Un œil sur le site Compete.com


Outil anglophone, Compete.com propose des comparaisons. L’outil peut étudier
jusqu’à trois sites en même temps sur les statistiques estimées de visites. Une rubrique
est entièrement dédiée à l’analyse du positionnement, aussi bien sur le référencement
naturel que l’achat de liens sponsorisés. A savoir : les données communiquées ne sont
pas issues des statistiques des moteurs de recherche, mais de celles obtenues par la
toolbar de Compete, installée par les utilisateurs.
Dans la rubrique dédiée au positionnement, trois catégories sont proposées. Une
première sert à étudier le positionnement des sites en renseignant leurs URLs ou bien
en indiquant un secteur. Une deuxième catégorie offre la possibilité de consulter, à
partir des mots-clés, les sites apparaissant en premier. Une troisième catégorie permet
de comparer le positionnement entre deux sites.

82 Les Clés du Référencement sur le Web


CHOIX DES MOTS CLES

Capture d’écran de l’outil Compete.com : comparaison de sites

2.2. Estimer la puissance de ses mots-clés

Microsoft AdCenter Labs.


Il est possible de vérifier les intentions d’achat sur des mots-clés avec l’outil de
Microsoft AdCenter Labs.

Pour le mot-clé « canon digital camera », l’outil estime la probabilité d’achat suite à
cette requête comme étant très élevée (0,972). L’utilisateur ayant précisé dans sa
requête le produit et la marque, il confirme donc son choix. Il lui reste à trouver le
produit au prix désiré.

83
CHOIX DES MOTS CLES

Présentation de Microsoft AdCenter Labs

Google Adwords
Google propose un module permettant d’obtenir les prévisions de trafic pour de
nouveaux mots-clés. Adapté à l’achat de liens sponsorisés, l’outil peut néanmoins
fournir des informations intéressantes pour le référencement naturel, comme le volume
de recherche et la concurrence. Plus un mot-clé coûte cher dans Google Adwords, plus
le travail de référencement pour se placer dans l’index classique sera important.

Présentation de l’outil de prévision de trafic Google Adwords

84 Les Clés du Référencement sur le Web


CHOIX DES MOTS CLES

3. Mots-clés les plus recherchés


Voici le top des tendances 2013 mondiales pour Google :
1. Nelson Mandela 2. Paul Walker
3. iPhone 5s 4. Cory Monteith
5. Harlem Shake 6. Boston Marathon
7. Royal Baby 8. Samsung Galaxy s4
9.PlayStation 4 10. North Korea

Voici le classement publié par Yahoo! aux Etats-Unis :


1. Miley Cyrus 2. Kim Kardashian
3. Kate Upton 4. Minecraft
5. Selena Gomez 6. Obamacare (Affordable Care Act)
7. Amanda Bynes 8. Jodi Arias
9. iPhone 5 10. Justin Bieber

Voici le « Top 10 » français (Google en 2013) :


1. Paul Walker 2. Vendée Globe
3. Kate Middleton 4. Secret story 7
5. iPhone 5s 6. Valérie Benguigui
7. Star Academy 8. Harlem Shake
9. Nabila 10. Nelson Mandela

85
CHOIX DES MOTS CLES

Le choix des mots-clés est une opération méticuleuse, demandant du temps et de la


recherche. Mieux vaut planifier cette tâche bien en amont afin d’éviter de tomber dans
des pièges, comme le syndrome de la « tête dans le guidon », et celui du « salon
professionnel ». Dans le premier cas, la société reste focalisée sur des mots-clés autour
d’un vocabulaire technique. Elle ne regarde que dans une seule direction et ne se
projette pas dans la peau d’un client en phase de recherche.

Pour le syndrome du « salon professionnel », l’acteur ne se contente que de copier ce


que fait son concurrent, en oubliant que les objectifs ne sont pas les mêmes, que le
positionnement diffère et que la société ne dispose pas des mêmes forces que son
compétiteur.

La recherche de mots-clés est un travail d’opportunités, combinant les mots-clés


transformants avec les vrais besoins de la société.

86 Les Clés du Référencement sur le Web


CHOIX DES MOTS CLES

4. Google Tendance des recherches (Google Trends)


Google Tendance des recherches est un excellent outil permettant de faire du marketing
prospectif.
Il existe une version française qu’il est possible de découvrir à cette adresse :
http://www.google.com/insights/search/?hl=fr#.
Cette application permet de comparer les tendances des volumes de recherche par région,
catégorie, période et site Google…

Elle apporte un certain nombre de nouveautés :


Après avoir sélectionné une catégorie, on peut afficher la croissance relative de la requête
par rapport à sa catégorie ("Croissance relative à la catégorie X").
Une carte animée permet de suivre l’évolution de la popularité d’un mot-clé au fil du temps.
Présentation de l’outil Google Tendance des recherches

En regardant le schéma ci-dessus on s’aperçoit qu’en cochant la case « Prévisions », il


est possible d’afficher des prévisions dans le temps.

C’est donc une manière de faire du marketing prédictif et de voir quelles sont les
grandes tendances du moment dans toutes sortes de secteurs d’activité.

87
DEUXIEME ETAPE :
METHODES D’OPTIMISATION « ON SITE »
METHODES D’OPTIMISATION « ON SITE »

Une fois la liste de mots-clés définie, c’est au tour du site d’être étudié et adapté.
Commencer par l’étape des mots-clés reste préférable, ces derniers permettent de
décider des orientations apportées au référencement. De cette orientation découle
l’optimisation du site. Comme vu précédemment, les moteurs de recherche
n’utiliseraient pas moins de 200 critères pour classer leurs résultats. Deux catégories se
distinguent dans l’optimisation : les critères on site, c'est-à-dire directement mis en
place sur le site, comme les liens hypertextes, la densité des mots-clés, l’optimisation
des meta ou encore la mise à jour du site. Et les critères off site, intégrés plus
tardivement par les moteurs dans leur quête de pertinence.
Les critères on site regroupent tous les critères présents sur un site et figurent tous dans
le code source des pages. L’architecture des pages est adaptée en fonction des objectifs
fixés. Le code source se simplifie pour offrir aux robots des moteurs plus de clarté et
une accessibilité qui facilitera leur travail d’indexation.

Chapitre 1 : Choisir un nom de domaine

De manière générale, une extension en .com ou en .fr doit avoir votre préférence. Bien
entendu, le nom de domaine doit aussi être celui de votre société ou de la marque que
vous allez promouvoir.
Hélas, il arrive souvent que l’extension tant convoitée soit déjà réservée et qu’une des
seules solutions soit d’opter pour une autre extension en .org ou .net.
Il est tout de même possible de jouer sur les mots en procédant par ajout : plutôt qu’un
domaine comme mickaeljackson.com, pourquoi ne pas choisir mickaeljackson-
live.com ?
Vous avez aussi la possibilité d’utiliser un tiret dans le nom : mickael-jackson.com ou
d’utiliser une abréviation : mj.com.
Ultime solution : utilisez un mot-clé ou une expression qui décrit le mieux votre société
ou votre marque : roi-de-la-pop.com ou moonwalk.com.
Pour le reste, réservez le maximum d’extensions avec votre nom de société et n’hésitez
pas à le faire sur toutes les plateformes d’hébergement de blogs : WordPress, Blogger,
Canalblog, etc. C’est une bonne manière d’éviter toute tentative de Cybersquatting (ou
« squatting des noms de domaine »). En fait, il arrive souvent que l’on réserve des
noms de domaine moins parce qu’ils nous intéressent que pour empêcher la
concurrence de s’y installer.

90 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

Chapitre 2 : Sous-domaines ou répertoires ?


La principale différence est qu’un sous-domaine est considéré par les moteurs de recherche
comme un nouveau site alors qu’un répertoire bénéficie d’emblée, de l’effet de masse du site
« parent ». Mais le porte parole de Google indiquait déjà en 2007 que, dans certains cas, sous-
domaines et répertoires seront traités sur le même pied d’égalité.
On peut tout de même relever que les sous-domaines profitent du poids de l’URL de
base mais, qu’en cas de contenu extrêmement varié, une architecture de site construite
autour des répertoires risque de diluer le travail de référencement. Par ailleurs, une
prolifération de sous-domaine - par exemple, un par mot-clé -, sera considéré par les
moteurs comme du Spam indexing.

Enfin, l’organisation en sous-domaine peut avoir une justification dans le cas d’un site
multilingue. En bref et comme en toute chose, il faut savoir rester dans les limites du
bon sens…

Chapitre 3 : Diagnostic
L'audit d’un site Web se pratique généralement afin de comprendre pourquoi les
positions stagnent dans le classement des moteurs et pour mettre en avant les
améliorations à apporter sur la structure ou le contenu. Il permet de comparer ses
positions par rapport à celles des concurrents.
Le diagnostic se compose de plusieurs parties. Une analyse des mots-clés utilisés pour
le référencement permet de vérifier leur conformité avec les objectifs fixés. Le calcul
de l’indice de densité des mots-clés indique ensuite quelles pages sont à travailler pour
adapter leurs contenus.

Une étude technique complète le diagnostic afin de mettre en valeur les facteurs
bloquants, comme le flash, le texte, ou les pages dynamiques. Tester la conformité des
pages permet de mettre en évidence les lignes de codes qui empêchent le passage des
robots des moteurs.

Enfin, l’audit de la popularité consiste à identifier les liens externes pointant vers les
pages du site et à qualifier la valeur de ces liens.

91
METHODES D’OPTIMISATION « ON SITE »

Un plugin pour le navigateur Firefox aide à établir ce diagnostic et comparer


rapidement son site avec celui des concurrents et ce, directement dans les résultats de
recherche. L’extension SEO for Firefox liste, entre autres choses, pour chaque page le
PageRank, l’âge, les liens et leur provenance, le nombre de pages en cache, la présence
dans Dmoz (annuaire de Google) et le Whois.
Exemple de page de résultats avec l’extension SEO for Firefox

Source : http://tools.seobook.com/firefox/seo-for-firefox.html

92 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

Chapitre 4 : Structure
Plus largement, la façon dont une page est construite apporte déjà beaucoup d’éléments
aux moteurs de recherche. Ces derniers décortiquent le site dans les moindres détails.
Totalement automatisés, les moteurs de recherche ne peuvent pas vraiment
comprendre le sens des phrases comme le ferait un humain. Ils compensent cette
incapacité en multipliant les analyses sur la position de chaque mot dans une phrase,
dans un paragraphe et dans une page.

1. Mots-clés dans la structure du site


1.1. Adapter l’URL du site
Pour les moteurs, les mots-clés figurant dans une URL sont très importants. Une URL
comme www.hotel-girafe.com sera mieux considérée sur la requête hotel que l’URL
www.girafe.com. Par ailleurs, si le mot-clé est en début d’URL, il sera d’autant plus
valorisé.
Mieux vaut donc privilégier www.hotel-girafe.com à www.girafe-hotel.com.
1.2. Penser aux noms des fichiers et dossiers
Les moteurs de recherche indexent l’intégralité d’un site, sauf si le détenteur du site
Web lui a spécifié des limites. Tous les fichiers sont donc aspirés par les robots. Pour
aider le moteur dans sa classification, il est préférable de nommer ces fichiers de
manière distinctive, avec des mots-clés propres au contenu.
Par exemple : hotel-restaurant.html ou encore hotel-seminaire.html.
Le nom des dossiers doit également être représenté par un mot-clé stratégique. Bien
souvent, on peut remarquer que les dossiers se présentent sous forme de chiffres : cette
présentation doit être modifiée. Le mieux reste toujours de préciser au moteur
comment se construit le site et autour de quelles thématiques.
Par exemple, au lieu d’afficher www.hotelxxx.com/xxx/22/3.html,
mettre : www.hotelxxx.com/informations/reservation.html.
1.3. Privilégier le tiret
Tiret, underscore (tiret bas) ou virgule pour séparer les mots-clés ? Google avait
annoncé lors du WordCamp 2007 que l’underscore serait prochainement accepté
comme séparateur de mots, le plaçant ainsi au même niveau que le tiret. Reste
qu’aujourd’hui, l'underscore n'apparaît toujours pas comme un séparateur valable,

93
METHODES D’OPTIMISATION « ON SITE »

que ce soit dans l'URL ou dans le corps de texte. La virgule et le tiret sont en revanche
bien considérés comme valeur séparatrice.

A la place de www.hotelxxx.com/informations/chambres_doubles.html
Mieux vaut mettre : www.hotelxxx.com/informations/chambres-doubles.html.
1.4. Optimiser les liens hypertextes
Ce sont les liens hypertextes qui relient des pages Web entre elles. Ils permettent
notamment de naviguer de page en page. Le texte de chaque lien doit être
attentivement soigné. Un lien avec le texte « cliquez ici » est à éviter. Il n’apporte
aucune information pour le moteur. Il vaut mieux lui préférer une expression ou un
mot-clé.
Par exemple :
<a href=http://www.unepagexxx.com/dossier/fichier.html>réserver une
chambre d’hôtel </a>

Ce texte s’affichera de cette façon : réserver une chambre d’hôtel.

Les liens internes comme les liens externes doivent être soignés de cette manière.
La présence des mots-clés cibles dans les textes de liens appelés aussi les « anchor text »
représente en 2009 un des critères phare pris en compte par les moteurs pour classer les
sites Web.

1.5. Adapter le corps du texte


Le contenu d’un site est conçu pour les internautes. Tout ce qui est compréhensible
pour ses visiteurs le sera automatiquement pour un moteur. Le corps du texte doit
reprendre les mots-clés sélectionnés. Plus les mots-clés se situent en haut de page, plus
les moteurs leur accordent une attention particulière. Les textes doivent être lisibles et
informatifs. Il ne s’agit surtout pas de répéter les mots-clés ou de les enchaîner sans
logique. Ce genre de manœuvre est très risqué et effraie surtout les lecteurs. Il ne faut
pas hésiter à mettre les idées essentielles d’un texte en gras ou en italique. Toutes ces
mises en avant seront repérées par les moteurs.
Autre point à surveiller : les pages uniquement composées d’images ou de graphiques.
L’accessibilité est importante en référencement. Un site doit être compris par une
personne mal voyante – comme le sont les robots. Chaque image, photo ou graphique
doit toujours s’accompagner d’un texte les décrivant.

94 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

1.6. Calculer la densité des mots-clés


La densité de mots-clés est le rapport entre le nombre d’apparitions de ce mot-clé
rapporté à l’ensemble des mots présents dans la page.

Mot-clé ou expression
Densité = ______________________________
Nombre total de mots dans une page

Le site Google Rankings permet justement de connaître les différentes occurrences


de mots-clés présents sur une page d’un site Web.
http://www.googlerankings.com/kdindex.php

En prenant l’exemple du site CNN, le mot-clé qui revient le plus souvent est
« news » (actualités), avec une densité de 6,40% et les expressions avec deux mots-
clés les plus redondantes sont « white house » et « breaking news » avec 3,87 %.

Présentation de Google Rankings

95
METHODES D’OPTIMISATION « ON SITE »

Le site SEO Tools propose également de calculer automatiquement la densité de mots


ou de phrases dans un site. http://tools.seobook.com/general/keyword-
density/index.php
Présentation de SEO Tools

Il existe chez les référenceurs deux écoles autour du calcul de la densité : ceux qui
incluent les mots de liaisons et les articles, et ceux qui les écartent.
Lors de la rédaction du contenu, il convient de garder toujours en mémoire que l’on
s’adresse en premier aux internautes. Les moteurs ne passent qu’après. La priorité
doit être de donner envie aux visiteurs de continuer la consultation du site et de passer
du stade de simple visiteur à celui de client.

2. Optimiser la structure du site


2.1.Liens de site et liens de page
Google comprend la structure d’un site et de ses pages afin de proposer aux
internautes des raccourcis qui leur permettront d’accéder plus rapidement au contenu
voulu. Faisons un tour d’horizon de ces possibilités…
Les liens de site : cette fonctionnalité s’active au travers des Outils pour webmasters
de Google. Certains sites qui possèdent un bon indice d’autorité présentent un

96 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

Snippet qui contient 8 liens vers les pages les plus importantes (ou sensées l’être).
Présentation du snippet

Il existe une variante de Snippet ne montrant que 4 liens présentés horizontalement.

Si la requête porte sur le nom de domaine, Google affichera ce qui semble être les
pages les plus populaires du site.
Récemment, Google s’est mis à proposer des liens de pages. Le Snippet contient 3 à
4 liens qui permettent d’accéder directement au paragraphe marqué par une ancre.
Accès direct aux pages populaires

Mentionnons aussi l’existence des fils d’Ariane dans les résumés de page web. En
bref, l’internaute reçoit, avant même d’avoir cliqué sur le lien, une indication du
contexte dans laquelle est placée la page de destination ainsi qu’un aperçu du plan du
site.

Enfin, certains forums montrent un Snippet qui comporte plusieurs liens empilés vers
des sujets adjacents (les liens profonds).

97
METHODES D’OPTIMISATION « ON SITE »

Toutes ces nouveautés participent à l’effort du moteur de recherche à instaurer une


relation de confiance avec les internautes et à faire remonter à la surface, la structure
des pages qui sont présentes dans son index.
La leçon que l’on peut tirer est qu’il est primordial de structurer un site en proposant,
par exemple, une table des matières de son contenu, un fil d’Ariane qui facilitera
l’expérience utilisateur, une politique de maillage de liens qui aideront à mettre en
relief les pages primordiales (en termes de conversion) de celles qui le sont moins.

2.2. Schema.org : l’avenir du Web sémantique


Google, Bing et Yahoo! ont annoncé, en juin 2011, qu'ils adoptaient un nouveau
protocole utilisant les "microdata" (ou microdonnées) et baptisé « Schema.org ».
Les microdonnées utilisent des balises spéciales qui permettent d'injecter du Web
sémantique dans les pages HTML et de les rendre plus "lisibles" par les agents
utilisateur (navigateurs et moteurs de recherche). En rendant plus intelligibles les
pages web, nous rendons aussi plus « intelligents » les moteurs de recherche…

Voici un exemple de syntaxe :

<div itemscope itemtype="http://schema.org/Person">


<h1>Régis Micheli</h1>
<span>Directeur</span>
<span>Visiplus</span>
<span>Sophia-Antipolis</a>
</div>

Le principe consiste à décrire des entités et les relations qui les relient entre elles :
« Régis Micheli est le directeur d’une société appelée « Visiplus » dont le siège social
se trouve à Sophia-Antipolis… »
Le principal avantage du Web sémantique est de produire des Snippets enrichis qui
sont, de fait, beaucoup plus « présents » dans les pages de résultats. Et puisqu’ils sont
mis en avant, ils suscitent, logiquement, plus de clics.

98 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

Voici un exemple de Snippet du site Allociné :

Snippet Allociné

Yahoo! évalue à 15% l'augmentation du CTR sur les Snippets optimisés. Depuis que
le comparateur de prix Best Buy intègre du Web sémantique, le site a enregistré une
progression de 30% de trafic sur certaines de ses pages.

De fait, en augmentant sa vitrine commerciale sur le Web, on obtient plus


d’interactions de la part des internautes et, donc, plus de visites.
Ces balises spécialisées peuvent s’appliquer à toutes sortes d’informations : fiche
produit, entreprise, recette de cuisine, avis consommateur, évènement, date de concert,
carte de visite virtuelle, etc.

Le Web sémantique fait maintenant partie intégrante des tactiques « On site ». Ne


négligez pas cet aspect du SEO qui vous permettra d’obtenir un avantage
concurrentiel certain sur les entreprises qui occupent les mêmes thématiques métiers
que vous....

99
METHODES D’OPTIMISATION « ON SITE »

2.3. Les titres des pages


Les titres des pages doivent toujours être renseignés. Il est indispensable de les
personnaliser pour chacune des pages qui composent le site. Le titre des pages est la
première information intégrée par les moteurs.

Il ne s’agit pas de mettre une suite de mots-clés. Le titre est visible par les internautes
dans les résultats et il doit donner envie de cliquer en accrochant l’œil des internautes.
Chaque page doit avoir un titre personnalisé, en fonction de son contenu.

Le titre doit être court : entre cinq et dix mots. Google présente dans ses résultats des
titres de 68 signes ; Yahoo! Search monte jusqu’à 120 signes.
Il existe trois règles à un bon titre :
Une page pour chaque produit, service ou question (problème, besoin, etc.)
Une page pour chaque cluster sémantique mais sans viser une granularité trop
importante (billard américain + billard américain pas cher, etc.)
La balise Title doit :
Mettre en évidence la spécificité de la page en termes de contenu ;
Être unique et non réutilisée sur d’autres pages web.
Capture d’écran de Wikipédia : personnalisation des titres sur chaque page

100 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

Capture d’écran affichant un résultat Wikipédia dans Google

Pour les petits sites, cette opération peut être faite manuellement. En revanche pour
les sites présentant de gros volumes de pages vues, il est souhaitable d’avoir un CMS
gérant automatiquement la balise Title et les meta tag, et permettant, si nécessaire, de
modifier manuellement ces données.

Le titre peut se décliner au singulier et au pluriel.


Exemple pour un site vendant des plantes : « plantes d’intérieurs, une plante pour votre
salon ».

En fonction du classement sur les moteurs et des statistiques de visites, il ne faut pas
hésiter à changer le titre afin de voir lequel obtient plus de clics et de conversions par
la suite.

2.4. Adapter les META tags


Invisibles pour les internautes, ces balises servent aux moteurs. Les balises
« description » et « keywords » sont situées dans la zone <head> des pages html.

2.5. Balise META description


Son utilité est d’offrir aux robots un bref résumé de la page.

101
METHODES D’OPTIMISATION « ON SITE »

Même si les robots collectent les informations de cette balise, elle n’est pas
systématiquement reprise dans les résultats des moteurs. Le fait ou non de reprendre
en partie ou en totalité de la balise Meta description, ne dépend que de la bonne
volonté de Google. C’est la requête saisie par l’internaute qui va décider de
l’apparence du Snippet.

La balise meta description ne doit pas contenir plus de 158 signes. Il est inutile de
répéter le titre de la page. Il est inutile de répéter le titre de la page. Un bon résumé
est préférable à une enfilade de mots-clés. Cet aperçu doit être l’occasion de proposer
des mots-clés au singulier comme au pluriel. Les mots-clés ne doivent en aucun cas
être collés les uns aux autres, pour ne pas donner l’impression au moteur qu’il ne
s’agit que d’une simple liste de mots.

Et pour Bing ?
De manière générale, les recettes employées avec Google réussissent avec Bing. : les
extraits d’une page (snippets) ne font pas plus de 170 signes (espaces compris).

Voici deux exemples de résumé :


Bing : « Abondance est une commune française située dans le département de la
Haute-Savoie , en région Rhône-Alpes . Située dans le Chablais français , c'est le
chef ... ».
Snippet de Bing

102 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

Le référencement, c’est aussi de la visibilité !


Un extrait d’une page web compte quatre à cinq lignes. Par ailleurs, nous pouvons
poser cette formule : SEO = Ranking * CTR.
Rappelons que le CTR (« Click-Trough-Rate ») ou le TDC (« taux de clics ») se
calcule de cette manière : (nombre d'impressions / nombre de clics) * 100. Si, par
exemple, l'extrait de la page web a été vu 50 fois et qu'il a été cliqué 10 fois, votre
TDC sera égal à 20%.
Le taux de clics peut être examiné de deux façons :
Dans les rapports Outils Google pour webmaster ;
Dans Google Analytics.

La différence entre nombre d’impressions et nombre de clics

Si le positionnement garantit une part d'impressions (nombre de fois que l’extrait de


la page est affiché), cela n’a rien à voir avec la part de clics. Il existe deux raisons à
cela :
La position de l'extrait de la page web ;
L'attractivité de l'extrait de la page web (votre visibilité commerciale).
Posons deux constats :
Si la balise « Meta description » ne possède pas d’influence sur le référencement de
la page, elle participe activement de votre taux de clics ;
Même si, dans les faits, le contenu de cette balise n'est pas systématiquement repris,
c'est un des premiers éléments à travailler.
Note : la balise « Meta description » fonctionne bien comme la vitrine commerciale
d’un magasin : plus elle sera « sexy », plus elle favorisera les entrées dans la
boutique…

103
METHODES D’OPTIMISATION « ON SITE »

Google offre différents bonus aux webmasters :


Les termes qui « collent » à la requête de l'internaute sont mis en gras ;
Il est donc indispensable que les balises Title et Description reprennent les termes
des requêtes sur lesquelles vous souhaitez être positionné.
La date de publication de la page ;
Les listes ou les tableaux visibles sur la page ;

Les différences pages d’un forum qui traitent d’un même problème sont regroupées

Les liens de site ou les liens de page ;


L’indication du nom de domaine à la suite du titre.
Comment optimiser les extraits de vos pages web ?
Utiliser les métadonnées issues du Web sémantique ;
Utiliser la balise Author ;
Mettre en place une balise Title qui ne dépasse pas 68 signes (notez que c'est la
longueur, en pixels, du titre qui sera prise en compte) ;
Mettre en place une balise description qui ne dépasse pas les 158 signes.
Bien entendu, les textes de la balise Title et Description, en plus de la contrainte «
SEO » doivent :
Décrire le contenu de la page, de votre offre produit ou service (caractéristiques) ;
Mettre en avant les résultats escomptés (bénéfices) ;
Souligner les bonus offerts (avantages).

104 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

Google : « Abondance est une commune française, située dans le département de la


Haute Savoie et la région Rhône Alpes. Située dans le Chablais français,....».

Snippet de Google

A priori, il faut donc réfléchir à une balise meta description qui n’excède pas les 150
signes mais qui présente, pour les 20 caractères suivants, une phrase cohérente. De
cette façon, le Snippet visible dans les pages de résultats montrera un contenu clair
et compréhensible pour les internautes.

2.6. Balise META keywords


Est-il utile ou non de remplir la balise méta keywords ? Le sujet fait débat. Comme
la balise title, les META keywords sont beaucoup moins utilisés qu’auparavant par les
moteurs. Renseignée, cette balise apporte toujours un bonus. Reste qu’elle effraie
quelque peu les spécialistes car elle donne directement à la concurrence la liste des
mots sur lequel le site se positionne. Etant donné que cette balise est invisible pour
l’internaute, c’est le bon moment pour penser à mettre les mots-clés avec des fautes.
Un bon moyen pour ressortir dessus sans les afficher dans son contenu.

2.7. Informer les robots


La balise meta robots permet de définir des règles à destination des robots. Ces derniers
obéissent aux tags « no index » et « no follow ». Il est en effet possible de bloquer
l’accès à son site aux moteurs, en leur indiquant quelle page indexer et quelle page
ignorer. Par défaut, sans instructions, le robot indexera et crawlera toutes les pages. Il
reste préférable d’indiquer ce qui doit être pris ou non dans son contenu.

105
METHODES D’OPTIMISATION « ON SITE »

Différentes commandes existent :

Pour empêcher un robot à parcourir sa page


<html>
<head>
<title> Titre de la page </title>
<meta name="robots" content="noindex,nofollow">
</head>

Pour empêcher un robot à suivre les liens


<html>
<head>
<title> Titre de la page </title>
<META name="robots" content="index,nofollow">
</head>

Pour autoriser un robot à indexer et de suivre les liens


<html>
<head>
<title> Titre de la page </title>
<meta name="robots" content="index,follow">
</head>

Pour autoriser un robot à indexer mais à ne pas garder en cache


<html>
<head>
<title> Titre de la page </title>
<meta name="robots" content="nocache">
</head>

Une autre balise existe pour les robots : la balise « revisit ». Elle propose au robot de
revenir sur la page dans une période donnée.

Exemple :
<meta name="revisit-after" content="7 days">

Concrètement, cela ne se passe pas aussi facilement. Cette donnée n’est, en effet, pas
vraiment prise en compte par les robots. Les moteurs ont conçu leurs robots de manière
à revisiter le site en fonction du taux et de la fréquence de mise à jour. Cette balise ne
présente pas d’intérêt pour le référencement.

106 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

2.8. Adapter la balise <alt>


Balise alt pour Alternative Text. Google et ses comparses sont « aveugles ». Ils ne
peuvent pas comprendre une image, sauf si on leur indique dans le tag de l’image de
quoi il s’agit. Il est donc très important de renseigner dans le code source les attributs
« alt » des images. Toutes les images d’un site doivent être adaptées de la même
manière. Ce même texte apparaitra sur le site lorsque les visiteurs placeront la souris
sur l’image.
Exemple de code source avec le site Marriott.com
<img
src="http://cache.marriott.com/Images/onepath/MHRS_logo_86x45.jpg"
height="45" width="86" alt="Marriott Plaza Hotel Buenos Aires">

Capture d’écran du site Marriott.com : le texte de l’attribut alt s’affiche

Cette manœuvre, en plus d’éclairer les robots sur le contenu d’une image, renseigne
également les personnes non voyantes et les internautes ayant choisi de naviguer sans
images.

L’image du logo doit également être renseignée. Bien souvent ignorée, il est
intéressant d’y insérer le nom de la marque, et il est toujours bien d’ajouter une petite
accroche avec une phrase simple et explicite.

107
METHODES D’OPTIMISATION « ON SITE »

2.9. Mettre en place un fil d’Ariane


Le fil d’Ariane permet de signaler à l’internaute l’endroit où il se trouve dans le site
Web. Dans une optique d’optimisation du référencement naturel, c’est aussi
l’occasion pour enrichir le vocabulaire (c'est-à-dire de mots et d’expressions clés) un
site Web qui n’en serait peu ou pas assez pourvu.
Exemple avec le site eBay

2.10. Travailler le nom des images


Parce que les robots ne visualisent pas une image, ils prennent en compte son nom,
pour mieux l’identifier. Il est préférable d’intituler une photo avec un nom décrivant
son contenu, plutôt qu’un numéro, ou un code, qui sera totalement inintelligible pour
les moteurs de recherche.
2.11. Adapter la construction de ses liens
Lorsque l’on passe la souris sur un lien, une infobulle apparaît, indiquant à l’internaute
où il atterrira s’il clique sur ce lien. Cette information complémentaire apporte des
points supplémentaires dans l’optimisation de son site.

108 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

Exemple d’infobulle sur le monde.fr

2.12. Rendre son menu compréhensible


Avoir un menu déroulant contenant des liens hypertextes commençant par la syntaxe
<A HREF="nomdelapage.htm"> présente un avantage dans le référencement. Les
menus déroulant réalisés en JavaScript ou DHTML seront en revanche ignorés par les
robots, qui ne comprennent pas ces deux langages.

Lors de la construction de son site, mieux vaut donc choisir un menu en HTML /CSS.
C’est le menu qui indiquera au robot l’étendue de son site et permettra l’indexation de
l’intégralité des pages web. Si le robot ne comprend pas les liens, il aura alors plus de
difficultés à intégrer les pages suivantes.

2.13. Utiliser les balises heading (H1 à H6)


Vues sous l’angle de la sémantique, ces balises indiquent les titres d'une page ou d'un
paragraphe. Il existe six balises servant à structurer le contenu, allant de H1 à H6. Les
moteurs tiennent compte de cette balise et des mots-clés qui la constituent, même si de
nombreux abus ont contraint à relativiser l’importance de ce critère.

Il est toujours possible d’utiliser les CSS pour améliorer le rendu des titres.

109
METHODES D’OPTIMISATION « ON SITE »

Il est préférable d’éviter les titres avec des images, puisque comme vu précédemment,
les moteurs ne comprennent pas ces dernières.

2.14. Utiliser les balises gras


D’autres balises HTML sont utilisées pour structurer le contenu et mettre en exergue
certains mots-clés. Mettre un mot en gras avec la balise <bold> par exemple indiquera
au moteur l’importance que revêt ce mot-clé.
Exemple de code :
<bold> mot clef </bold>

2.15. Créer un sitemap


Présenter, sur son site, un plan détaillant sa structure et listant toutes les pages de
contenu aide les robots des moteurs à indexer plus facilement l’intégralité du site. Les
robots ont généralement du mal à détecter les pages de fond et un tel plan permet de
mettre en évidence l’architecture du site. En listant l’ensemble des ressources du site,
les moteurs accèdent plus facilement au contenu. Il existe d’ailleurs des logiciels
permettant d’automatiser la création d’un sitemap (pour en savoir plus sur la mise en
place d’un plan de site, consultez le chapitre : faire indexer son site).

2.16. Proposer un code HTML valide


La notion d’accessibilité est essentielle sur le Web. Tenir compte des handicaps
physiques qui existent dans notre société permet d’ouvrir son contenu sans restreindre
son public. L'objectif de l'accessibilité dans le référencement consiste donc à limiter au
maximum tous les obstacles pouvant bloquer l’indexation par les moteurs. Le code
HTML doit être propre et clair. Des logiciels permettent de visualiser comment les
moteurs interprétèrent le code HTML de son site. Ces logiciels redessinent le site à
partir du code source. Si le résultat n’est pas identique, cela signifie que le code HTML
n’est pas suffisamment conforme aux bonnes pratiques du Web.
Voici les liens vers les différents outils qu’offre le World Wide Web Consortium :
W3C Markup Validation http://validator.w3.org ;
W3C CSS Validation : http://jigsaw.w3.org/css-validator ;
W3C mobileOK Checker : http://validator.w3.org/mobile ;
W3C Link Checker : http://validator.w3.org/checklink ;
W3C Feed Validation Service : http://validator.w3.org/feed.

110 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

Précisons que le fait que votre site soit en conformité avec les standards Web ne
participe pas à un meilleur référencement. C’est juste une façon d’améliorer
« l’expérience utilisateur » et de jouer sur un des meilleurs leviers du webmarketing : la
relation de confiance.

Voici une version simplifiée de la zone <head> des pages HTML

<html>
<head>
<title> titre de la page </title>
<meta-name= "keywords" content="5 ou 6 mots-clés>
< meta-name ="description" content ="150 à 200 caractères : résumé de
la page reprenant les principaux mots-clés">
< meta-name ="robots" content ="index, follow">
</head >

2.17. Les facteurs clés d’un bon référencement


En septembre 2009, le site SEOMOZ a listé les facteurs qui aident au référencement.
C’est le résultat d’un sondage auprès d’internautes passionnés de référencement mais
qui n’est, évidemment pas, à prendre au pied de la lettre. Néanmoins, il permet
d’élargir ses pistes de réflexion et, pourquoi pas, d’explorer des solutions auxquelles
on n’avait, peut-être, pas pensé. Nous vous en présentons une synthèse qui ne couvre
pas l’ensemble des questions qui ont été posées.

Facteurs liés aux mots-clés :


Emploi du mot-clé dans le titre en H1 ;
Emploi en premier du mot-clé dans le titre en H1 (facteur de proéminence) ;
Intégration du mot-clé dans le nom de domaine ;
Usage du mot-clé n’importe où dans le titre en H1 ;
Présence du mot-clé dans une ancre d’un lien interne à la page ;
Présence du mot-clé dans une ancre d’un lien externe à la page ;
Emploi du mot-clé dans les 50 à 100 premiers mots du code source de la page ;
Présence du mot-clé dans le nom de sous-domaine ;
Présence du mot-clé dans le nom de la page ;
Présence du mot-clé dans le nom du répertoire ;
Emploi du mot-clé dans les autres balises titre (H2, H3, etc.) ;
Usage du mot-clé dans la balise Alt de l’image ;
Nombre de fois que le mot-clé est répété ;

111
METHODES D’OPTIMISATION « ON SITE »

Emploi du mot-clé dans le titre des images ;


Mise en valeur du mot-clé en caractères gras (<strong> et <b>) ;
Densité du mot-clé ;
Emploi du mot-clé dans les éléments des listes (<li>) ;
Emploi du mot-clé dans les paramètres de requête d’une page ;
Intégration du mot-clé dans les balises <i> et <em> ;
Emploi du mot-clé dans la balise Description ;
Emploi du mot-clé dans les extensions de fichiers ;
Emploi du mot-clé dans les balises commentaires du code HTML ;
Emploi du mot-clé dans la balise Keywords.
Notez que la balise <strong> est à préférer à la balise <b>

Facteurs liés à la structure de la page :


Originalité du contenu ;
Fraîcheur de la page ;
Présence de liens qui pointent vers d’autres pages du site ;
Fréquence de mise à jour de la page ;
Nombre de clics vers des pages externes que suscite la page ;
Présence de paramètres dynamiques dans l’URL en comparaison aux pages HTML
statiques ;
Place qu’occupe le code HTML dans la page ;
Présence d’une balise Description ;
Conformité de la page avec les standards HTML ;
Utilisation d’éléments en Flash ;
Utilisation de publicités dans la page ;
Présence des publicités AdSense sur la page.

Facteurs liés au site :


Architecture du site (hiérarchie des pages) ;
Emploi de liens externes vers des sites de confiance ;
Ancienneté du nom de domaine ;
Historique du nom de domaine ;
Fiabilité du serveur ;
Informations recueillies sur le serveur ;
Nom de changement dans les informations du Whois ;
Présence de flux RSS ;
Utilisation d’un plan SiteMap.
112 Les Clés du Référencement sur le Web
METHODES D’OPTIMISATION « ON SITE »

Facteur liés à l’utilisation des données :


Pourcentage de clics sur la page à partir des SERPs (ClickRank) ;
Historique des variations de ce pourcentage ;
Nombre de requêtes associées au nom du site ou de la marque qui lui est associée ;
Pourcentage de visites qui ont conduit à un retour immédiat vers la page des résultats ;
Temps moyen passé sur la page ;
Données provenant de Google SearchWiki ;
Références au site dans les emails traités par Gmail.

En 2011, SEOMOZ change sa manière de procéder et publie les résultats d’une étude
portant sur plus de 10000 mots-clés. Voici le poids respectif des facteurs tels qu’ils ont
pu être relevés :
Liens entrant au niveau de la page : 21% ;
Qualité des liens entrants au niveau du domaine : 21% ;
Densité et usage des mots-clés au niveau de la page : 16% ;
Statistiques sociales au niveau de la page : 7% ;
Statistiques liées à la notoriété de la marque : 7% ;
Absence de facteurs bloquants au niveau des mots-clés : 7% ;
Traffic enregistré sur la page web : 6% ;
Densité et usage des mots-clés au niveau du domaine : 6% ;
Absence de facteurs bloquants au niveau du domaine : 5%.

2.18. De nouveaux algorithmes pour Google


Tout d’abord, Caffeine ne concerne que des changements apportés à l’infrastructure du
réseau et à la manière avec laquelle le moteur indexe les données.
Cette mini-révolution a été effective en juin 2010 et elle est sensée apporter une plus grande
fraîcheur à l’index (de l’ordre de 50%). En bref, une page, sitôt publiée, sera immédiatement
indexée. Le porte-parole officiel de Google, Matt Cutts, parle d’un délai de l’ordre de
quelques secondes. C’est donc une excellente nouvelle pour les propriétaires de sites web.

Le point principal est que les Serps donneront une prime à la fraîcheur et que les pages seront
indexées et analysées de manière beaucoup plus fine qu’auparavant.

MayDay marque, quant à lui, un changement significatif dans le Ranking des pages :
beaucoup d’éditeurs de sites web en ont fait récemment les frais. Et, comme son nom
l’indique, cette mise à jour date de mai 2010… Son propos est d’optimiser les résultats pour
les requêtes de type « longue traîne ».

113
METHODES D’OPTIMISATION « ON SITE »

C'est-à-dire, l’ensemble des recherches qui portent sur des expressions précises et qui, prises
individuellement, vous apportent peu de trafic mais, cumulées, peuvent constituer une part
substantielle des visites enregistrées sur votre site web.
Une des principales conséquences est que les pages de votre site sont maintenant analysées
individuellement et que sa notoriété ne suffit plus à assurer, à une page nouvelle, un Ranking
immédiat. En bref, chaque page doit faire ses preuves et posséder suffisamment de qualités
intrinsèques et de liens entrants pour figurer en bonne position dans Google.

Chez Visiplus, nous avons pu constater que ce nouvel algorithme touchait majoritairement
les sites e-commerce. Heureusement qu’un certain nombre de contre-mesures permettent de
redresser rapidement la barre !

Google Panda a officiellement été déployé à partir d’avril 2011 aux Etats-Unis.
Officieusement, Panda a commencé à faire ses premiers dégâts, en France, dès juillet
2011.
D’ores et déjà, des milliers de sites ont enregistré des pertes de position conséquentes
dont, notamment, les sites d’actualités et d’agrégation de contenus.

Commentcamarche.net dans Google trends


Avec Panda, Google sanctionne le manque d’originalité de certains sites même si ces
derniers citent leur source. En bref, le moteur sanctionne les sites web qui font de la
reprise de contenus !

114 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

Un autre type de sites semblent aussi être visés : les sites vitrine qui ne proposent
pas de réel contenu ou qui, pour des raisons techniques, ne paraissent pas en fournir
(site en Flash, par exemple).

Apple.com dans Google trends

Panda a obligé, de nombreux webmasters, à une refonte conséquente de leur site :


suppression des pages en « Duplicate content », blocage de celles qui ne proposent pas
suffisamment de contenu « indexable », mesures de rétorsion contre les sites qui font
du « Web Scraping » (reprise non autorisée de contenu) une spécialité.

L’effet Panda a été une sorte de mini-révolution dans le monde du SEO et permet de
vérifier un adage bien connu des professionnels du référencement : aucune place,
même chèrement acquise, n’est définitive !

Le 24 avril 2012, un nouveau filtre à l’algorithme, baptisé « Google Penguin », est


déployé. D’après les calculs de Google, il porte sur un peu moins de 5% des requêtes.
Voici une liste des mauvaises pratiques qui sont, maintenant, clairement sanctionnées :
Bourrage de mots-clés ;
Contenu caché ;
Fermes de liens ;
Contenu copié et/ou dupliqué.

Et ce n’est pas terminé car Matt Cutts, le porte-parole de Google, a annoncé qu’au
cours de l’année 2014, de nouvelles améliorations à l’ensemble des algorithmes et
filtres sont prévues. De fait, nous pouvons penser que les effets de cette mise à jour
vont être durement ressentis par nombre d’entreprises !
115
METHODES D’OPTIMISATION « ON SITE »

Les changements d’algorithmes en 2013 et 0214


Janvier : Panda nouvelle version ;
Mai : Penguin nouvelle version ;
Juin : « Payday Loan » ;
Juillet : « Knowledge Graph » ;
Août : « In Depth articles » ;
Août : « Hummingbird » ;
Février 2014 : « Page Layout ».
Mai 2014 : « Payday Loan 2 ».
Dans les paragraphes suivants, nous en livrons une analyse détaillée…

Penguin
Une première mise à jour de cet algorithme a eu lieu 26 mai 2012… Comme Panda,
Penguin vise à améliorer l'expérience utilisateur en diminuant le positionnement des
sites utilisant des techniques de référencement abusives (netlinkink et backlinks non
naturels). En analysant les caractéristiques de 26 sites qui ont été pénalisés par le filtre
Penguin, la société GSQI en déduit que ces critères de sélection :
Spam sur les forums : liens trop optimisés ;
Spam sur les profils des utilisateurs des forums ;
Blogs qui proposent des liens en dofollow ;
Blogrolls : liens n’ayant pas de lien avec les contenus web vers lesquels les liens ont
été effectués ;
Annuaires ou sites de faible pertinence ;
Commentaires répétitifs dans les articles de blogs.
En sens inverse, la page qui fait un lien vers une de vos pages doit contenir le plus
possible de :
Mots rares ;
Phrases longues ;
Mots longs.
Dans le cas contraire, l’éventualité que le lien retour soit considéré comme "toxique"
sera important.
(Source : MatSight – Janvier 2014)
En bref, vous devez retenir deux choses :
Évitez des textes d’ancre qui sont sur-optimisés ;
Fuyez à tout prix les sites qui proposent des liens de faible qualité car étant trop
artificiels.

116 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

Passer au travers de Panda et de Penguin


Pas de contenu similaire d’une page à l’autre,
Pas de contenu trop court (au moins 300 mots),
Pas de taux de rebond trop important,
Pas de profondeur de visite trop courte,
Pas de contenu emprunté à d’autres sites (techniques de « Content spinning »),
Pas trop de publicités (notamment au-dessus de la ligne de flottaison et entre les blocs
de texte),
Pas d’adresses URL différentes qui renvoient vers la même page,
Pas d’erreurs 404, liens internes ou externes défectueux, etc.
Pas de bourrage de mots-clés sur les pages web,
Pas trop d’ancres sur-optimisées (pas plus de 30% du nombre de liens),
Pas de contenu masqué ou différent pour les internautes et les moteurs de recherche
(techniques de « cloaking »),
Pas de liens artificiels,
Pas de liens entrants ou sortants de faible qualité,
Pas de liens achetés qui ne soit pas en Nofollow.

Hummingbird
C’est en septembre 2013 que ce nouvel algorithme de pertinence (Hummingbird pour
« Colibri ») a commencé à être déployé. Voici ses caractéristiques :
90% des requêtes dans le monde impactées ;
Amélioration de la pertinence des résultats notamment pour les requêtes exprimées
en langage naturel ;
Importance du changement technique qu’il implique en termes de traitement des
requêtes et des résultats qui sont proposés.
En résumé, l’objectif de cet algorithme n’est pas de classer les pages en fonction des
mots-clés qu’elles contiennent mais de leur pertinence par rapport à l’intention de
recherche exprimée par l’internaute. Par exemple, est-ce qu’un internaute qui saisit le
terme « couverture » dans Google parle de couverture sociale ou de couverture de lit ?

Page Layout (« Payday Loan »)


Page Layout est un filtre qui pénalise les pages web affichant un grand nombre de
publicités et qui, de fait, obligent les internautes à se servir de la barre de défilement
pour atteindre le contenu voulu.

117
METHODES D’OPTIMISATION « ON SITE »

Le Knowledge Graph
Selon une étude menée par le site Moz.com en août 2013, le pourcentage de pages
présentant des informations issues du Knowledge Graph (« le graph du savoir ») est
passé à 26.7%. Quel est son principe de fonctionnement ?

Lorsque nous effectuions une recherche, il arrive que nous soyons désireux d’affiner
notre intention de départ. Le Knowledge Graph permet de mieux comprendre les
éléments du monde réel (entités) ainsi que les relations qui les relient entre eux. Le
carrousel qui sera alors visible en haut de la fenêtre ou sur la droite va permettre aux
internautes d’avoir une vue d'ensemble du sujet qui les intéresse.

Ce que le Knowledge Graph sait de l’acteur américain Brad Pitt

118 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

En avril 2013, Google avait recensé plus de 500 millions d’entités ainsi que 3.5
milliards de faits et de relations autour d’elles. En pratique, cette gigantesque base de
données est structurée de cette façon :
Objet de base : entité,
Attribut : caractéristique de l’objet,
Relation : lien entre plusieurs objets,
Classe : ensemble d’entités.
Quels sont les avantages pour les internautes ?
Désambiguïsation des résultats,
Instantanéité des informations les plus importantes,
Mise en avant des liens les plus pertinents.

Si les implications en termes se SEO semblent limitées, les webmasters ont intérêt à
intégrer les microdonnées à l’ensemble de leurs pages de contenu.

Les articles de fond (« In-depth articles »)


Cette nouvelle fonctionnalité (août 2013) fait que les pages web, considérés comme
étant d’une valeur plus importante que la moyenne des articles, seront mises en avant.
Les articles de fond (« In-depth articles »)

D’après une étude menée Mozcast (http://mozcast.com/features), 6.5% des pages de

119
METHODES D’OPTIMISATION « ON SITE »

résultats en contiendraient. Google liste les possibles facteurs qui permettent de


bénéficier de ce bonus :
Balisage « Article » du protocole Shema.org : http://schema.org/Article ;
Utilisation de la balise Author ;
Pagination et mise en forme canonique
(https://support.google.com/webmasters/answer/1663744)
Intégration des balises « Organisation » issues du Shema.org
(http://googlewebmastercentral.blogspot.fr/2013/05/using-schemaorg-markup-for-
organization.html)
Contenu dense, long et soigneusement structuré.

Note : pour la pagination de vos pages, utilisez les balises rel=next et rel=prev. Elles
servent à :
Indiquer au moteur de recherche que les différentes pages soient reliées de manière à
ne faire qu’une ;
Indiquer à Google l’adresse URL de la première page de la pagination.
Cette dernière fonctionnalité est précieuse puisque, de fait, les internautes seront
redirigées vers la bonne page d’entrée.

La montée en puissance du « Not Provided »

Si ce phénomène n’est pas un nouvel algorithme de Google, il complique quelque peu


la tâche des référenceurs. Voyons de quoi il en retourne…

Le 18 octobre 2011, Google annonce que les internautes connectés à leur compte
Google basculent en connexion sécurisée et que les mots-clés qu'ils utilisent ne seront
plus transmis aux outils d’analyse des sites visités. Dans Google Analytics, la mention
(not provided) figure à la place de la requête saisie. Et force de constater que, depuis
cette date, la part du (not provided) dans le trafic n'a cessé de croître.

120 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

La part du « Not Provided » dans Google Analytics

En février 2014, une étude de la société At Internet indiquait que, pour la France, le
pourcentage de requêtes en (not provided) atteignait 80%.
S’il n’existe pas de solutions définitives pour y échapper, voici quelques pistes :
Analyser les pages d’entrée de votre site et en déduire les comportements des
internautes ;
Utiliser les données issues des Outils Google pour webmasters ;
Examiner les données de Google AdWords ;
Croiser vos statistiques avec celles d’outils spécialisés en veille concurrentielle.

Personnellement, nous pensons que la meilleure façon de s’en affranchir est de créer
des pages qui soient les plus spécialisées possibles. Une autre manière de dire que pour
chaque page, ne doit correspondre qu’un seul mot-clé de ciblage.

121
METHODES D’OPTIMISATION « ON SITE »

Chapitre 5 : Contenu
Le contenu du site : ce qui donnera envie aux internautes comme aux moteurs de
recherche de revenir sur le site. Les pages doivent s’adapter aux besoins et à la
navigation des internautes. Une mise à jour régulière des informations apportera
également une valeur supplémentaire qui sera valorisée par les moteurs.

1. Management du site
1.1. Mettre à jour les pages régulièrement
Sur la toile, nombre de sites ont été abandonnés. Les moteurs, dans leur quête de
pertinence, écartent ces sites obsolètes, c'est-à-dire ceux qui ne sont plus mis à jour.
Cette actualisation doit donc se faire au moins une fois par mois. Pour les sites n’ayant
pas de nouveaux produits ou services à présenter, il est toujours possible d’ajouter une
rubrique d’actualités ou de créer des événements réguliers autour de son contenu.

Outre la possibilité de constater la visite des robots dans les statistiques, en consultant
la version en cache à partir de Google, on aperçoit la dernière date à laquelle le robot
est passé sur une page.

Exemple avec le site CNN

1.2. Utiliser des redirections propres


Un site web est un élément « en mouvement ». Il est donc fréquent qu’une même page
soit amenée à changer d’URL voire à disparaître selon les évolutions techniques du site
(changement d’URL, changement de nom de domaine, page effacée etc.). Pour éviter
une double indexation, les moteurs de recherche préconisent dans leurs « guides de
bonne conduite » d’utiliser la redirection 301. Plusieurs solutions techniques sont
envisageables, les principales : en « .htaccess », en PHP ou encore depuis la console
d’administration de votre hébergeur.

122 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

Fichier « .htaccess » (cette solution fonctionne également pour les pages effacées, ce
fichier est à déposer à la racine de votre site ou de votre dossier) :

RedirectPermanent /ancienne-url.html http://www.votresite.com/nouvelle-url.html

En PHP (code à insérer en haut de votre page PHP) :

<?

Header( "HTTP/1.1 301 Moved Permanently" );

Header( "Location: http://www.votresite.com/nouvelle-url.html" );

?>

En cas de changement d’adresse, les visiteurs sont automatiquement redirigés vers


l’URL actuelle.

La redirection 301 est la solution prise en compte par les robots indexeurs. Ils suivent le
lien indiqué et indexent la nouvelle URL. La préservation du PageRank de Google est,
la plupart du temps assurée.

L’idéal consiste à adapter la redirection page par page. En clair, l’ancienne page
de présentation de la société doit pointer vers la nouvelle page de présentation,
l’ancienne page de contact vers la nouvelle. Ainsi, les internautes ne se retrouvent pas
parachutés vers une page d’accueil qui ne correspond pas à leurs attentes. Une solution
qui s’avère chronophage pour des sites à taille importante.

Evitez la redirection JavaScript ou Meta refresh, que les robots n’arrivent pas à suivre.
Un changement de nom de domaine peut réduire à néant le travail de référencement
effectué par le passé.

123
METHODES D’OPTIMISATION « ON SITE »

1.3. Gérer plusieurs noms de domaine


Pour éviter de perdre trop de visiteurs ayant saisi une URL approchante, certains sites
réservent plusieurs noms de domaines. Exemple :
exemple-site.com
exemples-site.com
exemplesite.com, etc.
Ce procédé peut être mal apprécié par les moteurs avec le risque de duplication de
contenu, c'est-à-dire la reproduction d'un contenu d'une page sur une autre. Les
moteurs de recherche, dans un souci de qualité, souhaitent épurer leur index de tout
doublon.
1.4. Le « Duplicate Content »
On distingue deux principaux cas de figure :
Les pages qui sont strictement identiques : dans ce cas, Google sélectionnera la page
qui possède le Pagerank le plus élevé (notion d’URL canonique) ;
Les pages similaires mais qui contiennent des balises Description et Title différentes.
Les pages qui ne feront pas partie de l’index principal seront visibles en cliquant sur le
lien « Relancer la recherche en incluant les pages ignorées ».
Schématiquement, on peut dire qu’une URL canonique (« canonical URL ») est
l’adresse officielle d’une page au détriment des autres manières d’y accéder. Voici des
exemples d’URLs qui fonctionnent comme des doublons mais qui mènent toutes à la
page d’accueil d’un site :
exemple.fr
exemple.fr/?
exemple.fr/index.php
www.exemple.fr
www.exemple.fr/?
www.exemple.com/index.php

Le danger qui guette le référenceur est qu’il peut se retrouver en face d’une dilution de
la popularité d’une page puisque ce critère est calculé en fonction de chacune d’elle.
Ajoutons que si le « Duplicate Content » peut nuire à votre référencement, plusieurs
porte-paroles de Google ont précisé que cet état de fait n’entraîne pas de pénalités de la
part du moteur de recherche.

124 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

Une des solutions parmi les plus simples à mettre en œuvre est d’utiliser ce type de
commandes dans le fichier .htaccess :

RewriteEngine On
RewriteCond %{HTTP_HOST} !^www\.monsite\.fr [NC]
RewriteRule (.*) http://www.monsite.fr/$1 [QSA,R=301,L]
RewriteRule ^index.php$ http://www.monsite.fr/ [NC,L,R=301]

On indique que si un internaute saisit une de ces deux adresses URL : http://monsite.fr
ou http://www.monsite.fr/index.php, il sera redirigé vers celle-ci :
http://www.monsite.fr.
Bien entendu, vous devez faire attention que ce choix soit en accord avec la façon dont
vous avez procédé pour lier la page avec les autres pages du site.
1.5. Soigner l’hébergement de son site
Le site doit en permanence être accessible, sans problèmes de serveurs. Un serveur
inaccessible et le site perd les visiteurs et les robots. Ce dernier peut penser que le site
n’existe plus et supprimera en conséquence les pages de son index.
Des services tels que Pingwy ou InternetVista permettent d’analyser la disponibilité de
son site web.
Le site Pingwy propose des solutions de surveillance de site Web

125
METHODES D’OPTIMISATION « ON SITE »

1.6. Générer un volume de texte suffisant


On estime qu’une page a plus de chances d’être bien référencée si elle dispose d’un
volume de texte compris entre 150 et 1 000 mots.
Une page trop légère (avec 30 mots par exemple) ne serait pas un signe de crédibilité
et de valeur ajoutée pour l’utilisateur. A contrario, une page ayant un volume
d’informations trop conséquent (10 000 mots par exemple) poserait des problèmes
d’analyse du fait d’un temps de chargement trop important.

2. Lisibilité versus visibilité


A trop vouloir penser référencement, certains sites oublient leur objectif premier : les
internautes. Il ne sert à rien d’être positionné en tête si les internautes ne trouvent pas
d’informations à valeur ajoutée. Soit ils ne choisiront pas le site dans les résultats, soit ils ne
resteront pas longtemps sur le site s’ils ne se sentent pas à l’aise avec le contenu.

Un bon référencement doit consister à trouver constamment un compromis entre le besoin


de visibilité dans les moteurs et la nécessité de proposer un contenu lisible et adapté à ses
visiteurs.
2.1. Une lisibilité dès la page de résultat
Le SERP est la page de résultat que le moteur de recherche va afficher suite à une
requête effectuée par l’internaute.
Exemple de l’importance de la lisibilité dès la page de résultat

126 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

L’affichage de ce résultat de recherche (SERP) permet aux utilisateurs des moteurs de


sélectionner les pages qui, a priori les intéressent. Au-delà du référencement, ces quatre
lignes de résultats doivent décider le plus rapidement possible l’utilisateur à cliquer
dessus pour en savoir davantage. Selon une étude menée par le group Human-
Computer Interaction, 43% des utilisateurs tiennent compte de ce résumé de recherche.
Généralement, les moteurs de recherche choisissent entre trois formules pour proposer
leurs résultats :
Ils affichent la phrase complète intégrant les mots-clés recherchés par un utilisateur.
Si une page ne contient pas les mots-clés dans une seule phrase, le moteur pourra
choisir de montrer le résumé du meta-tag description.
Le moteur peut également choisir d’afficher librement le contenu de la description se
trouvant dans l’index de l’annuaire DMOZ.
Reste qu’aucune règle n’existe et il est impossible de prédire à 100 % quel sera son
« extrait de recherche ».
Afin de mieux gérer ce résultat de recherche, les moteurs de recherche proposent de
gérer cette opportunité d’affichage via des balises méta tags particulières.

2.2. La balise Meta NO ODP


Cette baliste permet d’indiquer aux moteurs de ne pas prendre dans le snippet le
résumé de l’annuaire Dmoz.
<meta name="robots" content="noodp">

Il est également possible d’interdire au robot d’afficher un snippet avec cette balise :
<meta name="robots" content="nosnippet">

Cette action permettra d’empêcher des extraits de textes de la page sur laquelle se
trouve cette balise. Les balises META Tags sont à intégrer dans le site Internet à
l’intérieur des balises d’en-tête.
<head>
<title></title>
<meta name="description" content="." />
<meta name="keywords" content="" />
<meta name="robots" content="noodp">
<meta name="robots" content="nosnippet">
</head>

127
METHODES D’OPTIMISATION « ON SITE »

Le titre proposé par les moteurs est le titre de la page contenu dans le meta title. 30%
des utilisateurs consultent le titre dans les résultats des moteurs.

Comment les résultats d’une recherche sont-ils présélectionnés

Source : human Computer Interaction Group at Cornell University

Une technique d’eye tracking (méthode pour mesurer la position et le mouvement des
yeux), permettant de suivre le parcours des yeux sur une page Web, a calculé qu’un
internaute consacre en moyenne 2,2 secondes à la lecture du premier résultat, puis 1,5
secondes au deuxième et moins d’une seconde pour le troisième. Les internautes lisent
donc les résultats de recherche de manière linéaire.

Il est toujours possible d’essayer d’améliorer son snippet. Pour visualiser ce dernier, il
suffit de taper une requête pour observer quel est le résumé proposé. S’il ne convient
pas, le détenteur du site peut ajouter en tête de la page une phrase compréhensible,
reprenant les mots-clés de la requête.

128 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

De plus, il est essentiel d’éviter que, dans son résumé, figure des problèmes techniques.
Les robots fonctionnent sans plugin, cookies ou JavaScript, et il arrive souvent que
des sites n’affichent pas leur contenu sans ces pré-requis. Dans ce cas, ces sites
prennent le risque de voir ce message apparaître :
Présentation d’un message d’erreur que l’on peut rencontrer dans un résultat de recherche

Un tel message ne donne pas envie à l’internaute de cliquer dessus, bien au contraire.
Autre élément donnant plus de chance au site d’être visité par les internautes : sa place
dans les résultats.

Les résultats placés en bas de page sont donc automatiquement moins vus et leurs
pages moins visitées. Un site en première et deuxième position affiche un taux de clics
de 84 %, contre 11% pour le site en 8ème position.
Exemple d’eye tracking sur des résultats de moteur de recherche - source : Tracking des yeux mené par Edward Cutrell
de Microsoft Research et Zhiwei Guan de l'université de Washington

129
METHODES D’OPTIMISATION « ON SITE »

3. Création de pages d’atterrissage

A l’origine, une page d'atterrissage, ou landing page, est une page créée dans le cadre
d’un projet de référencement publicitaire sur laquelle un visiteur qualifié accède après
avoir cliqué sur une annonce publicitaire présente sur les moteurs. Ces pages sont
devenues de véritables outils stratégiques permettant d’offrir, aux nouveaux visiteurs,
un contenu pertinent et adapté aux besoins exprimés lors de leurs recherches.

Le principe de la landing page s’est ensuite étendu au référencement naturel, son but
étant dans ce cas de créer du contenu tout autour des pages de son site. Les landing
pages sont généralement utilisées dans un univers fortement concurrentiel ou pour des
sites développés en Flash.

Une landing page réussie doit réunir plusieurs critères


Elle doit se focaliser autour d’une expression clé et uniquement autour de cette
expression. Son contenu ne doit pas déconcentrer l’utilisateur de sa recherche initiale
et doit l’amener à trouver l’information prospectée. Dans ce but, il ne faut pas hésiter
à multiplier ces pages d’atterrissage. Si un utilisateur recherche un appareil photo
numérique, il ne sera pas satisfait d’arriver sur une page contenant des appareils
photos argentiques ou des caméscopes numériques. La page doit être entièrement
dédiée aux appareils photos numériques.

La page doit être courte. L’information doit être vite repérée par l’utilisateur et
la page peut aussi être une piste vers des produits ou des informations plus spécialisés.

Lors de la construction de la page, son objectif doit être gardé en tête en permanence :
abonnement à la newsletter, incitation à la vente, proposition d’informations, etc.
Plutôt que de proposer aux visiteurs de simples liens vers la suite du contenu, elle peut
les inciter à passer à l’action dès cette page.

Prendre garde aux liens externes qui risquent de détourner l’attention des visiteurs.

130 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

Exemple d’une page d’atterrissage

4. Les pages d’erreur 404

L'erreur 404 est un code d'erreur renvoyé par un serveur HTTP qui indique que la page
Web demandée (ou le document) n'existe pas. En règle générale, l’internaute est
confronté à une page qui est automatiquement générée par le navigateur. S’il a installé
la Barre d’outils de Google, il lui est proposé de lancer une recherche dans ce moteur
en utilisant la partie « signifiante » de l’adresse URL.
Un lien brisé qu’il soit interne ou externe au site pose deux problèmes :
Le visiteur et donc le futur contact ou client présente de bonnes chances d’être perdu à jamais ;
La perception qu’il a de votre site est entachée de méfiance.

Le but est alors de personnaliser cette page afin de ne pas perdre le visiteur et l’inciter à
découvrir (ou redécouvrir) votre site.
La première étape consiste à éditer le fichier .htaccess et de placer cette commande :
ErrorDocument 404 /404.html

131
METHODES D’OPTIMISATION « ON SITE »

Dans cet exemple, on suppose que la page se nomme 404.html.


Il ne reste plus ensuite qu’à créer une page du même nom qui fonctionnera à la manière
d’un panneau indicateur (« Vous êtes ici ! ») et qui permettra d’orienter de manière
efficace le visiteur égaré. Cela peut être :
Un plan de votre site ;
Une redirection vers la page d’accueil ;
Un script en PHP qui analyse l'URL d'erreur afin d'en extraire les mots-clés ;
Une page personnalisée qui offre de multiples portes de sortie.
Exemple d’une page 404

Google propose un Widget qui peut être personnalisé avec un peu de connaissance en
feuille de style CSS. En plus de suggérer le lien correct, ce gadget peut aussi afficher un
lien vers le répertoire parent, vers le plan du site et offrir un formulaire avec des
suggestions de recherches. Par ailleurs, les outils pour webmasters permettent de
relever toutes les pages externes qui font des liens erronées vers un site.
Prenez les devants et ne perdez plus jamais un seul de vos prospects !

132 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

5. Supprimer une page de l’index de Google


C’est un cas de figure classique : vous avez créé une page appelée concerts-paris-
2009.html et vous souhaitez bientôt la remplacer par celle-ci :
concerts-paris-2010.html. Comment procéder pour que tout le travail de référencement
de l’ancienne page ne soit pas perdu et, pour ainsi dire, se reporte sur la nouvelle page ?
Si vous devez absolument changer l’URL de la page, utilisez une redirection 301 afin
de rediriger automatiquement les robots et les internautes de la page A vers la page B. Il
suffit d’ajouter une commande dans le fichier .htaccess qui peut ressembler à celle-ci :
RedirectPermanent /ancien-dossier/ancienne-adresse.html http://www.domaine.fr/nouveau-
dossier/nouveau-fichier.html
Voici l’adresse d’un outil très simple qui vous permet de tester vos redirections :
http://www.annuaire-info.com/outil-referencement/test-redirection.

6. Spécificités d’un site multilingue


Le référencement international permet de toucher de nouveaux marchés à l'étranger
avec un coût modéré, sans nécessiter d’implantations physiques sur place.

6.1. Noms de domaine


Dans le cadre du référencement d’un site multilingue, disposer d’une extension du nom
de domaine localisée reste la solution la plus efficace, en particulier dans les pays où les
moteurs de recherche nationaux sont leaders, comme en Chine ou en Corée du Sud.

Exemples de présentation :
www.monsite.com pour la version anglophone
www.monsite.fr pour cibler les francophones
www.monsite.es pour les hispaniques
www.monsite.de pour le marché allemand

Cette situation entraîne cependant des coûts supplémentaires et peut s’avérer


compliquée si le nom de domaine n’est plus disponible dans certains pays.

133
METHODES D’OPTIMISATION « ON SITE »

6.2. Sous-domaine
Plus économique, l’utilisation d’un sous domaine pour chaque langue offre une bonne
visibilité sur les moteurs. Pour ces derniers, un sous-domaine est équivalent à un site
Web à part entière. Afin d’éviter les abus, Google tend à limiter les sous domaines
multiples dans ses résultats.
Exemples de présentation :
www.monsite.com pour la version anglophone
fr.monsite.com pour la version française
es.monsite.com pour la version espagnole
de.monsite.com pour le marché allemand
6.3. Répertoires
Autre alternative lors de la création de sites internationaux : la mise en place de
répertoires. Simple, cette méthode est également peu coûteuse puisque l’acquisition
d’un seul nom de domaine suffit. Elle permet également de cumuler la notoriété sur
l’intégralité du site, point essentiel pour un moteur comme Google.
Exemples de présentation :
www.monsite.com, toujours pour la version anglophone
www.monsite.com/fr pour la version française
www.monsite.com/es pour les hispaniques
www.monsite.com/de pour la version allemande
6.4. Hébergement
Comme le nom de domaine, l'hébergement peut également jouer un rôle essentiel dans
le positionnement. Les extensions locales, comme le ".fr", le ".be" ou le ".au", priment
généralement sur l'hébergement. Par contre, pour les sites en ".com", ".net" ou ".info",
ce sera la localisation de l'hébergement qui sera retenue par les moteurs.
Beaucoup d’hébergeurs proposent aujourd’hui de choisir une adresse pays. Google va
regarder attentivement la géo-localisation du site Web. Pour se rendre compte de
l’information relevée par Google, l’extension SEO for Firefox indique en cliquant sur
le lien Whois les données d’hébergement qui seront récupérées sur le site.

134 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

Héberger le site dans un pays cible reste la meilleure configuration. Sinon, pour un
hébergement unique, le choix doit s’effectuer en fonction du pays qui cumule le plus de
visiteurs qualifiés.

6.5. Contenu
Les habitudes de recherche diffèrent en fonction des pays. Les expressions utilisées par
les internautes dans le cadre d’une recherche peuvent être singulières en fonction de
chaque région. Une simple traduction de son contenu n’est donc pas suffisante. Le
discours doit s’adapter à la cible locale et la méthodologie dans le choix des mots-clés
doit être répétée pour chacun des pays visés, en tenant compte des expressions les plus
recherchées et celles qui génèreront a priori le plus de conversions.

Il faut également intégrer que sur les moteurs de recherche internationaux, la pression
de la concurrence n’est pas la même, en particulier sur les moteurs anglophones.
Soigner son contenu devient donc primordial pour être visible.

<head>
<title> titre de la page </title>
<meta name ="language" content="fr">
<meta name="description" content="résumé de la page">
<meta name="keywords" content="liste mots-clés">
</head>

La langue de la page se présente sous la forme d'une abréviation :


''fr'' pour le français, ''en'' pour l’anglais, ''es'' pour l’espagnol, ''de'' pour l’allemand,
''it'' pour l’italien, ''en-us'' pour l’américain, ''pt'' pour le portugais, ''dk'' pour le da-
nois…

Il existe dans ce domaine des standards à respecter, ceux-ci correspondent aux codes
ISO de chaque pays. Il est donc conseillé d’utiliser ces « standards » dans le déve-
loppement de votre site.

Exemple : http://www.loc.gov/standards/iso639-2/php/French_list.php

135
METHODES D’OPTIMISATION « ON SITE »

6.6. La page d’accueil


Afin de diriger ses visiteurs vers le bon contenu, une page d'accueil présentant des
liens vers les différentes langues semble la réponse la plus simple à mettre en place.
Cependant, cette solution présente un inconvénient majeur : la page sera quasiment
sans texte, c'est-à-dire sans valeur ajoutée pour les robots réclamant du contenu. Il est
possible de mettre en place une détection automatisée de la langue. Effectuée par le
biais de scripts, cette détection d'adresses IP reste plutôt bien interprétée par les mo-
teurs de recherche.

Un autre moyen, plus simple, consiste à proposer une page d'accueil avec une langue
par défaut, a priori celle amenant le plus de visiteurs qualifiés. L'internaute a ensuite
la possibilité de choisir sa langue rapidement avec un menu proposé en tête de page.

6.7. Moteurs de recherche internationaux


Même si Google est actuellement le numéro un mondial, le fait de baser entièrement
son optimisation sur ce seul acteur conduit à se fermer de nombreuses portes.
Concernant la part de marché dans le monde, la société NetMarketShare publiait, pour
mars 2014, ces statistiques :

Google : 69.55% Baidu : 16.77% Yahoo : 6.53%


Bing : 6.18% AOL : 0.26% Ask : 0.14%
Excite : 0.01%

Voici quelques spécificités locales signalées par la société « Return non Now » :

Chine : Baidu (75% de part de marché) ; Russie : Yandex (62%) ;


Corée du Sud : Naver (72%) et Daum (18%) ; Japon : Yahoo! (53%).

Par ailleurs et pour l’année 2013, les statistiques par pays par pays sont disponibles :
http://returnonnow.com/internet-marketing-resources/2013-search-engine-market-
share-by-country/

En résumé, concentrer ses efforts sur un seul moteur revient à mettre tous ses œufs dans
le même panier. Le jour où Google décidera d’exclure votre site web ou de changer ses
règles d’indexation, votre trafic peut s’écrouler du jour au lendemain.

136 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

7. Encore plus de contenu

7.1. One Box Google


Ce terme fait référence à un type de résultat privilégié qui sera visible tout en haut des
SERPs. Voici des exemples des OneBox les plus courantes ainsi qu’un exemple de
recherche associé :
Les résultats de la Ligue 1 : “l1”
Horaires de train : “train Paris Nice”
Les horaires de séances de cinéma : “cinéma paris”
La Bourse : “tf1”
Exemple de résultats visibles directement dans les SERPs

Cette liste est loin d’être exhaustive… L’intérêt de ce type de raccourci de recherche est
de permettre à l’internaute d’avoir une réponse instantanée à sa recherche tout en lui
laissant le choix d’accéder ou non à la page d’un des sites qui est mentionné en tant que
lien. Par exemple, Boursorama pour les cotations du titre de la société TF1.
Même si ce type de traitement est réservé aux sites institutionnels, il existe une autre
source de référencement : les définitions qui apparaissent quand, dans Google, on
utilise la fontion « define: ». Par exemple : « define: seo ».

137
METHODES D’OPTIMISATION « ON SITE »

Exemple définition directement présentée dans le résultat

Voici quelques conseils simples :

Différenciez le mot-clé à définir de la définition proprement dite en utilisant un


séparateur de type : ou -.
Utilisez des mots-clés comme définition, glossaire, lexique dans vos titres ainsi que
dans les noms de pages qui contiendront vos définitions.
Placez le mot-clé à expliquer ainsi que la définition dans le même paragraphe.
Mettez en gras le mot-clé à définir.
Arrangez-vous pour que chaque page contienne plus de 5 définitions.
Ne rédigez pas des définitions de plus de 145 signes (caractères et espaces). Cela
correspond généralement à une vingtaine de mots.

Il faut noter que le délai avant que vos définitions apparaissent dans les pages de
résultats de Google peut être très long.

8. Le référencement géolocalisé

Nous avons déjà vu que Google sait géolocaliser ses résultats puisqu’il connaît
l’adresse IP de l’internaute et donc, par déduction, l’emplacement où il se trouve.
Lorsque vous lancez une recherche comme hôtel, une OneBox affichera la liste des
hôtels situés près de vous.

138 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

Présentation de résultats géolocalisés dans Google

C’est donc le moment de travailler son référencement local (inscription dans les
annuaires ou portails régionaux, sites de recommandation, Mashups tournés vers la
géolocalisation, etc.). Il est aussi possible de créer une fiche Google Adresses
(http://www.google.com/local/add/businessCenter).
Ce service permet de créer une sorte de mini-site dont les résultats seront visibles
dans Google Maps mais aussi sur le moteur de recherche. Si vous avez pris la peine
d’envoyer des photos ou des vidéos, vous bénéficierez d’une visibilité qui vous offrira
un avantage non négligeable par rapport à vos concurrents.

Il existe d’autres bonnes pratiques dont voici une liste rapide :


Indiquez l’adresse de votre société ainsi que ses coordonnées téléphoniques sur les
pages de votre site ;
Ajoutez ces mêmes informations sur certaines de vos balises Titre et Description ;
Utilisez les API de cartographies offertes par Google Maps pour créer un plan
d’itinéraire de votre société ou une carte de vos succursales en France ;
Vous pouvez l’appeler « Itinéraire vers notre société », « Accès routier », etc.
Diffuser des informations géolocalisées sous la forme d’un fichier KML ou de
Mapplet ;

139
METHODES D’OPTIMISATION « ON SITE »

Créer un flux RSS qui soit géotaggé (flux GeoRSS) ;


Créer un plan Sitemap de vos fichiers géographiques dans les Outils pour Webmasters de
Google ;
Envoyer vos images géolocalisés sur des sites spécialisés comme Panoramio, Flickr
ou les Albums web de Picasa.

De plus en plus, les internautes ont tendance à « géolocaliser » leurs recherches :


plombier Paris, déménagement Rennes, grossiste Lille, etc. Imaginons qu’une société
de coiffure à domicile, basée à Nice, souhaite être présente sur ce type de requête :
coiffure domicile Cannes, coupe à la maison Antibes, etc. Une manière simple de
procéder est de créer autant de pages qu’il existe de communes dans le département
ou dans la région que vous souhaitez « couvrir ». Afin de dresser une liste des villes,
vous pouvez toujours accéder à la page de l’encyclopédie en ligne Wikipédia
consacrée à cette région. Par la suite, vous n’avez plus qu’à créer une page par cible
en ayant pris soin de :

Vérifier que l’adresse URL de la page soit pertinente et porte la mention de la ville
voulue ;
Créer des balises Meta Description qui soient à chaque fois différentes ;
Créer un titre différent pour chacune des pages ;
Varier le contenu des pages en utilisant des mots-clés qui ne soient pas toujours les
mêmes ;
« Enfoncer le clou » en reprenant la liste des principales communes dans le pied de
page du site ;
Pousser encore votre avantage en créant, par exemple, une page dédiée à un
département (Ile-et-Vilaine) puis, des pages pour chacune des villes (Betton, Bruz,
Fougères, etc.).

140 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

Voici un exemple de ce procédé :


Exemple du site maville.com

Intégration des balises sémantiques pour le commerce local


Voici les informations qu’il est possible de mettre en avant :
Description du point de contact (« support client », « support technique », etc.) ;
Coordonnées téléphoniques ;
Zones géographiques supportées ;
Détails sur le numéro de téléphone (« appel gratuit », …)
Langue parlée (« français », « anglais », …)
Sources : https://developers.google.com/webmasters/business-location-pages/ et
https://support.google.com/webmasters/answer/4620709

9. Optimiser le référencement de vos fichiers PDF et DOC

On peut dresser un comparatif entre Google et Bing mais, sans trop rentrer dans les
détails, ces deux moteurs indexent des métadonnées qui sont parfois différentes : Titre
- Sujet - Auteur - Mot-clé - Contenu textuel - Adresse URL.
Nous avons déjà vu que pour filtrer un type de fichiers dans Google, vous pouvez
utiliser un de ces deux opérateurs : ext: ou filetype:. L’opérateur filetype: est aussi
supporté par Bing.

141
METHODES D’OPTIMISATION « ON SITE »

Exemple de résultats présentant des fichiers pdf

Bien entendu, la même remarque s’applique aux documents au format « Office ».


Quand on examine les Snippets générés pour les documents PDF, Bing reprend le
début du contenu textuel du document alors que Google juxtapose des extraits qu’il
juge pertinent.

La première règle qui vient à l’esprit est donc d’imaginer comme première page, un
résumé court et descriptif sans image ni fioriture. Attention de travailler l’en-tête et
le pied de page car il y a de fortes chances que le contenu du premier soit aussi celui
qui sera repris dans le Snippet.
Si vous devez renseigner les méta données de vos fichiers, arrangez-vous pour utiliser
les mots-clés sur lesquels vous souhaitez vous placer.

Notez enfin que Google offre la possibilité aux internautes d’afficher un fichier PDF
comme une page web en cliquant sur le lien Version HTML. De manière assez
similaire, les utilisateurs de Bing peuvent utiliser le lien Page en cache.

10. Temps de chargement des pages et SEO

Google l’a annoncé depuis longtemps déjà : le temps de chargement de vos pages est
pris en compte dans le « Ranking » de votre site. A l’instar de ce qui prévaut dans
Google AdWords, vos pages de destination doivent, maintenant, s’afficher à la vitesse
de la lumière (ou presque !).
Cette question peut être examinée sous deux angles différents : les moteurs de
recherche et les internautes. Puisque l’on connaît maintenant la position de Google,
expliquons le second point…
Il existe beaucoup d’études qui permettent de mettre en corrélation, le temps de
chargement d’une page et le taux de rebond qui lui sera associé.
On estime généralement qu’au-delà de 4 secondes, une page aura toutes ses chances
contre elle…
Voici quelques chiffres fournis par les deux géants du « Search » :
Perdre 500ms, c'est aussi perdre 20% de trafic pour Google ;
Perdre 400ms, c'est avoir 5 à 9% de taux d'abandon supplémentaire pour Yahoo!.

142 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

Rappelons que l’abréviation ms signifie, dans ce contexte, millisecondes.


Amazon, quant à lui, a mis en évidence le fait qu’augmenter le temps de latence des
pages de 100ms générait une perte de chiffre d’affaires de l’ordre de 1%.

Des problèmes de lenteur entraînent, immanquablement, cette série de


conséquences :
Une expérience utilisateur déceptive ;
Une profondeur de visites moindre (moins de pages vues par visite) ;
Moins de revenus en ligne car moins d’engagement de la part des internautes.

Exemple d’un outil de benchmark de sites web : LinkVendor (http://www.linkvendor.com)

De fait, la vitesse est, maintenant, un facteur qui va vous permettre de fidéliser vos
visiteurs et les inciter à revenir sur votre site.
Et, en conséquence, ce critère fait partie d’une réflexion approfondie sur la « Web
conversion » : augmenter son trafic c’est une chose, c’en est une autre de le
« convertir » en rationnalisant et optimisant les ressources de son site web.
Il existe beaucoup d’outils qui permettent de mesurer et de mettre en évidence les
ralentissements survenus dans le chargement de vos pages : vous pourrez ainsi dresser
un diagnostic précis des faiblesses de votre site.
143
METHODES D’OPTIMISATION « ON SITE »

Par la suite, vous devez améliorer le temps de chargement (et d’affichage) de vos pages
en utilisant un très grand nombre de techniques éprouvées : optimisation d’images
(sans perte de qualité !), optimisation des feuilles de style CSS, meilleure gestion du
cache de vos serveurs, du cache des navigateurs, compression des fichiers de script,
etc.
Le temps de chargement des pages constitue un signal qui est pris en compte par
Google de la même façon pour les sites mobile que pour les sites classiques.

Rappelez-vous : la survie de votre e-entreprise dépend, en grande partie, de la rapidité


de vos pages !

11. Créer un moteur de recherche personnalisé

S’il existe des solutions avancées et « Corporate », Google propose également de


créer son propre moteur de recherche : http://www.google.fr/cse/. Grâce à un moteur
de recherche personnalisé, vous pouvez :
Intégrer l'aspect de votre site Web avec celui de la page des résultats de recherche ;
Définir des suggestions sur les pages de résultats afin d'aider les internautes à trouver
plus facilement les informations qu'ils recherchent ;
Créer un moteur axé sur votre métier ou votre domaine de compétence et ajouter
autant de sites que vous le souhaitez à l'index du moteur ;
Créer un moteur de recherche de manière collaborative avec d’autres internautes ou
personnes qui travaillent avec vous ;
Définir des priorités afin de, par exemple, mettre en avant les résultats de votre site
par rapport aux autres sites que vous avez intégrés dans l’index ;
Mettre en avant certains résultats ;
Créer un moteur de recherche en Ajax ;
Définir des listes de synonymes afin d’améliorer les performances de votre moteur.

Il faut également signaler que l’intégration de Google Analytics avec les recherches
personnalisées permettent maintenant de savoir ce que les internautes ont recherché
sur votre site et, en conséquence, de mieux comprendre leurs attentes et leurs besoins.
Cela peut être une page qui n’est pas assez exhaustive, un produit ou un service auquel
vous n’aviez pas pensé, un nouveau sujet d’article, etc.

144 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « ON SITE »

Un moteur de recherche personnalisé, une fois qu’il a été mis dans la perspective des
métriques, est une source inépuisable d’enseignements. Enfin, c’est une vraie valeur
ajoutée qui est apportée à votre site et au confort de navigation des internautes.

12. Avant de mettre en ligne votre site

Ce mémento est inspiré d’un article de « Strategic Web Usability » :


Accessibilité :
Les temps de téléchargement sont-ils corrects ?
La couleur du texte est-elle en accord avec celle de l’arrière-plan ?
La taille de la police et l’espacement sont-ils suffisants ?
Les animations Flash sont-elles utilisées avec parcimonie ?
Les images ont-elles toutes des balises Alt appropriées ?

Identité de votre société et de vos marques :


Le logo de votre société est-il suffisamment mis en valeur ?
Les activités de votre entreprise sont-elles clairement expliquées ?
Le contenu de la page d’accueil est-il identifiable en moins de 5 secondes ?
Les informations de contact sont-elles mise en évidence ?

Navigation :
La page principale est-elle rapidement accessible ?
Les menus de navigation sont-ils clairs et bien adaptés ?
Le logo de la société renvoie t-il sur la page d’accueil ?
Les liens sont-ils compréhensibles et clairement identifiés ?
Le formulaire de recherche propre au site est-il directement accessible ?

Contenu :
Les titres principaux sont-ils clairs et descriptifs ?
Le contenu important est-il situé dans la partie supérieure de la fenêtre ?
Le style du site est-il homogène d’une page à l’autre ?
Les balises d’emphase (gras, …) sont-elles utilisées à bon escient ?
Le contenu textuel est-il clair et concis ?
Les adresses URLs sont-elles « Google et User Friendly » ?
Les titres de vos pages sont-ils descriptifs ?

Bien entendu, cette liste n’a rien d’exhaustif mais elle constitue déjà un bon début !

145
TROISIEME ETAPE :
METHODES D’OPTIMISATION « OFF SITE »
METHODES D’OPTIMISATION « OFF SITE »

Le référencement devient une activité transversale dans une entreprise. Il ne concerne


plus seulement le webmaster et le marketer. Le service de communication, l’équipe de
rédaction, le chargé d’affiliation : tous sont concernés par le référencement.

Chapitre 1 : Net linking

A l'image de Google, qui utilise le PageRank pour classer ses sites, la popularité est un
des éléments majeurs pour un bon classement dans les moteurs de recherche.

1. Importance du net linking

1.1. PageRank
Critère utilisé par Google dans le classement des résultats de recherche, il tient son
nom de Lawrence Page, son créateur et l’un des fondateurs de Google. Pas moins de
100 variables seraient utilisées dans le calcul du PageRank. Lawrence Page s’est
inspiré d’une méthode de classement utilisée pour les documents scolaires. Plus un
document est cité, plus son importance ou sa valeur augmente pour le système.
L’augmentation de cette valeur permet de le retrouver plus facilement lors d’une
recherche ultérieure. Appliquée sur le Web, cette méthode met en avant les pages Web
détenant plus de liens vers leurs contenus. Ce système est particulièrement adapté au
Web où les liens hypertextes relient les sites entre eux.

Formule de calcul du PageRank sur le site de l’université de Stanford :


PR(A) = (1-d) + d (PR (T1) /C (T1) +…+d (PR (Tn) / C (Tn)

La formule d’origine du PageRank se trouve sur le site de l’université de Stanford :


http://www-db.stanford.edu/~backrub/google.html
Pour Google tous les liens ne sont pas de même valeur. Plus le site source fournissant le
lien dispose d’une forte notoriété, plus ce lien aura de la valeur et apportera des points
au site recevant le lien hypertexte.
Avec la barre de recherche de Google, il est possible de comparer le PageRank de chaque
site. Elle fournit la note allouée par Google à chaque page du site. Cette notation est graduée
de 0 à 10.
Au fur et à mesure de son existence, le PageRank s’est développé, en particulier pour
s’adapter aux techniques de spam développées sur les moteurs.

148 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

Afin d’éviter toutes les dérives de spam consistant à augmenter artificiellement cette
note, Google ne présente plus qu’un chiffre global, mis à jour moins régulièrement que
le vrai PageRank gardé secret par Google.

Page de téléchargement de la barre de recherche de Google

De la même manière que Google, d’autres moteurs ont élaboré un système permettant
de calculer la popularité d’une page en fonction des liens pointant sur cette dernière.

1.2. Popularité et moteurs de recherche


Comme vu précédemment, tous les liens n’ont pas la même valeur, et certains peuvent
faire courir le risque d’un déréférencement des moteurs. Une page n’ayant aucun lien
d’entrée fait figure d’une île déserte, perdue au milieu d’un océan. Seuls quelques
visiteurs – alertés de son existence par un tiers – arriveront à trouver cette dernière.

Les liens permettent aux internautes de naviguer d’un site à un autre, sans recourir aux
moteurs de recherche.

149
METHODES D’OPTIMISATION « OFF SITE »

Les moteurs, après avoir prôné la popularité, se sont ensuite tournés vers la notion de
notoriété. L’importance donnée dans le classement des moteurs à ce critère de
popularité peut se mesurer avec des résultats plutôt amusants : pendant quelques
années, il était possible de trouver en première place de Google sur la requête
« miserable failure » la biographie de Georges W Bush. Une première place
entièrement acquise grâce aux millions de liens créés par des internautes avec le lien
texte « miserable failure » amenant à la page de biographie du président américain.
Ce détournement du PageRank, nommé Google Bombing, consiste à jouer avec le
facteur de popularité en créant massivement des liens vers une page, généralement à
des fins satiriques. D’autres Google Bombing avaient notamment ciblé Nicolas
Sarkozy, Jacques Chirac ou encore Rachida Dati.
Ces affaires ayant fait grand bruit, le moteur de recherche a revu certains de ses
critères pour atténuer l’effet du Google Bombing.
En termes d’optimisation, vouloir améliorer ce critère demande un dosage précis :
avoir trop de liens de mauvaise qualité pointant vers son site risque de le décrédibiliser.
Un nombre insuffisant de liens peut en revanche ne servir à rien. En favorisant une
politique de netlinking, le détenteur prend le risque de voir ses visiteurs partir sur les
sites partenaires mais aussi d’être associé à une pratique de « link farm ».

Exemple de Google Bombing, lorsque « miserable failure » renvoyait sur la biographie de George W Bush

150 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

Exemple du cache de Google sur le Google Bombing de Nicolas Sarkozy avec Iznogoud

Note : contrairement à une idée reçue, Matt Cutts a expliqué, en novembre 2013, qu’il
était tout à fait possible de proposer, sur une page web, plusieurs centaines de liens
sortants. Bien entendu, cela n’empêche pas qu’on veuille limiter la dilution du
Pagerank en diminuant le nombre de liens !
1.3. E-reputation
Sociétés, individus, produits, marques… les documents visibles sur le Web sont
souvent compulsés en ligne par des internautes en recherche d’informations. Pour
surveiller ce qui se dit sur sa société, sur soi ou encore les dernières rumeurs autour
d’un produit, l’outil de Google Alertes devient vite incontournable. Il est possible de
créer une alerte par mail informant régulièrement des derniers résultats intégrés dans le
moteur traitant d’un sujet précis.
Face aux communautés qui se créent sur le Web, la gestion de la réputation sur Internet
devient un métier à part entière, obligeant les sociétés à surveiller les rumeurs, défendre
leur image et maîtriser leur notoriété.
Pour aider dans la surveillance de sa marque
l’outil Google Alerts peut s’avérer très utile.

Exemple d’une création d’alerte dans Google

151
METHODES D’OPTIMISATION « OFF SITE »

2. Comment acquérir un lien ?


Il existe différentes méthodes d’acquisition de liens.

Demander des liens


Il s’agit de la méthode la plus répandue. Après une étude préalable du marché
permettant de cibler les partenaires idéaux, le détenteur d’un site demande à chacun des
sites sélectionnés de faire un lien vers son contenu.
Trier les sites partenaires est important. Notamment, il faut examiner la réputation des
sites vers lesquels pointent les liens. Si un des sites partenaires ne répond pas aux règles
des moteurs, les sites en lien direct avec ce dernier peuvent également être pénalisés.
Par ailleurs, les sites doivent évoluer dans une thématique connexe, sans être, bien
évidemment, en concurrence directe.
Cette opération peut prendre du temps et nécessite un suivi dans l’acceptation des
demandes. Généralement, on ne choisit pas où figurera le lien et dans quel contexte. Le
lien peut ainsi être noyé dans une page de liens partenaires, et dans ce cas, il
n’apportera que peu de valeur.

Rédiger des articles


Plus complet qu’une simple demande, la rédaction d’un article permet de fournir aux
sites partenaires un contenu présentant un ou plusieurs de ses services. Cet article
pourra être repris intégralement ou partiellement. Si l’article est suffisamment
informatif, il sera réutilisé plus facilement par les sites partenaires, en général avides de
contenu. Il ne faut bien sûr pas oublier de demander ou d’insérer un lien actif dans ce
contenu.

Utiliser les programmes d’affiliation


Programme payant, l’affiliation consiste à payer les liens amenant vers son site. En
général, le paiement se fait en fonction de la conversion. Attention car les liens
fonctionnant avec un script de redirection ne seront pas pris en compte par les moteurs
! Une récente polémique autour des liens payants a bousculé les habitudes de certains
acteurs. En effet, afin de limiter les abus, les moteurs, et en particulier Google, ont
sanctionné certains sites commercialisant des liens. Cette dernière affaire n’a
cependant pas touché le business de l’affiliation, les moteurs ne sanctionnant pas ce
type de liens payants.

152 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

Profiter de son propre réseau


Les liens réalisés entre une galaxie de sites appartenant au même détenteur restent une
solution acceptée par les moteurs, à la condition où il n’y ait pas d’abus.
Pour que ce maillage entre sites Web soit efficace, il est préférable que les sites
communiquant les uns vers les autres soient hébergés sur des serveurs Web différents.

Utiliser les outils du Web 2.0


Blogs, partages de favoris, Digg like, sites de communiqués de presse, partages de
vidéos, de présentations, de photos, réseaux sociaux professionnels, sites
communautaires… ils peuvent être utilisés pour faire parler de vos produits ou services
et créer des liens vers votre site Web.
Quelques exemples de liens Web 2.0 qu’il est possible de mettre en place assez
facilement :

Uploader ses vidéos d’entreprise (tutoriaux, clip commercial, lancement de produits,


etc.) sur Youtube ou Dailymotion ;
Uploader ses photos de produits / services sur Flickr.com ;
Proposer l’accès à ces présentations d’entreprise sur SlideShare.com ;
Créer un blog d’entreprise à partir d’une plateforme type Wordpress ;
Mettre en ligne ses communiqués de presse sur des plateformes tels que
presse-fr.com ou prweb.com ;
Soumettre son actualité aux sites de Digg like tels que digg.com ou fuzz.fr ;
Créer un profil société sur des services comme Viadeo, LinkedIn, Twitter, etc..
Dans tous ces cas, il convient de soigner au mieux la présentation de ces liens, c'est-à-
dire avoir le bon texte de lien pour décrire le contenu de la page et les faire figurer sur
une page à valeur ajoutée, disposant de préférence d’un bon PageRank.
2.1. Créer des liens vers l’extérieur
Comme pour les liens entrants, un site doit soigner la présence de liens renvoyant sur
des sites partenaires. Ces derniers ne semblent pas avoir d’influence directe sur le
classement d’un site. A noter également qu’un site ne présentant que des liens entrants
et aucuns liens sortants peut paraître suspect pour les moteurs. Il faut savoir jouer sur
deux tableaux.

153
METHODES D’OPTIMISATION « OFF SITE »

Les liens externes peuvent servir aux visiteurs souhaitant s’informer plus précisément
sur un secteur. Pour les moteurs, de tels liens indiquent clairement l’environnement
dans lequel évolue le site et ils localisent plus facilement sa place sur le marché.

Comme pour les liens entrants, lors de la création de liens vers l’extérieur, il est
préférable de suivre quelques principes :

Penser à la pertinence lexicale


Les liens doivent indiquer au moteur le contexte du site. Un lien entre un fleuriste et
une jardinerie se comprend. En revanche, entre un magasin de prêt-à-porter et un
garagiste, le lien ne sera pas pertinent pour un moteur de recherche.

Optimiser la lisibilité
Des pages remplies de liens peuvent gêner les visiteurs lors de la navigation et nuire à
la lisibilité de la page. D’un point de vue ergonomique, mieux vaut se limiter à trois ou
quatre liens par article.

Travailler le texte du lien


Mieux vaut mettre des mots-clés le plus souvent possible à la place du texte « cliquez
ici », ce qui permettra aux robots des moteurs de mieux classer le lien sortant.

Eviter les pages dédiées aux liens externes


Une page contenant trop de liens externes peut être ignorée par les moteurs, ces
derniers la considérant comme ayant peu de valeur ajoutée.

Gérer de manière « intelligente » l’attribut « nofollow »


Cette balise permet d’indiquer, aux moteurs de recherche, que le lien, qui est visible
dans une page d’un site web, ne doit pas être exploré… La structure d’un tel lien est la
suivante : <a href="http://www.exemple.fr" rel="nofollow">
Voici les utilisations possibles :
Liens payants : permet d’éviter une pénalité de la part de Google ;
Commentaires : permet d’éviter la multiplication de liens sortants « toxiques » et
donc une pénalité ;
Contenu généré par les utilisateurs : même remarque que précédemment.

2.2. Ce qu’il faut éviter


Comme pour l’optimisation de son site, il existe certains pièges à éviter pour ne pas
perdre de place dans son classement.

154 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

Faire attention aux liens brisés


Mieux vaut, parfois, n’avoir aucun lien plutôt que des liens cassés. Ceux-ci peuvent en
effet donner une mauvaise image aux visiteurs, comme aux moteurs.
L’utilitaire Xenu's Link Sleuth est un outil permettant d’identifier facilement les
différents liens cassés sur un site Web.

Présentation de Xenu

Refuser de participer de près comme de loin à une ferme de liens


En anglais « link farm ». Une ferme de liens regroupe des sites cherchant des
programmes d’échanges de liens. Cette technique est aujourd’hui pénalisée par les
moteurs, voyant là un stratagème pour augmenter artificiellement la popularité d’un
site.
De la même manière, il est conseillé de faire attention aux demandes générées par des
logiciels de liens qui envoient une demande de création de liens automatiquement par
mail. Il est toujours préférable de favoriser le travail humain, plus pertinent et
qualitatif.

Forcer les liens auprès des bloggeurs ou des forums


Se créer une mauvaise réputation sur le Web peut être très rapide. Mieux vaut soigner
ses relations extérieures et ne pas témoigner d’un esprit trop commercial sur la
blogosphère.

155
METHODES D’OPTIMISATION « OFF SITE »

3. Cross-linking efficace

Une opération de netlinking doit être la plus naturelle possible. Si un site fait un lien
vers d’autres sites, avec des liens entrants provenant uniquement de ces mêmes sites,
les moteurs pourront considérer cette technique comme « étrange ».

3.1. Schémas de liens à éviter


liens avec retours automatiques

liens circulaires

Un site doit donc présenter des liens sortants et des liens entrants ne provenant pas
forcément d’une même galaxie d’acteurs.

Voici un exemple de schéma classique de netlinking naturel :

156 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

Une stratégie de netlinking prend du temps. La qualité des liens est à préférer à la
quantité. Lors de l’établissement de ces liens, mieux vaut penser avant tout à son
contenu.

Par ailleurs, les liens ne doivent pas tous amener vers la page d’accueil, mais desservir
les grandes rubriques du site, ce qui permet de mieux disséminer la popularité sur
l’ensemble des pages de son site.

3.2. Liens internes


Les robots, comme les internautes, naviguent de lien en lien. Relier toutes les pages
d’un site permet une bonne distribution et assure à l’intégralité des pages d’être
repérées par les robots.

Comme pour les liens externes, les liens internes sont plus facilement compris par les
moteurs lorsqu’ils sont au format texte. Se contenter du menu et du plan de site pour
lier les pages entre elles ne suffit pas. Ces dernières doivent se lier par le biais d’articles
renvoyant vers d’autres pages du site. La newsletter par exemple est un bon moyen de
renvoyer ses visiteurs sur les différents contenus de son site.

Les moteurs peuvent détecter les liens internes via trois moyens :

Une adresse IP approchante


Même si des sites d’un même réseau présentent un nom de domaine totalement
différent, leur adresse IP sera similaire, étant donné que l’hébergement de ces sites sera
commun.

Whois similaire
Lors de l’enregistrement du nom de domaine, les sociétés laissent des informations
dans une base accessible à tous. Si ces informations présentent le même nom de
déposant, la même adresse et un numéro de téléphone identique, les moteurs de
recherche classeront ces liens comme internes.

Un texte de lien identique


S’ils sont répétés à l’excès avec le même texte et la même présentation, des liens
présentés de manières similaires sur différents sites peuvent être considérés comme
une manipulation pour les moteurs, qui estiment que plus les liens sont variés, plus ils
sont dits « naturels ».
157
METHODES D’OPTIMISATION « OFF SITE »

4. Mesurer la qualité d’un Backlink

Schématiquement, on peut dire que la qualité d’un lien entrant est fonction de
l’autorité du nom de domaine (TrustRank) émetteur du lien. Moins ce dernier est
susceptible d’avoir des pratiques douteuses en termes de référencement, plus le lien
que vous recevrez possèdera, aux yeux des moteurs, de la valeur.

Pour les moteurs de recherche, les liens externes (provenant d’un site différent du
vôtre) ont plus d’importance que les liens internes (les pages qui, à l’intérieur d’un
site, font un lien vers une autre page). Néanmoins, les liens internes sont une manière
efficace d’attribuer une priorité à certaines pages de votre site au détriment des autres.
Si une page de votre site Web est essentielle parce qu’elle représente une part
significative de votre activité, vous devez privilégier sa visibilité auprès des
internautes et des moteurs de recherche en créant un maillage efficace de liens vers
cette page. A contrario, une page moins stratégique ne devra pas bénéficier d’un tel
traitement de faveur (en termes de liens).

Le PageRank de la page qui fait un lien vers une de vos pages est essentiel. On dit
souvent qu’il vaut mieux un lien provenant d’une page possédant un fort indice de
popularité que plusieurs liens provenant de pages moins bien notées.

La diversité des sources est importante. La multiplication de liens provenant du même


domaine est moins efficace que des liens entrants issus de domaines diversifiés.

Les moteurs de recherche déploient différentes méthodes pour déceler, dans un


échange de lien, une relation qui n’est pas tout à fait « naturelle » :
Des échanges de liens systématiques entre deux ou plusieurs sites ;
Des noms de domaine très proches ;
Des adresses IP qui montrent que les domaines sont hébergés sur le même serveur ;
Des informations de Whois identiques.

Le texte qui sert d’ancre au lien doit être efficace d’un point de vue sémantique. Par
exemple, le lien sur “cet article” dans l’expression “cet article sur les feuilles de style
CSS”, est moins pertinent et efficace qu’un lien sur “feuilles de style CSS” si l’on
souhaite voir son site positionné sur l’expression “feuilles de style CSS”.

158 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

L’emplacement du lien rentre aussi en ligne de compte. Un lien contenu dans le corps
de la page ou de l’article aura forcément plus d’impact que ceux visibles dans les
volets de droite ou de gauche et qui contiendraient, par exemple, une liste de blogs
« amis » (Une Blogroll).
La page qui fait un lien vers la vôtre doit traiter de la même thématique. Inutile, par
exemple, d’obtenir un lien de la part d’un site spécialisé dans la vente de chaussures
si le vôtre parle de négoce de café ou de services auprès des entreprises
pharmaceutiques.
La localisation géographique de la page émettrice de lien aura un impact sur la future
légitimité de la page liée. En admettant que vous développiez un service particulier
à une région de France, des liens provenant de sites offrant des informations en termes
de proximité géographique (annuaires régionaux, mention d’une adresse précise, etc.)
joueront en votre faveur.
La présence du Tag rel="nofollow" a été adoptée par Google en 2005. Concrètement,
il spécifie au robot du moteur de recherche de ne pas suivre le lien qui est marqué de
cette manière. En bref, la page émettrice de lien ne transmet pas à la page cible un peu
de son PageRank (ou de son autorité). Pour l’instant, les experts débattent encore de
savoir si les moteurs, et Google en particulier, suivent au pied de la lettre cette
directive ou, dit de manière un peu triviale, s’il n’existe pas des « fuites de
PageRank ».
Il existe trois principaux types de liens : texte, image et JavaScript. A priori, les liens
de type Texte sont les plus efficaces ; suivis des liens sous forme d’image et ce en
tenant compte des mots-clés qui sont présents dans la balise Alt. Les liens JavaScript
ferment la marche et sont bon derniers du point de vue de leur valeur.

Voici une liste des critères qui vous permettent de juger de la qualité d’un
« backlink » :
Pagerank de la page émettrice du lien ;
Autorité du domaine par rapport à sa thématique métier, produit ou de contenu (à ne
pas confondre avec la popularité du site !) ;
Indice de confiance du site et nombre de liens entrants vers ce site (notion de
réputation du domaine) ;
Emplacement des liens : plus un lien est placé dans un contenu intéressant, plus
grande sera son influence) ;

159
METHODES D’OPTIMISATION « OFF SITE »

Nombre de liens sortants de la page : plus la page contient de liens sortants, moins
grande sera l’efficacité de ces mêmes liens ;
Adéquation entre le domaine qui fait le lien et votre domaine (similarité en termes de
thématique métier ou d’univers produit) ;
Qualité et pertinence du texte qui sert d’ancre ;
Qualité et pertinence du texte qui entoure le lien ;
Absence de la balise « Nofollow ».
Les tactiques les plus utilisées pour obtenir des liens entrants sont les suivantes :
Relations presses digitales,
« Guest blogging » (partenariat rédactionnel sur un blog),
Campagnes de marketing de contenu,
Infographies,
Échange de liens avec d’autres sites,
« Broken link building »

La technique du « broken link building » consiste à proposer à un webmaster


d’utiliser votre contenu pour corriger ses liens brisés.

5. Mener un audit de liens efficace

Qui fait des liens vers son contenu ? L’analyse de ces liens entrants éclaire sur la
visibilité dont dispose le site. En plus de logiciels spécialisés dans le suivi du
référencement, certaines commandes listent les principaux acteurs ayant produit un
lien vers son contenu.

Pour Google :
link:http://www.monsite.com/
liste les pages principales ayant produit un lien vers son contenu

Pour Yahoo! :
link:http://www.monsite.com/ado/
liste les pages principales ayant produit un lien vers le contenu d’une page

site:www.monsite.com ou site:monsite.com
liens externes amenant sur le contenu d’une page

160 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

linkdomain:www.monsite.com
liens externes amenant sur la totalité du site

La commande « inanchor » vient compléter la liste. Elle est utilisée pour vérifier le
nombre de liens existant avec une expression définie.

Par exemple : "inanchor:voiture de sport site :monsite.com".

Cette requête permet de savoir quelles sont les pages Web qui font un lien vers le site
monsite.com à partir d’un lien hypertexte contenant l’expression « voiture de sport ».

Il est à noter que Yahoo! semble être l’un des moteurs les plus performants à détecter
les liens externes pointant vers une page donnée.

Le logiciel Linksurvey, accessible à cette adresse :


http://www.antssoft.com/linksurvey/index.htm, permet de connaître les sites et pages
Web pointant vers un site web donné à partir d’informations issues de Google, Yahoo!,
MSN, etc.
Il permet en outre de repérer les « anchor text » intéressants pour savoir, d’une part, qui
parle de soi sur le Web et d’autre part, pour assurer une veille concurrentielle (c’est un
exemple). L’outil détaille tous les liens entrants sur son site, compare ces liens avec
ceux de la concurrence et met en avant les secteurs possibles où l’on peut créer des
liens.
Présentation de Linksurvey

161
METHODES D’OPTIMISATION « OFF SITE »

Chapitre 2 : Marketing online

La maîtrise de sa communication offre à une société des forces supplémentaires dans


la conquête d’un marché. Que ce soit auprès des clients ou des partenaires, disposer du
bon discours les fidélise et permet d’élargir le rayonnement et la notoriété de la
marque.
Cette communication peut être profitable au référencement et l’opération peut être
mise en cohérence avec son besoin de visibilité.

Rédiger des communiqués de presse online


Soigner son image dans la presse peut être bénéfique pour le référencement. Avec des
journaux en ligne généralement bien cotés par les moteurs, un lien placé dans une
publication peut assurer au site une bonne exposition. Maintenir régulièrement la
presse au courant de l’actualité de sa société, des nouveaux services développés, des
dernières promotions ou des innovations en cours offre, à son site web, un plus en
termes de notoriété.

Utiliser les blogs


La communauté de bloggeurs sur le Web ne cesse de s’agrandir et leur influence
continue de s’étendre, notamment sur les moteurs. Certains bloggeurs spécialisés
peuvent reprendre des articles ou des informations sur la société dans leur rubrique.
Cette méthode peut apporter non seulement du trafic mais ce lien peut également peser
lourd dans le référencement, si le blog dispose d’une forte notoriété. Seul risque lié à la
communication sur les blogs : il est impossible d’influencer le contenu des articles
rédigés par des bloggeurs.

Se placer en tant qu’expert dans son secteur


C'est-à-dire interagir dans son secteur, par exemple par le biais des forums quand c’est
possible. Ainsi dans le secteur automobile, de nombreux forums se sont créés. Il est
toujours possible pour un carrossier d’intervenir dans les différentes discussions. En
offrant des conseils ou encore des informations, la société peut passer pour un membre
respecté du forum et dans le même temps, cette expertise fera gagner en notoriété
auprès des autres membres des forums.
Attention toutefois à être transparent et à ne pas chercher à cacher sa position de
professionnel. Tant que la société ne cherche pas à véhiculer un discours commercial,
une intervention d’un professionnel est toujours bienvenue dans les forums.

162 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

Exemple de forum dédié à l’entreprenariat

Source : http://forums.entreprises-commerces.fr

Attirer l’attention sur son site


Créer un contenu suffisamment intéressant pour attirer naturellement les liens sans
avoir à les demander. Lors de la création de contenu, mieux vaut donc prévoir en amont
des landing pages à haute valeur ajoutée. Grâce à des informations uniques, des
produits ou des services authentiques, un site peut s’attirer les faveurs des internautes
qui n’hésiteront pas à présenter le site sur leur page.

163
METHODES D’OPTIMISATION « OFF SITE »

La montée en puissance des réseaux sociaux


Une étude réalisée par la société Sharehaolic, et datant de décembre 2013, montre que
le trafic généré par les moteurs de recherche a baissé depuis un an alors que celui fourni
par les réseaux sociaux a été multiplié par deux (de novembre 2012 à novembre 2013) :
Moteurs de recherche : de 42% à 39% ;
Réseaux sociaux : de 11% à 24%.
Concernant les réseaux professionnels :
28% de la population active française étaient, en octobre 2013, inscrits sur Viadeo ;
65% des cadres utiliseraient ce réseau ;
Viadeo, c’est 8 millions de membres et 4.4 millions de visiteurs uniques en France ;
(Sources : Harris Interactive et Médiamétrie – Mars 2014)
D’après Quantcast, LinkedIn compterait, en février 2014, 6 millions d'utilisateurs
actifs en France.

Il existe au moins deux façons d’utiliser les réseaux sociaux :


Comme outil de promotion d’une marque, de produits ou des services et de manière
« off site » ;
Comme vecteur de fidélisation, levier de conversion ou/et de transaction et de façon
« on site ».

Qu’est-ce que nous entendons par là ? Les leviers « off site » consistent à occuper
le terrain et à retrouver les internautes là où ils se trouvent : Facebook, Twitter,
Google+ Viadeo, LinkedIn, YouTube, etc.

164 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

Devenez fan de Kiabi…

Les avantages sont nombreux :


Renforcer votre image de marque et mieux communiquer ;
Développer un pôle d’expertise afin d’initier des démarches commerciales en deux
temps ;
Créer des plates-formes de conversation sociale qui rapprochent votre marque des
internautes ;
Susciter la génération de pistes commerciales ;
Recruter de manière plus efficace ;
Faire de la veille ou développer des systèmes d’information performants ;
Renforcer votre prédominance dans les moteurs, et ce, notamment, sur les requêtes
de notoriété.

Bien entendu, cette liste est loin d’être exhaustive !


Un des autres intérêts des réseaux sociaux est qu’ils proposent un grand nombre
d’outils à installer sur vos sites web.

165
METHODES D’OPTIMISATION « OFF SITE »

L’Open Social Graph expliqué par Facebook (Source : Facebook)

Pour quel intérêt et quels objectifs ? C’est simple : profiter de la puissance de feu de
sites comme Facebook pour vous permettre de :
Vendre plus ;
Susciter des commentaires clients et l’émergence d’une FAQ collaborative ;
Faciliter les processus d’inscription sur votre site ;
Susciter l’adhésion des internautes à votre marque ;
Faciliter la diffusion de vos contenus sur le Web et, indirectement, leur rang à
l’intérieur des Serps.

De nouvelles activités, de nouveaux métiers et d'autres techniques marketings voient


le jour : « Community Manager », « Social Media Optimization », « Web marketing
2.0 », « Campagnes virales », « Marketing de rue », etc.

166 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

Facebook
Plus d’1 milliard d’utilisateurs (réels) dans le monde ;
28 millions d’utilisateurs en France, 17 millions sur mobile ;
11 millions d’utilisateurs quotidiens via mobile ;
Les utilisateurs quotidiens se connectent en moyenne 14 fois par jour à l’application ;
Facebook représente 1 minute sur 5 du temps consacré à l’utilisation d’applications
mobiles ;
14% des utilisateurs français affirment avoir acheté un cadeau après l’avoir vu dans
leur fil d’actualité Facebook ou Twitter.
(Source : Facebook – Novembre 2013)

Facebook est bien plus qu’un réseau social : pour les marques, c’est une formidable
tribune pour faire du « Branding », renforcer son modèle RFM et déployer des
stratégies d’acquisition clientèle. En ce sens, on parlera plus justement de média
social…

Et les Fan Pages sont l’outil idéal permettant aux sociétés de créer une sorte de mini-
site web presque complètement personnalisable et même faire du e-commerce (le
f-commerce).

Une des particularités du moteur de recherche de Facebook est que l’on s’en sert moins
pour trouver de nouvelles marques que pour retrouver celles que l’on connait déjà. De
fait, la marque doit tisser des liens forts avec ses fans pour pouvoir bénéficier d’un bon
Ranking à l’intérieur de ce moteur de recherche qui fonctionne, avant tout, par
affinités.

167
METHODES D’OPTIMISATION « OFF SITE »

La page Facebook de Barack Obama

Par ailleurs, les leviers de progression sont à trouver dans les mécanismes viraux
propres à Facebook : c’est parce que vos fans vont relayer vos contenus qu’ils seront
visibles dans les fils d’actualités de leurs amis et que ces derniers, à leur tour, les
diffuseront auprès de leur communauté. Cet effet « boule de neige » rappelle aussi le
mécanisme des cercles concentriques qui se forment quand on fait ricocher une pierre
sur l’eau.

En ce sens, les stratégies d’acquisition sont très différentes de celles que l’on peut
déployer sur les autres médias qui reposent plus sur le marketing d’interruption.
Les nombreuses fonctionnalités de Facebook peuvent aussi s’utiliser en dehors de
Facebook : les boutons J’aime, Recommander, Envoyer, la Like Box, le bouton
Facebook Connect, le module de commentaires, de recommandations, etc.

168 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

Exemple d’intégration du bouton « Partager » sur le site de l’Express

C’est, dans ce cas, une opportunité pour :


Viraliser ses contenus web ;
Prolonger des campagnes de communication digitale ;
Personnaliser l’expérience utilisateur et augmenter le taux de transformation de son site web ;
Créer des bases de données extrêmement qualifiées et précises de ses prospects et clients.

Il est nécessaire, pour les entreprises, de mettre en place des stratégies de présence
pérennes sur les médias sociaux et de profiter de toutes les possibilités offertes par le
SMO (« Social Media Optimization »).

Twitter
Twitter est, à beaucoup d’égards, un média incontournable :
232 millions d’utilisateurs actifs mensuels (Peerreach – Février 2014) ;
5.5 millions d’utilisateurs en France (Peerreach – Février 2014) ;
79% des twitternautes ont entre 15 et 34 ans (Twitter – Février 2014) ;
41.6% sont des CSP+ (19% de cadres supérieurs) (Twitter – Février 2014) ;
13% des comptes auraient envoyé plus de 100 tweets - 56% des comptes créés n’ont
jamais publié de tweet (Wall Street Journal – Avril 2014) ;
49% des utilisateurs de Twitter interagissent avec un programme TV en live (SNPTV
- Mars 2014) ;
68% des membres utilisent un mobile pour accéder à Twitter (Twitter – Février
2014).
169
METHODES D’OPTIMISATION « OFF SITE »

Selon une étude de Compete (Juin 2011), 17 % des utilisateurs tweetent des messages
qui portent sur le programme télévisé qu'ils sont en train de regarder. Plus
classiquement, 61 % des utilisateurs de Twitter lisent les tweets, 39 % y répondent,
35 % retweetent, 28 % envoient des messages privés (« DM ») et 24 % regardent
quels sont les sujets de conversation du moment.

56 % des internautes qui suivent une marque sur Twitter se déclarent « plus
susceptibles » à acheter un produit de cette marque. Ils sont aussi plus enclins à
recommander un produit d'une marque qu'ils suivent que lorsqu'ils sont sur Facebook.
Selon cette même étude, Twitter est la plate-forme sociale préférée des internautes
désireux de s'informer sur les nouveautés « produits ». Enfin, Twitter serait plus
efficace que Facebook pour inciter ses utilisateurs à acheter.

Avec Twitter, vous allez toucher un public possédant une excellente culture web, à la
fois « Geek » et « Early-adopter ».

Les entreprises l’utilisent pour se positionner comme étant le référent sur leurs
secteurs de prédilection, faire de la relation clientèle, fidéliser leurs membres les plus
actifs (les ambassadeurs), prolonger des campagnes de relation presse digitale (les
prescripteurs) et relayer leurs offres réservées : jeu-concours, promotions, soldes, etc.

La page Twitter d’Adobe

Entre outil de veille,


vecteur de
référencement et
marketing direct,
Twitter est une sorte
de couteau suisse
qui, à partir du
moment que votre
audience utile est
présent sur ce
média, vous
permettra d’optimiser vos campagnes e-marketing.

170 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

Google+
Les marques peuvent aussi être présentes sur Google+ et les objectifs sont nombreux :
Profiter de la personnalisation des Serps ;
Utiliser les possibilités offertes par les balises Authorship et Publisher ;
Faire partie des articles de fond ;
Anticiper sur l’inévitable croissance de Google+.
Si le fonctionnement des pages Google+ est très similaire à celui de Facebook, deux
outils ont une vraie valeur « SEO »…

La balise « Authorship »
La balise Authorship permet d’afficher la photo de l’auteur d’une page web dans les
Serps.
Intégration de la balise « Autorship » dans les Serps

Oui ! Mais quels sont les avantages ?


Une augmentation du taux de clics de 150% (Catalyst – Janvier 2013) ;
Plus grande visibilité donnée aux liens visibles dans les Serps ;
Plus de pages vues.

De quoi est composée la balise Author ?


Nom de l’auteur qui fonctionne comme un lien cliquable,
Nombre de personnes qui ont ajouté l’auteur dans leurs cercles Google+,
Affichage des autres pages qui ont été rédigées par l’auteur.
171
METHODES D’OPTIMISATION « OFF SITE »

Il existe deux méthodes d’implémentation :


Technique du lien de contenu avec comme préalables :
Nom de l’auteur sur la page (signature),
Nom de l’auteur lié au profil Google+,
Lien vers le profil incluant le paramètre rel=Author,
Lien vers le site web dans la rubrique « contributeur » de votre profil Google+.

Méthode de l’adresse email et ses conditions :


Nom de domaine et adresse email identiques,
Nom de l’auteur sur la page (signature),
Soumission de votre email à ce formulaire : https://plus.google.com/authorship?hl=fr.

Voici les points supplémentaires auxquels il faut prêter attention :


Le nom de l’auteur du contenu doit être similaire au nom indiqué sur le profil Google+,
La photo de l’auteur doit être claire et centrée sur le visage.

En cas de problème, vérifiez l’implémentation de la balise Authorship avec l’outil de


test des données structurées : http://www.google.com/webmasters/tools/richsnippets

La balise Publisher
C’est la parfaite continuité de la balise Author puisqu’elle permet de répondre à un
constat simple : votre site web contient aussi beaucoup de contenus qui ne peuvent pas
être attribué à un auteur en particulier. Voici les étapes pour l’implémenter :
1ère étape : Ajoutez la balise Publisher à la page d’accueil de votre site web ;
2ème étape : Procédez de même à partir de votre page Google+ ;
3ème étape : Associez les deux entités en vous servent du bouton correspondant ;
4ème étape : Vérifiez que tout est en ordre en utilisant cet outil en ligne :
http://www.google.com/webmasters/tools/richsnippets.

Lorsque les internautes saisiront une requête de notoriété, ils verront un résultat
spécialisé sur la droite des Serps. Les avantages sont nombreux :
Optimisation de la visibilité de la société et donc plus grand indice de confiance accordée
à cette même société ;
Mise en avant de la page Google+ et de sa dernière publication.

172 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

Intégration de la balise « Publisher » dans les Serps

Réseaux sociaux et SEO


Il est maintenant temps de faire plusieurs constats :
Les publications faites sur les réseaux B2B ou B2C ne sont que très rarement visibles dans
les Serps ;
Seules les pages « entreprise » remontent lorsque l’internaute saisit une requête de
notoriété.

Voici une liste des médias qui sont mis à la disposition des sociétés :
Page Facebook, Profil Twitter,
Page Google+, Page Google Adresses,
Profil Pinterest, Page entreprise LinkedIn,
Page entreprise Viadeo, Profil Instagram,
Chaîne YouTube, Chaîne Dailymotion, Profil sur SlideShare, …

Bref ! Cet ensemble de dispositifs vont vous permettre de monopoliser le « Top 10 »


sur les requêtes de notoriété (ou de semi notoriété). En voici les avantages :
Empêcher la dispersion des clics en direction de sites tiers ou concurrents ;
Se positionner comme étant le leader sur son secteur d’activité (et donc augmenter le taux
de transformation de son site web) ;

173
METHODES D’OPTIMISATION « OFF SITE »

Empêcher la remontée de résultats frais (articles de presse, etc.) ou, potentiellement,


négatifs (mentions dans les forums, etc.)
Peut-on faire les mêmes remarques à propos des modules sociaux ?
En janvier 2014, Matt Cutts a expliqué que Google n’utilise pas les signaux spécifiques
– nombre d’abonnés sur Twitter, nombre de « J’aime » ou de partage sur Facebook, etc.
– pour classer les pages web. C’est une façon de dire que les réseaux sociaux n’ont pas
d’impact en termes de SEO, du moins directement. Cela ne veut pas dire que l’impact
indirect est ignoré : notoriété du site web, création indirecte de liens vers ses pages et
apport de trafic...

Cette interview n’aborde pas le rôle de Google+ et de son éventuel influence sur le
positionnement mais une étude, datant de septembre 2013 et menée par la société
StoneTemple, montrait que l'influence des partages de Google+ en termes de SEO ne
pouvait pas être démontrée. A contrario, Le site « The Moz Blog » a prouvé, en août
2013, qu’il existait une corrélation entre le nombre de +1 et le positionnement de la
page dans les Serps. Mais lien de corrélation ne veut pas dire lien de causalité…

SEO et image de marque


Google est à 54% la première porte d’entrée à la découverte d’une société et le
référencement est aussi une bonne manière de jouer sur l’image de marque… Voici
quelques pistes :
Des liens de site proéminents,

Intégration de la balise « Publisher » dans les Serps

174 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

L’intégration de votre logo au Web sémantique,


Des images de votre marque avec des balises Alt,
L’intégration à Google+,
La liste de vos établissements indexée dans Google Adresses,
Un « Top 10 » irréprochable,
Des suggestions, dans Google Suggest, en accord avec votre image de marque.

Les entreprises à l’aune de l’e-réputation


Il est assez étonnant de voir le nombre de sociétés ou de personnalités qui ont eu, ces
derniers mois, à affronter un Buzz à contre-emploi ou, ce que l’on pourrait appeler, un effet
de référencement négatif : la vidéo des abattoirs de la société Charal, l’écran télé à 179
euros des 3 Suisses (un Google Bombing à la clé sur l’expression
« incompétence »), etc.
Exemples de Buzz à contre-emploi dans Google (1)

Exemples de Buzz à contre-emploi dans Google

175
METHODES D’OPTIMISATION « OFF SITE »

A chaque fois, les sociétés concernées semblent paralysées par l’ampleur que prennent
les évènements et peinent à mettre en place un plan de communication ainsi que des
contre-mesures efficaces.
Les moteurs de recherche et, en particulier, Google ont de plus en plus tendance à mettre
en avant les résultats « frais » et, en exergue, les liens issus des sites d’actualités, des
forums, des newsgroups, etc. Aussi, rien d’étonnant à ce que le « Top 10 » des SERPs,
suite à une requête sur le nom de certaines sociétés, ressemblent plus à un champ de
bataille qu’à un brevet de respectabilité en ligne.
C’est donc le rôle des sociétés de travailler leur référencement en optimisant, sur le long
terme, leur présence sur le Web mais aussi, en cas de coups durs, de multiplier des
contenus qui fassent contrepoids, dans l’esprit des internautes ainsi que dans les pages
de résultats.
Une preuve supplémentaire, s’il en était besoin, qu’un travail de référencement s’inscrit
dans l’histoire de l’entreprise et des marques qu’elle commercialise. Et que les questions
propres au Web marketing sont bien les mêmes que celles qui taraude le monde du SEO.

L’intelligence économique au service du référencement


Si nous venons de voir que la mise en place d’une veille efficace permet une plus grande
réactivité, de nombreuses applications (Web-scraping) peuvent aider à surveiller les sites
de vos concurrents, être au courant en temps réel des nouveaux produits qu’ils proposent,
de l’actualité de leur société, etc.
D’autres services (gratuits ou payants) offrent des statistiques détaillées sur les sites qui
occupent les mêmes cibles commerciales que les vôtres : profil des internautes,
expressions saisies pour accéder au site, liste des sites qui sont également visités, … On
peut citer Google Ad Planner, Dataopedia, Compete, AttentionMeter, Social Meter,
Quantcast, Hitwise, Alexa ou SpyFu.

Les solutions « intégrées » présentent un grand nombre d’avantages comme le « Data


mining », l’intégration de tableaux de bord, les alertes en mode « Push »,
l’historisation des données ou la génération de statistiques dans le temps. Parmi les
acteurs les plus importants, on peut citer :

TrendyBuzz (http://www.trendybuzz.com) qui se définit comme une « solution de


tracking d'information stratégique et de gestion de la réputation de vos marques » ;

176 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

Exemple de TrendyBuzz

Digiming (http://www.digimind.fr) qui propose une « plateforme logicielle de


Competitive Intelligence Management » ;

Attentio (http://www.attentio.com/fr/) qui est une plateforme permettant aux sociétés


de décrypter l'information stratégique disponible en ligne.
Bien entendu, cette liste est loin d’être exhaustive !

Il existe donc deux principales tendances : les services qui vous permettent de traquer
le Buzz sur Internet et vous donnent les tonalités autour d’une marque, d’un produit,
etc. Et d’autres applications qui sont spécialisées dans la recherche et l’intelligence
collective… Elles permettent de renforcer et développer la connaissance que vous avez
de votre métier, de votre société et de vos concurrents.

La veille et l’intelligence économique sont donc deux excellentes manières de


contrôler l’actualité de sa société sur le Web (l’e-réputation), son référencement sur le
court terme (temps réel), le moyen terme (référencement prédictif) ainsi que sur le long
terme (référencement lié à la « Longue Traîne »).

177
METHODES D’OPTIMISATION « OFF SITE »

Chapitre 3 : Faire indexer son site

La soumission de son site aux moteurs de recherche semble appartenir à une époque
révolue. Les moteurs intègrent beaucoup plus rapidement les nouveaux sites ayant un
lien d’entrée figurant sur des sites partenaires. Pour la soumission de son site dans un
annuaire, l’opération reste, quant à elle, nécessaire.

1. Annuaires
S’inscrire dans les annuaires continue d’être un passage incontournable dans le
référencement. Il existe en ligne des milliers d’annuaires. Généralistes ou spécialisés, il
convient de faire un tri et de sélectionner uniquement ceux qui conviennent à ses
objectifs.
Pour rappel, un annuaire est semblable aux Pages Jaunes, son but étant de fournir aux
visiteurs une liste de professionnels avec coordonnées et informations commerciales.
Habituellement mis à jour manuellement par des personnes, l’intégration dans un
annuaire suit un processus de relecture et de validation.
1.1. Annuaires généralistes
Voici l’adresse d’un annuaire régulièrement cité : Dmoz. Développé par une
communauté d'éditeurs bénévoles, l’annuaire est totalement libre. Le moteur Google
se sert d’ailleurs de ce dernier pour compléter et mettre à jour son index. Pour
s’enregistrer au sein des listes de l’annuaire, il suffit de suivre les instructions après
avoir cliqué sur « proposer un site ».

1.2. Comment préparer son inscription ?


La validation dans un annuaire étant réalisée par une personne et non par un robot, le
site doit être accessible et d’ores et déjà, afficher un contenu conséquent. Il faut donc à
tout prix éviter les pages encore en construction.
En fonction des besoins de visibilité, il est préférable d’établir une liste de mots-clés
qui sera utilisée dans la rédaction du titre et du contenu. Mieux vaut s’assurer, lors de
l’inscription, de la bonne concordance des mots-clés avec ses besoins au moment de
l’inscription, puisqu’une modification ultérieure pourra prendre du temps.
La sélection de la catégorie doit également se faire avec attention. Il n’est bien souvent
pas possible de faire figurer son site dans plusieurs catégories. Si ces activités sont
multiples, il est conseillé de lister toutes celles qui s’apparentent le mieux à l’activité
du site et sélectionner, finalement, celle qui génèrera le plus de chiffre d’affaires.

178 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

Exemple de page de résultats sur Dmoz

Le choix d’un titre est crucial : reflet du site, il doit donner envie de cliquer et mettre en
avant les mots-clés les plus importants. Même constat pour la description. En moins de
25 mots, le challenge doit être de résumer le plus clairement possible son activité.

Procédure d’inscription dans l’annuaire DMOZ


1ère étape : s’assurer que son site est bien accessible et suffisamment complet pour
que son inscription soit validée. Mieux vaut éviter d’inscrire des sites encore en
construction ;
2ème étape : vérifier que le site n’est pas déjà inscrit dans la base ;
3ème étape : rechercher la catégorie où affecter le site. Certaines catégories n’acceptent
plus d’inscription. Il faudra à ce moment là inscrire le site dans une rubrique similaire ;
4ème étape : se rendre sur le lien « proposez un site » et suivre le formulaire
d’inscription.
Formulaire d’inscription dans l’annuaire Dmoz

179
METHODES D’OPTIMISATION « OFF SITE »

1.3. Annuaires spécialisés


En plus des grands annuaires généralistes, il est possible de s’inscrire sur des portails
spécialisés. Cette spécialité peut concerner une région en particulier, une thématique
ou un secteur d’activité.

Les internautes, dans le cas d’une recherche bien identifiée, se tournent volontiers vers
ces derniers. Là encore, il convient de choisir le bon discours. Moins réputés que les
annuaires généralistes, mieux vaut s’assurer du professionnalisme des portails avant
d’entreprendre une inscription payante et de décider d’attribuer ou non un budget pour
être présent dans ces annuaires.

1.4. Annuaires d’annuaires


Pour ne pas rater les annuaires généralistes et thématiques, il existe des annuaires
d’annuaires, comme mes-annuaires.info, e-annuaires.com et lesannuaires.com qui
recensent les annuaires qui correspondent à une série de critères de référencement.
Par exemple, vous pourrez vous renseigner sur le PageRank de l’annuaire sur lequel
vous envisagez de soumettre votre site Web : quelle est la typologie du lien (lien en dur
ou redirection JavaScript ?), s’agit-il d’une soumission payante ou gratuite, etc.

Présentation de différents annuaires

180 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

1.5. Soumissions automatiques ?


Il existe des outils permettant de soumettre automatiquement son site à différents
annuaires. Populaires pendant un temps dans les pays anglophones, ces outils ont
cependant tendance à être abandonnés. Mieux vaut en effet favoriser les annuaires
viables et disposant déjà d’une notoriété. Plus qualitative, la soumission pourra
bénéficier d’un suivi facilité.

2. Moteurs
Comme cela était évoqué un peu plus haut, la majorité des moteurs de recherche est
aujourd’hui capable de détecter un site sans soumission préalable. L’indexation devient
alors une question de temps. La soumission manuelle s’adresse donc aux plus
impatients ou s’adapte dans le cas de pages encore ignorées par les moteurs

2.1. Soumission manuelle


Elle se réalise généralement lors du lancement du site. Le détenteur passe par un
formulaire de soumission. Avant cette opération, une vérification de la bonne
accessibilité du site s’impose, sous peine de rater son indexation.
Les moteurs présentent, en général, un formulaire semblable, demandant l’URL
accompagnée d’un commentaire.

Formulaire de soumission de Google.

181
METHODES D’OPTIMISATION « OFF SITE »

En revanche, cette soumission gratuite n’assure pas une indexation immédiate. Après
l’opération, quelques jours voire quelques mois peuvent passer. Pour savoir si sa page a
bien été indexée, il suffit d’effectuer une recherche sur le nom de sa compagnie.

Afin de savoir si toutes les pages sont bien intégrées dans l’index des moteurs,
la commande « site:monsite.com » permettra d’y répondre. Une vérification qui
contrôlera que les données privées interdites aux robots des moteurs n’ont pas été
divulguées.

Si son site ne figure pas dans l’index, malgré plusieurs tentatives, il faut alors
commencer à se poser des questions et rapidement définir d’où vient le problème : s’il
est issu d’un facteur bloquant ou si le site est en contre-indication avec les moteurs. Il
peut, en effet, avoir été banni par les moteurs pour avoir violé des consignes de bonnes
pratiques.

Si aucun robot de recherche n’a franchi la page d’accueil, cela signifie que cette
dernière n’est pas accessible et que les robots butent sur un problème technique. La
consultation des statistiques précisera à quel moment les robots ont stoppé l’indexation
et dans ce cas, permettra d’éliminer les pièges techniques. Ce passage peut être vérifié
à partir des statistiques de logs et également dans l’interface Google Webmaster Tools.

2.2. Sitemap
Proposé par les plus grands moteurs de recherche, le format sitemap protocol est
aujourd’hui standardisé et fonctionne aussi bien sur Google, Yahoo! et Bing.

Ce fichier présente un avantage pour les gestionnaires de sites comme pour les
moteurs. Les premiers voient une simplification dans la soumission régulière de leur
contenu, et les seconds bénéficient d’un gain de temps et de ressource dans le parcours
du Web.

Proposer un fichier Sitemap n’est pas une obligation puisque les moteurs continuent de
crawler quotidiennement le Web. La solution est surtout utile pour les nouveaux sites
ou pour les acteurs mettant régulièrement en ligne de nouveaux contenus.

182 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

Exemple de code pour le fichier Sitemap :

<?xml version="1.0" encoding="UTF-8"?>


<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>http://www.monsite.com</loc>
<lastmod>2006-12-12</lastmod>
<changefreq>weekly</changefreq>
< priority>1.0</priority>
</url>
</urlset>

Les tags <urlset>, <url> et <loc> sont obligatoires, <lastmod> : précise la date
de la dernière modification, <changefreq> : précise la fréquence de mise à jour de la
page. Choix possibles :
always hourly daily weekly
monthly yearly never

<priority> indique le droit de priorité de certaines pages. La note se chiffre entre 0,1
et 1,0. Par défaut, les moteurs estimeront une priorité à 0,5.
Le fichier ne peut pas contenir plus de 50 000 URLs. Il est toutefois possible de
présenter plusieurs fichiers. Chaque URL peut s’accompagner de la date de dernière
modification et de la fréquence de mise à jour. Même si les moteurs acceptent tout aussi
bien le format XML et TXT, mieux vaut favoriser le premier.
Une fois le fichier mis en place, il doit être mis à jour et entretenu.
Exemple de la page Sitemaps de Google
Pour transmettre ce fichier aux moteurs,
les Sitemaps disposent d’une zone dédiée.
Pour Google, elle se trouve dans les
Webmasters Tools, et pour Yahoo!,
directement dans la page de soumission de
liens.

183
METHODES D’OPTIMISATION « OFF SITE »

Des outils pour aider à générer un Sitemap sont disponibles :


- http://www.xml-sitemaps.com/
- http://gsitecrawler.com/

Ces outils génèrent automatiquement les Sitemaps. Après une analyse des URLs du
site, ils fournissent un résultat sous la forme d’un fichier TXT.

Présentation du générateur de sitemap pour Google and Yahoo! - source GSiteCrawler

184 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

3. Désindexation
Extraire volontairement des pages de l’index des moteurs, c’est possible. Pages
publiées par erreur, contenus dépassés ou site encore en construction, de nombreuses
raisons peuvent expliquer le besoin de désindexer du contenu des moteurs de
recherche. Plusieurs solutions sont possibles.
3.1. Utilisation du fichier .htaccess
En plus des redirections et réécritures d’URLs, le fichier .htaccess permet les
restrictions d’accès. Solution recommandée pour garder les robots à distance de son
contenu, le fichier .htaccess gère les accès serveur.

Il est possible de bloquer l’accès de toutes les pages d’un dossier à certains ou tous les
robots des moteurs de recherche. Pour cela, on utilise un fichier .htaccess que l’on
place à la racine du dossier concerné.

RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} ^nomdurobot1 [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^nomdurobot2 [NC, OR]
Etc.
RewriteCond %{HTTP_USER_AGENT} ^nomdudernierrobot [NC]
RewriteRule ^.* - [F,L]

RewriteEngine On : cette ligne autorise la réécriture.

RewriteCond %{HTTP_USER_AGENT} ^nomdurobot1 [NC,OR] cette ligne va


:
permettre de bloquer les robots dont le nom commence par « nomdurobot1 ». « NC »
signifie que le nom du robot est insensible à la casse et « OR » indique qu’une autre
règle est à suivre.
RewriteCond %{HTTP_USER_AGENT} ^nomdudernierrobot [NC] : cette ligne va
permettre de bloquer les robots dont le nom commence par « nomdudernierrobot ».
Cette règle étant la dernière, il est important de ne pas mettre « OR » en « flag ».
RewriteRule .* - [F] : Cette ligne renvoie la condition d’interdiction « F » et
indique au module mod-rewrite d’arrêter de réécrire une fois cette règle exécutée.

185
METHODES D’OPTIMISATION « OFF SITE »

3.2. Outil dédié


Google dispose également d’un outil spécial, nommé Removal tool. Accessible dans
les « Webmaster tools », cet outil permet d’effectuer directement une demande de
désindexation. Celle-ci peut s’effectuer page par page ou bien par dossier.
3.3. Balise META "noindex"
Cette balise indique aux robots arrivant sur une page que cette dernière ne doit pas être
indexée.
Exemple de balise "noindex" :
<meta name="robots" content="noindex">

La balise META noindex comme toutes les autres balises META tags est à intégrer
dans le site internet à l’intérieur des balises d’en tête :
<head>
<title></title>
<meta name="description" content="" />
<meta name="keywords" content="" />
<meta name="robots" content="noindex">
</head>

Seule limite à cette commande : tous les moteurs ne gèrent pas de manière identique
cette balise. Google et Ask, par exemple, respecteront ce choix et leurs robots passeront
leur chemin. Yahoo! et Bing, en revanche, choisiront de montrer la page dans les
résultats, sans associer de résumé.

186 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

3.4. Fichier Robots.txt


Le fichier robots.txt empêchera l'apparition de la page dans le classement des moteurs
de recherches, même si certains robots continueront de crawler son contenu.

Exemples de fichier robots.txt

Exclusion de toutes les pages :

User-Agent: *
Disallow: /

Exclusion d’aucune page :

User-Agent: *
Disallow:

Exclusion d’une page :

User-Agent: *
Disallow: /repertoire/dossier/nom-page.html

Exclusion de plusieurs pages :

User-Agent: *
Disallow: /repertoire/dossier/nom-page1.html
Disallow: /repertoire/dossier/nom-page2.html
Disallow: /repertoire/dossier/nom-page3.html

Le fichier robots.txt doit se situer à la racine de l’hébergement d’un site Web

Attention ! l’absence de liens externes pointant sur une page ne signifie pas que celle-ci
ne sera pas indéxée par les moteurs. Si tel est votre souhait, il ne suffit pas de se limiter
à ne faire aucun lien vers une page pour qu’elle ne soit pas référencée. Il est impossible
de gérer des liens externes amenant sur cette page. Mieux vaut opter pour une solution
.htaccess pour protéger tout ou partie du contenu de son site.

187
METHODES D’OPTIMISATION « OFF SITE »

3.5. Effet SandBox


L'effet Sandbox (effet "bac à sable" en français) serait une pénalité qu'infligerait
Google aux nouveaux sites Web pour éviter toute manipulation de ses résultats.

Il aurait pour objectif de retenir des résultats (une sorte de mise en quarantaine) sur
des mots-clés très concurrentiels. Le temps de quarantaine permet à Google de vérifier
leur respect des consignes d'optimisation Google et selon l’évolution du site, lui donner
sa confiance en l’incorporant dans l’index.

Personne ne sait de façon certaine si l'effet Sandbox existe réellement. Force est de
constater que les sites Web venant d'être crées éprouvent certaines difficultés pendant
les 3 à 6 mois suivants leur lancement. Est-ce dû à une réelle pénalité infligée par
Google ou est-ce tout simplement le fait qu'un site Web qui se crée ne dispose que de
très peu de liens pointant vers lui et donc d’une popularité plus faible ? Les avis des
experts divergent encore sur ce sujet.

188 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

Chapitre 4 : Référencement universel

Avec la mise en place de la recherche universelle par les moteurs de recherche, les sites
Web doivent élargir leur présence et proposer d’autres formats qu’une page Web
classique. C’est une nouvelle tendance dans le référencement. En effet, il ne s’agit pas
d’une stratégie d’optimisation « on site », mais d’une diversification des sources de
résultats.

1. Google Actualités
Il est possible de proposer gratuitement son site à Google News pour faire partie des
milliers de sources d'infos en France validées par Google.
Exemple d’actualité dans les résultats Google

Attention, cette indexation est principalement dédiée aux éditeurs de contenu et seuls
les sites Web “créateurs” d’actualités sont éligibles au service Google Actualités en
France.
Afin d’apparaître dans le service « Google News » et donc de bénéficier d’un
référencement supplémentaire et gratuit, il est nécessaire de respecter au moins cette
contrainte : les adresses URL de vos articles doivent être uniques, permanentes et
afficher un numéro à 3 chiffres.
Plus d’infos sur http://www.google.fr/support/news_pub/bin/topic.py?topic=11665
Par exemple cette URL http://www.monsite.com/article-google-2.php ne pourrait faire
partie de Google Actualités, alors que celle-ci

189
METHODES D’OPTIMISATION « OFF SITE »

http://www.monsite.com/actualites/article-google-123.php rentrerait dans le critère


d’indexation de Google Actualités.
Pour s’inscrire sur Google actualités :
http://www.google.com/support/news/bin/request.py

2. Google Images
Si votre site dispose d’images, autant se servir de ce contenu pour ressortir dans les
moteurs. Ceux-ci n’hésitant pas à mettre en avant des visuels dans leurs résultats, il est
conseillé d’optimiser toutes les images de son site.
Affichage des résultats Google images dans les résultats classiques

Quelques conseils pour optimiser le référencement de ses images

Les moteurs de recherche d’images constituent une source non négligeable de visites
bien que souvent les internautes qui visitent votre site en utilisant, par exemple, Google
Recherche d’images, sont souvent moins bien « ciblés » que les autres. Il n’existe pas
de règle absolue et seules des investigations poussées en utilisant un logiciel d’analyses
comme Google Analytics vous permettra de vous en faire une idée précise.
Les images doivent être intégrées dans des balises DIV ;
Les titres des images doivent être signalés par des balises H3 ;
Il vaut mieux placer ses images dans la partie supérieure de votre article ;
Les images doivent être correctement nommées ;
Les images doivent être légendées ;
Elles doivent être renseignées grâce à la balise Alt.

190 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

On sait depuis longtemps que le contenu de la balise Title n’est pas pris en compte
par les moteurs. Voici d’autres recommandations :
En mars 2014, Matt Cutts a expliqué que les métadonnées associées aux photos
(format EXIF par exemple) peuvent être lues par Google. Il faut donc les optimiser
en vue d’une meilleure indexation par le moteur de recherche d’images.
Créer des liens à partir d’autres pages de votre site vers les images dont vous
souhaitez « booster » le référencement ;
Utiliser le format JPEG pour des photos réalistes qui présentent des dégradés et
une large palette de tonalités. A contrario, les formats PNG et GIF sont à préférer
pour les images aux couleurs unies (graphiques, logos, etc.).

3. Google Vidéos

L’importance de la vidéo en France


La France compte 30 millions de vidéonautes chaque mois (Médiamétrie – Mai
2013) ;
Les visiteurs ayant visionné une vidéo ont un passage à l’acte d’achat de 85%
supérieur aux autres visiteurs (Interne Retail – 2013) ;
Les sites e-commerce comportant des vidéos augmentent leur taux de conversion
de 30% (L2 Specialty Retail Report – 2013).

Et les vidéos remontent dans les Serps

191
METHODES D’OPTIMISATION « OFF SITE »

Format encore assez peu exploité par les professionnels, la vidéo a pourtant le vent en
poupe sur Internet. Publicités, opérations de marketing viral, présentations de ses
services etc., toutes les vidéos peuvent être utilisées dans le référencement.
Affichage des résultats Google vidéos dans les résultats classiques

Pour s’assurer que les vidéos sur votre site Internet sont indexées par Google, il est
possible d’utiliser les Google Webmaster Tools pour générer un plan de site de ces
vidéos. Ce plan de site vidéos fonctionne de manière similaire à ce lui d’un Google
Sitemap traditionnel et rendra plus facile l’indexation de vos videos dans les
principaux moteurs de recherche.

192 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

Quelques conseils d’optimisation des vidéos


Voici quelques conseils d’optimisation pour vos vidéos :
Définissez un vrai nom de fichier pour la vidéo (exemple : mot-clef.avi plutôt que
video-janvier-2014.avi); Créez un plan Sitemap pour les vidéos ;
Créez un texte qui soit pertinent : italiques, gras, balises H1, H2, H3, etc.
Utilisez le Web sémantique ;
Autorisez l’intégration de la vidéo par les internautes, et ce grâce à un code « Embed » ;
Créez, au niveau du site, des liens entrants vers la page qui contient la vidéo ;
Créez des pages uniques pour chacune des vidéos.

Il faut aussi publier des vidéos sur les plates-formes de partage et de diffusion comme
YouTube et Dailymotion de manière à ce qu’elles soient intégrées au moteur de
recherche classique.

Le blog officiel de Google a rappelé que le moteur prenait en charge mRSS, un module
RSS qui complète les capacités de l'élément de RSS 2.0 afin d'optimiser la syndication
de supports multimédia et dont les spécifications ont été publiées sur cette page :
http://video.search.yahoo.com/mrss. Par ailleurs, il est recommandé de publier un plan
Sitemap pour les vidéos qui fait appel au protocole Sitemap et auquel s'ajoutent des
balises vidéo spécifiques qui sont énumérées sur cette page :
http://www.google.com/support/webmasters/bin/answer.py?answer=80472.

193
METHODES D’OPTIMISATION « OFF SITE »

Dans un autre message blog, Google annonce le support de deux autres normes de
balisage : Facebook Share et les métadonnées au format RDF
Ces deux formats permettent donc d’optimiser l’indexation des vidéos en fournissant
des informations comme le titre, la description du clip ou l’image à utiliser comme
miniature dans les pages de résultats ou sur les sites de réseautage social. Le principe
est donc de modifier le code HTML de la page qui contient la vidéo afin d’optimiser
son référencement. Voici deux exemples…

Facebook Share (le code est à placer dans l’en-tête de la page HTML) :

<meta name="title" content="Google Phone" />


<meta name="description" content="Une démonstration d’un téléphone android" />
<link rel="image_src" href="http://exemple.fr/thumbnail_preview.jpg" />
<link rel="video_src" href="http://exemple.fr/video_object.swf?id=12345"/>
<meta name="video_height" content="296" />
<meta name="video_width" content="512" />
<meta name="video_type" content="application/x-shockwave-flash" />

Métadonnées au format RDFa (le code d’insertion de la vidéo est optimisé afin de
donner du grain à moudre aux moteurs) :

<object width="512" height="296" rel="media:video"


resource="http://exemple.fr/video_object.swf?id=12345"
xmlns:media="http://search.yahoo.com/searchmonkey/media/"
xmlns:dc="http://purl.org/dc/termes/">
<param name="movie" value="http://exemple.fr/video_object.swf?id=12345" />
<embed src="http://exemple.fr/video_object.swf?id=12345"
type="application/x-shockwave-flash" width="512" height="296"></embed>
<a rel="media:thumbnail" href="http://exemple.fr/thumbnail_preview.jpg" />
<a rel="dc:license" href="http://exemple.fr/termes_du_service.html" />
<span property="dc:description" content="Une démonstration d’un téléphone android" />
<span property="media:title" content=" Google Phone" />
<span property="media:width" content="512" />
<span property="media:height" content="296" />
<span property="media:type" content="application/x-shockwave-flash"
/>
<span property="media:region" content="fr" />
<span property="media:region" content="fr" />
<span property="media:duration" content="60" />
</object>

194 Les Clés du Référencement sur le Web


METHODES D’OPTIMISATION « OFF SITE »

Rappelons que le pourcentage de clics sur les résultats provenant de la Recherche


universelle sera rapidement décuplé et que vous pouvez générer, presque du jour au
lendemain, un nombre de nouvelles visites extrêmement important.
On ne serait pas complet sans signaler que YouTube (YouTube Insight) offre
maintenant des statistiques très complètes sur les vidéos : suivi du nombre de vues
comparé à sa popularité dans le temps, du nombre de vues du type d'abonnement, du
type de périphérique utilisé (mobile), etc.
Statistiques de suivi de vidéos dans YouTube

195
QUATRIEME ETAPE :
MESURE DU SUCCES
MESURE DU SUCCES

Comme tout investissement, le référencement doit être suivi et analysé. L’objectif


d’une optimisation a pour but de créer du trafic sur ses pages et de transformer des
visites en conversions réussies.
C’est seulement en mesurant les effets d’une optimisation qu’il est possible de pousser
plus loin la logique du référencement et de l’appliquer au plus près de ses besoins.
Savoir quels sont les objectifs qui ont été remplis, ceux qui sont encore à atteindre et
quelle marge de manœuvre est possible.

Chapitre 1 : Mesures d’analyse


1. Analyse du positionnement
Le suivi du positionnement permet de surveiller régulièrement ses positions sur les
principaux moteurs, comme Google et Yahoo!, et sur les mots-clés définis.
Pour quelques mots-clés, il est possible d’effectuer une vérification manuellement
et de rechercher cinq ou six expressions phares sur les deux moteurs. Pour un suivi plus
exhaustif, mieux vaut se tourner vers des outils spécialisés.
Il existe sur le marché des outils gratuits ou payants. Comme tout outil, il convient de
savoir analyser les résultats afin de replacer le travail de référencement sur la bonne
voie. Matrices présentant les positions des pages du site sur les moteurs, ces logiciels
vérifient la place des pages du site dans les moteurs pour des mots-clés donnés et
comparent de mois en mois l’évolution des positions.
Ce suivi ne doit pas se limiter à son site. Il faut toujours placer ses efforts par rapport
à la concurrence. Garder un œil sur les compétiteurs du marché et voir où leurs efforts
se portent et quelles sont leurs techniques utilisées. Cette surveillance peut permettre
au site de garder une longueur d’avance. Le repos n’existe pas dans le référencement.
1.1. Analyse de positionnement avec Free Monitor for Google
Ce logiciel gratuit vous permet de connaître la position de votre site Internet sur
Google uniquement. Son utilisation est simple et fiable. Elle vous permet d’obtenir un
suivi régulier de l’évolution de votre positionnement sur des mots-clés déterminés.

198 Les Clés du Référencement sur le Web


MESURE DU SUCCES

Présentation de Free Monitor for Google - source : http://www.cleverstat.com/en/google-monitor-query.htm

1.2. Analyse de positionnement avec Advanced Web Ranking


Logiciel payant qui vous permet de connaître la position de votre site Internet sur les
principaux moteurs de recherche dans le monde (+ de 1000 moteurs analysés) et de
générer des graphiques d’évolution dans le temps des positions obtenues par votre site
Web.

199
MESURE DU SUCCES

Présentation de Advanced Web Ranking

1.3. Part d’accès via les moteurs de recherche


En général, la part d’accès moyen via les outils de recherche est de l’ordre de 45%.
L’augmentation du trafic provenant des moteurs de recherche est un bon indicateur de
l’évolution positive du référencement.
Contrôle des sources de trafic dans Google Analytics

200 Les Clés du Référencement sur le Web


MESURE DU SUCCES

2. Analyse des conversions et du ROI

Les KPI (Key Performance Indicators) ou ICP (Indicateurs Clés de Performance)


sont un ensemble d’indicateurs permettant de connaître l’état de santé d’une société.
Appliqués au Web, les KPI représentent l’ensemble des chiffres clés d’un site Internet
(nombre de visiteurs sur une journée, nombre de visiteurs uniques sur le mois glissant,
nombre de pages vues, taux de conversion, taux de rebond, etc.).

2.1. Taux de conversion


Selon les sites, une conversion se traduit par un achat, une prise de contact, une
inscription à une newsletter. Pour savoir si l’investissement dans le référencement a
porté ses fruits, les conversions des internautes en provenance des moteurs doivent
être comptées.

La conversion permet de faire la distinction entre les simples visiteurs et ceux qui
ont franchi des étapes bien définies.

Par exemple, un site vendant des appareils photos a réalisé au mois d’octobre 5 000
commandes, pour un total de 100 000 visites. Le taux de conversion est donc de 5%
(5 000 commandes divisées par 100 000 visites, multipliées par 100). Dans cet
exemple, l’étape choisie pour calculer la conversion est la vente.
Calcul de la conversion en ligne

Juin 2014
Nombre de visites 100 000
Nombre de commandes 5 000
Taux de conversion 5%

Conversion pour les ventes off-line


Bien souvent, les internautes effectuent des recherches en ligne pour s’informer sur
le produit le plus adapté à ses besoins. Une fois correctement renseignés, ils se
rendront directement dans une boutique pour réaliser leur achat.

201
MESURE DU SUCCES

Pousser l’internaute à se rendre dans le magasin de la marque peut se faire par


différents moyens : proposer un service lui permettant de trouver le magasin le plus
proche, l’inviter à laisser son numéro de téléphone pour le rappeler, proposer une fiche
imprimée du produit qu’il compte acheter pour simplifier son achat en magasin, ou
encore fournir une réduction spéciale. Autant de manœuvres qui permettront de tracer
le parcours de l’internaute pour avoir un suivi des conversions.

Par exemple : 5 000 internautes ont imprimé le coupon de réduction spécial. 500
coupons ont été utilisés lors d’un achat dans la boutique. Le taux de conversion est
donc de 10%.

Il est également possible de demander aux visiteurs de la boutique s’ils connaissent le


site Web et si ce dernier a joué un rôle dans leur achat.

Calcul de la conversion

Nombre de coupons Commandes offline Taux de conversion


imprimés
5 000 500 10%

Conversion pour les contacts établis

Calcul de la conversion sur la base de 100 000 visiteurs

Total Taux de conversion

Nombre de contacts 2 000 2%

Nombre de ventes à partir 1 000 1%


des contacts Web

D’autres formules de conversion peuvent être appliquées, comme l’abonnement à une


newsletter, le nombre de formulaires remplis, etc.

202 Les Clés du Référencement sur le Web


MESURE DU SUCCES

2.2. Ventes par visiteurs


Ratio entre les ventes et le nombre de visiteurs.

Somme des ventes en ligne


______________________________
Ventes par visiteurs =
Total de visiteurs

2.3. Coût par visiteur


Pour calculer ce coût, il faut diviser le total des dépenses marketing par le nombre de
visiteurs uniques. Celui-ci peut s’adapter aux différentes campagnes menées, comme
l’achat de mots-clés, de bannières ou l’affiliation.

Dépenses pour une campagne marketing


_______________________________________
Coût par visiteur =
Total de visiteurs

2.4. Coût par vente


Ce calcul met en avant le coût des dépenses marketing pour chaque vente effective.

Coût de la campagne
Coût par vente =
Nombre de ventes effectives

2.5. Profit net par vente


Il se calcule à partir du profit net et en soustrayant le coût par vente précédemment
calculé.

Profit net par vente = Profit réalisé lors de la vente – Coût par vente

203
MESURE DU SUCCES

2.6. Retour sur investissement


Le ROI s’obtient après avoir divisé le profit net par vente par le coût par vente
(les investissements).

Profit net par vente


ROI =
Coût par vente

3. Cycle de conversion

3.1. Pour un site vendant des produits


Les visiteurs en provenance des moteurs de recherche ont des attentes bien précises.
Premièrement, de trouver sur la page d’atterrissage l’expression recherchée dans le
moteur. Si la requête est d’ordre commercial, il cherchera également une image du
produit, un tarif et un descriptif. Pour une recherche informative, il sera dans l’attente
d’une vaste source de données. Une attente qui doit être rapidement comblée :
l’internaute jaugeant très rapidement la page, il est prêt à retourner sur le moteur pour
d’autres résultats plus probants.

Une fois l’internaute décidé à rester sur le site, le cycle de conversion suit un schéma
bien défini. Un prospect arrivant sur un site s’informe dans un premier temps sur les
produits correspondant à un besoin. Lorsque la solution est trouvée, il peut ensuite
choisir dans la boutique en ligne le produit désiré. Il compare les prix et les
caractéristiques avant de passer à l’achat. Après livraison, le prospect peut utiliser le
nouveau produit et revenir ensuite sur le site pour de nouveaux besoins.

Différentes phases d’achat sur le Web

204 Les Clés du Référencement sur le Web


MESURE DU SUCCES

Le site doit être performant sur ces six étapes :


Etre présent sur toutes les requêtes ayant attrait à son activité ;
Fournir une information complète et précise ;
Présenter un large choix de produits ;
Disposer d’une procédure de paiement simplifiée et surtout sécurisée ;
Respecter les délais de livraison et soigner l’emballage ;
Offrir un service après-vente réactif et efficace.

3.2. Pour un site proposant des services


Pour les sociétés dont l’activité ne se base pas sur la vente de produit mais, par
exemple, sur la vente de services, le processus reste similaire, avec des étapes
différentes.

Cycle d’achat pour un service

Les étapes 2, 3 et 4 sont réalisées sur le site Web. La quatrième étape pourra également
se faire en ligne, par téléphone ou par courrier.

3.3. Savoir utiliser le cycle


Il est possible d’utiliser ce cycle pour attirer des visiteurs qualifiés sur son site. Tout
internaute en phase d’achat commencera par s’informer grâce aux moteurs sur le
produit ou service attendu. L’idéal est donc de placer le site en tête des moteurs sur ces
recherches informatives, objectif réalisable avec du contenu détaillant les produits ou
services, des communiqués ou encore des études nouvellement parues. Par exemple, le
vendeur d’appareil photo pourra décrire les grandes différences entre le numérique et
l’argentique, les avantages de chaque appareil et pourquoi pas, donner des conseils
autour de la photographie.

Pour la recherche du produit et du service, l’internaute doit pouvoir trouver le produit


correspondant à son besoin, accompagné d’un prix attractif. Avec de nombreux
moteurs de comparatifs et la facilité de comparer les offres concurrentes, un site doit
fournir un tarif clair, des garanties détaillées avec, si possible, des offres alléchantes.

205
MESURE DU SUCCES

Avec des pages produits suffisamment précises, l’internaute décidé, recherchant un


produit particulier, pourra atterrir directement sur la page d’achat.

Enfin, la partie « service après-vente » peut également être un point fort dans le
référencement. Là encore, un contenu efficace, une FAQ détaillée et des conseils
d’experts feront la différence sur les moteurs comme auprès des internautes. Les
utilisateurs rencontrant un problème avec un produit ne se rendent pas forcément sur le
site du marchand. Ils recherchent bien souvent en premier sur les moteurs de recherche.
Non seulement ce service pourra satisfaire ses propres clients, mais il sera repéré par
des futurs chalands et gardé en mémoire pour un futur achat.

Exemple pour un vendeur de vélos


Requête Type Ce que veut Pour un bon Pour que
de recherche l’internaute classement l’internaute clique
vtt vitesse qui saute Informative Un conseil pour Page de contenu Snippet contenant
réparer son vélo intégrant la requête les mots-clés

vtt occasion Commerciale Une liste de VTT mots-clés dans Titre de la page
d’occasion avec le titre et dans et snippet avec mots-clés
le prix et l’année le contenu
Décathlon Nominative La page mots-clés dans URL et titre concordant
d’accueil du magasin le titre et l’URL

Comprendre et anticiper les besoins des internautes après une recherche procure au site
un avantage spécial sur ses concurrents.

4. Critères d’analyse du trafic

La mesure de l’audience de son site inclut le nombre de pages vues, le nombre de


visites et de visiteurs. Des chiffres permettant de mesurer l’évolution du trafic et de
qualifier par la suite son audience.

4.1. Pages vues


Ce chiffre compte le nombre de pages chargées par un utilisateur. L’évolution des
pages vues mois par mois, ou par année, indique si le contenu du site a satisfait ses
utilisateurs. Ce chiffre peut être amélioré en s’occupant de sa stratégie de liens internes
et en améliorant le croisement de ses pages.

206 Les Clés du Référencement sur le Web


MESURE DU SUCCES

En comparant le succès d’une page à une autre, il est possible de déterminer les sujets
phares recherchés par ses visiteurs.

4.2. Visites et visiteurs


Il s’agit là d’examiner qui a consulté le site et d’étudier qualitativement son trafic.
Grâce aux cookies, un utilisateur peut être suivi tout au long de son parcours, lors d’une
consultation sans interruption sur le site.

Le nombre de visites indique combien de fois un même utilisateur est venu sur son site
au cours de la journée, de la semaine ou du mois. Le nombre de visiteurs correspond au
nombre d’individus ayant consulté le site.

4.3. Temps sur la page


Il est intéressant de connaître la durée moyenne de consultation de la page. Cette
donnée indique clairement si les visiteurs consultent le contenu des pages visitées, ou
bien s’il s’agit uniquement d’une page de transition, sur laquelle ils cliquent
immédiatement pour accéder à un autre contenu. Dans ce dernier cas, il faut décider si
les informations renfermées par la page doivent être complétées ou au contraire
supprimées.

4.4. Taux de rebond


Il s’agit du pourcentage d'internautes entrés sur la page et ayant quitté le site sans avoir
visité une autre page. Lorsque le taux de rebond d'une page est trop élevé, cela signifie
que la page ne correspond pas suffisamment ni au lien permettant d'y accéder ni à la
recherche effectuée.

207
MESURE DU SUCCES

Chapitre 2 : Présentation de Google Analytics


Pour évaluer les investissements menés dans le référencement payant, comme le
référencement naturel, il est vital de connaître les efforts qui ont porté leurs fruits et les
actions n’ayant eu aucun effet. En calculant son ROI pour chaque campagne menée, il
devient possible d’axer sa communication au plus près des besoins.
L’outil de mesure d’audience de Google, accessible gratuitement, assure un suivi du
trafic. C’est en 2005 que Google a pu élargir sa palette de services en rachetant la
première mouture de Google Analytics : la société Urchin.
Cette analyse des visites permet de répondre à deux questions :
Comment les visiteurs ont accédé à mon site ?
Quel est leur parcours une fois sur le site ?
Avec cet outil, le suivi devient qualitatif. Sa nouveauté : associer les éléments
quantitatifs aux objectifs. Un effet qui permet à son utilisateur de mieux rationaliser ses
choix !
A travers un tableau de bord, le détenteur d’un site peut naviguer sur ses chiffres de
conversion, sur l’état de ses campagnes en cours, comparer les grandes tendances et
cibler d’où viennent ses visiteurs.
Pour utiliser ce produit, il faut disposer d’une adresse Gmail ou bien d’un compte
Google. Une fois sur le site Google Analytics, il convient de transmettre l’URL du site
à étudier. En échange, Google fournira un code JavaScript à insérer dans la balise
<body> de toutes les pages du site.
Exemple de Marqueur Google Analytics

<script type="text/javascript">
var _gaq = _gaq || [];
_gaq.push(['_setAccount', 'UA-1234567-1']);
_gaq.push(['_trackPageview']);
(function() {
var ga = document.createElement('script'); ga.type =
'text/javascript'; ga.async = true;
ga.src = ('https:' == document.location.protocol ? 'https://ssl' :
'http://www') + '.google-analytics.com/ga.js';
var s = document.getElementsByTagName('script')[0];
s.parentNode.insertBefore(ga, s);
})();
</script>

208 Les Clés du Référencement sur le Web


MESURE DU SUCCES

Accueil d'un compte Google Analytics

1. Analyse du trafic

1.1. Session
L’outil indique le nombre de visiteurs reçus par le site.
Afin de bien appréhender les chiffres, il est important de comprendre la différence
entre les sessions et les visiteurs : le nombre de sessions correspond au nombre de fois
qu’une personne a visité le site. Le nombre de visiteurs chiffre le nombre de personnes
étant venu sur le site sur une période donnée. Un visiteur peut revenir plusieurs fois
sur le site. Plus ces visites par visiteur sont nombreuses, plus le site pourra être
considéré comme fidélisant.

1.2. Evolution du trafic


Au travers des pages vues et des visiteurs, l’outil fournit des graphiques
chronologiques par semaine ou par mois. Le jour et l’heure des visites permettent de
déterminer à quel moment l’internaute décide de se rendre sur le site.
209
MESURE DU SUCCES

Exemple de graphique sur les pages vues - Google Analytics

1.3. Ciblage géographique


Où résident les internautes ? L’outil fournit les informations par continent, pays,
région et même par ville. Cette identification permet d’identifier plus facilement les
marchés les plus importants et voir quels sont les nouveaux pays où des affaires sont
à réaliser.

Avec une segmentation poussée des données, il est possible de détailler le nombre de
visites, les conversions ou encore les évolutions par région.

Exemple de graphique sur les visiteurs de la ville de Paris - Google Analytics

Un graphique compare également le pourcentage de nouveaux visiteurs par rapport


à ceux dont ce n’était pas la première visite.

210 Les Clés du Référencement sur le Web


MESURE DU SUCCES

Avec un croisement de cette base de visites avec celle des objectifs, il est également
possible de connaître la région proposant le taux le plus transformant, voire même la
ville avec les meilleurs retours. Une donnée très utile dans Google Adwords qui
permet de localiser des mots-clés. Pour le même prix, proposer des mots-clés
localement peut rapporter jusqu’à 10 fois plus de trafic ciblé. En période de crise,
l’outil prend toute sa valeur.

2. Analyse de l’acquisition

Quel accès au site ? Comment les visiteurs découvrent-ils le site Web ?


a. par un accès direct :
en tapant l’adresse du site dans leur navigateur
grâce à leurs favoris
à partir d’un e-mail
b. au moyen des moteurs de recherche :
avec quels mots-clés ?
c. avec le Netlinking :
les sites qui ont envoyé du trafic
les flux RSS

Comparaison des campagnes


Selon les campagnes mises en place, le responsable du site peut comparer les effets
de chacune sur son site.

Détail des sources de trafic en fonction des conversions des objectifs

211
MESURE DU SUCCES

Ainsi, selon les résultats obtenus, on peut se rendre compte que si les moteurs sont les
outils qui amènent le plus de trafic, ils ne sont peut-être pas les plus efficaces en termes
d’objectifs commerciaux.

Les mots-clés recherchés


Google Analytics liste les mots-clés que les internautes recherchent pour venir sur le
site et propose, en prime, une visualisation de l’effet longue traîne.

3. Analyse de la conversion : vers plus de conversions


Il est possible d’éditer des rapports sur l’optimisation des pages de destination (les
landing pages). Grâce au schéma de l’entonnoir de conversion, des rapports sur la
navigation indiquent à quel moment le visiteur a abandonné son processus d’achat. Ces
données aident la prise de décision lors de l’intervention, afin de corriger d’éventuels
obstacles.

Graphique de l’entonnoir de conversion

212 Les Clés du Référencement sur le Web


MESURE DU SUCCES

3.1. Calcul du taux de rebond


Google propose également un graphique permettant de mesurer et de comparer son
taux de rebond. Entre 20 % et 40 %, le taux de rebond est considéré comme acceptable.
Le taux de rebond ne doit pas être confondu avec le taux de sortie. Google décrit le taux
de rebond comme le pourcentage d’internautes qui sont entrés sur la page et qui ont
quitté le site immédiatement après. Le taux de rebond mesure donc une visite qui n’a
comptabilisé qu’une seule page.
Le taux de sortie d’une page indique quant à lui le pourcentage de visiteurs quittant le
site immédiatement après avoir consulté la page. La différence : le taux de sortie
indique généralement la dernière page consultée sur le site, après que les internautes
aient effectué une visite sur plusieurs pages sur le site Web.

3.2. Segmentation des visiteurs


L’évolution des solutions de Web Analytics permet maintenant de segmenter de
manière précise les visiteurs en fonction du canal marketing qu’ils ont emprunté et de
leurs interactions avec le site examiné. De fait, on peut maintenant clairement dissocier
le trafic en termes d’origine de campagnes (mailing, liens sponsorisés, référencement
naturel, etc.) et selon le comportement des internautes une fois qu’ils sont sur le site
(analyse comportementale). L’eMarketer qui sommeille en chacun de nous sera alors
capable de cibler de manière de plus en plus précise ses prospects et de leur proposer un
contenu, pour ainsi dire, taillé sur mesure.
Au final, le croisement entre les mesures « User Centric » et les données « Site
Centric » permet d’affiner le ciblage de ses campagnes Web marketing et de réduire, de
manière substantielle, ses coûts d’acquisition.

3.3. Tests en grandeur nature


Toujours dans Google Analytics, il est possible de faire des tests sur ses pages. En
créant différents scenarii et en les testant directement sur le site, il est possible d’obtenir
rapidement des statistiques pour décider de mettre en place la page la plus performante,
c'est-à-dire celle qui transformera le plus de visites en conversions.
Par exemple en changeant le texte sur un bouton : au lieu de « cliquez ici », il sera plus
stratégique de mettre le texte « cliquez ici pour avoir un devis en 48 h ». En réalisant
des tests en grandeur réelle et en mesurant les conversions, on peut se rendre compte de
la puissance d’un simple ajout de texte.
Ces tests peuvent se faire sur le texte d’un bouton, sur une image ou même sur des
couleurs. Des slogans peuvent être également testés.

213
MESURE DU SUCCES

Un exemple des calculs sur les performances des différentes versions d’une même page web

Test A/B sur 2 versions d’une même page afin de savoir quelle est la plus performante - source : Google

214 Les Clés du Référencement sur le Web


MESURE DU SUCCES

Ces tests reposent sur un précepte : plutôt que de faire confiance aux avis des personnes qui
travaillent avec vous (« J’ai l’impression que cette mise en page plaira plus aux internautes
que celle-ci, qu’en penses-tu ? »), un test A/B ou multi-variable va vous permettre de
prendre des décisions qui reposeront sur un échantillon très important d’internautes.
Il existe deux systèmes :
Les tests A/B (Split Run Testing) qui servent à évaluer les performances respectives
de deux versions différentes d'un même élément :

Par exemple, deux versions d’un formulaire, d’une bannière, d’un encadré textuel, etc.
Les tests multivariables (MultiVariable Testing) qui vous permettent de comparer,
de manière simultanée, différentes versions de plusieurs éléments d’une même page.
Dans ce cas, le test va porter sur des variations concernant, à la fois, l’apparence d’un formulaire,
les différentes versions de l’image d’illustration, le texte affiché par une bannière, etc.
De manière similaire, il existe deux types de rapports :
Les rapports sur les combinaisons : affichent les performances de l’ensemble des
combinaisons de page générées à partir des variantes des éléments de page que vous
avez créées ;
Les rapports sur les sections de page : indiquent quelles sont les variantes les plus
efficaces de chaque section de la page web.

Les objectifs qui peuvent être atteints sont très disparates :


Taux de conversion d’un formulaire ;
Mise en avant de promotions sur des produits ou des services ;
Téléchargement de livres blancs ou de fichiers de présentation créés par l’entreprise ;
Incitation à visiter un site faisant partie du même réseau que celui de la société ;
Diminution des abandons de panier ;
Abonnement à une newsletter.
Et encore, ces quelques suggestions sont loin de recouvrir la multiplicité des champs
d’application.
En bref, le propos n’est plus de faire des visites d’un seul point de vue quantitatif
mais bien de travailler sur l’ergonomie (au sens large) du site et de développer, de
manière éclairée, son taux de conversion.
On aurait tort de sous-estimer l’efficacité des outils permettant de faire de la « Web
conversion ». Menée avec rigueur et professionnalisme, une étude complète permet aux
sociétés d’enregistrer des progrès spectaculaires : taux de rebond en recul de 10 points,
durée des visites augmentées de plus de 30%, taux de conversion qui gagne 15 points, etc.
Un dernier conseil : ne passez pas à côté de cet outil indispensable au e-marketing !
215
CINQUIEME ETAPE :
PRECAUTIONS A PRENDRE
PRECAUTIONS A PRENDRE

Réalisées volontairement ou non, certaines actions sont à éviter pour ne pas risquer de
mettre à mal son référencement. Les facteurs bloquants doivent être éliminés de son
site pour faciliter le passage du robot sur ses pages et ouvrir l’intégralité de son contenu
aux moteurs de recherche. Les techniques de spam doivent être, quant à elles,
complètement éradiquées de votre site. Un blacklistage réduirait à néant tous les efforts
menés vers la tête des résultats des moteurs et placerait le site dans une position
délicate vis-à-vis des moteurs.

Chapitre 1 : Idées fausses sur le référencement


Encore jeune, le métier de référenceur a besoin de la création de normes et de
standards. La croissance rapide du marché et le manque d’informations autour de cette
compétence a entraîné beaucoup de théories et de croyances, plus ou moins vérifiées.

« Il faut être en première position à tout prix »


Le but du référencement n’est pas d’apporter le plus de trafic, mais d’amener sur ses
pages un trafic de qualité. Il s’agit d’arriver en tête de liste sur une expression qui
pourra donner, par la suite, des conversions en termes de ventes ou de contacts.

« Le référencement naturel : ce sont des résultats garantis à vie »


Etre bien positionné est un travail de longue haleine, non seulement pour arriver en tête
des résultats, mais également pour y rester. Il faut savoir défendre sa position face à la
concurrence. Une position ne s’acquiert pas, elle se travaille.

« Faire appel à un professionnel implique 100% de réussite »


La notion de garantie n’a de cesse de revenir dans les débats autour du référencement.
Même le plus qualifié des référenceurs ne peut assurer une place définitive et
immuable en première position sur Google. Il peut néanmoins s’engager sur la mise en
œuvre de différents moyens pour arriver à une meilleure visibilité, garantir de
positionner dans le « Top 30 » un minimum de mots-clés, voire fixer des objectifs
réalistes de fréquentation suite au travail réalisé.

« Si je cache du texte blanc sur un fond blanc, Google n’en saura rien »
Même si certaines techniques « Black Hat » ne sont pas comprises techniquement par
les moteurs de recherche, les « Google Quality Raters » sont là pour veiller au grain et
rechercher manuellement les techniques inappropriées !

218 Les Clés du Référencement sur le Web


PRECAUTIONS A PRENDRE

« Utiliser le système publicitaire Google AdWords va me permettre d’être mieux


positionné »
A ce jour, il n’y a aucune corrélation qui peut être observée entre l’utilisation du
référencement publicitaire Google Adwords et une éventuelle amélioration de son
référencement naturel.
Mais, en dépit des nombreuses mises au point de Google, certains webmasters auraient
constaté une corrélation entre des pertes de positionnement importantes et l’arrêt de
leur campagne AdWords.
Une fois le diagnostic établi, on peut tenter d’expliquer ce phénomène… Il est sûr que
puisque Google AdWords établit une mesure très précise du score de qualité des
annonces publicitaires, il sera plus à même de mesurer l’intérêt des pages d’un site en
fonction de tel ou tel mot-clé ou expression de recherche. De fait, il est tentant
d’imaginer une corrélation indirecte entre une campagne et le positionnement naturel
d’une page et ce du fait que Google possède des informations plus précises sur cette
dernière.
Ceci posé, on aura plus tendance à parler d’effet secondaire (« side effect ») avec des
conséquences qui doivent, tout de même, être marginales si le référencement naturel du
site repose sur des bases solides.

« Le référencement payant (publicitaire) est plus efficace que le référencement


naturel »
Le nombre d’internautes qui cliquent sur les liens sponsorisés est encore faible dans
certains pays. En outre, on constate dans certains domaines d’activités, une hausse des
coûts au clic sur certains mots-clés, rendant le retour sur investissement parfois
difficile pour une TPE/PME. Aussi, une stratégie de référencement ne peux être basée
uniquement sur ce type de référencement payant.

« Un site validé W3C n’a pas besoin d’être référencé »


Les moteurs prennent en compte des dizaines, voire des centaines de critères d’analyse.
Il n’a jamais pu être démontré qu’un code informatique conforme aux standards du
World Wide Web Consortium ait un impact majeur sur le référencement de son site
Internet. En outre, considérer le référencement sur un unique aspect technique est,
aujourd’hui une erreur majeure pour quiconque souhaite faire de son site Internet un
générateur de prospects ou de clients.

219
PRECAUTIONS A PRENDRE

Chapitre 2 : Facteurs bloquants

Le design représente une section importante dans la vie d’un site. Il met en avant des
rubriques, alerte sur des actualités et peut aider les visiteurs dans leur navigation. Flash,
DHTML, JavaScript ou encore feuille de style sont pourtant autant d’éléments qui
peuvent interférer et gêner le référencement.

1. JavaScript

Le JavaScript est un langage de programmation utilisé pour rendre des pages Web
interactives. Utilisé généralement pour concevoir des pop-up, des formulaires ou
encore des rollovers, le contenu d’une action en JavaScript n’est pas relevé par les
robots.

Pour ceux qui ne peuvent pas se passer de JavaScript, quelques solutions existent pour
améliorer le passage des robots. Il est préférable de placer ce code entre les balises
<head> ou <body>

Exemple de code JavaScript dans la balise <head> :

<html>
<head>
<title> titre de la page </title>
<meta name="description" content="résumé de la page">
<meta name="keywords" content="liste mots-clés">
<script language="Javascript" type="text/javascript">
Contenu du javascript
</script>
</head>

Placer le JavaScript à la fin du tag "body" permet de s’assurer que les robots intègrent
la totalité du contenu HTML placé au dessus et diminue le risque de perdre les robots
lors de leur scanner. Reste que cette solution peut accroître le temps de chargement des
pages, surtout si le code JavaScript est long.

220 Les Clés du Référencement sur le Web


PRECAUTIONS A PRENDRE

La meilleure solution pour le JavaScript reste, dès que c’est possible, de placer le code
dans un fichier externe.

Exemple d’appel du code JavaScript placé dans un fichier externe :

<head>
<title> titre de la page </title>
<meta name="description" content="résumé de la page">
<meta name="keywords" content="liste mots-clés">
<script language="Javascript" src="scripts/nomduscript.js"
type="text/javascript">
</script>
</head>

Cette solution offre l’avantage de diminuer le temps de chargement de la page, un point


capital pour ne pas décourager ses visiteurs et garder les robots. En effet, le temps de
chargement de la page augmente ses chances de voir le robot continuer de crawler
l’intégralité du site.

Autre moyen : la balise <noscript>


Elle sert à rajouter un texte informatif pour les navigateurs ne supportant pas le
JavaScript.

Exemple de balise <noscript> :

<head>
<title> titre de la page </title>
<meta name="description" content="résumé de la page">
<meta name="keywords" content="liste mots-clés">
<noscript>contenu</noscript>
</script>
</head>

Seul problème, de nombreux abus ont amené les moteurs à accorder beaucoup moins
d’importance au contenu de la balise <noscript>.

221
PRECAUTIONS A PRENDRE

2. Feuilles de style CSS

Le concept des feuilles de style en cascade a pour principe de regrouper dans un même
document des caractéristiques de mise en forme associées à des groupes d'éléments.
Alors que le code HTML offre un certain nombre de balises pour mettre en page le
contenu et définir le style d'un texte, les feuilles de style viennent compléter les styles
de présentation. En modifiant la composition d’une feuille de style, la présentation
s’applique au site entier.

Une solution qui facilite grandement la gestion du site et améliore l’homogénéité des
pages. Seul inconvénient, ces styles ne sont pas compris par les moteurs. Comme le
JavaScript, il est possible de créer des fichiers externes pour les CSS.

Exemple de CSS en fichier externe :

<head>
<title> titre de la page </title>
<meta name="description" content="résumé de la page">
<meta name="keywords" content="liste mots-clés">
<link rel="stylesheet" type= text/css" href="css/style.css" >
<style type="text/css"></style>
</head>

3. Frames

Cadres en français, les frames permettent d'afficher plusieurs pages HTML dans
différentes zones. Cette solution doit être évitée au maximum. Non seulement peu
ergonomiques, les cadres déroutent les robots et cumulent les handicaps pour les
visiteurs.

Certains navigateurs ne sont pas compatibles avec les frames, comme les robots. Il est
prudent de proposer son contenu sous une autre forme que des cadres. Pour ce faire, le
contenu d’un cadre doit être placé dans la section <noframes>.

Les abus d’utilisation de la base <noframe> l’on rendu beaucoup moins importante
voire totalement ignorée par certains moteurs de recherche.

222 Les Clés du Référencement sur le Web


PRECAUTIONS A PRENDRE

4. Flash

Le Flash offre aux visiteurs des contenus interactifs au travers de graphiques, de vidéos
et d’animations. Très design, les internautes doivent posséder un lecteur Flash (plugin)
pour visualiser l’animation. Les robots étant dépourvus de ce lecteur, ils ne peuvent ni
détecter l’animation, ni la comprendre.

Google et Yahoo! ont annoncé travailler main dans la main avec Adobe (éditeur Flash)
afin d’améliorer la prise en compte du format Flash par les moteurs de recherche.
Depuis cette année, le format est de mieux en mieux reconnu et interprété par les
robots. Reste que les pages Flash ne sont pas toujours bien placées dans les résultats
des moteurs. Aujourd’hui, une page entièrement en Flash ne contient pas ou peu de
texte à indexer. Le même constat peut être fait pour les liens à suivre que les robots
n’arriveront pas à détecter. Le site restera dans l’ombre.

Présenté sous la forme de fichiers .swf, le Flash est inséré dans les pages d'un site. Pour
sortir de cette impasse, plusieurs solutions sont préconisées. Certaines sont toutefois
risquées et peuvent reléguer le site au rang de spammeur.

Afin de mettre toutes les chances de son côté, les sites utilisant du Flash créent des
pages attenantes, proposant des éléments textes pour le référencement, en utilisant la
balise 'noembed'. Cette dernière permet de rendre accessible le contenu Flash aux
navigateurs et robots n'ayant pas de plugin Flash.

Le risque d’une telle solution est de placer le site en contre-indication avec les règles
des moteurs. En effet, le contenu que voient les moteurs doit être identique à celui
visible par les internautes. L’opération doit donc être menée avec finesse.

Une autre astuce consiste à intégrer la balise SWFObject et d’intégrer dans cette
dernière les textes et images pour un contenu alternatif.

Aujourd’hui, les moteurs intègrent de mieux en mieux le format Flash. Malgré tout, le
site doit proposer le choix entre une visite du site en Flash ou en HTML, une solution
qui permettra à la page de contenir suffisamment d'éléments comme des mots-clés et
un plan du site.

223
PRECAUTIONS A PRENDRE

5. Pages Web dynamiques

De nombreux sites proposent des pages dont les contenus textes et visuels sont issus en
temps réel d'une base de données. Généralement écrits en ASP (Active Server Pages),
en CFM (Cold Fusion), en PHP (Hypertext PreProcessor) ou encore en JSP
(JavaServer Pages), les moteurs appréhendent les pages dynamiques de façon très
différente. Ces pages créées « à la volée » peuvent vite être trop nombreuses : en
multipliant le nombre d’options possibles autour d’un produit, comme les différentes
variétés, leur taille, leur couleur ou encore leur zone de livraison, des commerçants
comme la Fnac ou comme les 3 Suisses disposent chacun de centaines de milliers de
pages web pour présenter chacun de leur produit de façon unique. Les robots se
retrouvent submergés par la somme des pages à indexer. Sans compter qu’une même
page peut être accessible sous plusieurs URLs.

De manière générale, les sites dynamiques ne poseront pas de problème en


référencement, à partir du moment où leur URL est adaptée.

C’est, en effet, sur ce dernier critère que les robots trébuchent. Dans les sites
dynamiques, l’URL est générée automatiquement et présente des caractères spéciaux,
comme le point d'interrogation ("?") et l'esperluette ("&").

Exemple d’URL dynamique :

www.monsite.com/products.asp?=product_no=32&catalogId=10001

La solution de l'URL rewriting consiste donc à minimiser le nombre de paramètres


dans l’URL, en renommant ces derniers automatiquement pour que les robots
comprennent le sens : cette technique permet de réécrire les URLs complexes issues
des bases de données, sans aucune variable ou autres caractères exotiques.

Exemple de pages Web avant la ré-écriture :

http://www.monsite/listing.php?annee=2008&mois=08&jour=26&minutes=53

Exemple de pages Web après la ré-écriture :

http://www.monsite/2008/08/26/53.html

224 Les Clés du Référencement sur le Web


PRECAUTIONS A PRENDRE

L’objectif de la ré-écriture d’url est triple :

Rendre accessible aux moteurs de recherche des URLs dynamiques considérées


comme « exotiques » en les transformant en URLs dites statiques. En effet, certains des
moteurs de recherche restent bloqués dans le suivi des liens lorsqu’il s’agit d’URLs
contenant plus de 3 variables ;

Rendre plus explicite le contenu et rendre plus lisible la lecture de l’URL qui
s’affichera dans les résultats de recherche ;

Inclure les mots-clefs stratégiques dans l’URL.


Il est à noter que la plupart des CMS (Joomla par exemple) dispose aujourd’hui de
composants de réécriture d’URL.

Pour aller plus loin sur la mise en œuvre de la réécriture d’URL, prenons l’exemple
d’un site de vente en ligne utilisant le langage de programmation PHP. Les produits du
site sont stockés dans une base de données, chaque « page produit » est donc générée
dynamiquement (la référence du produit est passée en variable par méthode GET).

Avant réécriture, on a donc une URL de type : http://www.site.com/article.php?id=15

L’idée est donc de réécrire cette URL pour la rendre plus « intelligible ». Pour cela, on
utilise un fichier .htaccess avec le code suivant :

RewriteEngine On
RewriteBase /
RewriteRule ^article/([0-9]+)/(.*)l$ article.php?id=$1 [NC,L]

RewriteEngine On : cette ligne autorise la réécriture.

RewriteBase /: cette ligne permet de dire à Apache à partir de quelle adresse web vous
souhaitez réécrire vos URLs. Si votre fichier .htaccess se trouve dans un dossier, vous
devez donc préciser l’adresse ; exemple : /nomdudossier.

RewriteRule ^article/([0-9]+)/(.*)l$ article.php?id=$1 [NC,L] : cette ligne va


permettre de réécrire l’URL dynamique en une URL de la forme :
http://www.site.com/article/15

225
PRECAUTIONS A PRENDRE

Expliquons cette dernière ligne en détail : la première partie est l'adresse récupérée à
partir du navigateur. Celle-ci sera donc de la forme article ou un nombre. L'expression
([0-9]+) va récupérer l'ensemble des nombres : suite de chiffres de 0 à 9. Ce nombre est
stocké dans la variable $1. L'adresse est ensuite redirigée vers la page article.php avec
en argument le nombre demandé. [NC,L] signifie que la règle n’est pas sensible à la
casse (NC) et que celle-ci est la dernière règle à appliquer (L).

6. Détecter les facteurs bloquants

Pour savoir si son site Web comporte des facteurs bloquants, il est possible d’utiliser
des outils de simulation de passage d’un moteur de recherche tel que celui de Summit
(http://tools.summitmedia.co.uk/spider/).

Exemple de recherche de facteurs bloquants avec le site Summit - source : http://tools.summitmedia.co.uk/spider/

226 Les Clés du Référencement sur le Web


PRECAUTIONS A PRENDRE

De façon plus basique et visuelle, il est possible de mettre en évidence la méthode avec
laquelle un moteur de recherche examinera son site Web grâce à un vieux navigateur
du type Lynx.

Le site http://www.yellowpipe.com/yis/tools/lynx/lynx_viewer.php permet justement


de simuler l’utilisation de ce type de navigateur qui, évidemment, à l’époque de
Google Chrome, d’Internet Explorer 11 et de FireFox 3.0 n’a plus cours aujourd’hui.

Exemple de service simulant le navigateur Lynx

227
PRECAUTIONS A PRENDRE

Chapitre 3 : Spamdexing
1. Généralités
Le spamdexing est apparu très rapidement après la création des premiers moteurs de
recherche. Une première position sur les moteurs de recherche peut faire tourner la tête
et certains sites ont largement détourné les critères de classement des moteurs pour
arriver à leur fin.

Avec un index trop pollué par le spam, Altavista s’est laissé dépasser. Ne voulant pas
commettre la même erreur, les moteurs, et en particulier Google, appliquent une
politique anti-spam de plus en plus vigoureuse. Beaucoup de sites y ont laissé des
plumes. Les sanctions envers les spammeurs se diversifient, allant d’un simple
avertissement à une désindexation complète.

Les moteurs ont d’ailleurs mis en place des outils permettant de détecter
automatiquement les abus d’optimisation, complétés par des formulaires de rapport de
spam.

Tricher pour apparaître en première position n’est donc pas la solution. La frontière
entre spammeur et référencement a dans un premier temps été floue. Quels sont les
risques liés à une optimisation ? En effet, la détection de spam étant automatisée, ne
prend-on pas un risque en accordant son site avec l’algorithme des moteurs ? Ces
derniers compliquent d’autant plus l’exercice, en ajoutant régulièrement de nouvelles
règles. Le référenceur se doit également de se tenir au courant des dernières décisions
des moteurs.

Avec une notion en perpétuel changement, le spam reste difficile à détailler. D’une
manière générale, le spamdexing consiste à travestir son site et à le faire passer pour ce
qu’il n’est pas : il s’agit d’un référencement abusif. Différentes techniques sont
largement connues et sanctionnées automatiquement. Voici les principales.

2. Pages satellites
Les doorways pages, appelées aussi pages satellites, ne doivent pas être confondues
avec les pages d’atterrissage. Les doorways sont uniquement créées pour les moteurs
de recherche. Alors que les premières sont générées automatiquement, les secondes
sont rédigées par un humain, dans le but d’apporter aux utilisateurs un renseignement.

Les doorways pages n’ont également pas le même design que le reste du site,
expressément allégées pour les robots.

228 Les Clés du Référencement sur le Web


PRECAUTIONS A PRENDRE

Rempli de texte autour d’un mot-clé ou d’une expression, le contenu est, quant à lui,
sans valeur ajoutée pour l’internaute qui devra, soit cliquer sur un lien contenu dans la
page, soit retourner aux résultats de recherche.
Cette technique de spamdexing peut être détectée automatiquement par les moteurs ou
risque d’être dénoncée par des concurrents ayant décelé le subterfuge, voire même par
des internautes mécontents d’avoir été gênés par ce type de contenu.

3. Autres exemples de spamdexing


Le contenu invisible
Texte écrit de la même couleur que le fond de la page. Invisible pour l’internaute, il
consiste généralement à rappeler des mots-clés pour les moteurs de recherche.
Le moteur peut facilement détecter ces mots-clés cachés en comparant la couleur du
texte avec celle du fond de page.

Les liens cachés


Dissimulés par des éléments graphiques, ces liens sont uniquement suivis par les
moteurs.

Les faux liens


Alors que le lien s’affiche comme amenant vers le site www.siteabc.com, la destination
sera en réalité le site www.xyzsite.com.

La répétition de mots-clés
Le texte enchaîne des mots-clés sans tenir compte du sens de la phrase.

La balise H1
Les moteurs prenant en compte les titres des pages et du contenu, certains ont utilisé la
balise H1 pour tout leur contenu. Cependant, les moteurs notent seulement les
éléments mis en valeur. Comme le contenu est intégralement en H1, les robots ne
distingueront aucun contenu à valeur ajoutée.

Les abus de méta-tags


Même principe que le précédent, le but étant de bourrer ses meta-tags de mots-clés se
répétant.

Le cloaking
En français, la dissimulation. Technique qui consiste à fournir une page différente aux
moteurs et aux internautes. Une première sur-optimisée et une seconde plus graphique
et ergonomique.
229
PRECAUTIONS A PRENDRE

Les link farm


Ces fermes de liens exploitent la notion de popularité en automatisant les échanges de
liens hypertextes sur des centaines de sites.

Le splog
Contraction de spam et de blog, le procédé utilise des blogs factices pour améliorer
artificiellement sa popularité.

Les pages générées automatiquement


Destinées à fournir du contenu aux moteurs, ces pages n’ont, en revanche, aucun sens
pour les internautes.

Les pages de redirection


Surveillées de près par les moteurs, certaines pages ne renvoient pas vers une nouvelle
version équivalente, mais bien souvent vers la page d’accueil. Cette pratique est
sanctionnée par les moteurs.

Le duplicate content
Un contenu similaire figure sur plusieurs pages. Le moteur Google ne sélectionnera
qu’une seule de ces pages pour figurer dans son index.

L’achat de liens
Technique récemment classée par Google dans le spam. Ce dernier sanctionne les sites
ayant mis en place un système de backlinks payants.

Les mots-clés éloignés de son univers


Utiliser des noms de marques d’une autre société est passable de poursuite. Moins
risquée, l’utilisation de mots-clés à fort trafic n’entretenant aucun rapport avec la
thématique du site peut être sanctionnée par les moteurs de recherche.

La liste est longue et ne cesse de s’accroître. Au fur et à mesure de l’évolution des


algorithmes, de nouvelles techniques de spam viennent s’y ajouter.

En plus des robots d’indexation, des hommes viennent compléter le fonctionnement du


moteur de recherche Google. « Quality raters », voilà le nom de l’équipe en charge
d’améliorer les résultats des moteurs de recherche. Ces personnes détectent le spam,
identifient des sites répréhensibles et fournissent des retours sur la qualité des résultats.
Une équipe qui se charge également de dépouiller les formulaires de détection de spam
remplis par les internautes.

230 Les Clés du Référencement sur le Web


PRECAUTIONS A PRENDRE

Chapitre 4 : Attention à son image

Même si la tentation est grande pour arriver à être en première place des résultats de
recherche, employer de telles méthodes peut s’avérer néfaste pour son image de
marque.
Le spamdexing reste un fléau largement détesté par les internautes. Si un internaute,
après avoir mené une recherche sur les moteurs, sent qu’il a été floué en arrivant sur un
site, sa réaction sera de faire marche arrière.
Un blacklistage sur les moteurs de recherche peut également coûter cher à un site,
contraint de passer par les liens sponsorisés pour s’assurer un minimum de trafic.
L’image de marque prendra elle aussi un coup si la sanction arrivait aux oreilles de ses
clients.
La course aux liens peut également dériver sur du spam. Des webmasters et détenteurs
de sites se font spammer régulièrement par des mails de demande de liens. Peu
personnalisés et envoyés en masse, ces mails peuvent nuire à l’image du site
demandeur.

1. Fausses astuces

1.1. Pages en construction


Soumettre une page en construction est une erreur typique. Elle n’est pas sanctionnée
par les moteurs. En revanche, les robots n’ayant rien indexé « d’intéressant » la
première fois hésiteront à y retourner.
1.2. Eviter l’abus de majuscules
Dans son contenu, mais aussi dans les meta-tags, les lettres en capitales doivent être
limitées : pour rappel, une majuscule convient en début de phrase et pour un nom
propre. Non seulement l’abus de majuscule gène la lecture mais enlève de la valeur
esthétique au site. Beaucoup d’annuaires changent la casse, voire refusent l’inscription.
1.3. Modérer son inscription dans les annuaires
Cette étape peut être étalée dans le temps. Mieux vaut choisir avec parcimonie le
nombre d’annuaires que de partir à l’inscription à tout prix. Il existe des milliers
d’annuaires. Certains sont à éviter, d’autres sont de véritables atouts. Mieux vaut
d’abord en faire le tour, vérifier le fonctionnement des mises à jour et la régularité du
suivi.

231
PRECAUTIONS A PRENDRE

2. Situations qu’il vaut mieux éviter

2.1. Des pages de contenu avec beaucoup de graphiques


Sachant que les moteurs ne comprennent pas les éléments visuels, mieux vaut bâtir son
site sur des pages de contenus compréhensibles et intelligibles pour les moteurs.

2.2. Un site pauvre en contenu


Les sites d’images ou de vidéos ne gagneront pas beaucoup de place sur les moteurs
s‘ils ne sont pas renseignés avec du texte. De la même façon, un résumé ou de
l’information pratique doit être disponible sur toute page.

2.3. Une splash page en guise d’accueil


Une Splash page est une page d’entrée avec un contenu graphique. Son seul texte est le
bouton «entrée » ou « passer l’introduction ». Cette page ne présente pas vraiment
d’intérêt et demande à l’internaute de cliquer pour vraiment accéder au contenu.

2.4. Penser référencement une fois le site Web créé


Mettre des pansements à un site reste une solution très limitée avec des effets qui ne
seront pas aussi probants qu’un site avec une structure pré-dédiée au référencement.
Avec une concurrence toujours plus forte, mieux vaut éviter cette erreur.

2.5. Installer des programmes mouchards


Même s’il ne s’agit pas d’une erreur d’optimisation, Google sanctionne ces sites d’une
manière exemplaire. Chaque internaute passant par le moteur pour trouver un de ces
sites sera informé par un avertissement que ce site est référencé comme un programme
mouchard. Une manière de marquer au fer rouge ceux qui ne respectent pas les
internautes.

3. Comment se tenir éloigné du spam ?

Pour éviter d’avoir affaire de près ou de loin au spam, il est important de construire un
site d’abord pour ses visiteurs, en respectant ensuite les directives des moteurs.

L’optimisation doit se travailler le plus naturellement possible, en restant cohérent avec


son contenu.

232 Les Clés du Référencement sur le Web


PRECAUTIONS A PRENDRE

Il n’existe pas de solution miracle pour ressortir en première place des moteurs. Le
référencement est un travail de fond. A chaque proposition alléchante promettant un
classement en tête ou une popularité démultipliée sans aucun effort, il convient
toujours de penser à la notion de transparence, requise aussi bien par les internautes
que par les moteurs de recherche.

4. Penser à bien choisir son CMS

Certains CMS, également appelés systèmes de gestion de contenu, peuvent être mal
interprétés par les moteurs de recherche. Mieux vaut donc s’assurer de leur bonne
compatibilité avec ces derniers, avant d’y investir du temps et de l’argent. Il en existe
aujourdhui un certain nombre identifiés comme « search engine friendly », tels que
WordPress, Joomla, Typo3 ou encore Drupal.

4.1. Un titre de page renseigné et personnalisé


Le titre étant l’une des données prise en compte par les moteurs, le CMS doit être
paramétrable pour choisir le titre de la page et par défaut, il doit proposer un titre
différent pour chaque page.

4.2. Même constat pour la description et les mots-clés d’une page


Le CMS doit renseigner automatiquement ce contenu en fonction de la page et laisser
la possibilité d’intervenir manuellement.

4.3. L’URL qui convient


Attention aux CMS paramétrant des URLs trop longues ou contenant des caractères
non assimilés par les robots. La réécriture d’URL doit être pensée lors du choix d’un
CMS.

233
CONCLUSION
CONCLUSION

Etre en top liste des moteurs s’avère une mission de longue haleine. Au cœur de la
navigation des internautes, les moteurs peuvent être une source considérable de trafic
et participer à la construction de la notoriété de la marque.

Le référencement est une activité multi-facettes, aussi bien technique que marketing,
nécessitant du temps et de l’organisation. Une première place ne peut s’acquérir et se
conserver qu’avec une politique d’optimisation poussée et efficace. Celle-ci sera
d’autant plus performante qu’elle sera intégrée dans la politique globale de
l’entreprise.

Six préceptes pour un référencement efficace

1. Penser à l’utilisateur
Construire son site en fonction des besoins des internautes offre un avantage capital et
incite les visiteurs à revenir d’autant plus souvent. Comme le conseillent les moteurs,
un site proposant un contenu à valeur ajoutée sera un site favorisé dans le classement.

2. Bétonner ses fondations

Un temps de chargement des pages rapide, une structure solide, une architecture
logique, un nom de domaine et des noms de dossiers adaptés, sont autant d’éléments
qui pourront inscrire le référencement dans une optique durable.

3. Partir avec un plan de route

Ce conseil est utile pour ne pas s’engager dans une mauvaise direction. Ce plan de
route fixe d’abord ses objectifs et adapte ensuite les actions à mettre en place pour y
parvenir, en sélectionnant les bons mots-clés et en choisissant les bons outils.

4. Suivre sa politique globale

Il faut intégrer le référencement dans une démarche globale : former et informer sur le
thème de l’optimisation aussi bien les webmasters, les rédacteurs que la direction.
Dans une campagne de marketing classique, le référencement doit être intégré en
amont.

5. Utiliser le Web 2.0 et les réseaux sociaux

Articles, communiqués de presse, débats, conseils, vidéos, buzz, etc. Le site doit
s’imposer dans son secteur. Internet est un terrain de communication à appréhender.
236 Les Clés du Référencement sur le Web
CONCLUSION

6. Innover, tester et mesurer


Mettre en place de nouvelles actions et créer un contenu original permet à un site de
prendre de l’avance sur la concurrence. Chaque nouvelle méthode peut être testée et
son efficacité facilement mesurée.

Prospective sur le référencement


Avec un contenu sans cesse valorisé par les moteurs, les sites pourront se distinguer en
fonction de la politique éditoriale mise en place. Ton décalé, information abondante,
proposition de vidéos, interaction avec ses visiteurs : un site se doit d’être une source
d’information incontournable sur son secteur. L’importance du contenu va continuer
d’enfler.
Avec le Web 2.0, de nouvelles technologies de développement émergent. Des
techniques qui devront être maîtrisées en termes d’optimisation, mais qui pourront
également servir de support à sa visibilité. Avec des sites qui ont, de plus en plus,
tendance à se personnaliser en fonction de chaque internaute, le référencement sera
davantage adapté en fonction du public visé et s’orientera toujours plus profondément
dans le one-to-one. Cette solution permet en plus d’éviter les expressions trop
exploitées. Avec toujours plus d’acteurs, le travail va se complexifier face à une
concurrence de plus en plus nombreuse et acharnée.
Avec l’avènement de la recherche universelle, les résultats des moteurs sont
bouleversés. Un futur qui peut desservir certains sites qui verront de nouveaux
compétiteurs arriver, mais aussi une nouvelle opportunité pour mettre en avant les
richesses de leurs pages. Sur une requête immobilière par exemple, tout laisse à penser
que les moteurs fourniront bientôt aussi bien des photos, des plans et des vidéos
présentant les biens.

Choix d’un prestataire


De plus en plus de sociétés se tournent vers les prestataires pour leur confier leur
référencement. Le rôle principal de ces agences est de concevoir et de mettre en place
des méthodes pour faire ressortir les sites de leurs clients sur des mots-clés
sélectionnés.

237
CONCLUSION

Faire appel à un prestataire peut être justifié par un secteur très concurrentiel, un besoin
vital de visibilité ou encore lorsqu’un site doit développer rapidement ses positions.
Incluant des métiers multiples allant de la technique au marketing, les sociétés
rencontrent des difficultés à trouver une personne au fait de ces différents métiers. Les
agences disposent de pôles de compétences dans chacun de ces métiers. Autant de
raisons qui justifient le recours à un professionnel. L’offre même des référenceurs s’est
adaptée pour coller aux attentes des entreprises. Alors que les agences travaillaient
« pour » le client, elles ont de plus en plus tendance à travailler « avec » le client.

Certains points doivent néanmoins être surveillés lors du choix d’un prestataire. Les
garanties sont en effet à prendre avec des pincettes. Il est tout simplement impossible
pour un prestataire de garantir une première place sur un moteur, puisqu’il ne
commande pas les moteurs de recherche. Un changement d’algorithme ou encore un
travail poussé de la concurrence sont des facteurs que le professionnel du
référencement ne peut pas maîtriser. Sauf, bien sûr, dans le cas d’achat de liens
sponsorisés où la première place sera dépendante du budget alloué au mot-clé.

Pour s’assurer que le prestataire détient toutes les compétences requises, voici une liste
de questions à poser au préalable :

Depuis combien de temps est-il spécialisé dans le référencement ?


De combien de collaborateurs se compose son équipe ?
Quels sont le capital social et la structure juridique de la société ?
La société fait-elle preuve de transparence comptable ?
Dépose-t-elle régulièrement ses bilans comptables au tribunal de commerce ?
A-t-il un portfolio à présenter et une étude de cas présentant son travail sur d’autres
sites ?
Combien de campagnes de référencement a-t-il mené ? Combien de campagnes sont en
cours ?
Quel est son regard sur l’industrie du référencement ?
Que pense-t-il des bonnes pratiques préconisées par les moteurs de recherche ?
Comment se maintient-il au courant des dernières actualités sur les moteurs et sur le
référencement ?
Offre-t-il des garanties sur le positionnement ?
Se spécialise-t-il également sur les liens sponsorisés ?
Quels seraient ses conseils pour accroître la popularité d’un site ?
Comment mène-t-il une stratégie de référencement Web 2.0 ?

238 Les Clés du Référencement sur le Web


CONCLUSION

Que pense-t-il du Google PageRank ? Comment tient-il compte de cette valeur ?


Faut-il refaire le site pour être mieux placé ?
Quelles sont ses connaissances en terme de Web analytique ?
Que propose-t-il comme outil de suivi statistique ?
Fait-il appel à de la sous-traitance dans les pays à faible coût de main d’œuvre ?
Dispose-t-il d’un support client ? Comment se contacte-t-il ?
La personne en charge du projet a-t-elle obtenu les certifications de référencement
telles Google Adwords, Google Analytics, ou Microsoft AdExcellence ?
Qui sont les différents interlocuteurs dédiés à son projet ?
La société fait-elle partie d’associations professionnelles ?

Le site américain Search Engine Guide donne quelques conseils lors d’une
externalisation à cette adresse : http://www.searchengineguide.com/scott-
buresh/using-a-search-engine-optimization-compa.php

Le positionnement étant une opération qui s’inscrit dans le temps, le détenteur du site
Web se retrouve forcé de travailler sans avoir de retour sur les chiffres au début de la
prestation. Au bout de trois mois, les premiers effets se font sentir. Les professionnels
tablent en général sur six mois. Pour partir sereinement dans la prestation, mieux vaut
avoir fixé des objectifs par trimestre, mais aussi sur l’année, ne serait-ce que sur les
actions à mettre en place.

Prospective sur les moteurs de recherche

La multiplication des formats sur le Web amène les moteurs à revoir leurs outils et à
adapter des réponses en fonction du type de requêtes formulées. En intégrant les
photos, les vidéos ou encore les formats audio, les moteurs généralistes souhaitent
offrir une diversité à leurs utilisateurs. De nouveaux formats qui ont permis de voir
le paysage du marché des moteurs s’agrandir, avec des acteurs verticaux entrant dans
la course.

Avec le Web 2.0, les moteurs vont peut-être se servir de la communauté des
internautes pour sécuriser leur index et les sites qui le constituent. Aux Etats-Unis,
Google a déjà lancé des tests en demandant à ses utilisateurs de noter les sites figurant
dans ses résultats. Plus que jamais, un site doit donc rendre service à l’internaute et
apporter des bénéfices à ses clients.

239
CONCLUSION

La performance des moteurs continue d’augmenter et pousse vers toujours plus de


qualité. De nouveaux acteurs viennent rafraîchir les technologies, sans pour autant,
bouleverser les parts de marché.

La recherche sur mobile tend à se développer et représente un cheval de bataille majeur


pour les moteurs. Encore peu développé en France, le référencement sur mobile sera
d’ici quelques années un nouvel espace concurrentiel.

Le référencement naturel va devenir une activité toujours plus pointue, avec des bases
de données de plus en plus importantes et un fonctionnement des moteurs toujours plus
complexe (indexation en temps réel, Recherche Universelle, Web sémantique, etc.).
La concurrence va s’accroître : le nombre de noms de domaine déposés est estimé à
plus de 947 millions, contre 210 millions en 2010 et 1 million en 1997 (Netcraft – Avril
2014).

Une rivalité qui redouble avec l’apparition de nouveaux acteurs comme les médias
sociaux. En mars 2012, NM Incite estimait qu’il y avait 173 millions de blogs. Une
nouvelle concurrence qui peut rafler des places chèrement acquises.

Ce dynamisme accru va profiter au référencement publicitaire qui deviendra, d’ici


quelques années, un complément indispensable pour les sociétés en quête de visibilité.

Selon la 11ème édition de l'Observatoire de l'e-Pub du SRI et de Capgemini Consulting


(en partenariat avec l'UDECAM), le marché de la communication « online » pesait,
pour l’année 2013, 2 791milliards d’euros nets de chiffre d’affaires, avec une
croissance de 3% par rapport à l’année précédente.

Le « Search » (liens sponsorisés) poursuit sa croissance (+5%) et consolide sa place de


numéro 1 dans le mix digital. Il représente un chiffre d’affaires de 1 671 millions
d’euros net en 2013, soit 58% du marché de la publicité « online » en France.

240 Les Clés du Référencement sur le Web


CONCLUSION

Le « Display », deuxième segment en valeur, maintient sa croissance en 2013 (+2%) et


représente un chiffre d’affaires net de 753 millions d’euros, soit 26% du marché de la
publicité « online » en France. La dynamique de ce segment est observée :
Dans la croissance du display vidéo (+32%),
Dans la part croissante du display RTB (« Real time bidding ») dans les dépenses
publicitaires digitales qui atteint, cette année, 16%,
Dans le déploiement du display sur mobile et tablette qui représente 10% du display
(79 millions d’euros investis).

Les « autres leviers », basés sur un modèle à la performance, résistent bien en période
de crise : +0,5% pour un total de 454 millions d’euros investis :
L’affiliation progresse de 1% (219 millions d’euros) ;
Les comparateurs comptent pour 141 millions d’euros de chiffre d’affaires ;
L’emailing affiche une baisse de 1% sur l’ensemble de l’année.

Si une société est dans l’obligation d’être présente sur le Web, elle ne doit négliger
aucun des canaux d’acquisition marketing : SEO (« Search Engine Optimization »),
SEA (« Search Engine Advertising »), Mobile marketing, SMO (« Social Media
Optimization »), etc. C’est dont un défi considérable que doivent relever les entreprises
à la pointe des meilleures stratégies e-marketing.

241
GLOSSAIRE
GLOSSAIRE

A
A/B Testing
Un test A/B consiste à créer 2 versions d’une page ou campagne web et à les tester
toutes les deux afin de déterminer quelle sera la plus efficace en fonction d’un objectif
précis. Chaque page est montrée aléatoirement à l’internaute et un suivi statistique
permet de déterminer la version gagnante.

Adresse IP
Abréviation de « Internet Protocol », une adresse IP est une série de numéros
permettant d’identifier un ordinateur et tout autre matériel connecté à un système
informatique qui utilise Internet Protocol. Une adresse IP se présente sous la forme
suivante : xxx.xxx.xxx.xxx. Chaque adresse IP peut être convertie en un nom de
domaine, plus facilement lisible et mémorisable par l’internaute. Exemple d’adresse IP
: 01.234.56.789

Algorithme
En termes de référencement, un algorithme est un ensemble de formules
mathématiques complexes (ou règles secrètes), mises à jour régulièrement, permettant
d’attribuer un score de pertinence et de classer les pages d’un serveur Web dans les
résultats des moteurs de recherche, en fonction des requêtes faites par les internautes.

Appel à l'action / Call to action


Technique consistant à faire interagir l’internaute avec un site Web en lui faisant
exécuter une action spécifique (demande d’informations, achat, inscription, etc.). Un
appel à l’action peut prendre plusieurs formes, la plus courante étant le bouton incitatif
du type « cliquez ici », « en savoir plus », « acheter ici ». L’intérêt est de fournir à
l’internaute une réponse rapide et précise à sa requête afin d’augmenter le taux de
conversion.

244 Les Clés du Référencement sur le Web


GLOSSAIRE

B
Balise alt / Alt text
Balise HTML permettant de joindre un texte alternatif à un visuel afin d’enrichir le
contenu d’un site web. Cette pratique est recommandée par les moteurs de recherche et
joue un rôle en termes de référencement. De plus, lue par un logiciel de synthèse
vocale, elle favorise l’accès aux mal ou non-voyants.

Blacklist / Liste Noire


Elle comprend les sites Web n’ayant pas respecté certaines règles et ayant utilisé des
techniques abusives sur les moteurs de recherche (pages satellites, keyword stuffing,
duplication de contenu, ferme de liens, etc.). Un fraudeur inclus dans la blacklist est
écarté momentanément ou banni définitivement des bases de données des moteurs de
recherche et donc des pages de résultats de ces moteurs.

245
GLOSSAIRE

C
Canonical URL / URL canonique
L’URL canonique d’un site est son adresse « officielle ». Elle doit être définie lors de la
création du site, évitant ainsi tout problème de « duplication de contenu » en
redirigeant les autres URLs vers celle-ci.
Exemple d’URLs de page d’accueil pouvant contenir les mêmes informations :
http://www.monsite.com/
http://www.monsite.com/index.html
http://monsite.com/
http://monsite.com/index.html

Clustering
Pratique des moteurs de recherche qui consiste à limiter le nombre d’apparitions des
pages d’un même site dans les résultats de recherche. Cette pratique a pour but d’éviter
qu’un site monopolise la ou les premières pages de résultats. Sur Google, un site est
limité à deux apparitions sur une même page de résultats suite à une requête... Il sera
néanmoins possible de trouver en dessous d’un premier résultat l’option « Autres
résultats… » permettant à l’internaute d’accéder à d’autres URLs du site Internet.
L’objectif du Clustering est de permettre à plus de sites Internet différents d’apparaître
dans les premières pages de résultats.

CMS : Content Management System


Système de gestion de contenu (SGC) ou Content Management Systems (CMS).
Famille de logiciels destinés à la conception et à la mise à jour dynamique de sites
web ou d’applications multimédia. Ils partagent les fonctionnalités suivantes :

Ils permettent à plusieurs individus de travailler sur un même document,


Ils fournissent une chaîne de publication (workflow) offrant, par exemple, la
possibilité de mettre en ligne le contenu des documents,
Ils permettent de séparer les opérations de gestion de la forme et du contenu,
Ils permettent de structurer le contenu (utilisation de FAQ, de documents, de blogs,
de forums de discussions, etc.),
Certains CSG permettent de gérer les différentes versions de votre site web.
Les SGC permettent de réaliser la gestion de contenu dans l’entreprise, il s’agit de
l’ECM. (Source : Wikipédia)

246 Les Clés du Référencement sur le Web


GLOSSAIRE

CPC : Coût Par Clic


PPC ou Pay Per Click en anglais. Mode de tarification des campagnes publicitaires
sur le Web. Un prix d’enchère maximum (CPC maximum) est fixé pour chaque clic
d’un internaute sur une annonce publicitaire qui est diffusée sur des pages de résultats
ou sur le réseau de contenu des moteurs. Plus l’enchère est élevée, plus vous
augmentez vos chances de voir votre annonce en meilleure position.

CPM : Coût Pour Mille


Mode de tarification des campagnes publicitaires. Un montant d’enchère maximum
(CPM Maximum) est fixé pour 1000 impressions d’une annonce publicitaire.
Contrairement à l’enchère par CPC, l'annonceur ne paye pas pour les clics sur ses
annonces mais, uniquement, en fonction du nombre d’affichage de la publicité.

CSS : Cascading Style Sheets


Le CSS ou « Feuilles de Style de Cascade » est un langage permettant de gérer la
mise en page et la présentation des pages, du contenu du site web et des documents
HTML. Son utilisation permet de changer aisément la conception des pages en éditant
un seul fichier.

CTR : Click Through Rate


Le taux de clics (en français) est un indicateur permettant de mesurer la performance et
le succès d’une annonce de référencement publicitaire. Plus les internautes cliqueront
sur une annonce et plus le CTR sera élevé. Il joue un rôle dans l’attribution d’une note
de score de qualité par le moteur de recherche Google.

247
GLOSSAIRE

D
Densité de mots-clés
Score établi en fonction du nombre de fois qu’un mot-clé est répété par rapport au total
de mots présents dans une page web. Cette densité de mots-clés joue un rôle important
lors du référencement, après passage des robots sur toutes les pages du site web.
Cependant une récurrence excessive d’un même mot-clé peut être interprétée par les
robots des moteurs de recherche comme du Spamdexing.

DKI : Dynamic Keyword Insertion


Insertion dynamique d’un mot-clé tapé par l’internaute dans l’annonce d’une
campagne de référencement publicitaire. Grâce à cette fonction, votre annonce pourra
être jugée plus pertinente par les internautes car le mot-clé tapé par eux sur le moteur de
recherche y sera inséré automatiquement. Cette technique permet d’augmenter le taux
de clics (CTR) de votre annonce.

Dmoz : Directory Mozilla


Répertoire multilingue de sites Web de l’Open Directory Projet (ODP), entièrement
gratuit, le plus important et le plus complet. Créé en 1998, il est utilisé par Google pour
s’adapter aux évolutions du Web. Il est géré par des milliers d’administrateurs
bénévoles.

Duplication de contenu
Aussi appelé « duplicate content ». On parle de duplication de contenu lorsque l’on
retrouve des blocs de contenus (importants ou non) identiques ou similaires sur un
même nom de domaine ou sur différents domaines. Cette pratique peut être considérée
comme trompeuse par les moteurs de recherche si son but est de manipuler les
classements sur les moteurs. Elle peut entraîner des pénalités telles qu’un recul du
positionnement du site Internet dans les pages de résultats, voire un Blacklistage de
celui-ci.

Dynamic text insertion


Cette fonction permet l’insertion dynamique d’un texte dans le corps d’une annonce de
référencement publicitaire. Une annonce personnalisée a plus de chances de
correspondre à la requête tapée par l’internaute et permet ainsi d’attirer de nouveaux
visiteurs.

248 Les Clés du Référencement sur le Web


GLOSSAIRE

F
Fil d’Ariane
Egalement appelé « chemin de fer », le fil d’Ariane est une technique permettant à
l’internaute de naviguer sur un site et de hiérarchiser les informations de ce même site.
Concrètement, il consiste en une succession de liens allant de la page d’accueil jusqu’à
la page consultée.

Flash
Technologie développée par la société Adobe permettant la création d’animations
graphiques et interactives sur une page web. Cette technologie n’étant pas encore
lisible par les robots des moteurs de recherche, elle peut entraver le référencement d’un
site sur les moteurs de recherche.

Frame
« Cadre » en français, un frame permet d'afficher dans une unique fenêtre de navigateur
plusieurs pages ou sections web indépendantes en même temps. Chaque frame
représente une page Web indépendante avec une URL qui lui est propre.

249
GLOSSAIRE

G
Geo-ciblage (geo-targeting)
Le géo-ciblage est une méthode de ciblage des internautes par rapport à une zone
géographique. Concrètement, le geo-targeting utilise les adresses IP des internautes
pour analyser leurs localisations et afficher les sites ayant choisi cette même
localisation comme zone d’apparition. Cette technique permet d’avoir des résultats sur
les moteurs de recherche plus ciblés et plus pertinents.

Google bomb / Google bombing


Technique consistant à détourner le PageRank de Google en créant un grand nombre de
liens vers un site Web à partir d’un mot ou d’une expression clé spécifique.
Généralement utilisé à des fins satiriques, le Google Bombing permet de faire ressortir
un site web dans les premiers résultats du moteur de recherche. Conscient de ce
problème, Google tente d’atténuer cet effet non voulu en modifiant son algorithme.

Google Dance
Périodes révolues où Google mettait à jour le classement des différentes pages de son
index. Pendant ce cycle, la position et le PageRank des pages de sites web variaient sur
les résultats des moteurs de recherche, d’où le nom de « dance ».

Googlebot
Robot spécifique au moteur de recherche Google, utilisé pour analyser et indexer les
contenus et pages Web en identifiant les balises HTML. Celui-ci crawle les pages du
Web à la recherche de nouvelles informations à référencer. La notion de qualité entre
en jeu puisqu’un robot passe ainsi plus souvent sur des sites à fort PageRank.

250 Les Clés du Référencement sur le Web


GLOSSAIRE

I
Impression
Dans le cadre du référencement publicitaire, une impression correspond à l’affichage
d’une annonce sur le réseau de recherche ou de contenu d’un moteur de recherche.

Indexabilité
Egalement appelé « indexability », « crawlability » ou encore « spiderability », elle
correspond à la capacité des pages d’un site Internet à être indexées par les robots des
moteurs de recherche et donc à être ajoutées dans leurs bases de données. La présence
d’un contenu textuel pertinent sur les différentes pages d’un site Internet ainsi que de
liens hypertextes liant toutes les pages d’un site entre elles sont autant d’éléments qui
favoriseront l’indexation des pages d’un site.

Intitulé de lien / Anchor text


Texte cliquable par les internautes dans un lien hypertexte. Il s’agit d’un des éléments
déterminants pour l’optimisation d’une page. Il est donc important d’y inclure des mots
ou expressions clés stratégiques.

251
GLOSSAIRE

K
Keyword prominence / Proéminence des mots-clés
La proéminence d’un mot-clé est la mesure déterminant sa distance par rapport au
début du texte présent sur une page. Mesurée en pourcentage, la proéminence sera
d’autant plus grande que le mot-clé est placé en début de texte. Cet élément faisant
partie des critères analysés par les moteurs pour positionner une page, il est crucial d’en
tenir compte lors de l’optimisation des pages d’un site.

Keyword stemming
Il s’agit de la capacité des moteurs à identifier des mots-clés semblables à la requête
tapée. Ce procédé permet aux moteurs de recherche de reprendre la racine d’un mot-clé
afin de faire apparaître les variantes de ce mot-clé (les pluriels / singuliers et féminins /
masculins) dans les pages de résultats.

Keyword stuffing
Ou bourrage de mots-clés en français. Pratique sanctionnée par les moteurs de
recherche consistant en une récurrence importante de mots-clés dans le contenu visible
d’une page et dans ses méta tags, afin d’améliorer son positionnement sur les résultats
des moteurs de recherche.

252 Les Clés du Référencement sur le Web


GLOSSAIRE

L
Latent semantic indexing
La LSI consiste à associer et à établir des relations entre les mots-clés d’un site afin que
les moteurs de recherche puissent plus facilement identifier la thématique du site
Internet. Pour un même thème, il est efficace d’utiliser des mots-clés différents, les
moteurs de recherche comprennent ainsi plus facilement de quoi le site traite.

Lien absolu / Absolute link


Lien utilisant une adresse URL pleine, c'est-à-dire composée du nom de domaine et du
chemin d’accès complet au fichier/URL. A l’inverse, il est possible d’utiliser des liens
relatifs (voir définition plus bas).

Lien contextuel / Contextual link


Lien commercial n’apparaissant sur les pages Web que lorsqu’il y a pertinence entre le
contenu du site et les mots-clés travaillés dans le cadre de la campagne de
référencement publicitaire. Ce type de publicité est mieux accepté par les internautes
puisqu’il est moins intrusif. Google a été le premier à avoir exploité cette technique
contextuelle avec Google Adsense.

Lien entrant / Backlink


Lien pointant vers un site Web et provenant de sites extérieurs (sites partenaires, blogs,
forums etc.). Les backlinks jouent un rôle important dans la notation du Pagerank
puisque celui-ci dépend de la pertinence des liens entrant et de la qualité des pages sur
lesquelles pointent ces liens.

Lien relatif
Un lien relatif utilise une adresse URL « cachée », c'est-à-dire sans nom de domaine. A
l’inverse, il est possible d’utiliser un lien absolu, correspondant à une URL pleine.

Lien sponsorisé
Annonce commerciale, généralement située dans les premières positions des résultats
des moteurs de recherche. L’achat de cet espace publicitaire se fait par un système
d’enchères de mots-clés et son coût est déterminé par le CPM ou le CPC. Plus les
enchères sont élevées, plus le coût sera important.

253
GLOSSAIRE

Longue traîne / Long Tail


Processus permettant de constater que la sélection de mots-clés jugés essentiels a
souvent un impact moindre par rapport au choix de nombreux mots-clés, plus
généralistes, et moins spécifiquement attachés au secteur d’activité concerné.

Lors du référencement, la logique permettrait de penser qu’il faut sélectionner des


mots-clés spécifiques à votre domaine d’activité. Cependant, en choisissant des mots-
clés plus généralistes, vous pouvez constater que le trafic généré et les conversions
obtenues sont plus importants. C’est ce qu’on appelle l’effet Long Tail ou longue
traîne.

254 Les Clés du Référencement sur le Web


GLOSSAIRE

M
META moteur
Moteur de recherche analysant simultanément plusieurs moteurs afin de proposer des
résultats pertinents et dédoublonnés aux internautes, qui n’ont alors pas besoin de
consulter différents moteurs pour une même requête.

META tag
Information invisible pour l’internaute, aussi appelée balise méta, insérée dans l’en-
tête de la page, dans le code source HTML. Elle est utilisée afin de donner plus
d’informations aux robots d’indexation des moteurs de recherche. Certains moteurs de
recherche en tiennent plus compte que d’autres.

META title
Balise annonçant le titre d’une page Web. Ce titre doit contenir des mots-clés pertinents
et doit être accrocheur, puisque c’est essentiellement lui qui va décider l’internaute à
visiter la page correspondante. Un titre doit correspondre à une page et doit donc être
différent pour chaque page.

META description
Balise importante puisqu’elle décrit le contenu d’une page. Ce résumé correspond au
Snippet présent dans les Serps et incite les internautes à visiter votre site.

META language
Balise informant le robot sur la langue dans laquelle est écrit le site.

META refresh
Balise utilisée pour réactualiser une page Web au bout de x minutes ou servant de
redirection. Néanmoins une redirection 301 ou 302 est préférerable.

META keywords
Balise permettant d’annoncer les mots-clés d’une page Web aux robots. Cependant,
elle est, aujourd’hui, peu prise en compte par les moteurs.

255
GLOSSAIRE

Multivariate Testing / test à variables


Comme pour le test A/B, cette technique permet de comparer simultanément plusieurs
versions d’une campagne publicitaire ou plusieurs versions d’une page d’un site Web
afin d’identifier les plus efficaces, selon un objectif préalablement fixé (inscription,
téléchargement, clic, etc.). La spécificité d’un test multi variables est de permettre la
comparaison de plusieurs éléments d’une même page en utilisant toutes les
combinaisons possibles.

256 Les Clés du Référencement sur le Web


GLOSSAIRE

N
Negative keyword
Mots-clés à exclure, mis en place lors de campagnes AdWords afin d’optimiser le
ciblage des internautes, de limiter le CPC et de maximiser son ROI.

257
GLOSSAIRE

O
Occurrence de mots-clés
Nombre de fois qu’un mot-clé est répété sur une page web. Il faut doser la densité de
répétition des mots-clés. Ils doivent être répétés suffisamment souvent pour que les
moteurs de recherche jugent son contenu pertinent par rapport à une requête. En
revanche, il ne faut pas en abuser au risque d’être sanctionné. Elle permet également de
calculer l’indice de densité.

ORM
La gestion de Réputation en Ligne ou Online Reputation Management consiste à
surveiller l’image de marque d’une société sur le Net. Avec l’arrivée du Web 2.0 et de
l’interactivité avec l’internaute, gérer son image de marque est devenu vital. En effet,
une société ne peut pas gérer les réactions des internautes mais peut, en revanche, les
influencer.

258 Les Clés du Référencement sur le Web


GLOSSAIRE

P
Page d'atterrissage / Landing page
Page sur laquelle un internaute arrive suite à un clic sur une annonce AdWords. Une
bonne page d’atterrissage doit répondre à de nombreux facteurs clés dont :

la pertinence : la page doit donner à l’internaute une offre/information pertinente, en


réponse au texte d’accroche qui a poussé l’internaute à cliquer sur l’annonce,
la clarté : elle doit aussi présenter une structure simple et incitative à l’action,
l’efficacité : elle doit également répondre à un but précis, généralement une action
(achat, clic, etc.).

La qualité d’une page d’atterrissage est déterminante pour les moteurs de recherche qui
calculent ensuite son score de qualité, mais elle l’est également pour les internautes
qu’il faut convaincre de cliquer ou d’effectuer l’action souhaitée. La page
d’atterrissage ne doit donc pas être négligée mais pensée avec soin.

PageRank
Notation inventée par Larry Page allant de 1 à 10 et influençant fortement le
classement des pages des sites sur le moteur de recherche Google. Cet indice de
popularité est calculé en fonction des liens internes et des liens externes pointant vers
celui-ci.

Page satellite
Page cachée composée de mots-clés récurrents, souvent mise en place pour améliorer
le référencement d’un site Internet. Un internaute atterrissant sur cette page non
consultable est automatiquement redirigé vers le site. Cette pratique est souvent
considérée par les moteurs de recherche comme du référencement abusif.

PPC
Unité de mesure signifiant « Pay Per Click » ou « Coût Par Clic ». Le coût d’une
campagne publicitaire est fixé par un système d’enchères. De plus, l’annonceur ne paie
que si l’internaute clique sur son annonce et non pas au nombre d’impressions.

259
GLOSSAIRE

R
Requête
Ou query en anglais. Elle correspond à un mot-clé ou à une expression clé tapée par
l’internaute dans le champ de recherche d’un moteur, amenant ce dernier à interroger
sa base de données, afin de faire apparaître les SERPs (Search Engine Results Page)
correspondant au mot-clé initial.

Redirection 301
Technique se traduisant par « 301 redirect » en anglais et consistant à déplacer de façon
permanente l’URL d’une page web à une autre. L’internaute arrivant sur une page dont
l’adresse/URL a été modifiée est renvoyé automatiquement sur une autre page web.
Appliquée au référencement, la redirection 301 permet de conserver le PageRank et le
positionnement d’une page, même si l’URL de celle-ci change.

Réécriture URL / URL Rewriting


Pratique consistant à réécrire une URL dynamique trop complexe d’un site web afin de
la simplifier pour les internautes et les robots. Cette simplification facilite ainsi son
indexation par les moteurs de recherche.

Robot / Crawler
Logiciel souvent appelé « spider », « crawler » et « bot » utilisé par les moteurs de
recherche afin de repérer et d’indexer dans leurs bases de données les pages web et le
contenu des différents sites Internet. Chaque moteur de recherche a un robot qui lui est
propre. Par exemple, le crawler de Google est appelé Googlebot.

Robot.txt
Fichier d’exclusion permettant d’indiquer manuellement à un robot d’exclure
l’indexation de certains fichiers dans sa base de données. Certains moteurs de
recherche en tiennent compte, d’autres non.

ROI
Le Return On Investment ou « retour sur investissement » permet de calculer la
rentabilité d’un investissement et l’exprimer sous la forme d’un pourcentage.

260 Les Clés du Référencement sur le Web


GLOSSAIRE

RSS
Fichier XML – Acronyme de « Really Simple Syndication » –, auquel s’abonne
l’internaute afin de consulter rapidement des informations mises à jour sur un site
Internet, sans avoir à consulter celui-ci.

261
GLOSSAIRE

S
Sandbox
La sandbox ou « bac à sable » (en français) instauré par Google consiste à mettre à
l’essai des nouveaux sites, pendant une période donnée. Pendant cette phase
d’observation, il est difficile pour les sites de réussir à bien se positionner sur les mots-
clés choisis. Un fois cette période de quarantaine finie, ces jeunes sites se voient
rapidement attribuer un meilleur positionnement.

Score de qualité
Terme spécifique à Google AdWords. Le score de qualité ou niveau de qualité est un
des deux facteurs permettant à Google de déterminer la position des annonces sur ses
pages de résultats et dans les résultats de recherche. Il dépend de plusieurs facteurs tels
que l’historique du taux de clic (CTR) de l’annonce, du mot-clé, de la pertinence du
mot-clé par rapport à l’annonce, etc. Le classement d’une annonce dépendra du score
de qualité et du coût au clic fixé par l’enchère.

SEO
Le Search Engine Optimisation ou « référencement Naturel » consiste à optimiser les
pages d’un site web pour les rendre plus lisibles par les robots des moteurs de
recherche et, par voie de conséquence, à optimiser son positionnement dans les
résultats des moteurs de recherche. Il est important de rappeler que le positionnement
et la visibilité sont travaillés dans le but d’augmenter le taux de conversions d’un site
Internet.

SERP
Le Search Engine Results Page ou « Page de Résultats d’un Moteur de Recherche » en
français permet aux internautes de trouver aisément des réponses à une requête. Ces
réponses sont générées à partir des mots-clés des sites web classés par ordre
décroissant de pertinence dans les moteurs de recherche (du plus pertinent au moins
pertinent). Les conversions commencent aux SERPs. Il est donc important de
maximiser, lors de cette étape, les appels à l’action et les rédactionnels de votre site
Web, afin de séduire rapidement l’internaute.

262 Les Clés du Référencement sur le Web


GLOSSAIRE

Snippet
Extrait d’une page Web faisant le plus souvent 2 lignes et qui sont visibles dans les
pages de résultats des moteurs. Le Snippet reprend le contenu de la balise méta-
description. Renseigné, le Snippet utilisera une partie du contenu de la page.

Spamdexing / Spamming
Procédé de référencement abusif réprimandé par les moteurs de recherche. Il consiste à
tromper les robots des moteurs de recherche dans le but d’améliorer le positionnement
d’un site web. Les tricheries sont multiples : pages masquées (Cloaking), pages
satellites (Doorway Pages), duplication de contenu, etc. Ces pratiques peuvent
entraîner un Blacklistage par les moteurs de recherche qui excluent temporairement ou
définitivement les sites fraudeurs de leur base de données.

Spam report
Pratique consistant à remplir un formulaire pour dénoncer un spammeur à un moteur
de recherche, afin de lutter au mieux contre les fraudeurs et de conserver des résultats
pertinents dans les pages de résultats. Ces formulaires peuvent cependant être utilisés
de façon malveillante ; un concurrent peut, par exemple, s’en servir contre un site
concurrent. C’est pourquoi le moteur de recherche procède ensuite à de nombreux
contrôles de vérification.

Splash page
Ou page d’entrée en français, une Splash Page est une page ergonomiquement très
épurée, ne proposant généralement comme seul contenu qu’une image/animation
Flash et deux à trois liens (choix de langue, « entrez », etc.).

Stickyness
Il s’agit de la capacité d’un site Internet à garder les internautes le plus longtemps
possible lors de la consultation de leur site et à les inciter à revenir régulièrement.
Exemple : forum en ligne, site de discussion en ligne, etc.

263
GLOSSAIRE

T
Taux de conversion / Conversion rate
Pourcentage permettant de quantifier et d’analyser les objectifs réalisés sur un site
Web. Une conversion dépend de ou des objectifs définis pour le site web. Elle peut très
bien correspondre à une demande d’information, un achat, un formulaire à compléter,
une participation à une enquête, etc. Avant toute action de référencement, il est
important de définir des objectifs réalisables quant aux conversions souhaitées.

Exemple : si sur 100 visites sur votre site Internet, 10 aboutissent à un achat en ligne, le
taux de conversion de vente en ligne sera de 10%.

Taux de fraude
Pourcentage de clics incorrects ou illicites effectués sur une annonce publicitaire de
PPC. Le but de cette manœuvre est d’augmenter le coût de la campagne publicitaire.
Plusieurs méthodes de clics illicites sont identifiées : il peut s’agir de clics manuels ou
de clics générés par des outils automatisés. Cette action peut, notamment, être l’œuvre
d’un concurrent malveillant qui souhaite augmenter les dépenses de l’annonceur
rivalisant. Elle peut aussi être le fait d’un annonceur Adsense cliquant sur les annonces
apparaissant sur son site afin d’augmenter les revenus générés par celles-ci.

Taux de rebond
Le taux de rebond représente le pourcentage de visites d'une seule page (c'est-à-dire les
visites au cours desquelles l'internaute quitte votre site dès la page d'entrée). Ce taux
évalue la qualité des visites. Lorsqu'il est élevé, il indique généralement que les pages
d'entrée (de destination) ne sont pas pertinentes pour les visiteurs. Vous pouvez réduire
les taux de rebond en adaptant correctement vos pages de destination à vos mots-clés.
(Source : centre d’aide Google)

Taux de sortie
Indique le pourcentage de visiteurs quittant un site immédiatement après avoir consulté
la page. Par exemple, si une page est consultée 100 fois et qu'à 20 reprises il s'agit de la
dernière page consultée sur votre site, le pourcentage de sorties associé sera de 20 %.
Lorsque la valeur de ce paramètre est élevée, cela signifie que la page tend à éloigner
vos visiteurs ou que les internautes quittent simplement votre site une fois la
transaction terminée. (Source : centre d’aide Google)

264 Les Clés du Référencement sur le Web


GLOSSAIRE

Trackback
Ou rétro-lien en français. Ce système consiste à envoyer automatiquement un lien ou
une alerte sur un blog, signalant un article du même thème rédigé sur un autre blog,
pour rediriger le lecteur vers cet article.

265
GLOSSAIRE

W
W3C
Le World Wide Web Consortium ou W3C, est un organisme fondé en octobre 1994
comme un consortium chargé de promouvoir l’interopérabilité et la comptabilité des
technologies du World Wide Web telles que HTML, XHTML, XML, RDF, CSS,
PNG, SVG et SOAP.

Web 2.0
Concept lancé par Tim O’Reilly en 2004 permettant à l’internaute de devenir acteur
et non plus simple spectateur. Jusqu’alors, le Web était constitué d’une masse
d’informations visibles sur un ensemble de pages statiques et qui présentaient peu
d’interaction les unes avec les autres. Cependant, avec l’augmentation rapide de la
fréquentation de celui-ci, la notion d’interactivité est née. Ainsi l’internaute peut
interagir et participer au contenu des sites Internet.

Web copywriting
Depuis l’avènement du web, il devient vital de bien savoir communiquer en utilisant ce
support. Le nouveau métier de rédacteur web fait appel à des techniques bien précises
de rédaction. Internet étant un média en constante évolution - caractérisé par une
concurrence importante - des rédactionnels concis, pertinents et accrocheurs sont
essentiels pour captiver l’attention de l’internaute et le convaincre de s’arrêter sur votre
site, sur votre page ou sur votre annonce.

Web usability
Terme faisant référence au fait de rendre le plus accessible possible un site web aux
internautes. Plus un site est facilement accessible, plus il sera visité. En effet, il ne suffit
pas uniquement de mettre en place de bons appels à l’action mais d’optimiser tous les
éléments mis au contact des internautes. Un site avec d’importantes animations Flash
par exemple et néanmoins très ergonomique, gênera la navigation des internautes.
Celle-ci doit être intuitive, facile et rapide.

266 Les Clés du Référencement sur le Web


GLOSSAIRE

267
BIBLIOGRAPHIE
BIBLIOGRAPHIE

Le marketing on line - Guide pratique et juridique


Auteur : Michelle Jean Baptiste
Editeur : Groupe Eyrolles - Editions d’Organisation
Année publication : 2008
ISBN : 978-2-212-53982-0

Online Marketing
Auteurs : Richard Gay, Alan Charlesworth, Rita Esen
Editeur : Oxford University Press
Année publication : 2007
ISBN : 978-0-19-926585-5

Call to Action – Secret Formulas to Improve Online Results


Auteurs : Bryan Eisenberg, Jeffrey Eisenberg, with Lisa T. davis
Editeur : Nelson Business
Année publication : 2005
ISBN-13 : 978-0-7852-1965-1
ISBN-10 : 0-7852-1965-X

Internet Marketing – How to Get a Website that Works for Your Business
Auteur : Nigel T. Packer
Editeur : Right Way
Année publication : 2008
ISBN : 978-0-7160-3020-1

E-Mail Marketing for Dummies


Auteur : John Arnold
Editeur : Wiley Publishing, Inc.
Année publication : 2008
ISBN : 978-0-470-19087-6

Google Power – Unleash the full Potential of Google


Auteur : Chris Sherman
Editeur : McGraw-Hill / Osborne
Année publication : 2005
ISBN : 0-07-225787-3

270 Les Clés du Référencement sur le Web


BIBLIIOGRAPHIE

Guerrilla Marketing on the Internet – The Definitive Guide from the


Father of Guerrilla Marketing
Auteur : Jay Conrad Levinson, Mitch Meyerson, Mary Eule Scarborough
Editeur : Entrepreneur Press
Année publication : 1998
ISBN-13 : 978-1-59918-194-3
ISBN-10 : 1-59918-194-0

Search Marketing Strategies – A Marketer’s guide to Objective – Driven


Success from Search Engines
Auteur : James Colbron
Editeur : Elsevier – Butterworth Heinemann
Année publication : 2006
ISBN-13 : 978-0-7506-6618-3
ISBN-10 : 0-7506-6618-8

YouTube for Business – Online Video marketing for Any Business


Auteur : Michael Miller
Editeur : Que
Année publication : 2008
ISBN-13 : 978-0-7897-3797-7
ISBN-10 : 0-7897-3797-3

Search Engine Visibility


Auteur : Shari Thurow
Editeur : New Rider
Année publication : 2003
ISBN : 0-7357-1256-5

The Ultimate Guide to Search Engine marketing – Pay Per Click


Advertising Secrets Revealed
Auteur : Bruce C. Brown
Editeur : Atlantic Publishing Group
Année publication : 2007
ISBN-13 : 978-0-910627-99-3
ISBN-10 : 0-910627-99-1

271
BIBLIOGRAPHIE

101 Ways to Promote Your Web Site


Auteur : Susan Sweeney
Editeur : Maximum Press
Année publication : 2006
ISBN : 1-931644-46-2

Advanced Web Metrics with Google Analytics


Auteur : Bryan Clifton
Editeur : Sybex / Wiley Publishing
Année publication : 2008
ISBN : 978-0-470-25312-0

Search Engine Optimization – An Hour a Day


Auteur : Jennifer Grappone, Gravida Couzin
Editeur : Sybex / Wiley Publishing
Année publication : 2006
ISBN-13 : 978-0-471-78753-2
ISBN-10 : 0-471-78753-1

Web Marketing for Small Businesses – 7 Steps to Explosive Business


Growth
Auteur : Stephanie Diamond
Editeur : Sourcebooks, Inc.
Année publication : 2008
ISBN-13 : 978-1-4022-1176-8
ISBN-10 : 1-4022-1176-7

Comment Google mangera le monde


Auteur : Daniel Ichbiah
Editeur : l’Archipel
Année publication : 2007
ISBN : 978-2-84187-885-7

272 Les Clés du Référencement sur le Web


BIBLIOGRAPHIE

Professional Search Engine Optimization with ASP.NET – A Developer’s


Guide to SEO
Auteur : Chistian Darie, Jaimie Guide to SEO
Editeur : Wrox / Wiley Publishing
Année publication : 2007
ISBN : 978-0-470-13147-3

Promote – Développez l’audience utile de votre site web – 25 leviers de


promotion interactive
Auteur : Stéphane Brossard – www.amomenti.com
Editeur : Stéphane Brossard
Année publication : 2007
ISBN : 978-1-84753-164-3

The Truth about e-mail Marketing


Auteur : Simms Jenkins
Editeur : FT Press
Année publication : 2008
ISBN-13 : 978-0-7897-3794-6
ISBN-10 : 0-7897-3794-9

Search Engine Optimization - SEO – How To Optimize Your Web Site For
Internet Search Engines
Auteur : Samuel Blankson
Editeur : Blankson Entreprises Ltd.
Année publication : 2008
ISBN : 978-1-905789-06-1

273
BIBLIOGRAPHIE

Advanced Search Engine Optimization – A Logical Approach


Auteur : Terry Dunford
Editeur : American Creations of Maui
Année publication : 2008
ISBN : 978-06152-0506-9

Générer du trafic et du profit sur son site avec Google Adwords


Auteur : Andrew Goodman
Editeur : Campus Press (France) – McGraw-Hill Companies (Californie)
Année publication : 2005 (Californie) -2006 (France)
ISBN France : 2-7440-2046-X
ISBN Californie (original) : 0-07-225702-4

Search Engine Optimization Bible


Auteur : Jerri L. Ledford
Editeur : Wiley Publishing, Inc.
Année publication : 2008
ISBN : 978-0-170-17500-2

Google Hacks: 100 Industrial-Strength Tips & Tools


Auteur : tara Calishain & Rael Dornfest with the foreword by the Google Engineering
Team
Editeur : O’reilly
Année publication : 2003
ISBN : 0-956-00447-8

Content is King – Writing and Editing Online


Auteur : David Mill
Editeur : Elsevier Butterworth Heinemann
Année publication : 2005
ISBN-10 : 0-7506-6317-0

Web Marketing For Dummies


Auteur : Jan Zimmerman
Editeur : Wiley Publishing Inc.
Année publication : 2007
ISBN : 978-0-470-04982-2

274 Les Clés du Référencement sur le Web


BIBLIOGRAPHIE

How to Win Sales & Influence Spiders


Auteur : Catherine Seda
Editeur : New Rider
Année publication : 2007
ISBN-13 : 978-0-321-49659-1
ISBN-10 : 0-321-49659-0

The ABC of SEO – Search Engine Optimization Strategies


Auteur : David George
Editeur : Lulu Press
Année publication : 2005
ISBN : 1-4116-2251-0

Get to the top on Google – Tips and techniques to get your site to the top of
the search engine rankings
Auteur : David Viney
Editeur : Nicholas Brealey Publishing
Année publication : 2008
ISBN : 978-1-85788-502-6

Introduction to Internet Marketing


Auteur : Laurence Harte
Editeur : Altos Publishing
Année publication : 2008
ISBN : 1-9328-1325-X

Marketing Through Search Optimization – How People search and how to


be found on the Web – Second Edition
Auteur : Alex Michael, Ben Salter
Editeur : Elsevier Betterworth Heinemann
Année publication : 2008 (1ère édition 2003)
ISBN : 978-0-7506-83-47

275
BIBLIOGRAPHIE

Insider’s Guide – How to Get Your Website to the Top of the Search
Engines
Auteur : Andreas Ramos, Stephanie Cota
Editeur : Jain Publishing
Année publication : 2004
ISBN : 0-87573-051-5

Always Be Testing – The Complete Guide to Google Website Optimizer


Auteur : Bryan Eisenberg, John Quarto-Vontivadar, Lisa T.Davis
Editeur : Wiley Publishing Inc
Année publication : 2008
ISBN : 978-0-470-29063-7

Web Analytics For Dummies


Auteur : Pedro Sostre, Jennifer LeClaire
Editeur : Wiley Publishing Inc.
Année publication : 2007
ISBN : 978-0-470-09824-0

Radically Transparent
Auteur : Andy Beal, Dr. Judy Strauss
Editeur : Sybex / Wiley Publishing Inc.
Année publication : 2008
ISBN : 978-0-470-19082-1

Web design for ROI – Turning Browsers into Buyers & Prospects into
Leads
Auteur : Lance Loveday, Sandra Niehaus
Editeur : New Riders Publishing
Année publication : 2008
ISBN-13 : 978-0-321-48982-1
ISBN-10 : 0-321-48982-9

276 Les Clés du Référencement sur le Web


BIBLIOGRAPHIE

Search Engine Visibility – Second Edition


Auteur : Shari Thurow, foreword by Danny Sullivan
Editeur : New Riders Publishing
Année publication : 2008
ISBN-13 : 978-0-321-50324-4
ISBN-10 : 0-321-50324-4

Building Findable Website – Web Standards, SEO, and Beyond


Auteur : Aaron Walter
Editeur : New Riders Publishing
Année publication : 2008
ISBN-13 : 978-0-321-52628-1
ISBN-10 : 0-321-52628-7

Search Engine Advertising – Buying Your Way to the Top to Increase


Sales
Auteur : Catherine Seda
Editeur : New Riders Publishing
Année publication : 2004
ISBN : 0-7357-1399-5

SEO 100 Success Secrets – Search Engine Optimization – 100 Most


Asked Questions : The Missing SEO Tools Handbook and Guide
Ranking Factors
Auteur : Kody Ryals
Editeur : Emereo Pty Ltd.
Année publication : 2008
ISBN : 978-1-9215-2312-0

277
NOTES
NOTES

280 Les Clés du Référencement sur le Web


NOTES

281
NOTES

282 Les Clés du Référencement sur le Web


NOTES

283
NOTES

284 Les Clés du Référencement sur le Web


NOTES

285
NOTES

286 Les Clés du Référencement sur le Web

Vous aimerez peut-être aussi