Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
Régis Micheli
Pascal Albericci
BOD Editions
Remerciements pour leur participation à cet ouvrage à :
Sophie Nebois, Marianne Maestrini, Cécilia Charpentier, Sébastien Dassé, Jean-Noël Anderruthy, Jérôme Caproni,
Nicolas Morardo, Louis Perello, Emmeline Razafindrabeza et Jean-Louis Paparone.
Les Clés du Référencement sur le Web
Edition 2014
Le Code de la propriété intellectuelle interdit les copies ou les reproductions destinées à une utilisation collective.
Toute représentation ou reproduction intégrale ou partielle faite par quelque procédé que ce soit, sans le consentement
de l'auteur ou de ses ayant droits, est illicite et constitue une contrefaçon sanctionnée par les articles L.335-2 et suivants du
Code de la propriété intellectuelle.
Régis Micheli :
Diplômé de l’Université de Santa Barbara (Etats-Unis) et de
SKEMA Business School, Régis a débuté sa carrière aux Etats-
Unis en tant que Webmaster dans une start-up de la Silicon
Valley. De retour en France il a exercé différentes fonctions
autour du web-marketing, avant de créer en 2002, l’agence de
marketing digital Visiplus. Régis a obtenu en 2005, la
certification Google Advertising Professional avant d’acquérir
en 2009 la certification Google Analytics Individual Qualified.
Pascal Albericci :
Ancien élève d’HEC et diplômé SKEMA Business School,
Pascal a exercé différentes responsabilités chez Microsoft,
Airbus Group ainsi que dans une start-up aujourd’hui propriété
d’Autodesk. Co-fondateur de Pingwy, racheté par un des leaders
du web français en 2007, Pascal a également été intervenant à
l’Ecole PolyTech Nice et Professeur vacataire à SKEMA
Sophia-Antipolis où il fût en charge de cours sur le commerce
électronique et les techniques d’analyse d’audience. Pascal est
aujourd’hui en charge du développement de nouvelles offres
autour d’avis et de conseils aux voyageurs chez Amadeus, un
des leaders mondiaux de systèmes de réservation de voyages.
5
TABLE DES MATIERES
Introduction....................................................................................................................13
Fondamentaux du référencement..........................................................................21
Chapitre 1 : Historique du référencement.................................................................20
1. Ancêtres des moteurs......................................................................................................21
1994-1995 : arrivée de Yahoo!, d’AOL et de Lycos............................................................22
1996 : le besoin de pertinence..........................................................................................24
Chapitre 3 : Spamdexing................................................................................................228
1. Généralités........................................................................................................................228
2. Pages satellites.................................................................................................................228
3. Autres exemples de spamdexing.......................................................................................229
Chapitre 4 : Attention à son image................................................................................231
1. Fausses astuces.................................................................................................................231
2. Situations qu’il vaut mieux éviter.......................................................................................232
3. Comment se tenir éloigné du spam ?................................................................................232
4. Penser à bien choisir son CMS..........................................................................................233
Conclusion.........................................................................................................................235
Six préceptes pour un référencement efficace.......................................................................236
Prospective sur le référencement..........................................................................................237
Choix d’un prestataire...........................................................................................................237
Prospective sur les moteurs de recherche.............................................................................239
Glossaire............................................................................................................................243
Bibliographie.....................................................................................................................269
INTRODUCTION
INTRODUCTION
Avoir un site Web ne suffit pas : encore faut-il qu’il soit consulté. Comme n’importe
quelle boutique, il convient de se rendre visible. A cet effet, différents outils de
marketing Internet existent, tels que l’emailing, la publicité en ligne et le
référencement dans les moteurs de recherche comme Google, Yahoo! ou bien encore
Bing.
C’est à ce dernier support de marketing appelé aussi « marketing de la recherche » que
se consacre cet ouvrage. L’optimisation d’un site doit non seulement couvrir le besoin
de prospection de nouveaux visiteurs mais également s’étendre à la notoriété et à
l’image de marque d’une société. D’un côté le référencement prospectif (commercial),
qui permet au site de générer des ventes ou des contacts au travers des moteurs de
recherche, et de l’autre un référencement de notoriété, ou d’image de marque, qui
consiste à se placer en tête des résultats sur sa marque ou sur le nom de ses produits.
Pour permettre au lecteur d’appréhender précisément la nécessité d’être visible dans
les moteurs de recherche, voici quelques chiffres présentant l’état de la recherche en
ligne dans le monde :
Un chiffre d’affaires en hausse de 13.5% par rapport à 2012 et dont 10 milliards ont été
concentrés sur la période des achats de Noël.
Cette même étude révèle une augmentation soutenue du nombre de sites marchands
avec 20 000 créations en 2013 (+17%) ;
Il existe 138 000 sites de commerce électronique en France ;
78% des internautes français achètent en ligne ;
Toujours en 2013, les ventes sur tablettes et smartphone ont quasiment doublé avec un
chiffre d’affaires de plus de 2.5 milliards d’euros (5% du marché global sur Internet) ;
34% des internautes de plus de 18 ans déclarent se servir de leur smartphone pour
comparer les prix lorsqu’ils sont en magasin ;
En sens inverse, on estime que près de 70% des Internautes utilisent Internet comme
source d’information pour un achat final en magasin (Baromètre Echo – Janvier 2012).
Le Syndicat des régies internet et l’Union des entreprises de conseil et achat média ont
publié, dès janvier 2014, leur étude sur l’e-publicité en France. Voici les chiffres les
plus significatifs :
Le digital représente 22% des dépenses publicitaires totales en France. C’est le seul
support à avoir enregistré une croissance sur les trois premiers trimestres de l’année
2013 (+3% contre -5% pour la télévision ou -8.6% pour la presse) ;
Le real-time bidding (enchère en temps réel) représente 16% du marché publicitaire
display en France en 2013, en croissance de 125% en 2013 (la vente directe reste reine
avec 69%) ;
Les vidéos concentrent 18% de la publicité display en 2013, contre 14% en 2012 ;
En dépit de fortes prévisions de croissance, le mobile ne représente que 8% des
dépenses digitales publicitaires en France ;
Le Search cristallise 1 671 millions d’euros (+ 5% en un an).
15
INTRODUCTION
Cet ouvrage se destine tout particulièrement aux personnes souhaitant avoir une vision
globale mais également pratique du référencement. Il se scinde en cinq parties, pour mieux
expliquer les cinq étapes clés identifiées comme étant essentielles à la réussite de son
référencement. Afin de ne pas risquer d’induire en erreur le lecteur, l’ouvrage s’axe
en priorité sur le référencement naturel. L’achat de liens sponsorisés, même s’il est
complémentaire au référencement naturel, est un métier bien différent qui est exposé dans un
autre ouvrage publié en 2013 “Le Référencement Publicitaire avec Google AdWords”.
Donner envie à nos lecteurs de se pencher sur leur référencement, éclaircir les zones
d’ombre, informer des meilleures pratiques actuelles et démystifier un métier trop
souvent incompris, voici les principaux objectifs de ce livre.
Depuis la première version d’Altavista jusqu’à celle de Google que nous connaissons
aujourd’hui, le fonctionnement des moteurs de recherche a largement progressé. En
perpétuelle avance sur les besoins des internautes, les moteurs se livrent à une guerre
acharnée et implémentent en permanence des fonctionnalités, poussant toujours plus
loin leur service de recherche.
Avec 98% de parts de marché cumulées en France, Google, Yahoo! et Bing offrent à
l’internaute toujours plus de matière et de pertinence, et modélisent la manière de
rechercher en ligne (source : StatCounter – Avril 2014).
L’internaute ne peut plus se passer de ces derniers : selon une étude baptisée « Yahoo
Search Academy », 68 % des internautes ont déjà cherché, sur Internet, une marque
sans se souvenir de son nom. Dans ce cas, 69 % d'entre eux ont utilisé un slogan ou un
élément publicitaire vu ou entendu (musique, personnalité...). Selon cette même étude,
71 % trouvent alors le site de la marque (Yahoo! France, Avril 2010).
Après avoir replacé le référencement dans son contexte, les 5 grandes étapes qui
président à sa mise en œuvre seront détaillées.
Première étape : le choix des mots-clés. Pour commencer sur des fondations stables,
des méthodes permettent de sélectionner au mieux les mots-clés les plus efficaces.
Entre les expressions de notoriété relatives au nom de la société et l’effet longue traîne,
les sites peuvent jouer sur différents leviers pour capitaliser des visites sur l’ensemble
de leurs pages.
Tous ces efforts peuvent être mesurés directement et adaptés au fur et à mesure des
retours chiffrés obtenus à partir des statistiques du site. C’est dans la quatrième étape
abordée dans cet ouvrage que sont expliquées les différentes mesures du succès, la
manière dont il convient de les calculer, et plus important, savoir comment en tirer
parti. L’analyse de ces chiffres fera la différence face à la concurrence. Certains outils
permettent d’aider dans l’élaboration d’un plan d’action et d’effectuer le suivi des
positions sur chaque moteur. L’outil Google Analytics, logiciel de statistiques fournit
par le moteur Google, propose de nombreuses fonctionnalités particulièrement
intéressantes pour tout détenteur de site. Un chapitre sera consacré à sa présentation.
17
INTRODUCTION
Certaines techniques « Black Hat » sont automatiquement détectées par les moteurs.
Pour ne pas mettre son site en mauvaise posture, il convient de rester vigilant en évitant
toute forme de spam Avant de livrer son site aux robots des moteurs de recherche,
mieux vaut s’assurer de sa bonne conformité avec les règles des moteurs, mais aussi
avec les besoins techniques des robots d’indexation, en éliminant de ses pages les
facteurs bloquants et éléments perturbateurs. La cinquième et dernière étape de ce livre
livrera toutes les clés pour mener à bien cette vérification.
La compétition sur les moteurs n’est aujourd’hui plus la même qu’il y a dix ans. Le
nombre de pages sur le Web a été multiplié de manière considérable. Jusqu’en 2005,
Google laissait apparaître sur son site le nombre de pages que ses robots avaient
indexées.
En juillet 2008, Google annonçait recenser, dans son index, plus de 1000 milliards
d’URLs. Voici les derniers chiffres connus pour 2012 :
Google a indexé 30 trillions de documents sur le web, soit 30 000 milliards ;
Google parcoure environ 20 milliards de pages par jour ;
Plus de 100 milliards de requêtes sont faites chaque mois sur Google, soit près de 3.3
milliards chaque jour (ou 40 000 chaque seconde) ;
Sur ces 100 milliards, 15% sont nouvelles, c'est-à-dire qu'aucun internaute n'a encore
eu l'idée de saisir cette requête sur Google ;
En décembre 2013, Matt Cutts a révélé qu’entre 25% et 30% du Web était du «
Duplicate Content » (contenu dupliqué).
Une masse de pages contre laquelle un site doit lutter pour ressortir. Qu’il s’agisse de
nouveaux acteurs, de concurrents internationaux ou de partenaires d’un même secteur :
sur le Web, la concurrence est amplifiée.
D’autant plus que la durée d’existence des sites ne cesse de se raccourcir. Après trois
ans de service, un site devient obsolète. Tout va très vite sur Internet, qu’il s’agisse de
design, de navigation ou bien de contenu. De nouvelles technologies Web apparaissent,
toujours plus performantes, et viennent bousculer les anciennes. Il est désormais assez
facile de donner un âge à un site Web, de la même façon que l’on repère dans Paris les
façades de style haussmannien de celles d’époque Art Nouveau. Une mise à jour
régulière permet non seulement de préserver une image « actuelle » mais aussi
d’adapter l’optimisation du site au plus près de ses besoins.
19
FONDAMENTAUX DU REFERENCEMENT
FONDAMENTAUX DU REFERENCEMENT
Pour mieux comprendre les moteurs de recherche d’aujourd’hui, il est toujours utile
de connaître leurs histoires et leurs évolutions au fil du temps. En quinze ans, les
moteurs et le référencement sont déjà caractérisés par des strates, accentuées par un
succès rapide.
Note : lors d’une conférence aux États-Unis, Hal Varian, chef économiste chez
Google, a expliqué que le moteur proposait une douzaine d’expérimentations en ligne,
soit environ 5 000 tests par an !
Trois ans plus tard, c’est Matthew Gray qui réalise une nouvelle avancée dans la
recherche, avec un outil nommé Wanderer. Le premier robot voit le jour. Matthew Gray
avait imaginé un programme automatique permettant de détecter les nouvelles pages
ajoutées sur le Web.
La même année, Martijn Koster va utiliser les avancées d’Archie et de Wanderer pour
développer Aliweb. Martijn Koster donne l’opportunité à tous les créateurs de sites
d’inscrire leurs pages dans une base dédiée, en y accompagnant une description. Il
s’agit là du tout premier annuaire en ligne.
Inspirés, les développeurs veulent ensuite aller plus loin. Les robots se perfectionnent.
De nouveaux programmes les rendent totalement autonomes dans le « crawling » de la
toile du Web. L’apparition des nombreux robots entrainera d’ailleurs de forts
ralentissements sur les pages, un effet indésirable qui sera corrigé par la suite.
23
FONDAMENTAUX DU REFERENCEMENT
Lycos puis Infoseek arrivent dès 1995 sur le marché. Commence alors la guerre de la
taille de l’index. A l’époque, la couverture du Web était le point le plus travaillé sur les
moteurs : plus l’index d’un moteur était volumineux, plus l’outil paraissait performant.
En 1996, constatant les écarts de résultats entre les différents acteurs, MetaCrawler
lance le marché des méta-moteurs, c'est-à-dire la recherche multi-moteurs. Avec une
requête saisie dans l’outil, l’utilisateur se voyait proposer les meilleurs résultats extraits
de plusieurs moteurs.
Le 1er juin 2009, Microsoft annonce une refonte de son moteur et décide de le
rebaptiser « Bing ». De nouvelles fonctionnalités sont proposées dont certaines
proviennent de Powerset, moteur de recherche sémantique qui a été racheté par la
firme de Richmond en 2008.
A ce jour, Google sort grand vainqueur de ce combat. En France et en mars 2014, les 10
sites les plus visités en termes de visiteurs uniques sont : Google, Facebook, YouTube,
Microsoft, MSN/Windows Live, Orange, Le Bon Coin, Free, Les Pages Jaunes.
Selon les dernières statistiques de NetMarketShare, effectuées en avril 2014, Google
représente, dans le monde, 69.55% des requêtes ; Baidu est numéro deux avec 16.77%,
suivi par Yahoo! avec 6.53% ; Bing occupe la quatrième position avec 6.18% de parts
de marché ; AOL est en cinquième position avec 0.26%.
25
FONDAMENTAUX DU REFERENCEMENT
1. Moteurs
1.1. Moteurs classiques
Google
Larry Page et Sergey Brin étaient largement inspirés lorsqu’ils ont conçu Google. Avec
plus de 1000 milliards de pages web indexées, le moteur continue d’être à la pointe de
la pertinence. Une aptitude travaillée rapidement par ses créateurs, avec notamment le
PageRank, critère mesurant la popularité d'un site par rapport à son marché. Cette
notoriété est calculée en fonction des liens pointant d’une page à une autre. Selon la
réputation du site émetteur du lien, la page prend plus ou moins d'importance. Cet
indice, appelé PageRank, est mesuré à l’aide d’une valeur allant de 0 à 10, appelé
PageRank.
Au centre de toutes les attentions des référenceurs se trouve la recherche des critères
constituant l’algorithme de Google. Parmi les principaux éléments devinés figurent,
entre autres, le contenu des pages, les échanges de liens, la structure du site, les
caractéristiques de l’URL ou encore le titre des pages et les balises meta.
A l’origine, Google n’était qu’un simple moteur de recherche. Dans ses premières
années d’existence, l’acteur s’est entièrement concentré sur son outil et s’est taillé un
avantage face à la concurrence. Une fois sa notoriété faite, le moteur a constamment
grignoté des parts de marché en proposant une myriade de services gratuits :
applications et services de cartographie (Google Maps, Google Earth), bureautique en
ligne (Google Drive, Google Agenda), plateforme de blog (Blogger), outils de création
de sites Web (Google Sites), services de réseautage social (Google+), sites de partage de
vidéos (YouTube), sites de partage de photos (Panoramio, Picasa), régies publicitaires
(Google AdWords, Google AdSense), services de messagerie (Gmail), etc.
Yahoo!
Lancé à partir d’un annuaire, Jerry Yang et David Filo ont fait de Yahoo! un portail
mondialement reconnu. La recherche n’est pas la seule activité du moteur, qui fournit
également une foultitude d'autres services comme un portail d'actualités, un service de
messagerie, etc. Yahoo! possédait également un comparateur de prix, qui a été revendu en
novembre 2008 à un fond d’investissement. Ce n’est qu’en 2003 que le groupe décide de se
lancer seul dans l’aventure de la recherche en ligne, avec le rachat d'Inktomi. Jusque là, il
proposait à ses utilisateurs la technologie de Google, une mise en avant qui a d’ailleurs pesé
lourdement dans le succès de Google.
Yahoo! arrive troisième dans le classement mondial, loin derrière Google. Néanmoins,
le moteur est très populaire dans certains pays, comme au Japon, où il devance Google
avec plus de 51.4% de parts de marché (source : Internet World Stats - Avril 2014).
Pour rester dans la course, Yahoo! n’a pas hésité à mettre de côté son annuaire, qui a
fait sa renommée, pour mieux orienter sa stratégie sur son contenu et son moteur.
Bing
Alias Windows Live Search, le moteur fait peau neuve en juin 2009 en rebaptisant son
moteur « Bing ». Un nouveau baroud d’honneur qui vise à replacer la recherche au
cœur de ses services.
Avec une première version publiée en 2005, Microsoft souhaite conquérir le marché
de la recherche et passer devant Google. Un objectif ambitieux et largement affiché qui
justifie les investissements déboursés par l’acteur. Malgré ses efforts, le moteur ne se
détache pas de ceux de ses deux principaux concurrents. Pourtant, Bing dispose d’une
puissance de frappe avantageuse grâce à l’implantation mondiale de Microsoft et la
popularité de son service de messagerie instantanée Messenger.
Avec des parts de marché limitées, Microsoft envisageait depuis longtemps un
rapprochement avec Yahoo!. Deux offres successives ont été faites au conseil
d’administration de Yahoo! en 2007 et en 2008, toutes deux refusées par ce dernier.
En 2009, les deux sociétés signent un partenariat stipulant que la technologie de
recherche développée par Microsoft sera intégrée au portail Yahoo!
27
FONDAMENTAUX DU REFERENCEMENT
AOL
Aux Etats-Unis, AOL cumule 1.4% des requêtes. Filiale de Time Warner, AOL fait
figure d’ancêtre sur le marché des moteurs. Alors qu’il était jusque là un grand
fournisseur de service Internet, AOL a placé ses pions dans la recherche en ligne dès
1995 avec l’acquisition de WebCrawler, le premier acteur parcourant et indexant
l’intégralité des documents en ligne. A la fin de l’année 2005, un accord entre les deux
sociétés stipule, entre autre, que Google continuera de fournir à AOL ses solutions de
recherche.
Ask
Après un lancement remarqué aux Etats-Unis en 1996, Ask Jeeves est racheté par la
société InterActive Corp, détenteur des marques Expedia, Match.com ou encore
CitySearch en 2006.
Ask Jeeves est alors rebaptisé Ask. Ce moteur cumule outre-Atlantique 2.9% de parts
de marché. Encore anonyme en France, Ask souhaite se hisser à la troisième place en
Europe.
Orange
C’est le moteur francophone grand public. Accessible depuis le portail Orange et Voilà,
le moteur bénéficie des visites des abonnés à la marque Orange et Voilà. Le moteur de
France Télécom recense 0.4% de parts de marché en France (source : AT Internet –
Avril 2014).
Baidu
Moteur de recherche chinois fondé en 2000 par Li Yanhong, Baidu est devenu rapidement le
leader de la recherche en Chine où il détient plus de 75% du marché et se place sur la
deuxième marche, derrière Google, dans la liste des moteurs les plus utilisés dans le monde.
Introduit en 2005 au Nasdaq, l’acteur s’est lancé à la conquête du marché japonais en 2007.
29
FONDAMENTAUX DU REFERENCEMENT
Ces outils de recherche verticaux veulent surtout pallier au manque de qualité des
moteurs de recherche génériques.
2. Agences de référencement
Arrivées peu de temps après la naissance des premiers moteurs de recherche, les agences de
référencement ont toujours eu la même mission : le positionnement de sites sur les moteurs
de recherche. Les tout premiers fournisseurs de services de positionnement sont apparus
d’abord aux Etats-Unis vers 1995.
Dès l’année suivante, le marché du référencement s’est développé, notamment grâce
aux premières amorces d’investissements des sociétés sur le Web. En France, c’est en 1998
que le référencement commence à se faire connaître. Depuis cette date, les agences de
référencement se sont multipliées. Entièrement dépendants des moteurs de recherche, les
acteurs ont dû faire preuve de souplesse, tant sur leurs offres que sur leurs services, au fur et à
mesure de l’avancée des moteurs. Entre les années 2000 et 2002, le marché de l’optimisation
est en plein essor. Le spam sur les moteurs bat son plein jusqu’en 2005. Pour stopper les abus,
les principaux outils prennent des sanctions exemplaires.
31
FONDAMENTAUX DU REFERENCEMENT
4. Objectifs du référencement
Savoir se placer dans les premières positions devient une obligation pour les marques.
Les dernières études parues insistent bien sur le fait que les internautes ne dépassent
généralement pas les trois premières pages de résultats et que la majorité d’entre eux ne
se contente que des premiers sites listés ou au mieux ceux de la première page.
En plus de l’objectif de trafic, le référencement s’avère également une activité primordiale
pour l’image de marque d’une entreprise. Ressortir en tête des moteurs pour une expression
donnée permet à une marque non seulement de se faire connaître des internautes, mais
également de prouver son importance. 33% des internautes pensent qu'une société présente
dans les premières positions des moteurs de recherche est leader sur son marché ! (Source :
SEO Inc – 2011).
Face à ces chiffres, le besoin de positionnement sur les différents moteurs de recherche est
prioritaire, pour ne pas dire vital. Reste à positionner le site sur des expressions amenant une
conversion de ses visiteurs en prospects, clients ou inscriptions à une newsletter par exemple.
Inutile pour un institut de beauté de ressortir sur des requêtes relatives aux institutions
publiques. Il faut savoir au préalable sélectionner les bons mots-clés qui amèneront sur le site
une conversion en termes de ventes ou de contacts. Le référencement est une opération qui
s’inscrit dans le long terme.
33
FONDAMENTAUX DU REFERENCEMENT
1. Algorithmes
L’algorithme est la pièce secrète des moteurs de recherche. C’est le cœur même du
métier. Dans le domaine informatique, un algorithme de recherche est un ensemble de
règles permettant d’évaluer pour un problème donné les différentes possibilités de
réponses, pour mettre en avant, au final, la solution la plus adaptée. Dans le cas des
moteurs, il s’agit donc d’une technique de sélection des pages – compilées au sein
d’une base de données – en fonction des mots-clés saisis.
Ces algorithmes de recherche se classent selon des catégories bien précises :
la liste de recherche (list search) : il s’agit d’une technique de recherche linéaire.
En général, une seule réponse sortira parmi une liste.
35
FONDAMENTAUX DU REFERENCEMENT
1.2. La fréquence
Ce critère prend en compte la récurrence d’un mot dans une page. Une expression
revenant plusieurs fois marque l’importance du thème dans la page. Cette répétition
est relevée par les moteurs. Ce n’est pas pour autant une raison de rajouter des mots-
clés. Ce spamdexing est aujourd’hui connu et peut être détecté.
1.3. Les liens
Il s’agit là d’un des critères les plus récents. Les moteurs comptabilisent non
seulement les liens qui mènent vers un site, mais également ceux qui sortent du site.
Ces liens leur permettent de bien comprendre quelle est la thématique du site et de
déterminer sa popularité sur le Web.
A partir d’une simple biographie, l’internaute peut explorer les autres sujets et thèmes
qui sont liés à la vie du personnage principal.
2. Robots
C’est l’outil qui relie les moteurs aux sites Web. Ces programmes naviguent sur le Web
à la recherche de nouveaux contenus. Chaque nouvelle page mise en ligne est analysée
et indexée. Le robot navigue de lien en lien sur le Web. Il détecte les nouveaux
contenus mais également les mises à jour sur des pages déjà crawlées. Toutes ces
données sont ensuite rapatriées dans les serveurs des moteurs.
37
FONDAMENTAUX DU REFERENCEMENT
Ces robots passent selon les moteurs plus ou moins fréquemment. De nouveau, Google
est en tête de peloton dans cette catégorie. Il peut, en effet, détecter des modifications
apportées à un site web en moins de 6 secondes (montre en main !) et les indexer
immédiatement dans son moteur. Une actualité peut donc se trouver rapidement en tête
des résultats naturels. Il s’agit là d’une avancée remarquable dans l’histoire des
moteurs. Ce même acteur se contentait encore jusqu’en 2003 de passer une fois par
mois sur les sites. Le moteur mettait à jour son index en fonction du calendrier des
pleines lunes, une opération appelée la Google Dance.
Une des conditions fondamentales avant qu’un robot vienne visiter un site : l’accessibilité.
Textes, images, vidéos ou encore PDF : le robot ne néglige aucun format. Seuls le
JavaScript ou encore le format Flash restent mal assimilés par les robots. Les robots de tous
les moteurs sont régis par certaines règles. Il est ainsi toujours possible de bloquer l’accès de
pages Web avec un fichier nommé « robots.txt ».
Note : en l’absence de fichier Robots.txt, votre site web ne sera tout simplement pas
exploré.
Après de nombreuses études effectuées, force est de constater que plus un site Web
disposera d’un PageRank élevé, plus le moteur Google aura tendance à visiter
fréquemment ce site Web.
Il existe différents programmes : ceux en charge de relever du contenu, de l’actualité,
ou encore des produits mis en vente. Il est possible de détecter sur ces statistiques la
visite des robots. Grâce à ce décompte, nous pouvons nous rendre compte que plus un
site est mis à jour, plus le robot reviendra vérifier l’actualisation des données.
La fonctionnalité du robot se limite à la collecte. Il ne classe en aucun cas les données.
3. Index
Avec des milliards de pages constituant le Web, les robots ont du travail devant eux. Ils
rapatrient toutes les données dans l’index. Ce dernier est une gigantesque base où sont
recensées toutes les pages que les robots ont relevées. Mieux encore, les moteurs
conservent les archives du Web. Ainsi, l’internaute peut retrouver les anciennes
versions. Il est toutefois possible pour un détenteur de site d’interdire cet archivage en
ajoutant dans son code source la balise suivante :
La taille des index n’est aujourd’hui plus affichée et les moteurs ne communiquent que
très partiellement dessus. Cependant, comme nous l’avons déjà dit précédemment,
Google a indiqué en août 2008 avoir recensé dans ses bases pas moins de 1 000
milliards d’URLs.
4. Classement
Le classement dépend directement du travail des robots, de la gestion de l’index et
du fonctionnement de l’algorithme. C’est en fonction de l’algorithme que le tri dans
l’index du moteur sera effectué puis présenté aux utilisateurs. Et c’est sur ce
classement que tout le travail de référencement dépendra. En comprenant le
fonctionnement des moteurs de recherche, il devient possible de travailler, au plus près,
son optimisation.
Le classement dans les moteurs n’est pas figé, comme dans les annuaires. Bien au
contraire, il est en mouvement permanent. L’indexation en continu de nouvelles pages,
de données mises à jour et le changement constant des algorithmes, sont à l’origine de
ces mouvements.
Rien n’est donc jamais acquis sur les moteurs. Les robots se perfectionnent, les
algorithmes se compliquent et les index ne cessent de grossir. Autant de critères à
prendre en compte dans une stratégie d’optimisation.
5. Services annexes
5.1. Fonctions avancées des moteurs de recherche
Les moteurs de recherche s’avèrent être des outils puissants, utilisés généralement à
10% de leurs capacités. Pour aller chercher toujours plus profondément dans le Web,
ces derniers proposent des fonctionnalités de recherche avancée, très pratiques pour
une investigation poussée.
Fonctions avancées
de recherche dans Google (1)
39
FONDAMENTAUX DU REFERENCEMENT
L’ordre des mots-clés saisis agit directement sur le classement des résultats. Ainsi, avec
la requête « décoration plante intérieur », les résultats obtenus sont différents que pour
« plante décoration intérieur ».
Parmi les autres fonctionnalités avancées, celle de la langue ou du pays, qui permet de
délimiter géographiquement où Google doit chercher. Pour une recherche de
documents, il suffit de préciser dans le menu déroulant si l’on ne souhaite que des PDF,
des fichiers Excel ou encore PowerPoint.
La recherche de pages similaires offre aux internautes la possibilité de repérer dans
l’index du moteur les pages ayant des caractéristiques similaires avec un site. Ainsi, en
saisissant l’URL d’un journal en ligne, le moteur listera d’autres domaines qu’il aura
détectés comme appartenant à la même catégorie.
La recherche de pages liées permet de connaître les sites ayant réalisé un lien vers les
pages du site mentionné. Une information qui sert pour les internautes souhaitant
explorer un univers soigneusement délimité ou bien dans le cadre d’une veille
concurrentielle en recherche de liens.
Cette fonction permet de retrouver des informations qui sont apparues en ligne mais
qui n’y sont plus comme, par exemple, les anciens termes d’un contrat qui a été depuis
modifié, ou encore des chiffres avant leur réactualisation. Plusieurs moteurs proposent
cette recherche spécifique, excepté Ask Search.
« site: www.nomdusite.com/fr... »
Avec cette mention, il est possible de limiter la recherche à un site donné. Fonction très
utile si un site ne propose pas d’outil de recherche interne ou si son outil ne donne pas
satisfaction.
« intitle: » ou « allintitle: »
Il existe une différence dans l’emploi des opérateurs intitle et allintitle. Si une
recherche comporte plus d’un mot-clé, le second opérateur oblige le moteur à
rechercher des pages dont les titres contiennent l’ensemble des mots-clés définis :
allintitle: android google
« inurl: » ou « allinurl:»
La même remarque que celle que nous avons faite précédemment s’applique à l’emploi
de l’opérateur allinurl.
« filetype: » ou « ext:»
Cette fonctionnalité est utilisée pour rechercher uniquement les documents indexés sur
le Web, comme des feuilles Word, des fichiers Excel, des présentations PowerPoint,
des PDF. Voici la liste officielle des extensions qui sont possibles : .pdf, .ps, .dwf, .kml,
.kmz, .xls, .ppt, .doc, .rtf, .swf.
En pratique, il est possible de spécifier toutes sortes d’extensions : KML, EXE, DOCX,
etc.
41
FONDAMENTAUX DU REFERENCEMENT
« link: »
Une commande utilisée pour connaître la popularité de son site ou de celle des
concurrents. Les sites ayant créé un lien vers une marque ou un site particulier seront
affichés.
Exemple de commande link: dans Yahoo!
5.3. Outils
Autant les moteurs sont avares en informations, autant ils fournissent généreusement nombre
d’outils utiles aux Webmasters. Indispensables dans une optique d’indexation dans les résultats
naturels comme sur les liens sponsorisés, ces services gratuits deviennent de plus en plus
complets et peuvent largement rivaliser avec les outils professionnels dédiés au référencement.
Afin de mieux comprendre l’origine du trafic, l’outil détaille les requêtes les plus
fréquentes et liste les sites ayant des liens pointant vers ses pages.
Par ailleurs, les outils Google pour webmasters permettent de suivre son
positionnement de manière très précise… Pour chacun des mots-clés sur lesquels vous
êtes bien placés sur Google, il sera indiqué :
Le nombre total d’impressions qui ont été générées ;
Les différentes positions occupées par vos liens ;
Le nombre de clics par mot-clé.
Requêtes les plus fréquentes dans Google - Source Google Webmaster Tools
43
FONDAMENTAUX DU REFERENCEMENT
Page de l’outil Webmaster Center pour Live Search - Source : Live Search
L’outil propose une rubrique dédiée aux éventuels problèmes de crawls en listant les
erreurs rencontrées par ses robots sur les pages du site. L’outil met en évidence les
erreurs 404, les URLs dynamiques trop longues, le type de contenu que son robot ne
prend pas en compte et les facteurs bloquants.
Accès aux résultats des visites des robots de Microsoft - Source : Live Search
Afin d’apporter une notion de valeur ajoutée pour l’utilisateur internaute, Google a
introduit la notion de qualité dans ses annonces. Le moteur intègre en plus dans son
calcul du CPC le « Quality Score », un facteur de qualité. Plus le « Quality Score » est
élevé, plus le CPC minimum sera faible et l’annonce bien positionnée dans les
premiers résultats.
45
FONDAMENTAUX DU REFERENCEMENT
La lisibilité
Un autre point important. Un site doit être lisible et compréhensible afin que le moteur
détecte et indexe tout son contenu.
L’architecture des liens
Qu’ils s’agissent de liens internes comme externes, la présence d’un lien est
systématiquement notée et joue un rôle dans le positionnement de la page contenant le lien et
de la page de destination.
Exemple de résultats naturels dans Google
Note : quels sont les critères d’un bon contenu ? En novembre 2012, Google a publié
un fichier PDF des directives données aux personnes qui, au sein de l’entreprise, sont
chargés d’évaluer la qualité du moteur de recherche et donc, indirectement, des sites
web qui sont présentés :
http://static.googleusercontent.com/media/www.google.com/fr//insidesearch/howsear
chworks/assets/searchqualityevaluatorguidelines.pdf
Afin de se rendre visible sur ces services, une inscription préalable s’impose. Là encore,
être indexé ne suffit pas et quelques astuces permettent de travailler sa visibilité :
Le titre doit être optimisé, c'est-à-dire contenir une expression clé accompagnée du
nom de la société
Le texte de présentation doit être précis et doit faciliter le travail du moteur en
précisant la thématique de son métier
Il est possible de transmettre au moteur des images : cette solution est conseillée.
Dans les outils de recherche locaux, une entreprise peut également acheter des mots-
clés pour figurer dans les liens commerciaux. Enfin, une présence localisée peut être
bénéfique dans un positionnement global. Si la requête le nécessite, les moteurs
intègrent directement ses données dans les résultats classiques, comme le montre, en
exemple, la capture d’écran présentée ci-dessous.
49
FONDAMENTAUX DU REFERENCEMENT
Présentation de résultats différents pour la requête « Jessica Alba » : images, actualités, wiki,…
Une mise en avant de ces formats change les règles du référencement. Les sociétés qui
avaient acquis une première place se voient reléguées à des places inférieures.
Un site doit aujourd’hui intégrer cette nouvelle donnée et proposer des formats
innovants aux internautes pour communiquer au plus près de leurs attentes. Actualités,
images, wikis, vidéos sont autant de nouveaux médias sur lesquels doivent investir les
sites marchands pour s’assurer d’une visibilité accrue auprès des internautes.
De nouveaux éléments devront également être optimisés. Et la tâche n’est pas si facile.
Les vidéos et photos sont très abstraites pour un robot qui ne peut pas en comprendre le
contenu. Les données textuelles qui entourent l’image (ainsi que le nom du fichier
image) seront directement utilisés par le moteur de recherche.
On peut remarquer la présence de Snippets (nous y reviendrons un peu plus loin dans
ce livre) ainsi que l’utilisation presque systématique des liens profonds et des PlusBox.
En septembre 2013, la société BrightEdge a publié une étude qui indique que les taux de clics
(CTR) est encore plus important sur les trois premières positions des résultats de Google pour les
smartphones et tablettes. Par exemple, voici les données pour le résultat placé en première position
:
Ordinateur : 24%, Tablette : 24%, Smaphone : 33%.
C’est un des eldorados des moteurs de recherche que de pouvoir vous proposer des
résultats qui soient taillés, sur mesure, pour vous. Il existe de nombreuses façons de
personnaliser une page de résultats… Mais, principalement, Google en distingue cinq :
Pour les utilisateurs connectés à leur compte Google, les liens affichés seront calculés
en fonction de votre historique de recherches ;
En fonction des recherches précédentes qui auront été enregistrées dans un fichier de
cookie (pour les utilisateurs non connectés) ;
Selon votre adresse IP ;
Selon les sites de réseautage social auxquels vous êtes inscrit ;
En fonction de nombreux critères comme l’interface linguistique et la version du
moteur que vous utilisez.
Votre localisation géographique joue un rôle majeur puisque, pour la requête « hôtel »,
selon que vous soyez à Nantes ou à Nice, les résultats ne seront les mêmes.
Et Google a tout prévu puisqu’il vous offre la possibilité de « changer de lieu ».
53
FONDAMENTAUX DU REFERENCEMENT
Quelles sont les implications pour les éditeurs de site web ? Quand on parle mainte-
nant de référencement, il est difficile d’annoncer, de manière péremptoire, que, sur tel
ou tel mot-clé, on est en première ou en seconde position. Tout est une question de
contexte (en fonction du profil de l’internaute qui saisit sa recherche) et va se résu-
mer à des moyennes. Est-ce que cela va rendre plus difficile le travail de référence-
ment ? Oui, sans aucun doute puisque, dans ce cas, un bon référencement devra se
mener sur plusieurs fronts et que la place convoitée ne le sera jamais de manière dé-
finitive.
Et c’est aussi une bonne manière de mettre un pied dans le référencement géoloca-
lisé… Puisqu’un grand nombre de requêtes le sont déjà explicitement (« Plombier
Nantes ») ou implicitement (un internaute habitant à Nantes lance cette requête :
« Plombier »). Enfin, on peut se demander s’il existe alors une vraie manière d’avoir
une vue objective de sa position pour une requête donnée ? Oui ! Google a prévu des
outils performants vous permettant d’interroger ce que l’on pourrait appeler un « Juge
de paix » et qui vous montre des résultats « objectifs ».
Voici les pourcentages tels que qu’ils ont été relevés lors d’une étude menée en 2014
par Conductor :
Images : 28% ; Actualités : 9% ; Résultats « Shopping » : 1%.
Force est de constater que la prédominance de la recherche universelle dans les Serps
n’arrête pas de se renforcer.
Une étude menée par Comscore en octobre 2012 vient renforce ce constat.
Concernant la part de voix :
Résultats naturels : 85%, Résultats payants : 15%.
55% des pages de résultats contiennent des liens publicitaires (appelés aussi « liens
contextuels »).
En juillet 2012, la société Wordstream, lors d’une étude portant sur le marché
américain, a calculé que, lors de requêtes transactionnelles, 64.6% des clics allaient
vers les liens publicitaires (35.4% pour les résultats naturels ou organiques).
C’est une manière de démontrer que plus l’internaute est prêt à acheter un produit ou à
se décider pour un service, plus l’influence des annonces Google AdWords est
prépondérante.
Enfin, selon l’étude précédente, 89% du trafic généré par les liens publicitaires est un
type de trafic différent de celui généré par les résultats naturels.
Notez que la firme de Mountain View propose, via Google AdWords, un outil qui
permet, pour les mêmes requêtes, de comparer le trafic naturel et le trafic payant. Pour
y avoir accès, en plus de posséder un compte Google AdWords, vous devez avoir lié
votre compte Google Outils pour webmaster avec votre compte Google Adwords.
Plutôt que d’opposer ces deux médias, pensez plutôt à développer des synergies de
façon à :
Augmenter votre visibilité sur le Web ;
Faire de la notoriété et de l’image de marque ;
Provoquer du retour sur attention ;
Optimiser votre surface de vente ;
Augmenter le taux de clics de vos liens (naturels et payants).
Même si ces chiffres datent de quatre ans, force est de constater que la prédominance
de la recherche universelle dans les Serps n’arrête pas de se renforcer.
Si ce n’était pas déjà le cas, voici une raison supplémentaire de travailler votre
référencement multimédia !
55
FONDAMENTAUX DU REFERENCEMENT
Le M-acheteur ne concentre pas ses achats uniquement sur les micro-paiements (33%
de ses achats : produits de type sonneries, logos). Il s'intéresse également aux produits
culturels (49% des achats effectués) ainsi qu'aux produits de consommation courante
(21% : vêtements, produits de beauté, produits alimentaires).
Il existe deux voies pour qui veut être présent sur le Web mobile :
Les « Native apps » : applications que le mobinaute doit installer sur son
Smartphone ;
Les « Web apps » : sites web mobiles qui peuvent être visités en utilisant un
navigateur adapté.
Les applications se distinguent par leur capacité à utiliser les particularités
« Hardware » des Smartphones (accéléromètre, 3D, réalité augmentée,
géolocalisation, appel direct, etc.) et le fait qu’une application mobile peut être
accessible hors-connexion.
57
FONDAMENTAUX DU REFERENCEMENT
Et le choix entre les deux solutions tiendra compte de multiples critères comme les
fonctionnalités, le type de contenu qui sera accessible (contenus froids ou contenus
chauds) et les habitudes de l’audience que l’on souhaite atteindre.
Notez qu’il n’est pas rare de voir, lorsqu’on analyse les statistiques de fréquentation
des sites e-commerce ou des sites média, qu’entre 6 et 10% des visites sont effectuées
à partir d’un appareil mobile. Et il est dommage de ne pas avoir prévu, pour ces
mobinautes, une version du site web qui soit parfaitement adaptée à ce type de
périphérique.
Une fois votre site mobile sur les rails, vous devrez placer un script spécialisé sur le
site classique afin que les mobinautes, qui le visitent, soient immédiatement redirigés
vers la version adéquate.
Un site mobile suppose une stratégie différente en termes de référencement : le robot
d’exploration de sites pour mobile, propre à Google, s’appelle « Googlebot-Mobile ».
De fait, les résultats renvoyés par le moteur de recherche mobile sont différents de
ceux fournis par son « grand-frère ».
Afin que votre site mobile soit indexé, soumettez, dans les outils pour webmasters de
Google, un fichier Sitemap XML contenant les URLs de pages Web dédiées aux
mobiles.
N’oubliez pas qu’un site mobile correctement référencé n’est pas tout et que
l’ergonomie ainsi que l’offre présentée par les pages web doivent être adaptées aux
particularités de ces périphériques : parcours de navigation simplifiés, tailles des
images réduites, inventaire resserré aux 20% des produits les plus populaires, etc.
Signalons que la question de la distinction entre mobile et ordinateur classique est mal
posée puisque certains smartphones présentent une résolution d’écran supérieure à
nombre d’ordinateurs. L’idée est donc plutôt de s’adapter à une multitude de
résolutions d’écran différentes. Au premier trimestre 2013, le nombre de résolutions
d’écran répertoriées s’élevait à 232.
59
FONDAMENTAUX DU REFERENCEMENT
2. Challenges du référencement
60%
50%
40%
30%
20%
10%
0
Surf Météo Recherche
en ligne
Visites Recherches Informations Email
Networking pour hobby
Parmi les grands profils distingués lors de cette étude sur les internautes, les utilisateurs
des moteurs de recherche ont en général un background scolaire poussé :
66% sont diplômés d’une université,
49% ont effectué des études en université,
Les ménages à hauts revenus sont habituellement les plus susceptibles d’utiliser les
moteurs dans une journée classique sur le Web :
revenus supérieurs à 75 000 $ : 62%,
revenus situés entre 5 0 000 et 74,999 $ : 56%,
revenus situés entre 30 000 et 49,999 $ : 34%,
revenus inférieurs à 30 000 $ : 36%.
Enfin, les jeunes internautes sont les plus susceptibles d’effectuer des recherches en
ligne :
entre 18 et 29 ans : 55%,
entre 30 et 49 ans : 54%,
entre 50 et 64 ans : 40%,
plus de 65 ans : 27%.
Avec le haut débit en voie de développement, les internautes n’ont plus de limites dans
leur consultation du Web et passer par un moteur ne leur fait aujourd’hui plus perdre de
temps, bien au contraire. La masse grandissante d’informations, au travers des blogs,
des sites d’actualités, des vidéos ou encore des images, ne cesse de croître dans des
proportions importantes. Clés d’entrée, les moteurs deviennent toujours plus puissants
et offrent des réponses de plus en plus pertinentes.
2.2. Définition du SEO
SEO est l’acronyme de Search Engine Optimization. En constatant l’importance
croissante des moteurs, les entreprises se sont rapidement penchées sur le
fonctionnement de ces derniers pour pouvoir figurer en tête des résultats. Une solution
s’est imposée : l’optimisation des sites pour les moteurs de recherche.
Bien entendu, certaines astuces sont possibles, mais la sophistication des algorithmes
permet d’en limiter la portée et provoque souvent la mise à l’index des sites qui ont
franchi la ligne rouge.
61
FONDAMENTAUX DU REFERENCEMENT
Le SEO consiste donc à bien comprendre comment sont gérés les moteurs et à étudier
les meilleures solutions pour coller à leurs critères sans pour autant jouer avec ces
derniers. Plus les développements seront solides, plus le référencement se placera dans
une logique de long terme. La patience s’impose pour des résultats de qualité : selon le
secteur, les premiers résultats peuvent s’étaler entre quelques semaines et plusieurs
mois.
Les moteurs de recherche – et, entre autres, les firmes spécialisées dans les nouvelles
technologies – sont entrés dans le quotidien des internautes, comme le montre l’étude
de Millward Brown, qui place Apple et Google comme les marques les plus puissantes.
Pour 2013, voici le classement des cinq marques les plus puissantes dans le monde en
termes de capitalisation boursière (en milliard de dollars) :
Apple : 185.1
Google : 113.67
IBM : 112.54
Mc Donalds : 90.26
Coca-Cola : 78.42
Le classement 2013 de la société Interbrand diffère quelque peu (d’autres critères sont
pris en compte) :
Apple
Google
Coca-Cola
IBM
Microsoft
General Electric
Mc Donalds
Samsung
Intel
Google a fait son entrée dans le dictionnaire américain en 2006 sous la forme d’un verbe
transitif : « to google », qui signifie rechercher dans le moteur des informations.
La plupart des internautes en phase d’achat commence leur tri dès les moteurs de recherche.
Il est toujours possible de passer outre et de se concentrer entièrement sur la publicité en
ligne. Pourtant, les coûts d’acquisition avec le référencement sont largement inférieurs à ceux
de la publicité classique. Le cabinet américain Piper Jaffray & Co. a mené une étude pour
comparer les coûts d’acquisition moyens. Le référencement ressort comme étant le moins
coûteux, avec une moyenne à 8,5 dollars. En comparaison, la publicité en ligne implique un
coût moyen de 50 dollars.
Le référencement est l’un des outils proposant le meilleur taux de retour sur investissement,
comme le montre le graphique de la Direct Marketing Association publié en Octobre 2007.
Alors que l’emailing présente le ROI le plus élevé, le référencement se place en seconde
place, devant le télémarketing et le marketing direct.
ROI des différents outils de marketing direct aux USA en 2008 - en USD
Emails commerciaux
Search, display
Marketing direct
Télémarketing
0 10 20 30 40 50
Les chiffres publiés en 2009 par ce même institut ne sont pas différents : pour 1 dollar
investi, l’e-mailing offre un ROI de 43 dollars contre 11 dollars en moyenne pour les autres
canaux de marketing direct. Les statistiques 2010 donnent un ROI de 30 dollars pour
l’emailing et de 15 dollars pour le mailing postal.
63
64 Les Clés du Référencement sur le Web
PREMIERE ETAPE :
CHOIX DES MOTS CLES
CHOIX DES MOTS CLES
1. Connaître sa cible
67
CHOIX DES MOTS CLES
Le travail sur les mots-clés prend du temps et coûte de l’argent : il faut donc penser «
qualité » dès sa constitution.
Toujours faire attention aux mots-clés à multiple audience
Comme le mot-clé « sécurité », qui peut faire référence aussi bien à la sécurité civile, à
la sécurité des bâtiments ou bien à la protection des données en ligne. Autre exemple
avec le mot-clé « moteur », qui renvoie aux outils de recherche ou au secteur
automobile. Dans la même idée, « portable » s’accorde aussi bien avec les ordinateurs,
les téléphones ou encore les consoles de poches.
Vigilance avec les expressions trop larges
Si le site vend uniquement des robes en soie et se place sur la requête « robes », il peut
accumuler beaucoup de visites, mais avec un taux de déperdition conséquent. Ce taux
est à calculer en fonction du ROI.
Les acronymes sont à prendre avec des pincettes
Les balnéothérapies par exemples se retrouvent confrontées à ce problème avec le mot-
clé « spa », qui signifie également Société Protectrice des Animaux.
Dans la sélection de mots-clés, il faut toujours se poser des questions sur sa cible : quels
sont ses besoins, quels mots utilisera-t-elle pour exprimer ses besoins ? Quel contenu
attend-elle ?
3. Mots-clés dérivés
Singulier ou pluriel
Les moteurs font la différence entre les deux. Si des internautes recherchent dans les
deux formats, il est utile d’être présent dans les deux cas.
Les fautes d’orthographe
Une question largement débattue dans le secteur du référencement. Règles
orthographiques ou erreur de frappe, les internautes commettent des impairs dans leur
requête, que ce soit sur le nom d’une marque ou sur un nom commun. Faut-il être
présent sur des mots-clés mal rédigés ? Une réponse positive implique nécessairement
de présenter dans son contenu des mots-clés avec des fautes, ce qui ne colle sûrement
pas avec la ligne éditoriale fixée. La récurrence d’une faute et le potentiel de
transformation indiquera si le filon a besoin d’être exploité.
Certains outils existent sur le Net simplifiant la recherche de fautes d’orthographes
Les déclinaisons
Penser à étendre sa présence autour d’un mot-clé commun, comme par exemple « hotel
paris », « hotel 4 étoiles paris », « hotel spa paris », « réserver un hôtel paris centre »…
Cette méthode peut être très utile pour ressortir dans une recherche géolocalisée.
Les synonymes
Google conseille d’utiliser les synonymes de certains termes pour mieux faire
comprendre au moteur la thématique traitée dans la page web.
Plutôt que de se contenter d’un seul mot pour définir un produit ou un service,
l’utilisation des synonymes vient compléter de manière avantageuse le descriptif. Il
existe plusieurs outils permettant d’obtenir des expressions similaires, à l’image du site
www.synonymes.com.
Exemple de synonymes pour le mot « crédit » - Source : www.synonymes.com
69
CHOIX DES MOTS CLES
On peut tester les résultats renvoyés par Google sur ces 4 requêtes et s’apercevoir
que les pages de résultats présentent des différences.
Bien entendu, la présence d’un mot vide (en) complique quelque peu notre tâche.
Une manière de contourner le problème est d’utiliser dans la balise Titre, une phrase
qui répète les termes : « Conseil propriété industrielle : Nos meilleurs conseils en
propriété industrielle dévoilés ».
Bien entendu, une recherche dans Google Suggest, Google Tendance des recherches
ou l’outil Générateur de mots-clés de Google AdWords peut aider à classer les
expressions par ordre de popularité.
Ce même procédé peut être appliqué à la balise Description et aux balises Alt des
images. Si le contenu de ces balises est invisible pour les internautes (sauf si elle est
reprise dans les SERPs), il n’en va pas de même pour les titres de paragraphes. Une
solution possible est de mettre le titre en capitales : CONSEILS EN PROPRIETE
INDUSTRIELLE, par exemple.
71
CHOIX DES MOTS CLES
En gris clair figurent les mots-clés ramenant le plus de visites. La partie gris foncé est la
longue traîne, c'est-à-dire une multitude de mots-clés, amenant moins de trafic que les
mots-clés issus de la partie gris clair. Et pourtant, en additionnant le trafic issu des
mots-clés de la longue traîne, la somme sera supérieure aux mots-clés populaires.
Tous les sites présentent ce schéma. La traîne sera plus ou moins courte selon la
spécialité du site. Un site ultra spécialisé aura une traîne plutôt courte, n’ayant pas
suffisamment de mots-clés sur lesquels figurer. En revanche, un site d’actualité
généraliste aura une traîne conséquente, en figurant sur des expressions liées à
l’économie, la politique, le cinéma ou encore les faits divers.
Développé avec des mots-clés, voici un exemple de longue traîne
En clair, un site libraire cherchant à se positionner sur la requête « livre enfant » devra
« batailler », cette requête étant visée par de nombreux professionnels. Les expressions
connexes à « livre enfant », sont moins recherchées, donc moins concurrentielles.
Cependant la somme des recherches de ces requêtes dépasse celle de l’expression
généraliste : « livre enfant ».
Se fixer sur des expressions à deux ou trois mots-clés reste préférable qu’un mot-clé
unique. Les internautes sont toujours plus précis sur les moteurs. Bien souvent après
avoir tapé un seul mot-clé, ils doivent reformuler plus précisément leur demande pour
arriver sur des résultats adaptés. De manière continue, les requêtes qui font partie de la
longue traîne, sont en progression continue.
Selon une étude plus récente menée par Synodiance, le nombre moyen de mots-clés
par requête est aujourd'hui en France de 2,93 :
Près du tiers des requêtes analysées contenait 2 termes ;
28,2% en comportaient 3 ;
Les requêtes de 4 termes représentaient 15,8% ;
Celles d'un mot-clé 10,9%.
"En comparaison des études déjà publiées sur le sujet, on observe une baisse
significative des requêtes à un mot-clé, au profit des requêtes à 2 et surtout à 3 et 4
mots-clés", conclut l'étude.
73
CHOIX DES MOTS CLES
1. Brainstorming
Appelé aussi le « remue-méninge ». Cette première étape permet de constituer une
première liste avec un maximum de mots-clés. Effectuer un brainstorming laisse la
possibilité d’imaginer le plus de mots-clés possibles autour de son activité en
multipliant le nombre de pistes. En aucun cas, il ne s’agit de faire un tri dès cette étape :
tout doit être pensé, mis en commun et débattu par la suite. Des idées originales
peuvent être découvertes lors de ce moment.
Chacun doit partir d’un mot relatif à un secteur, à un produit ou à un service et le
décliner. Avec « voiture » par exemple, voici les catégories dans lesquelles les mots-
clés peuvent se décliner :
Par type : 4x4, cabriolet, coupé sport ou berline haut de gamme, etc.
Par constructeur : Renault, Peugeot, Volkswagen, BMW, etc.
Par modèle : pour Renault : Clio, Kangoo, Safrane, Twingo, etc.
Par type de carburant : Diesel, essence, GPL, etc.
Par action : vente, location, achat, prêt, etc.
Par état : neuf, occasion, première main, etc.
Avec l’équipement ou la couleur : climatisation, 3 portes, bleu métallisé, etc.
Il est même possible d’imaginer une déclinaison par lieu : voiture Paris,
voiture Bordeaux, etc.
2. Analyse de la concurrence
Examiner les positions de la concurrence peut aider à la composition de sa liste de
mots-clés. S’informer sur les mots-clés mis en avant dans le contenu, constater le ton
adopté dans le texte et le vocabulaire utilisé dans la description des produits. Toutes ces
données permettent d’explorer des pistes auxquelles on n’avait pas songé, et
permettent également de déterminer les expressions à soigner en prévision d’une forte
compétition.
Attention toutefois à ne pas reprendre à tort et à travers des marques appartenant
à la concurrence. Cela peut être inutile mais également risqué.
Des outils peuvent aider à analyser les mots-clés de la concurrence en crawlant les
pages de ces derniers (point détaillé plus tard dans ce chapitre). Certains programmes
proposent même d’étudier la position de la concurrence sur les moteurs à l’instar du
site SEOdigger.com, disponible uniquement en version bêta anglaise. Sur ce site, après
avoir saisi l’URL d’un concurrent, on retrouve sa position par outils de recherche sur
les mots-clés les plus populaires.
Copie d’écran du site SEOdigger
75
CHOIX DES MOTS CLES
En bref, on ne positionne par une page en fonction d’une liste de mots-clés mais selon
des intentions de recherche distinctes. En conséquence, vous devez :
Définir une structure de site web qui soit cohérente ;
Créer des pages qui soient les plus spécialisées possibles ;
Rédiger des contenus qui répondent exactement aux attentes des internautes ;
Proposer des contenus qui soient alignées avec vos objectifs marketings.
Exemple d’un moteur de recherche interne à un site Web - cf. champ « search » de la page
4. Sélection
Après avoir constitué une liste, vient le tour de la sélection. Tout dépendra des objectifs
de visibilité et de la stratégie de communication globale de l’entreprise. Une priorité est
ensuite attribuée à chacun des mots-clés, pour savoir par quel mot le travail doit
commencer et où les efforts doivent être accentués. Là encore, des questions doivent
être posées : quels sont les mots-clés vitaux et quels sont les objectifs de trafic ?
77
CHOIX DES MOTS CLES
Le tri doit se faire en fonction de la popularité et il ne faut pas hésiter à écarter les mots-
clés présentant une audience quasi-nulle (moins de deux recherches par mois par
exemple). La compétition sur les mots-clés pourra être mesurée après avoir tenté de
s’y positionner. Une fois le ROI calculé, il sera toujours temps de savoir si le mot-clé
vaut le coup de se battre.
Il est assez facile de se rendre compte qu’un mot-clé est populaire : il suffit de le
rechercher dans un moteur et de vérifier le nombre de résultats obtenus dans le moteur.
Prenons un exemple… Sur la requête Hôtel, Google France renvoyait, en avril 2014,
plus de 44 500 000 résultats. Par contre, la requête « Hôtel Strasbourg deux étoiles » ne
comptait plus que 685 000 liens organiques.
1. Générateurs de mots-clés
Il existe sur le marché des outils simplifiant la sélection des mots-clés. Services gratuits
ou payants, ils permettent de connaître la popularité des mots ou expressions clés.
Parmi les outils gratuits figurent ceux proposés par les moteurs de recherche, comme
celui de Yahoo!, de Bing et de Google.
Les générateurs de mots-clés fournissent en général trois types d'informations :
79
CHOIX DES MOTS CLES
Pour ce qui est des outils payants, les acteurs en place proposent généralement une
étude complémentaire sur la présence de mots-clés dans une page et le poids de
chacun. Une donnée qui permet de cibler où se situent ses faiblesses et où le travail doit
se mener.
2. Etude de la concurrence
L’étude des différents sites de la concurrence permet de comparer l’état d’avancée
de ces derniers sur les moteurs, mais également de comprendre leurs stratégies de
référencement. Leurs besoins en termes de visibilité définiront les mots-clés sur
lesquels la concurrence sera plus accrue et sur lesquels la société devra se défendre.
Dans son outil, Google offre la possibilité d’indiquer une URL. A partir de cette
dernière, il préconise des mots-clés après avoir étudié le champ lexical du site Web.
81
CHOIX DES MOTS CLES
Pour le mot-clé « canon digital camera », l’outil estime la probabilité d’achat suite à
cette requête comme étant très élevée (0,972). L’utilisateur ayant précisé dans sa
requête le produit et la marque, il confirme donc son choix. Il lui reste à trouver le
produit au prix désiré.
83
CHOIX DES MOTS CLES
Google Adwords
Google propose un module permettant d’obtenir les prévisions de trafic pour de
nouveaux mots-clés. Adapté à l’achat de liens sponsorisés, l’outil peut néanmoins
fournir des informations intéressantes pour le référencement naturel, comme le volume
de recherche et la concurrence. Plus un mot-clé coûte cher dans Google Adwords, plus
le travail de référencement pour se placer dans l’index classique sera important.
85
CHOIX DES MOTS CLES
C’est donc une manière de faire du marketing prédictif et de voir quelles sont les
grandes tendances du moment dans toutes sortes de secteurs d’activité.
87
DEUXIEME ETAPE :
METHODES D’OPTIMISATION « ON SITE »
METHODES D’OPTIMISATION « ON SITE »
Une fois la liste de mots-clés définie, c’est au tour du site d’être étudié et adapté.
Commencer par l’étape des mots-clés reste préférable, ces derniers permettent de
décider des orientations apportées au référencement. De cette orientation découle
l’optimisation du site. Comme vu précédemment, les moteurs de recherche
n’utiliseraient pas moins de 200 critères pour classer leurs résultats. Deux catégories se
distinguent dans l’optimisation : les critères on site, c'est-à-dire directement mis en
place sur le site, comme les liens hypertextes, la densité des mots-clés, l’optimisation
des meta ou encore la mise à jour du site. Et les critères off site, intégrés plus
tardivement par les moteurs dans leur quête de pertinence.
Les critères on site regroupent tous les critères présents sur un site et figurent tous dans
le code source des pages. L’architecture des pages est adaptée en fonction des objectifs
fixés. Le code source se simplifie pour offrir aux robots des moteurs plus de clarté et
une accessibilité qui facilitera leur travail d’indexation.
De manière générale, une extension en .com ou en .fr doit avoir votre préférence. Bien
entendu, le nom de domaine doit aussi être celui de votre société ou de la marque que
vous allez promouvoir.
Hélas, il arrive souvent que l’extension tant convoitée soit déjà réservée et qu’une des
seules solutions soit d’opter pour une autre extension en .org ou .net.
Il est tout de même possible de jouer sur les mots en procédant par ajout : plutôt qu’un
domaine comme mickaeljackson.com, pourquoi ne pas choisir mickaeljackson-
live.com ?
Vous avez aussi la possibilité d’utiliser un tiret dans le nom : mickael-jackson.com ou
d’utiliser une abréviation : mj.com.
Ultime solution : utilisez un mot-clé ou une expression qui décrit le mieux votre société
ou votre marque : roi-de-la-pop.com ou moonwalk.com.
Pour le reste, réservez le maximum d’extensions avec votre nom de société et n’hésitez
pas à le faire sur toutes les plateformes d’hébergement de blogs : WordPress, Blogger,
Canalblog, etc. C’est une bonne manière d’éviter toute tentative de Cybersquatting (ou
« squatting des noms de domaine »). En fait, il arrive souvent que l’on réserve des
noms de domaine moins parce qu’ils nous intéressent que pour empêcher la
concurrence de s’y installer.
Enfin, l’organisation en sous-domaine peut avoir une justification dans le cas d’un site
multilingue. En bref et comme en toute chose, il faut savoir rester dans les limites du
bon sens…
Chapitre 3 : Diagnostic
L'audit d’un site Web se pratique généralement afin de comprendre pourquoi les
positions stagnent dans le classement des moteurs et pour mettre en avant les
améliorations à apporter sur la structure ou le contenu. Il permet de comparer ses
positions par rapport à celles des concurrents.
Le diagnostic se compose de plusieurs parties. Une analyse des mots-clés utilisés pour
le référencement permet de vérifier leur conformité avec les objectifs fixés. Le calcul
de l’indice de densité des mots-clés indique ensuite quelles pages sont à travailler pour
adapter leurs contenus.
Une étude technique complète le diagnostic afin de mettre en valeur les facteurs
bloquants, comme le flash, le texte, ou les pages dynamiques. Tester la conformité des
pages permet de mettre en évidence les lignes de codes qui empêchent le passage des
robots des moteurs.
Enfin, l’audit de la popularité consiste à identifier les liens externes pointant vers les
pages du site et à qualifier la valeur de ces liens.
91
METHODES D’OPTIMISATION « ON SITE »
Source : http://tools.seobook.com/firefox/seo-for-firefox.html
Chapitre 4 : Structure
Plus largement, la façon dont une page est construite apporte déjà beaucoup d’éléments
aux moteurs de recherche. Ces derniers décortiquent le site dans les moindres détails.
Totalement automatisés, les moteurs de recherche ne peuvent pas vraiment
comprendre le sens des phrases comme le ferait un humain. Ils compensent cette
incapacité en multipliant les analyses sur la position de chaque mot dans une phrase,
dans un paragraphe et dans une page.
93
METHODES D’OPTIMISATION « ON SITE »
que ce soit dans l'URL ou dans le corps de texte. La virgule et le tiret sont en revanche
bien considérés comme valeur séparatrice.
A la place de www.hotelxxx.com/informations/chambres_doubles.html
Mieux vaut mettre : www.hotelxxx.com/informations/chambres-doubles.html.
1.4. Optimiser les liens hypertextes
Ce sont les liens hypertextes qui relient des pages Web entre elles. Ils permettent
notamment de naviguer de page en page. Le texte de chaque lien doit être
attentivement soigné. Un lien avec le texte « cliquez ici » est à éviter. Il n’apporte
aucune information pour le moteur. Il vaut mieux lui préférer une expression ou un
mot-clé.
Par exemple :
<a href=http://www.unepagexxx.com/dossier/fichier.html>réserver une
chambre d’hôtel </a>
Les liens internes comme les liens externes doivent être soignés de cette manière.
La présence des mots-clés cibles dans les textes de liens appelés aussi les « anchor text »
représente en 2009 un des critères phare pris en compte par les moteurs pour classer les
sites Web.
Mot-clé ou expression
Densité = ______________________________
Nombre total de mots dans une page
En prenant l’exemple du site CNN, le mot-clé qui revient le plus souvent est
« news » (actualités), avec une densité de 6,40% et les expressions avec deux mots-
clés les plus redondantes sont « white house » et « breaking news » avec 3,87 %.
95
METHODES D’OPTIMISATION « ON SITE »
Il existe chez les référenceurs deux écoles autour du calcul de la densité : ceux qui
incluent les mots de liaisons et les articles, et ceux qui les écartent.
Lors de la rédaction du contenu, il convient de garder toujours en mémoire que l’on
s’adresse en premier aux internautes. Les moteurs ne passent qu’après. La priorité
doit être de donner envie aux visiteurs de continuer la consultation du site et de passer
du stade de simple visiteur à celui de client.
Snippet qui contient 8 liens vers les pages les plus importantes (ou sensées l’être).
Présentation du snippet
Si la requête porte sur le nom de domaine, Google affichera ce qui semble être les
pages les plus populaires du site.
Récemment, Google s’est mis à proposer des liens de pages. Le Snippet contient 3 à
4 liens qui permettent d’accéder directement au paragraphe marqué par une ancre.
Accès direct aux pages populaires
Mentionnons aussi l’existence des fils d’Ariane dans les résumés de page web. En
bref, l’internaute reçoit, avant même d’avoir cliqué sur le lien, une indication du
contexte dans laquelle est placée la page de destination ainsi qu’un aperçu du plan du
site.
Enfin, certains forums montrent un Snippet qui comporte plusieurs liens empilés vers
des sujets adjacents (les liens profonds).
97
METHODES D’OPTIMISATION « ON SITE »
Le principe consiste à décrire des entités et les relations qui les relient entre elles :
« Régis Micheli est le directeur d’une société appelée « Visiplus » dont le siège social
se trouve à Sophia-Antipolis… »
Le principal avantage du Web sémantique est de produire des Snippets enrichis qui
sont, de fait, beaucoup plus « présents » dans les pages de résultats. Et puisqu’ils sont
mis en avant, ils suscitent, logiquement, plus de clics.
Snippet Allociné
Yahoo! évalue à 15% l'augmentation du CTR sur les Snippets optimisés. Depuis que
le comparateur de prix Best Buy intègre du Web sémantique, le site a enregistré une
progression de 30% de trafic sur certaines de ses pages.
99
METHODES D’OPTIMISATION « ON SITE »
Il ne s’agit pas de mettre une suite de mots-clés. Le titre est visible par les internautes
dans les résultats et il doit donner envie de cliquer en accrochant l’œil des internautes.
Chaque page doit avoir un titre personnalisé, en fonction de son contenu.
Le titre doit être court : entre cinq et dix mots. Google présente dans ses résultats des
titres de 68 signes ; Yahoo! Search monte jusqu’à 120 signes.
Il existe trois règles à un bon titre :
Une page pour chaque produit, service ou question (problème, besoin, etc.)
Une page pour chaque cluster sémantique mais sans viser une granularité trop
importante (billard américain + billard américain pas cher, etc.)
La balise Title doit :
Mettre en évidence la spécificité de la page en termes de contenu ;
Être unique et non réutilisée sur d’autres pages web.
Capture d’écran de Wikipédia : personnalisation des titres sur chaque page
Pour les petits sites, cette opération peut être faite manuellement. En revanche pour
les sites présentant de gros volumes de pages vues, il est souhaitable d’avoir un CMS
gérant automatiquement la balise Title et les meta tag, et permettant, si nécessaire, de
modifier manuellement ces données.
En fonction du classement sur les moteurs et des statistiques de visites, il ne faut pas
hésiter à changer le titre afin de voir lequel obtient plus de clics et de conversions par
la suite.
101
METHODES D’OPTIMISATION « ON SITE »
Même si les robots collectent les informations de cette balise, elle n’est pas
systématiquement reprise dans les résultats des moteurs. Le fait ou non de reprendre
en partie ou en totalité de la balise Meta description, ne dépend que de la bonne
volonté de Google. C’est la requête saisie par l’internaute qui va décider de
l’apparence du Snippet.
La balise meta description ne doit pas contenir plus de 158 signes. Il est inutile de
répéter le titre de la page. Il est inutile de répéter le titre de la page. Un bon résumé
est préférable à une enfilade de mots-clés. Cet aperçu doit être l’occasion de proposer
des mots-clés au singulier comme au pluriel. Les mots-clés ne doivent en aucun cas
être collés les uns aux autres, pour ne pas donner l’impression au moteur qu’il ne
s’agit que d’une simple liste de mots.
Et pour Bing ?
De manière générale, les recettes employées avec Google réussissent avec Bing. : les
extraits d’une page (snippets) ne font pas plus de 170 signes (espaces compris).
103
METHODES D’OPTIMISATION « ON SITE »
Les différences pages d’un forum qui traitent d’un même problème sont regroupées
Snippet de Google
A priori, il faut donc réfléchir à une balise meta description qui n’excède pas les 150
signes mais qui présente, pour les 20 caractères suivants, une phrase cohérente. De
cette façon, le Snippet visible dans les pages de résultats montrera un contenu clair
et compréhensible pour les internautes.
105
METHODES D’OPTIMISATION « ON SITE »
Une autre balise existe pour les robots : la balise « revisit ». Elle propose au robot de
revenir sur la page dans une période donnée.
Exemple :
<meta name="revisit-after" content="7 days">
Concrètement, cela ne se passe pas aussi facilement. Cette donnée n’est, en effet, pas
vraiment prise en compte par les robots. Les moteurs ont conçu leurs robots de manière
à revisiter le site en fonction du taux et de la fréquence de mise à jour. Cette balise ne
présente pas d’intérêt pour le référencement.
Cette manœuvre, en plus d’éclairer les robots sur le contenu d’une image, renseigne
également les personnes non voyantes et les internautes ayant choisi de naviguer sans
images.
L’image du logo doit également être renseignée. Bien souvent ignorée, il est
intéressant d’y insérer le nom de la marque, et il est toujours bien d’ajouter une petite
accroche avec une phrase simple et explicite.
107
METHODES D’OPTIMISATION « ON SITE »
Lors de la construction de son site, mieux vaut donc choisir un menu en HTML /CSS.
C’est le menu qui indiquera au robot l’étendue de son site et permettra l’indexation de
l’intégralité des pages web. Si le robot ne comprend pas les liens, il aura alors plus de
difficultés à intégrer les pages suivantes.
Il est toujours possible d’utiliser les CSS pour améliorer le rendu des titres.
109
METHODES D’OPTIMISATION « ON SITE »
Il est préférable d’éviter les titres avec des images, puisque comme vu précédemment,
les moteurs ne comprennent pas ces dernières.
Précisons que le fait que votre site soit en conformité avec les standards Web ne
participe pas à un meilleur référencement. C’est juste une façon d’améliorer
« l’expérience utilisateur » et de jouer sur un des meilleurs leviers du webmarketing : la
relation de confiance.
<html>
<head>
<title> titre de la page </title>
<meta-name= "keywords" content="5 ou 6 mots-clés>
< meta-name ="description" content ="150 à 200 caractères : résumé de
la page reprenant les principaux mots-clés">
< meta-name ="robots" content ="index, follow">
</head >
111
METHODES D’OPTIMISATION « ON SITE »
En 2011, SEOMOZ change sa manière de procéder et publie les résultats d’une étude
portant sur plus de 10000 mots-clés. Voici le poids respectif des facteurs tels qu’ils ont
pu être relevés :
Liens entrant au niveau de la page : 21% ;
Qualité des liens entrants au niveau du domaine : 21% ;
Densité et usage des mots-clés au niveau de la page : 16% ;
Statistiques sociales au niveau de la page : 7% ;
Statistiques liées à la notoriété de la marque : 7% ;
Absence de facteurs bloquants au niveau des mots-clés : 7% ;
Traffic enregistré sur la page web : 6% ;
Densité et usage des mots-clés au niveau du domaine : 6% ;
Absence de facteurs bloquants au niveau du domaine : 5%.
Le point principal est que les Serps donneront une prime à la fraîcheur et que les pages seront
indexées et analysées de manière beaucoup plus fine qu’auparavant.
MayDay marque, quant à lui, un changement significatif dans le Ranking des pages :
beaucoup d’éditeurs de sites web en ont fait récemment les frais. Et, comme son nom
l’indique, cette mise à jour date de mai 2010… Son propos est d’optimiser les résultats pour
les requêtes de type « longue traîne ».
113
METHODES D’OPTIMISATION « ON SITE »
C'est-à-dire, l’ensemble des recherches qui portent sur des expressions précises et qui, prises
individuellement, vous apportent peu de trafic mais, cumulées, peuvent constituer une part
substantielle des visites enregistrées sur votre site web.
Une des principales conséquences est que les pages de votre site sont maintenant analysées
individuellement et que sa notoriété ne suffit plus à assurer, à une page nouvelle, un Ranking
immédiat. En bref, chaque page doit faire ses preuves et posséder suffisamment de qualités
intrinsèques et de liens entrants pour figurer en bonne position dans Google.
Chez Visiplus, nous avons pu constater que ce nouvel algorithme touchait majoritairement
les sites e-commerce. Heureusement qu’un certain nombre de contre-mesures permettent de
redresser rapidement la barre !
Google Panda a officiellement été déployé à partir d’avril 2011 aux Etats-Unis.
Officieusement, Panda a commencé à faire ses premiers dégâts, en France, dès juillet
2011.
D’ores et déjà, des milliers de sites ont enregistré des pertes de position conséquentes
dont, notamment, les sites d’actualités et d’agrégation de contenus.
Un autre type de sites semblent aussi être visés : les sites vitrine qui ne proposent
pas de réel contenu ou qui, pour des raisons techniques, ne paraissent pas en fournir
(site en Flash, par exemple).
L’effet Panda a été une sorte de mini-révolution dans le monde du SEO et permet de
vérifier un adage bien connu des professionnels du référencement : aucune place,
même chèrement acquise, n’est définitive !
Et ce n’est pas terminé car Matt Cutts, le porte-parole de Google, a annoncé qu’au
cours de l’année 2014, de nouvelles améliorations à l’ensemble des algorithmes et
filtres sont prévues. De fait, nous pouvons penser que les effets de cette mise à jour
vont être durement ressentis par nombre d’entreprises !
115
METHODES D’OPTIMISATION « ON SITE »
Penguin
Une première mise à jour de cet algorithme a eu lieu 26 mai 2012… Comme Panda,
Penguin vise à améliorer l'expérience utilisateur en diminuant le positionnement des
sites utilisant des techniques de référencement abusives (netlinkink et backlinks non
naturels). En analysant les caractéristiques de 26 sites qui ont été pénalisés par le filtre
Penguin, la société GSQI en déduit que ces critères de sélection :
Spam sur les forums : liens trop optimisés ;
Spam sur les profils des utilisateurs des forums ;
Blogs qui proposent des liens en dofollow ;
Blogrolls : liens n’ayant pas de lien avec les contenus web vers lesquels les liens ont
été effectués ;
Annuaires ou sites de faible pertinence ;
Commentaires répétitifs dans les articles de blogs.
En sens inverse, la page qui fait un lien vers une de vos pages doit contenir le plus
possible de :
Mots rares ;
Phrases longues ;
Mots longs.
Dans le cas contraire, l’éventualité que le lien retour soit considéré comme "toxique"
sera important.
(Source : MatSight – Janvier 2014)
En bref, vous devez retenir deux choses :
Évitez des textes d’ancre qui sont sur-optimisés ;
Fuyez à tout prix les sites qui proposent des liens de faible qualité car étant trop
artificiels.
Hummingbird
C’est en septembre 2013 que ce nouvel algorithme de pertinence (Hummingbird pour
« Colibri ») a commencé à être déployé. Voici ses caractéristiques :
90% des requêtes dans le monde impactées ;
Amélioration de la pertinence des résultats notamment pour les requêtes exprimées
en langage naturel ;
Importance du changement technique qu’il implique en termes de traitement des
requêtes et des résultats qui sont proposés.
En résumé, l’objectif de cet algorithme n’est pas de classer les pages en fonction des
mots-clés qu’elles contiennent mais de leur pertinence par rapport à l’intention de
recherche exprimée par l’internaute. Par exemple, est-ce qu’un internaute qui saisit le
terme « couverture » dans Google parle de couverture sociale ou de couverture de lit ?
117
METHODES D’OPTIMISATION « ON SITE »
Le Knowledge Graph
Selon une étude menée par le site Moz.com en août 2013, le pourcentage de pages
présentant des informations issues du Knowledge Graph (« le graph du savoir ») est
passé à 26.7%. Quel est son principe de fonctionnement ?
Lorsque nous effectuions une recherche, il arrive que nous soyons désireux d’affiner
notre intention de départ. Le Knowledge Graph permet de mieux comprendre les
éléments du monde réel (entités) ainsi que les relations qui les relient entre eux. Le
carrousel qui sera alors visible en haut de la fenêtre ou sur la droite va permettre aux
internautes d’avoir une vue d'ensemble du sujet qui les intéresse.
En avril 2013, Google avait recensé plus de 500 millions d’entités ainsi que 3.5
milliards de faits et de relations autour d’elles. En pratique, cette gigantesque base de
données est structurée de cette façon :
Objet de base : entité,
Attribut : caractéristique de l’objet,
Relation : lien entre plusieurs objets,
Classe : ensemble d’entités.
Quels sont les avantages pour les internautes ?
Désambiguïsation des résultats,
Instantanéité des informations les plus importantes,
Mise en avant des liens les plus pertinents.
Si les implications en termes se SEO semblent limitées, les webmasters ont intérêt à
intégrer les microdonnées à l’ensemble de leurs pages de contenu.
119
METHODES D’OPTIMISATION « ON SITE »
Note : pour la pagination de vos pages, utilisez les balises rel=next et rel=prev. Elles
servent à :
Indiquer au moteur de recherche que les différentes pages soient reliées de manière à
ne faire qu’une ;
Indiquer à Google l’adresse URL de la première page de la pagination.
Cette dernière fonctionnalité est précieuse puisque, de fait, les internautes seront
redirigées vers la bonne page d’entrée.
Le 18 octobre 2011, Google annonce que les internautes connectés à leur compte
Google basculent en connexion sécurisée et que les mots-clés qu'ils utilisent ne seront
plus transmis aux outils d’analyse des sites visités. Dans Google Analytics, la mention
(not provided) figure à la place de la requête saisie. Et force de constater que, depuis
cette date, la part du (not provided) dans le trafic n'a cessé de croître.
En février 2014, une étude de la société At Internet indiquait que, pour la France, le
pourcentage de requêtes en (not provided) atteignait 80%.
S’il n’existe pas de solutions définitives pour y échapper, voici quelques pistes :
Analyser les pages d’entrée de votre site et en déduire les comportements des
internautes ;
Utiliser les données issues des Outils Google pour webmasters ;
Examiner les données de Google AdWords ;
Croiser vos statistiques avec celles d’outils spécialisés en veille concurrentielle.
Personnellement, nous pensons que la meilleure façon de s’en affranchir est de créer
des pages qui soient les plus spécialisées possibles. Une autre manière de dire que pour
chaque page, ne doit correspondre qu’un seul mot-clé de ciblage.
121
METHODES D’OPTIMISATION « ON SITE »
Chapitre 5 : Contenu
Le contenu du site : ce qui donnera envie aux internautes comme aux moteurs de
recherche de revenir sur le site. Les pages doivent s’adapter aux besoins et à la
navigation des internautes. Une mise à jour régulière des informations apportera
également une valeur supplémentaire qui sera valorisée par les moteurs.
1. Management du site
1.1. Mettre à jour les pages régulièrement
Sur la toile, nombre de sites ont été abandonnés. Les moteurs, dans leur quête de
pertinence, écartent ces sites obsolètes, c'est-à-dire ceux qui ne sont plus mis à jour.
Cette actualisation doit donc se faire au moins une fois par mois. Pour les sites n’ayant
pas de nouveaux produits ou services à présenter, il est toujours possible d’ajouter une
rubrique d’actualités ou de créer des événements réguliers autour de son contenu.
Outre la possibilité de constater la visite des robots dans les statistiques, en consultant
la version en cache à partir de Google, on aperçoit la dernière date à laquelle le robot
est passé sur une page.
Fichier « .htaccess » (cette solution fonctionne également pour les pages effacées, ce
fichier est à déposer à la racine de votre site ou de votre dossier) :
<?
?>
La redirection 301 est la solution prise en compte par les robots indexeurs. Ils suivent le
lien indiqué et indexent la nouvelle URL. La préservation du PageRank de Google est,
la plupart du temps assurée.
L’idéal consiste à adapter la redirection page par page. En clair, l’ancienne page
de présentation de la société doit pointer vers la nouvelle page de présentation,
l’ancienne page de contact vers la nouvelle. Ainsi, les internautes ne se retrouvent pas
parachutés vers une page d’accueil qui ne correspond pas à leurs attentes. Une solution
qui s’avère chronophage pour des sites à taille importante.
Evitez la redirection JavaScript ou Meta refresh, que les robots n’arrivent pas à suivre.
Un changement de nom de domaine peut réduire à néant le travail de référencement
effectué par le passé.
123
METHODES D’OPTIMISATION « ON SITE »
Le danger qui guette le référenceur est qu’il peut se retrouver en face d’une dilution de
la popularité d’une page puisque ce critère est calculé en fonction de chacune d’elle.
Ajoutons que si le « Duplicate Content » peut nuire à votre référencement, plusieurs
porte-paroles de Google ont précisé que cet état de fait n’entraîne pas de pénalités de la
part du moteur de recherche.
Une des solutions parmi les plus simples à mettre en œuvre est d’utiliser ce type de
commandes dans le fichier .htaccess :
RewriteEngine On
RewriteCond %{HTTP_HOST} !^www\.monsite\.fr [NC]
RewriteRule (.*) http://www.monsite.fr/$1 [QSA,R=301,L]
RewriteRule ^index.php$ http://www.monsite.fr/ [NC,L,R=301]
On indique que si un internaute saisit une de ces deux adresses URL : http://monsite.fr
ou http://www.monsite.fr/index.php, il sera redirigé vers celle-ci :
http://www.monsite.fr.
Bien entendu, vous devez faire attention que ce choix soit en accord avec la façon dont
vous avez procédé pour lier la page avec les autres pages du site.
1.5. Soigner l’hébergement de son site
Le site doit en permanence être accessible, sans problèmes de serveurs. Un serveur
inaccessible et le site perd les visiteurs et les robots. Ce dernier peut penser que le site
n’existe plus et supprimera en conséquence les pages de son index.
Des services tels que Pingwy ou InternetVista permettent d’analyser la disponibilité de
son site web.
Le site Pingwy propose des solutions de surveillance de site Web
125
METHODES D’OPTIMISATION « ON SITE »
Il est également possible d’interdire au robot d’afficher un snippet avec cette balise :
<meta name="robots" content="nosnippet">
Cette action permettra d’empêcher des extraits de textes de la page sur laquelle se
trouve cette balise. Les balises META Tags sont à intégrer dans le site Internet à
l’intérieur des balises d’en-tête.
<head>
<title></title>
<meta name="description" content="." />
<meta name="keywords" content="" />
<meta name="robots" content="noodp">
<meta name="robots" content="nosnippet">
</head>
127
METHODES D’OPTIMISATION « ON SITE »
Le titre proposé par les moteurs est le titre de la page contenu dans le meta title. 30%
des utilisateurs consultent le titre dans les résultats des moteurs.
Une technique d’eye tracking (méthode pour mesurer la position et le mouvement des
yeux), permettant de suivre le parcours des yeux sur une page Web, a calculé qu’un
internaute consacre en moyenne 2,2 secondes à la lecture du premier résultat, puis 1,5
secondes au deuxième et moins d’une seconde pour le troisième. Les internautes lisent
donc les résultats de recherche de manière linéaire.
Il est toujours possible d’essayer d’améliorer son snippet. Pour visualiser ce dernier, il
suffit de taper une requête pour observer quel est le résumé proposé. S’il ne convient
pas, le détenteur du site peut ajouter en tête de la page une phrase compréhensible,
reprenant les mots-clés de la requête.
De plus, il est essentiel d’éviter que, dans son résumé, figure des problèmes techniques.
Les robots fonctionnent sans plugin, cookies ou JavaScript, et il arrive souvent que
des sites n’affichent pas leur contenu sans ces pré-requis. Dans ce cas, ces sites
prennent le risque de voir ce message apparaître :
Présentation d’un message d’erreur que l’on peut rencontrer dans un résultat de recherche
Un tel message ne donne pas envie à l’internaute de cliquer dessus, bien au contraire.
Autre élément donnant plus de chance au site d’être visité par les internautes : sa place
dans les résultats.
Les résultats placés en bas de page sont donc automatiquement moins vus et leurs
pages moins visitées. Un site en première et deuxième position affiche un taux de clics
de 84 %, contre 11% pour le site en 8ème position.
Exemple d’eye tracking sur des résultats de moteur de recherche - source : Tracking des yeux mené par Edward Cutrell
de Microsoft Research et Zhiwei Guan de l'université de Washington
129
METHODES D’OPTIMISATION « ON SITE »
A l’origine, une page d'atterrissage, ou landing page, est une page créée dans le cadre
d’un projet de référencement publicitaire sur laquelle un visiteur qualifié accède après
avoir cliqué sur une annonce publicitaire présente sur les moteurs. Ces pages sont
devenues de véritables outils stratégiques permettant d’offrir, aux nouveaux visiteurs,
un contenu pertinent et adapté aux besoins exprimés lors de leurs recherches.
Le principe de la landing page s’est ensuite étendu au référencement naturel, son but
étant dans ce cas de créer du contenu tout autour des pages de son site. Les landing
pages sont généralement utilisées dans un univers fortement concurrentiel ou pour des
sites développés en Flash.
La page doit être courte. L’information doit être vite repérée par l’utilisateur et
la page peut aussi être une piste vers des produits ou des informations plus spécialisés.
Lors de la construction de la page, son objectif doit être gardé en tête en permanence :
abonnement à la newsletter, incitation à la vente, proposition d’informations, etc.
Plutôt que de proposer aux visiteurs de simples liens vers la suite du contenu, elle peut
les inciter à passer à l’action dès cette page.
Prendre garde aux liens externes qui risquent de détourner l’attention des visiteurs.
L'erreur 404 est un code d'erreur renvoyé par un serveur HTTP qui indique que la page
Web demandée (ou le document) n'existe pas. En règle générale, l’internaute est
confronté à une page qui est automatiquement générée par le navigateur. S’il a installé
la Barre d’outils de Google, il lui est proposé de lancer une recherche dans ce moteur
en utilisant la partie « signifiante » de l’adresse URL.
Un lien brisé qu’il soit interne ou externe au site pose deux problèmes :
Le visiteur et donc le futur contact ou client présente de bonnes chances d’être perdu à jamais ;
La perception qu’il a de votre site est entachée de méfiance.
Le but est alors de personnaliser cette page afin de ne pas perdre le visiteur et l’inciter à
découvrir (ou redécouvrir) votre site.
La première étape consiste à éditer le fichier .htaccess et de placer cette commande :
ErrorDocument 404 /404.html
131
METHODES D’OPTIMISATION « ON SITE »
Google propose un Widget qui peut être personnalisé avec un peu de connaissance en
feuille de style CSS. En plus de suggérer le lien correct, ce gadget peut aussi afficher un
lien vers le répertoire parent, vers le plan du site et offrir un formulaire avec des
suggestions de recherches. Par ailleurs, les outils pour webmasters permettent de
relever toutes les pages externes qui font des liens erronées vers un site.
Prenez les devants et ne perdez plus jamais un seul de vos prospects !
Exemples de présentation :
www.monsite.com pour la version anglophone
www.monsite.fr pour cibler les francophones
www.monsite.es pour les hispaniques
www.monsite.de pour le marché allemand
133
METHODES D’OPTIMISATION « ON SITE »
6.2. Sous-domaine
Plus économique, l’utilisation d’un sous domaine pour chaque langue offre une bonne
visibilité sur les moteurs. Pour ces derniers, un sous-domaine est équivalent à un site
Web à part entière. Afin d’éviter les abus, Google tend à limiter les sous domaines
multiples dans ses résultats.
Exemples de présentation :
www.monsite.com pour la version anglophone
fr.monsite.com pour la version française
es.monsite.com pour la version espagnole
de.monsite.com pour le marché allemand
6.3. Répertoires
Autre alternative lors de la création de sites internationaux : la mise en place de
répertoires. Simple, cette méthode est également peu coûteuse puisque l’acquisition
d’un seul nom de domaine suffit. Elle permet également de cumuler la notoriété sur
l’intégralité du site, point essentiel pour un moteur comme Google.
Exemples de présentation :
www.monsite.com, toujours pour la version anglophone
www.monsite.com/fr pour la version française
www.monsite.com/es pour les hispaniques
www.monsite.com/de pour la version allemande
6.4. Hébergement
Comme le nom de domaine, l'hébergement peut également jouer un rôle essentiel dans
le positionnement. Les extensions locales, comme le ".fr", le ".be" ou le ".au", priment
généralement sur l'hébergement. Par contre, pour les sites en ".com", ".net" ou ".info",
ce sera la localisation de l'hébergement qui sera retenue par les moteurs.
Beaucoup d’hébergeurs proposent aujourd’hui de choisir une adresse pays. Google va
regarder attentivement la géo-localisation du site Web. Pour se rendre compte de
l’information relevée par Google, l’extension SEO for Firefox indique en cliquant sur
le lien Whois les données d’hébergement qui seront récupérées sur le site.
Héberger le site dans un pays cible reste la meilleure configuration. Sinon, pour un
hébergement unique, le choix doit s’effectuer en fonction du pays qui cumule le plus de
visiteurs qualifiés.
6.5. Contenu
Les habitudes de recherche diffèrent en fonction des pays. Les expressions utilisées par
les internautes dans le cadre d’une recherche peuvent être singulières en fonction de
chaque région. Une simple traduction de son contenu n’est donc pas suffisante. Le
discours doit s’adapter à la cible locale et la méthodologie dans le choix des mots-clés
doit être répétée pour chacun des pays visés, en tenant compte des expressions les plus
recherchées et celles qui génèreront a priori le plus de conversions.
Il faut également intégrer que sur les moteurs de recherche internationaux, la pression
de la concurrence n’est pas la même, en particulier sur les moteurs anglophones.
Soigner son contenu devient donc primordial pour être visible.
<head>
<title> titre de la page </title>
<meta name ="language" content="fr">
<meta name="description" content="résumé de la page">
<meta name="keywords" content="liste mots-clés">
</head>
Il existe dans ce domaine des standards à respecter, ceux-ci correspondent aux codes
ISO de chaque pays. Il est donc conseillé d’utiliser ces « standards » dans le déve-
loppement de votre site.
Exemple : http://www.loc.gov/standards/iso639-2/php/French_list.php
135
METHODES D’OPTIMISATION « ON SITE »
Un autre moyen, plus simple, consiste à proposer une page d'accueil avec une langue
par défaut, a priori celle amenant le plus de visiteurs qualifiés. L'internaute a ensuite
la possibilité de choisir sa langue rapidement avec un menu proposé en tête de page.
Voici quelques spécificités locales signalées par la société « Return non Now » :
Par ailleurs et pour l’année 2013, les statistiques par pays par pays sont disponibles :
http://returnonnow.com/internet-marketing-resources/2013-search-engine-market-
share-by-country/
En résumé, concentrer ses efforts sur un seul moteur revient à mettre tous ses œufs dans
le même panier. Le jour où Google décidera d’exclure votre site web ou de changer ses
règles d’indexation, votre trafic peut s’écrouler du jour au lendemain.
Cette liste est loin d’être exhaustive… L’intérêt de ce type de raccourci de recherche est
de permettre à l’internaute d’avoir une réponse instantanée à sa recherche tout en lui
laissant le choix d’accéder ou non à la page d’un des sites qui est mentionné en tant que
lien. Par exemple, Boursorama pour les cotations du titre de la société TF1.
Même si ce type de traitement est réservé aux sites institutionnels, il existe une autre
source de référencement : les définitions qui apparaissent quand, dans Google, on
utilise la fontion « define: ». Par exemple : « define: seo ».
137
METHODES D’OPTIMISATION « ON SITE »
Il faut noter que le délai avant que vos définitions apparaissent dans les pages de
résultats de Google peut être très long.
8. Le référencement géolocalisé
Nous avons déjà vu que Google sait géolocaliser ses résultats puisqu’il connaît
l’adresse IP de l’internaute et donc, par déduction, l’emplacement où il se trouve.
Lorsque vous lancez une recherche comme hôtel, une OneBox affichera la liste des
hôtels situés près de vous.
C’est donc le moment de travailler son référencement local (inscription dans les
annuaires ou portails régionaux, sites de recommandation, Mashups tournés vers la
géolocalisation, etc.). Il est aussi possible de créer une fiche Google Adresses
(http://www.google.com/local/add/businessCenter).
Ce service permet de créer une sorte de mini-site dont les résultats seront visibles
dans Google Maps mais aussi sur le moteur de recherche. Si vous avez pris la peine
d’envoyer des photos ou des vidéos, vous bénéficierez d’une visibilité qui vous offrira
un avantage non négligeable par rapport à vos concurrents.
139
METHODES D’OPTIMISATION « ON SITE »
Vérifier que l’adresse URL de la page soit pertinente et porte la mention de la ville
voulue ;
Créer des balises Meta Description qui soient à chaque fois différentes ;
Créer un titre différent pour chacune des pages ;
Varier le contenu des pages en utilisant des mots-clés qui ne soient pas toujours les
mêmes ;
« Enfoncer le clou » en reprenant la liste des principales communes dans le pied de
page du site ;
Pousser encore votre avantage en créant, par exemple, une page dédiée à un
département (Ile-et-Vilaine) puis, des pages pour chacune des villes (Betton, Bruz,
Fougères, etc.).
On peut dresser un comparatif entre Google et Bing mais, sans trop rentrer dans les
détails, ces deux moteurs indexent des métadonnées qui sont parfois différentes : Titre
- Sujet - Auteur - Mot-clé - Contenu textuel - Adresse URL.
Nous avons déjà vu que pour filtrer un type de fichiers dans Google, vous pouvez
utiliser un de ces deux opérateurs : ext: ou filetype:. L’opérateur filetype: est aussi
supporté par Bing.
141
METHODES D’OPTIMISATION « ON SITE »
La première règle qui vient à l’esprit est donc d’imaginer comme première page, un
résumé court et descriptif sans image ni fioriture. Attention de travailler l’en-tête et
le pied de page car il y a de fortes chances que le contenu du premier soit aussi celui
qui sera repris dans le Snippet.
Si vous devez renseigner les méta données de vos fichiers, arrangez-vous pour utiliser
les mots-clés sur lesquels vous souhaitez vous placer.
Notez enfin que Google offre la possibilité aux internautes d’afficher un fichier PDF
comme une page web en cliquant sur le lien Version HTML. De manière assez
similaire, les utilisateurs de Bing peuvent utiliser le lien Page en cache.
Google l’a annoncé depuis longtemps déjà : le temps de chargement de vos pages est
pris en compte dans le « Ranking » de votre site. A l’instar de ce qui prévaut dans
Google AdWords, vos pages de destination doivent, maintenant, s’afficher à la vitesse
de la lumière (ou presque !).
Cette question peut être examinée sous deux angles différents : les moteurs de
recherche et les internautes. Puisque l’on connaît maintenant la position de Google,
expliquons le second point…
Il existe beaucoup d’études qui permettent de mettre en corrélation, le temps de
chargement d’une page et le taux de rebond qui lui sera associé.
On estime généralement qu’au-delà de 4 secondes, une page aura toutes ses chances
contre elle…
Voici quelques chiffres fournis par les deux géants du « Search » :
Perdre 500ms, c'est aussi perdre 20% de trafic pour Google ;
Perdre 400ms, c'est avoir 5 à 9% de taux d'abandon supplémentaire pour Yahoo!.
De fait, la vitesse est, maintenant, un facteur qui va vous permettre de fidéliser vos
visiteurs et les inciter à revenir sur votre site.
Et, en conséquence, ce critère fait partie d’une réflexion approfondie sur la « Web
conversion » : augmenter son trafic c’est une chose, c’en est une autre de le
« convertir » en rationnalisant et optimisant les ressources de son site web.
Il existe beaucoup d’outils qui permettent de mesurer et de mettre en évidence les
ralentissements survenus dans le chargement de vos pages : vous pourrez ainsi dresser
un diagnostic précis des faiblesses de votre site.
143
METHODES D’OPTIMISATION « ON SITE »
Par la suite, vous devez améliorer le temps de chargement (et d’affichage) de vos pages
en utilisant un très grand nombre de techniques éprouvées : optimisation d’images
(sans perte de qualité !), optimisation des feuilles de style CSS, meilleure gestion du
cache de vos serveurs, du cache des navigateurs, compression des fichiers de script,
etc.
Le temps de chargement des pages constitue un signal qui est pris en compte par
Google de la même façon pour les sites mobile que pour les sites classiques.
Il faut également signaler que l’intégration de Google Analytics avec les recherches
personnalisées permettent maintenant de savoir ce que les internautes ont recherché
sur votre site et, en conséquence, de mieux comprendre leurs attentes et leurs besoins.
Cela peut être une page qui n’est pas assez exhaustive, un produit ou un service auquel
vous n’aviez pas pensé, un nouveau sujet d’article, etc.
Un moteur de recherche personnalisé, une fois qu’il a été mis dans la perspective des
métriques, est une source inépuisable d’enseignements. Enfin, c’est une vraie valeur
ajoutée qui est apportée à votre site et au confort de navigation des internautes.
Navigation :
La page principale est-elle rapidement accessible ?
Les menus de navigation sont-ils clairs et bien adaptés ?
Le logo de la société renvoie t-il sur la page d’accueil ?
Les liens sont-ils compréhensibles et clairement identifiés ?
Le formulaire de recherche propre au site est-il directement accessible ?
Contenu :
Les titres principaux sont-ils clairs et descriptifs ?
Le contenu important est-il situé dans la partie supérieure de la fenêtre ?
Le style du site est-il homogène d’une page à l’autre ?
Les balises d’emphase (gras, …) sont-elles utilisées à bon escient ?
Le contenu textuel est-il clair et concis ?
Les adresses URLs sont-elles « Google et User Friendly » ?
Les titres de vos pages sont-ils descriptifs ?
Bien entendu, cette liste n’a rien d’exhaustif mais elle constitue déjà un bon début !
145
TROISIEME ETAPE :
METHODES D’OPTIMISATION « OFF SITE »
METHODES D’OPTIMISATION « OFF SITE »
A l'image de Google, qui utilise le PageRank pour classer ses sites, la popularité est un
des éléments majeurs pour un bon classement dans les moteurs de recherche.
1.1. PageRank
Critère utilisé par Google dans le classement des résultats de recherche, il tient son
nom de Lawrence Page, son créateur et l’un des fondateurs de Google. Pas moins de
100 variables seraient utilisées dans le calcul du PageRank. Lawrence Page s’est
inspiré d’une méthode de classement utilisée pour les documents scolaires. Plus un
document est cité, plus son importance ou sa valeur augmente pour le système.
L’augmentation de cette valeur permet de le retrouver plus facilement lors d’une
recherche ultérieure. Appliquée sur le Web, cette méthode met en avant les pages Web
détenant plus de liens vers leurs contenus. Ce système est particulièrement adapté au
Web où les liens hypertextes relient les sites entre eux.
Afin d’éviter toutes les dérives de spam consistant à augmenter artificiellement cette
note, Google ne présente plus qu’un chiffre global, mis à jour moins régulièrement que
le vrai PageRank gardé secret par Google.
De la même manière que Google, d’autres moteurs ont élaboré un système permettant
de calculer la popularité d’une page en fonction des liens pointant sur cette dernière.
Les liens permettent aux internautes de naviguer d’un site à un autre, sans recourir aux
moteurs de recherche.
149
METHODES D’OPTIMISATION « OFF SITE »
Les moteurs, après avoir prôné la popularité, se sont ensuite tournés vers la notion de
notoriété. L’importance donnée dans le classement des moteurs à ce critère de
popularité peut se mesurer avec des résultats plutôt amusants : pendant quelques
années, il était possible de trouver en première place de Google sur la requête
« miserable failure » la biographie de Georges W Bush. Une première place
entièrement acquise grâce aux millions de liens créés par des internautes avec le lien
texte « miserable failure » amenant à la page de biographie du président américain.
Ce détournement du PageRank, nommé Google Bombing, consiste à jouer avec le
facteur de popularité en créant massivement des liens vers une page, généralement à
des fins satiriques. D’autres Google Bombing avaient notamment ciblé Nicolas
Sarkozy, Jacques Chirac ou encore Rachida Dati.
Ces affaires ayant fait grand bruit, le moteur de recherche a revu certains de ses
critères pour atténuer l’effet du Google Bombing.
En termes d’optimisation, vouloir améliorer ce critère demande un dosage précis :
avoir trop de liens de mauvaise qualité pointant vers son site risque de le décrédibiliser.
Un nombre insuffisant de liens peut en revanche ne servir à rien. En favorisant une
politique de netlinking, le détenteur prend le risque de voir ses visiteurs partir sur les
sites partenaires mais aussi d’être associé à une pratique de « link farm ».
Exemple de Google Bombing, lorsque « miserable failure » renvoyait sur la biographie de George W Bush
Exemple du cache de Google sur le Google Bombing de Nicolas Sarkozy avec Iznogoud
Note : contrairement à une idée reçue, Matt Cutts a expliqué, en novembre 2013, qu’il
était tout à fait possible de proposer, sur une page web, plusieurs centaines de liens
sortants. Bien entendu, cela n’empêche pas qu’on veuille limiter la dilution du
Pagerank en diminuant le nombre de liens !
1.3. E-reputation
Sociétés, individus, produits, marques… les documents visibles sur le Web sont
souvent compulsés en ligne par des internautes en recherche d’informations. Pour
surveiller ce qui se dit sur sa société, sur soi ou encore les dernières rumeurs autour
d’un produit, l’outil de Google Alertes devient vite incontournable. Il est possible de
créer une alerte par mail informant régulièrement des derniers résultats intégrés dans le
moteur traitant d’un sujet précis.
Face aux communautés qui se créent sur le Web, la gestion de la réputation sur Internet
devient un métier à part entière, obligeant les sociétés à surveiller les rumeurs, défendre
leur image et maîtriser leur notoriété.
Pour aider dans la surveillance de sa marque
l’outil Google Alerts peut s’avérer très utile.
151
METHODES D’OPTIMISATION « OFF SITE »
153
METHODES D’OPTIMISATION « OFF SITE »
Les liens externes peuvent servir aux visiteurs souhaitant s’informer plus précisément
sur un secteur. Pour les moteurs, de tels liens indiquent clairement l’environnement
dans lequel évolue le site et ils localisent plus facilement sa place sur le marché.
Comme pour les liens entrants, lors de la création de liens vers l’extérieur, il est
préférable de suivre quelques principes :
Optimiser la lisibilité
Des pages remplies de liens peuvent gêner les visiteurs lors de la navigation et nuire à
la lisibilité de la page. D’un point de vue ergonomique, mieux vaut se limiter à trois ou
quatre liens par article.
Présentation de Xenu
155
METHODES D’OPTIMISATION « OFF SITE »
3. Cross-linking efficace
Une opération de netlinking doit être la plus naturelle possible. Si un site fait un lien
vers d’autres sites, avec des liens entrants provenant uniquement de ces mêmes sites,
les moteurs pourront considérer cette technique comme « étrange ».
liens circulaires
Un site doit donc présenter des liens sortants et des liens entrants ne provenant pas
forcément d’une même galaxie d’acteurs.
Une stratégie de netlinking prend du temps. La qualité des liens est à préférer à la
quantité. Lors de l’établissement de ces liens, mieux vaut penser avant tout à son
contenu.
Par ailleurs, les liens ne doivent pas tous amener vers la page d’accueil, mais desservir
les grandes rubriques du site, ce qui permet de mieux disséminer la popularité sur
l’ensemble des pages de son site.
Comme pour les liens externes, les liens internes sont plus facilement compris par les
moteurs lorsqu’ils sont au format texte. Se contenter du menu et du plan de site pour
lier les pages entre elles ne suffit pas. Ces dernières doivent se lier par le biais d’articles
renvoyant vers d’autres pages du site. La newsletter par exemple est un bon moyen de
renvoyer ses visiteurs sur les différents contenus de son site.
Les moteurs peuvent détecter les liens internes via trois moyens :
Whois similaire
Lors de l’enregistrement du nom de domaine, les sociétés laissent des informations
dans une base accessible à tous. Si ces informations présentent le même nom de
déposant, la même adresse et un numéro de téléphone identique, les moteurs de
recherche classeront ces liens comme internes.
Schématiquement, on peut dire que la qualité d’un lien entrant est fonction de
l’autorité du nom de domaine (TrustRank) émetteur du lien. Moins ce dernier est
susceptible d’avoir des pratiques douteuses en termes de référencement, plus le lien
que vous recevrez possèdera, aux yeux des moteurs, de la valeur.
Pour les moteurs de recherche, les liens externes (provenant d’un site différent du
vôtre) ont plus d’importance que les liens internes (les pages qui, à l’intérieur d’un
site, font un lien vers une autre page). Néanmoins, les liens internes sont une manière
efficace d’attribuer une priorité à certaines pages de votre site au détriment des autres.
Si une page de votre site Web est essentielle parce qu’elle représente une part
significative de votre activité, vous devez privilégier sa visibilité auprès des
internautes et des moteurs de recherche en créant un maillage efficace de liens vers
cette page. A contrario, une page moins stratégique ne devra pas bénéficier d’un tel
traitement de faveur (en termes de liens).
Le PageRank de la page qui fait un lien vers une de vos pages est essentiel. On dit
souvent qu’il vaut mieux un lien provenant d’une page possédant un fort indice de
popularité que plusieurs liens provenant de pages moins bien notées.
Le texte qui sert d’ancre au lien doit être efficace d’un point de vue sémantique. Par
exemple, le lien sur “cet article” dans l’expression “cet article sur les feuilles de style
CSS”, est moins pertinent et efficace qu’un lien sur “feuilles de style CSS” si l’on
souhaite voir son site positionné sur l’expression “feuilles de style CSS”.
L’emplacement du lien rentre aussi en ligne de compte. Un lien contenu dans le corps
de la page ou de l’article aura forcément plus d’impact que ceux visibles dans les
volets de droite ou de gauche et qui contiendraient, par exemple, une liste de blogs
« amis » (Une Blogroll).
La page qui fait un lien vers la vôtre doit traiter de la même thématique. Inutile, par
exemple, d’obtenir un lien de la part d’un site spécialisé dans la vente de chaussures
si le vôtre parle de négoce de café ou de services auprès des entreprises
pharmaceutiques.
La localisation géographique de la page émettrice de lien aura un impact sur la future
légitimité de la page liée. En admettant que vous développiez un service particulier
à une région de France, des liens provenant de sites offrant des informations en termes
de proximité géographique (annuaires régionaux, mention d’une adresse précise, etc.)
joueront en votre faveur.
La présence du Tag rel="nofollow" a été adoptée par Google en 2005. Concrètement,
il spécifie au robot du moteur de recherche de ne pas suivre le lien qui est marqué de
cette manière. En bref, la page émettrice de lien ne transmet pas à la page cible un peu
de son PageRank (ou de son autorité). Pour l’instant, les experts débattent encore de
savoir si les moteurs, et Google en particulier, suivent au pied de la lettre cette
directive ou, dit de manière un peu triviale, s’il n’existe pas des « fuites de
PageRank ».
Il existe trois principaux types de liens : texte, image et JavaScript. A priori, les liens
de type Texte sont les plus efficaces ; suivis des liens sous forme d’image et ce en
tenant compte des mots-clés qui sont présents dans la balise Alt. Les liens JavaScript
ferment la marche et sont bon derniers du point de vue de leur valeur.
Voici une liste des critères qui vous permettent de juger de la qualité d’un
« backlink » :
Pagerank de la page émettrice du lien ;
Autorité du domaine par rapport à sa thématique métier, produit ou de contenu (à ne
pas confondre avec la popularité du site !) ;
Indice de confiance du site et nombre de liens entrants vers ce site (notion de
réputation du domaine) ;
Emplacement des liens : plus un lien est placé dans un contenu intéressant, plus
grande sera son influence) ;
159
METHODES D’OPTIMISATION « OFF SITE »
Nombre de liens sortants de la page : plus la page contient de liens sortants, moins
grande sera l’efficacité de ces mêmes liens ;
Adéquation entre le domaine qui fait le lien et votre domaine (similarité en termes de
thématique métier ou d’univers produit) ;
Qualité et pertinence du texte qui sert d’ancre ;
Qualité et pertinence du texte qui entoure le lien ;
Absence de la balise « Nofollow ».
Les tactiques les plus utilisées pour obtenir des liens entrants sont les suivantes :
Relations presses digitales,
« Guest blogging » (partenariat rédactionnel sur un blog),
Campagnes de marketing de contenu,
Infographies,
Échange de liens avec d’autres sites,
« Broken link building »
Qui fait des liens vers son contenu ? L’analyse de ces liens entrants éclaire sur la
visibilité dont dispose le site. En plus de logiciels spécialisés dans le suivi du
référencement, certaines commandes listent les principaux acteurs ayant produit un
lien vers son contenu.
Pour Google :
link:http://www.monsite.com/
liste les pages principales ayant produit un lien vers son contenu
Pour Yahoo! :
link:http://www.monsite.com/ado/
liste les pages principales ayant produit un lien vers le contenu d’une page
site:www.monsite.com ou site:monsite.com
liens externes amenant sur le contenu d’une page
linkdomain:www.monsite.com
liens externes amenant sur la totalité du site
La commande « inanchor » vient compléter la liste. Elle est utilisée pour vérifier le
nombre de liens existant avec une expression définie.
Cette requête permet de savoir quelles sont les pages Web qui font un lien vers le site
monsite.com à partir d’un lien hypertexte contenant l’expression « voiture de sport ».
Il est à noter que Yahoo! semble être l’un des moteurs les plus performants à détecter
les liens externes pointant vers une page donnée.
161
METHODES D’OPTIMISATION « OFF SITE »
Source : http://forums.entreprises-commerces.fr
163
METHODES D’OPTIMISATION « OFF SITE »
Qu’est-ce que nous entendons par là ? Les leviers « off site » consistent à occuper
le terrain et à retrouver les internautes là où ils se trouvent : Facebook, Twitter,
Google+ Viadeo, LinkedIn, YouTube, etc.
165
METHODES D’OPTIMISATION « OFF SITE »
Pour quel intérêt et quels objectifs ? C’est simple : profiter de la puissance de feu de
sites comme Facebook pour vous permettre de :
Vendre plus ;
Susciter des commentaires clients et l’émergence d’une FAQ collaborative ;
Faciliter les processus d’inscription sur votre site ;
Susciter l’adhésion des internautes à votre marque ;
Faciliter la diffusion de vos contenus sur le Web et, indirectement, leur rang à
l’intérieur des Serps.
Facebook
Plus d’1 milliard d’utilisateurs (réels) dans le monde ;
28 millions d’utilisateurs en France, 17 millions sur mobile ;
11 millions d’utilisateurs quotidiens via mobile ;
Les utilisateurs quotidiens se connectent en moyenne 14 fois par jour à l’application ;
Facebook représente 1 minute sur 5 du temps consacré à l’utilisation d’applications
mobiles ;
14% des utilisateurs français affirment avoir acheté un cadeau après l’avoir vu dans
leur fil d’actualité Facebook ou Twitter.
(Source : Facebook – Novembre 2013)
Facebook est bien plus qu’un réseau social : pour les marques, c’est une formidable
tribune pour faire du « Branding », renforcer son modèle RFM et déployer des
stratégies d’acquisition clientèle. En ce sens, on parlera plus justement de média
social…
Et les Fan Pages sont l’outil idéal permettant aux sociétés de créer une sorte de mini-
site web presque complètement personnalisable et même faire du e-commerce (le
f-commerce).
Une des particularités du moteur de recherche de Facebook est que l’on s’en sert moins
pour trouver de nouv