Académique Documents
Professionnel Documents
Culture Documents
Un élément meta (ou métaélément, ou balise meta, ou meta tag par analogie avec l’anglais) est une
information sur la nature et le contenu d’une page web, ajoutée dans l’en-tête de la page au moyen de
marqueurs HTML. Les éléments meta ne s’affichent pas sur la page.
Keywords = mots-clefs
Remarque : En 2009, Google a expliqué qu'il ne tenait plus compte des métadonnées "keywords" dans le classement
de ses résultats. Par contre d’autres balises sont utiles (META Content-Type, META Description) pour plus
d’informations : http://www.alsacreations.com/article/lire/628-balises-meta.html
- 13% : Liens
- 37% : Accès direct et favoris
- 50 % : Outils de recherche
Le pourcentage du trafic
"moteurs" par rapport au trafic
total est la première mesure
de l'efficacité d'un référencement.
Idéalement : + de 40%
Définition Reach :
Désigne le taux de pénétration (ou de couverture) d'un site ou d'un moteur de recherche au sein de la communauté des
internautes, sa capacité à les atteindre (" to reach" en anglais). Dans les classements de mesure d'audience, c'est le plus souvent
google qui affiche la meilleure performance de ce point de vue avec un "reach" supérieur à 70 % (c'est l'expression consacrée
dans la pub) : Google est capable pendant une période donnée (un mois) d'atteindre plus de 70 % des internautes français.
Top 5 des moteurs de recherche 09/2014
Ask
Ask; 13,8 Bing 9% Google
Google;
Bing; 14,9 9% 46%
71,4
Yahoo
Yahoo; 17,4 11%
Google
Google
Image; 38,7
Image
25%
• Requêtes Google
– 30 000 milliards de documents sont indexées par Google.
– 20 milliards de sites sont visitées (crawlées) par Google, chaque jour.
– 3,3 milliards de requêtes sont effectuées chaque jour (100 milliards par
mois).
– 15% des requêtes sont de nouvelles requêtes (500 millions par jour) !
Source : Business Insider.
Google c’est aussi Youtube, Gmail, Android (900 millions de smartphones et tablettes)…
IV. Être “bien référencé” = positionné dans les 3 premiers
résultats
- La première : 33 %
- La seconde : 18 %
- La troisième : 11 %
II. Comment fonctionnent les moteurs de recherche ?
Un moteur de recherche est automatisé et géré par des logiciels. C’est un algorithme qui va positionner les
résultats en fonction de critères.
Un moteur référence des pages web (leur code HTML) et se base sur un « index » de plusieurs milliards de
pages :
Critères de positionnement
- La confiance, le "TrustRank"
- Le PageRank
- Les clics dans les résultats
- Le temps passé sur le document
- Le taux de rebond
- Panda et backlinks
- Penguin et liens entrants
Remarque : les résultats des moteurs dépendent aujourd'hui de nombreux critères personnalisés :
- L'adresse IP
- Le moteur utilisé (.com, .fr…) et son interface linguistique
- La langue du navigateur
- Le datacenter interrogé
- Les requêtes passées (https://history.google.com/history/)
II. Les requêtes
1. Saisie de la requête
2. Le moteur extrait de
son index les pages
qui répondent à la
requête demandée
HEADER
N
A
V
I ZONE
G
A
EDITORIALE
T =
I
O
contenu
N éditorial
FOOTER
Le fichier robots.txt
Le fichier robots.txt est un fichier texte utilisé pour le référencement naturel des
sites web, contenant des commandes à destination des robots d'indexation des
moteurs de recherche afin de leur préciser les pages qui peuvent ou ne peuvent pas
être indexées. Ainsi tout moteur de recherche commence l'exploration d'un site web
en cherchant le fichier robots.txt à la racine du site.
Le fichier sitemap
Ce fichier est destiné uniquement aux moteurs de recherche qui parcourent votre site. Il recense toutes les
URL (adresses) des pages Web présentes et évite ainsi aux bots (robots) de laisser de côté certaines pages. Sa
construction obéit à un certain nombre de règles pré-établies. Google, Yahoo et Microsoft se sont mis
d'accord pour utiliser un protocole commun que nous allons voir plus bas.
Exemple de l’utilisation d’un fichier sitemap avec Jimdo : les sentiers de Gallaad
Le moteur « lit » ensuite le contenu textuel de vos pages
Site full
flash
Site html
php
VI. Exemple d’algorithme : Google Panda et Penguin
- Proposez-vous certaines pages de "basse qualité" (questions sans réponse, peu de texte, etc.) ?
- La distinction entre publicité et contenu éditorial est-elle claire dans vos pages ?
Si vous êtes OK avec ces différents points, vous ne devriez pas craindre Panda…
Les grandes leçons de Panda :
- Retour au contenu “de qualité”
- Accepter de désindexer une partie de son site et de ne plus viser un “référencement à 100%” de ses pages.
- Il est très important de diversifier ses sources de trafic pour ne pas être “Google-dépendant” !
La notion de mots-clés dépasse donc celle des balises meta Keywords, ces dernières
n’étant plus utilisées par Google.
– 1 mot : moins de 15 %
– 2 mots 30 %
– 3 mots 30%
– De 3 à 5 mots 50 %
– De 4 à 10 mots 30 %
I. Le choix des mots clés
Afin de savoir sur quels mots (vos mots-clés) optimiser votre texte, il faut tout
simplement vous mettre à la place de l'internaute qui va faire une recherche sur
Google : quels sont les mots qu'il va entrer dans la barre de recherche s'il souhaite
trouver un site comme le vôtre ?
A. La réflexion préalable :
Réaliser un brainstorming ;
Recherche
– Semrush : http://fr.semrush.com/
Réfléchissez bien et dressez la liste de vos 10 mots clés les plus importants.
Vous placerez vos mots-clés principaux (ceux qui résument le mieux votre site de
façon générale) sur votre page d'accueil mais pas seulement sur celle-ci !
De 3 à 5 % de mots-clés dans votre contenu, essayez de les intégrer
harmonieusement dans le texte.
Les pages devront idéalement contenir au minimum 250 mots.
Un contenu unique et actualisé : actualisation régulière du contenu (écriture de
nouveaux articles de blogs, de nouveaux textes, l’ajout de nouvelles photos (avec
ALT attributs, etc.) est considérée de façon positive par les moteurs de recherche,
tout comme leur caractère « unique » : le texte ne doit pas être la copie d'un
autre texte sur le même thème (« duplicate content »).
Remarque : Attention, évitez à tout prix de « surcharger » vos textes de mots-clés !
Le contenu doit rester naturel et ne pas être simplement une liste de mots-clés. Sinon,
votre contenu texte risque de paraître « suspect » (sur-optimisé) et vous risquer d'être
pénalisé par les moteurs de recherche !
III. Où placer nos mots clés ?
H1 est la balise la plus importante. Chaque page doit contenir sa propre balise
H1 qui indique en 5 à 7 mots le contenu de la page. Plus on augmente de niveau
de titre (h2, h3, h4, h5 et h6), moins son contenu sera considéré comme
important par les moteurs de recherche.
Correct
Titre <h1>
Le titre et le chapô reprennent ici des mots
clés essentiels à la bonne compréhension
de l'article : vote, traité de Lisbonne,
référendum, Irlande…
Chapô <h2>
A éviter
Site Libe.fr : comprenez-vous
de quoi parle l'article en lisant
uniquement le titre ?
Les images
Donner des noms de fichier explicites (exemple pour sa photographie sur un site
CV : éviter ma_photo.jpg, de préférence Prenom-NOM-CV-
Commmunication.jpg)
Renseigner les attributs ALT des images.
Avec Dreamweaver :
La description longue n'est pas un attribut
obligatoire mais recommandé, il permet de lier
l'image à une page fournissant des informations
sur l'image en question.
Avec Jimdo :
Lorsque vous insérez une image sur votre site,
vous pouvez donner à cette image un sous-titre
(qui sera visible sur le site) et aussi un texte
alternatif.
Les mots clés doivent être présents sous les différentes formes : singulier ,
pluriel, masculin, féminin.
La gestion des fautes d’orthographes (dans les requêtes des internautes) est
maintenant gérée au niveau du moteur de recherche.
Chaque page du site doit être accessible en 3 clics maximum depuis la page
d’accueil.
IV. Les liens entrants
La qualité des liens entrants
Les liens entrants (ceux qui conduisent sur votre site) sont essentiels pour le
référencement, mais faut-il encore qu’ils soient de bonne qualité issus d’un site :
Copier cette balise
méta afin de
l’intégrer dans
votre site Jimdo
Inscription aux outils Google pour les Webmasters
Étape 2 : intégration de la balise méta
l’intégrer dans
votre site Jimdo
Ne pas oublier d’enregistrer
Inscription aux outils Google pour les Webmasters
Étape 3 : valider l’intégration
Annuaire : Site ou service d'un site listant d'autres sites web. L'un des plus
connus, à cause de son ancienneté, est Dmoz. Certains SEO peuvent avoir
l'habitude d'inscrire sur ces annuaires les sites sur lesquels ils travaillent pour
obtenir, souvent facilement, un backlink. Mais attention, bon nombre de ces
annuaires n'apportent pas des backlinks efficaces, et certains d'entre eux ont
même pu être pénalisés par Google).
Authorship / Author Rank : Il est possible d'insérer dans le code source des
pages web une "balise auteur" associant le contenu de la page à un auteur (et
son profil Google+). Attribuer ainsi un contenu à un auteur correspond à ce
qu'on appelle l'authorship. C'est aussi ce système qui a permis, pendant
plusieurs années, de voir les photos des profils Google+ dans les résultats
remontés par Google. Mais le moteur a mis fin à cette pratique en juin 2014.
Quelques semaines plus tard, c'est tout le système de l'authorship que Google a
abandonné : cette balise auteur n'intéresse désormais plus son moteur. Des
référenceurs avaient imaginé, s'appuyant sur l'interprétation de plusieurs
déclarations de Google, que le moteur puisse largement intégrer ce système
d'authorship dans son algorithme. Ils s'attendaient même à voir Google doper la
visibilité des contenus des profils les plus pertinents : c'est la thèse dite de
"l'author rank", qui a perdu l'un de ses meilleurs arguments lorsque Google a mis
fin à l'authorship.
Backlink (parfois surnommé "BL" ou traduit en "lien entrant") : C'est
l'anglicisme utilisé pour parler d'un lien pointant vers une page, depuis la page
d'un autre site. Avoir de bons "backlinks", issus de sites d'autorité par exemple,
est un objectif important pour les SEO. Les obtenir constitue même un peu le
"nerf de la guerre" en référencement, car ils ont un poids considérable dans
l'algorithme des moteurs.
Balises : Dans le jargon SEO, les balises renvoient à certaines balises HTML, qui
sont visibles dans le code source des pages web. Elles peuvent mettre un texte
en gras, en intertitre, en lien, etc. Les balises d'ouverture (par exemple <title>)
doivent précéder des balises de fermeture (</title>). Les balises sont au centre
du langage HTML, mais aussi du travail de SEO "on page" (voir balises Hn et
title).
Black Hat SEO (parfois réduit à Black Hat voire à "BH"). Désigne des techniques
en matière de référencement, mais aussi ceux qui les pratiquent. De manière un
peu réductrice, les Black Hat SEO sont les référenceurs qui ne respectent pas les
consignes des moteurs (et notamment celles qu'expose Google). Volontiers
expérimentateurs, ils jouent avec ces règles, et essayent de trouver et exploiter
des failles dans les algorithmes des moteurs. Ils cherchent aussi souvent à
automatiser certaines tâches du SEO (comme le netlinking) au moyen de
logiciels dédiés, et savent que leur pratique peut conduire à des résultats
spectaculaires tout comme à de sévères pénalités. Ils s'opposent aux
référenceurs respectant les consignes de Google, appelés eux les White Hat SEO.
Blast : Terme anglais plutôt utilisé par des SEO Black Hat pour désigner une
génération massive et automatisée de backlinks, avec l'aide d'outils dédiés
comme ceux de cette sélection : "Six logiciels de référencement black hat".
Cloaking : Technique consistant à présenter une page différente aux robots des
moteurs et aux internautes. La technique étant trompeuse et souvent utilisée
pour manipuler l'algorithme, elle expose le site à des pénalités de Google.
HN et H1, H2... : Une page Web peut être découpée en plusieurs parties. Les
balises dites "Hn" (pour H1, H2, H3,...) vont couper, titrer et hiérarchiser ces
parties. Ainsi, H1 correspondra au titre le plus important et H6 au moins
important. Ces balises ont aussi un poids en SEO.
Liens nofollow : Si un lien normal est "dofollow", un lien "nofollow" donne une
indication aux robots des moteurs de recherche, leur demandant de "ne pas
suivre" ce lien lorsqu'ils parcourent la page. Google ou Bing sont censés
respecter cette consigne, et donc ne pas tenir compte de ce lien dans leur
algorithme. Les liens nofollow ne transmettent donc pas de PageRank. Leur
usage est recommandé au sein de contenu acheté pour ne pas risquer une
pénalité.
Linkbuilding. : Anglicisme signifiant la "construction de liens", et évoquant le
travail consistant à obtenir de bons backlinks et donc à "bâtir" son netlinking...
MFA : Un site dit MFA pour Made For AdSense est réalisé avec l'objectif
principal de le monétiser le plus et le mieux possible, grâce à AdSense donc,
mais aussi via d'autres régies, l'affiliation et... le SEO. Le crédo de ce type de site :
un minimum de travail pour un maximum de revenu, car la qualité du contenu
d'un MFA est secondaire, ce qui compte c'est que les visiteurs cliquent sur les
publicités le plus possible.
Not provided : Ce terme anglais est devenu très célèbre car c'est désormais ce
qu'affiche Google Analytics concernant les mots clés à l'origine du trafic venant
de Google. Ce dernier a en effet décidé de chiffrer via SSL (c'est-à-dire "HTTPS")
ses pages de résultats, qui ne peuvent en conséquence plus fournir (d'où le "not
provided") aux outils de web analytics la requête à l'origine d'une visite. La
montée en puissance de ces mots clés "not provided" a commencé en 2011.
Progressive, elle a désormais atteint 100% du trafic venant des résultats naturels
de Google, privant évidement les SEO d'indicateurs très précieux (les mots clés
achetés via AdWords et tapés dans d'autres moteurs de recherche continuent,
eux, d'apparaître). Des méthodes imparfaites existent pour essayer de récupérer
les mots clés désormais "not provided", la plus efficaces étant sans doute celle
consistant à regarder les données fournies par Google Webmaster Tools.
Pénalité manuelle, ou action manuelle : Le premier terme est utilisé par les
référenceurs, le second par Google dans son Google Webmaster Tools qui
notifie ses utilisateurs lorsqu'ils sont frappés d'une telle "action manuelle". Il
s'agit d'une pénalité affectant le référencement d'une ou plusieurs pages d'un
site, déclenchée par l'analyse d'un employé de Google et non par un algorithme
comme Google Penguin ou Panda. Parmi les pratiques SEO déclenchant le plus
souvent les pénalités manuelles figurent les liens factices, c'est-à-dire les liens
dofollow non naturels, résultant par exemple d'achats (lire : Ce que dit Google sur
ses pénalités manuelles).
Penguin : c’est, comme Panda, un filtre que Google déploie de temps en temps
pour nettoyer ses résultats. D'après les observations des référenceurs, il semble
s'en prendre aux abus de liens artificiellement obtenus et à des pratique SEO
Black Hat. Lancé dans le monde entier en 24 avril 2012, il n'a depuis été déployé
qu'une poignée de fois...
Robots.txt : Fichier qui indique aux moteurs, y compris à celui de Google, ce
que leurs robots ne doivent pas indexer. Il doit être placé à la racine des sites (En
savoir plus sur les fichiers robots.txt grâce aux aides officielles rédigées par
Google).
Rich Snippet : Le snippet est l'extrait de la page qui apparaît dans les résultats
remontés par Google. Cet extrait peut se limiter à un titre et une description,
mais il peut aussi s'enrichir (d'où le terme de "rich snippet", ou "extrait enrichi")
avec des images, des vignettes de vidéo, des étoiles d'avis... Des lignes de codes
peuvent être insérées dans le code source des pages pour pousser les moteurs à
afficher ces "rich snippets" : ces petits bouts de code sont notamment décrits et
expliqué sur le site schema.org.
Seo on-page ("SEO on-site" est parfois aussi employé) : Travail SEO réalisé au
sein même de la page web, et de son code source, par opposition au travail SEO
qui peut être fait en dehors du site (le linkbuilding par exemple). Cela concerne
donc notamment les titles et les autres balises, mais aussi les URLs, la "webperf"
et toutes les optimisations faites pour améliorer le crawl des robots de Google.
SERP : Pour Search Engine Results Page, soit la page de résultats remontés par
le moteur.
Spam : Employé par un SEO, le mot "spam" ne renvoie pas au spam qui pollue
les messageries, c'est-à-dire aux e-mails non désirés, mais aux sites que Google
ne désire pas voir dans ses résultats... Il s'agit des sites de mauvaise qualité, et
qui, en général, ne respectent pas les consignes de Google. Le terme webspam
peut aussi être préféré.
SpamCo : Terme mélangeant les mots "spam" et "commentaire" qui désigne les
commentaires d'un contenu (en général sous un article ou billet de blog). Des
commentaires qui cherchent plus à glisser un lien vers un site à référencer qu'à
faire une remarque pertinente. Google en a donné un exemple caricatural très
parlant.
Splog : Terme contractant "spam" et "blog" qui désigne un blog sans aucune
qualité éditoriale, souvent généré de manière automatique par des Black Hat
SEO. Les splogs contiennent cependant des backlinks qui doivent pousser le
référencement d'un autre site plus stratégique.
Trafic organique : Correspond au trafic issu des résultats naturels générés par
les moteurs de recherche. Il n'inclut donc pas le trafic acheté, c'est-à-dire issus
des résultats payants, via AdWords. La mission principale du SEO se concentre
sur l'amélioration de ce trafic organique.
Title : En langage HTML, l'élément ou la balise <title> définit le titre de la page.
Il est en général visible tout en haut du code source d'une page. Ce titre s'affiche
aussi sur les onglets des navigateurs Firefox ou Chrome. C'est bien souvent ce
qu'affiche Google, en gros et en bleu, lorsqu'il fait remonter une page dans ses
résultats. Le title est considéré comme un critère très important en SEO.