Vous êtes sur la page 1sur 77

Comment optimiser

son site pour le


référencement

Outils de communication numérique V 3.0


Réflexions préalables
Les 2 types de référencement

Référencement payant Référencement naturel


(ou SEO : Search Engine Optimization)
On n’achète pas un positionnement mais
une garantie d’indexation et un délai de Objectif : faciliter l’indexation des pages web
rafraichissement. Le plus souvent il s’agit de de notre site par un moteur de recherche.
liens sponsorisés, ils consistent en l’achat de
 Manuel : inscription dans les index grâce à
mots clés pertinents dans un moteur de
des formulaires d’inscription.
recherche (Google Adwords).
Éventuellement utilisation de logiciels
Le référencement sur certains annuaires est spécialisés (Référenceur Yooda Submit …).
également payant.
 Automatique : concerne les moteurs de
recherche, les robots (bots, spider, crawler)
Exemple Google Adwords parcourent le web pour indexer les pages.
(https://adwords.google.fr/) : budget = 0,05 € par jour
(cout minimum). On paye au "clic" et non à l'affichage,
le cout d'un clic pouvant varier de 0,05 € à 50 €. Dans
tous les cas, il y a un coût minimum de création de
compte de 5 €
.
Les résultats issus du référencement payant représentent environ
15 % des pages choisies par les internautes sur un moteur de
recherche (clics).
Le dilemme du moteur de recherche

Favoriser le référencement payant Augmenter la pertinence des résultats

Augmenter la rentabilité du moteur. Augmenter le nombre d’utilisateurs.

Le plus important = la part de marché du moteur

Par conséquent, la priorité est la pertinence des


résultats.
Que signifie : Être bien référencé ?

Niveau minimum Référencement satisfaisant

En tapant dans un moteur de recherche le En tapant dans un moteur de recherche une


nom de l’organisation, elle doit apparaître au activité avec un lieu (ou autres informations
maximum en troisième position. distinctives) le site doit apparaître au
maximum en troisième position.
Exemple : les sentiers de Gallaad
Exemple : les sentiers de Gallaad
Intégration du référencement lors de la
création de l’identité de l’organisation

Il est indispensable de réfléchir à la problématique


du référencement dès la création de l’identité de
l’organisation (nom l’entreprise, domaine du site
web…). Il est beaucoup plus difficile de gérer un
existant peu original.
I. Importance et atouts d'un référencement
I. Historique de la recherche sur Internet
1990 : le premier moteur de recherche « ARCHIE » - recherche de documents sur Internet.

1993 : Wanderer apparaît, premier moteur avec des spiders


Spiders : logiciels chargés de sillonner automatiquement le Web, araignée.

1994 : Un annuaire nommé Yahoo


Annuaire : consiste à recenser et sélectionner humainement les meilleurs sites.

1995 : Lycos et Excite (2 moteurs de recherche)

1996 : Apparition d’AltaVista - travail sur les balises meta "keywords".

Un élément meta (ou métaélément, ou balise meta, ou meta tag par analogie avec l’anglais) est une
information sur la nature et le contenu d’une page web, ajoutée dans l’en-tête de la page au moyen de
marqueurs HTML. Les éléments meta ne s’affichent pas sur la page.
Keywords = mots-clefs
Remarque : En 2009, Google a expliqué qu'il ne tenait plus compte des métadonnées "keywords" dans le classement
de ses résultats. Par contre d’autres balises sont utiles (META Content-Type, META Description) pour plus
d’informations : http://www.alsacreations.com/article/lire/628-balises-meta.html

Exemple de balise meta du site NexInpact © 2014 :


<meta name="Keywords" content="informatique, ordinateurs, ordinateur, materiel, materiels,
informations, information, info, infos, news, actualites, actualités, actualités, commerce en ligne, actus,
matos, astuces, astuce, tests, test, micro, utilitaire, utilitaires, utile, micro, gratuit, gratos, forum, sondage,
nouveau, nouveautes" />
• 1998 : Arrivée de Google (Sergei Brin et Larry Page ) qui balaie le
paysage des moteurs avec le PageRank.
• PageRank : Le PageRanknote ou PR est l'algorithme d'analyse des liens
concourant au système de classement des pages Web utilisé par Google.
Il mesure quantitativement la popularité d'une page web. Ce n'est qu'un
indicateur parmi d'autres dans l'algorithme qui permet de classer les
pages du Web dans les résultats.

2000-2005 : Les budgets consacrés au référencement se développent...


Les sites web ne sont encore pas conçus en tenant compte des critères
de pertinence des moteurs, ce qui oblige à créer des "rustines" :
• Pages satellites (en anglais, doorway page) : page web destinée à
améliorer la place d'un site donné sur les moteurs de recherche en
proposant de nombreux liens vers le site en question, elle comporte un
ou plusieurs mots clés de manière très répétitive au détriment du
rédactionnel qui reste en général très pauvre ou sans intérêt.
• Pages alias : clone de la page d’origine mais optimisée pour d’autres
mots-clefs.

2006-2007 : Google fait la chasse aux pages satellites...


Conclusion

2007-2014 : Optimisation du contenu des pages du site.

La première des choses à faire est d’optimiser le site « à sa source ».

En 2014, la qualité d’un référencement passe par la qualité du contenu


éditorial proposé !
On écrit pour les internautes en tenant compte de règles qui vont mettre en avant le contenu
textuel sur les moteurs de recherche.
II. Répartition du trafic sur un site web français

- 13% : Liens
- 37% : Accès direct et favoris
- 50 % : Outils de recherche

Le pourcentage du trafic
"moteurs" par rapport au trafic
total est la première mesure
de l'efficacité d'un référencement.
Idéalement : + de 40%

© 2013 source Médiamétrie et SearchEngineWatch)


Répartition moyenne des sources de trafic entrant sur les
principaux sites marchands de jouets © JDN / Kantar Media
Compete France, janvier 2014
Relevés sur la France

Janvier 2010 Janvier 2013

On observe une augmentation de la part de


Google dans l’audience des sites marchands.
III. Le top 5 des moteurs de recherche
En septembre 2014, 82,5 % des internautes (38,2 millions) se sont rendus sur au moins un moteur de recherche.
1er : Google avec 71,4 % des reach, 33,07 millions de visiteurs uniques se sont connectées en 09/2014 (en 09/2013 : 73,1 % et
33,9 – on observe donc une légère baisse)

2e : Google Image : 38,7% de reach, 17,92 millions de visiteurs uniques en septembre.

3e : Yahoo : 17,4 % de reach, 8,04 millions de visiteurs uniques en septembre.

4e : Bing : 14,9 % de reach, 6,9 millions de visiteurs uniques en septembre.

5e : Ask : 13,8 % de reach, 6,4 millions de visiteurs uniques en septembre.

Source : © http://www.journaldunet.com/ du 17/11/2014

Définition Reach :
Désigne le taux de pénétration (ou de couverture) d'un site ou d'un moteur de recherche au sein de la communauté des
internautes, sa capacité à les atteindre (" to reach" en anglais). Dans les classements de mesure d'audience, c'est le plus souvent
google qui affiche la meilleure performance de ce point de vue avec un "reach" supérieur à 70 % (c'est l'expression consacrée
dans la pub) : Google est capable pendant une période donnée (un mois) d'atteindre plus de 70 % des internautes français.
Top 5 des moteurs de recherche 09/2014

Taux de couverture Visiteurs uniques

Ask
Ask; 13,8 Bing 9% Google
Google;
Bing; 14,9 9% 46%
71,4
Yahoo
Yahoo; 17,4 11%

Google
Google
Image; 38,7
Image
25%

Source : © http://www.journaldunet.com/ du 17/11/2014


Les chiffres Google 2014
(au niveau mondial)

• Part de marché Google


– Monde : 90,35% – Bing à 3,7%, Yahoo! à 2,9%.
– Europe : 93,64% – Bing à 2,5%, Yandex RU à 1,1%.
– France : 95,46% – Bing à 2,2%, Yahoo! à 1%.
Source : StatCounter.

• Requêtes Google
– 30 000 milliards de documents sont indexées par Google.
– 20 milliards de sites sont visitées (crawlées) par Google, chaque jour.
– 3,3 milliards de requêtes sont effectuées chaque jour (100 milliards par
mois).
– 15% des requêtes sont de nouvelles requêtes (500 millions par jour) !
Source : Business Insider.

Google c’est aussi Youtube, Gmail, Android (900 millions de smartphones et tablettes)…
IV. Être “bien référencé” = positionné dans les 3 premiers
résultats

Source : Enquiro Source : Google


Les 3 premières positions
regroupent plus de 60% des clics

- La première : 33 %
- La seconde : 18 %
- La troisième : 11 %
II. Comment fonctionnent les moteurs de recherche ?
Un moteur de recherche est automatisé et géré par des logiciels. C’est un algorithme qui va positionner les
résultats en fonction de critères.

Un moteur référence des pages web (leur code HTML) et se base sur un « index » de plusieurs milliards de
pages :

Google annonce "connaître"


30 000 milliards de documents.
I. Critères des algorithmes de moteurs de
recherche
Critères de pertinence
Les mots-clés du contenu
Les ancres
La langue
Géolocalisation
Domaine, répertoires et noms de fichiers
Liens externes

Critères de positionnement
- La confiance, le "TrustRank"
- Le PageRank
- Les clics dans les résultats
- Le temps passé sur le document
- Le taux de rebond
- Panda et backlinks
- Penguin et liens entrants

Pour plus de précisions : http://www.scriptol.fr/seo/bases-seo.php

Remarque : les résultats des moteurs dépendent aujourd'hui de nombreux critères personnalisés :
- L'adresse IP
- Le moteur utilisé (.com, .fr…) et son interface linguistique
- La langue du navigateur
- Le datacenter interrogé
- Les requêtes passées (https://history.google.com/history/)
II. Les requêtes
1. Saisie de la requête

2. Le moteur extrait de
son index les pages
qui répondent à la
requête demandée

3. Il les classe par ordre de pertinence, selon


un algorithme qui lui est propre
III. La mise à jour des BD du moteur
Comment les moteurs bâtissent-ils et mettent-ils à jour leur index ?

Les inscriptions Les spiders


Comment les moteurs analysent-ils une page web ?

HEADER
N
A
V
I ZONE
G
A
EDITORIALE
T =
I
O
contenu
N éditorial

FOOTER
Le fichier robots.txt
Le fichier robots.txt est un fichier texte utilisé pour le référencement naturel des
sites web, contenant des commandes à destination des robots d'indexation des
moteurs de recherche afin de leur préciser les pages qui peuvent ou ne peuvent pas
être indexées. Ainsi tout moteur de recherche commence l'exploration d'un site web
en cherchant le fichier robots.txt à la racine du site.

Le fichier robots.txt (écrit en minuscules et au pluriel) est un fichier ASCII se trouvant


à la racine du site et pouvant contenir les commandes suivantes :
User-Agent : permet de préciser le robot concerné par les directives suivantes. La
valeur * signifie "tous les moteurs de recherche".
Disallow : permet d'indiquer les pages à exclure de l'indexation. Chaque page ou
chemin à exclure doit être sur une ligne à part et doit commencer par /. La valeur /
seule signifie "toutes les pages du site".
Allow : permet d'indiquer les pages qui peuvent être indexées (même syntaxe que
disallow)

Le fichier robots.txt ne doit contenir aucune ligne vide !


Le fichier robots.txt
 Exclusion de toutes les pages :  Autorisation d'un seul robot :

User-Agent : * User-Agent: nomDuRobot


Disallow: / Disallow :
User-Agent: *
 Exclusion d'aucune page (équivalent Disallow: /
à l'absence de fichier robots.txt, toutes
les pages sont visitées) :  Exclusion d'un robot :

User-Agent: * User-Agent: NomDuRobot


Disallow: Disallow: /
User-Agent: *
Disallow:
(…)

Pour des informations complémentaires :


http://www.commentcamarche.net/contents/1268-robots-txt

Exemple de fichier robots.txt avec un CMS (Jimdo) : PleinEveil


Les users-agents

Nom du moteur User-Agent


Alta Vista Scooter
Excite ArchitextSpider
Google Googlebot
HotBot Slurp
InfoSeek InfoSeek Sidewinder
Lycos T-Rex
Voilà Echo
Le fichier sitemap.xml

Faciliter l’indexation en créant un fichier Sitemap

 Le fichier sitemap
Ce fichier est destiné uniquement aux moteurs de recherche qui parcourent votre site. Il recense toutes les
URL (adresses) des pages Web présentes et évite ainsi aux bots (robots) de laisser de côté certaines pages. Sa
construction obéit à un certain nombre de règles pré-établies. Google, Yahoo et Microsoft se sont mis
d'accord pour utiliser un protocole commun que nous allons voir plus bas.

 Construction d'un fichier sitemap


Le sitemap est un fichier basé sur le XML qui est un langage à balises. Il s'agit d'un simple fichier texte, vous
pouvez donc le créer dans le bloc-notes ou dans tout petit éditeur de texte qui se respecte (oubliez Word et
compagnie !).
Seules les URL des pages que vous souhaitez référencer doivent figurer dans ce fichier. D'autres paramètres
existent et sont facultatifs. Ils sont néanmoins très utiles car ils vont vous permettre de spécifier une fréquence
de mise à jour des pages concernées ainsi qu'une date de dernière mise à jour. Cela aidera le bot (robot) du
moteur concerné à scanner ou non vos pages et à privilégier celles qui ont besoin d'une mise à jour dans leur
base de données.
Voici un exemple de fichier sitemap basique :
<?xml version="1.0" encoding="ISO-8859-1"?>
<urlset xmlns="http://www.google.com/schemas/sitemap/0.84">
<url> Obligatoire
<loc>http://www.vulgarisation-informatique.com</loc>
<lastmod>2014-02-12</lastmod>
Facultatif
<changefreq>daily</changefreq>
<priority>1.0</priority>
</url>
<url>
<loc>http://www.vulgarisation-informatique.com/tutoriels.php</loc>
<lastmod>2014-02-12</lastmod>
<changefreq>weekly</changefreq>
<priority>0.6</priority>
</url>
</urlset>

Exemple de l’utilisation d’un fichier sitemap avec Jimdo : les sentiers de Gallaad
Le moteur « lit » ensuite le contenu textuel de vos pages

Site full
flash

Site html
php
VI. Exemple d’algorithme : Google Panda et Penguin

Nouveau "filtre de nettoyage"


visant de façon globale les sites
à trop forte stratégie SEO :

- Les fermes de contenu et plus


globalement les sites MFA (Made for Adsense)
- Les comparateurs de prix
- Les "scrapers” (“voleurs de contenus”)
- Les sites proposant des
contenus de faible qualité
- Les sites utilisant certaines
techniques interdites
(cloaking, spinning, etc.)
- Etc.

Des dommages collatéraux peuvent


subvenir…
Les questions à se poser au sujet de Google Panda :
- Faites-vous du scraping (utilisez-vous en majorité des contenus qui ne vous appartiennent pas) ?

- Faites-vous du cloaking (les internautes et les moteurs voient-ils un contenu différent) ?

- Indexez-vous vos pages de résultats de votre moteur interne ?

- Avez-vous beaucoup de “duplicate content” sur votre site ?

- Réécriture automatique de contenu (http://submitsuite.fr/produits/article-spinner.htm) ?

- Proposez-vous certaines pages de "basse qualité" (questions sans réponse, peu de texte, etc.) ?

- La distinction entre publicité et contenu éditorial est-elle claire dans vos pages ?

- Vos liens entrants (backlinks) sont-ils "cleans" ?

Si vous êtes OK avec ces différents points, vous ne devriez pas craindre Panda…
Les grandes leçons de Panda :
- Retour au contenu “de qualité”

- Accepter de désindexer une partie de son site et de ne plus viser un “référencement à 100%” de ses pages.

- Les stratégies “100% SEO” ne fonctionnent plus… Et c’est tant mieux !

- Il est très important de diversifier ses sources de trafic pour ne pas être “Google-dépendant” !

Penguin (ou Google Penguin) est le nom de code d'une mise à


jour de l'algorithme PageRank de Google qui a été annoncée le
24 avril 2012.

La mise à jour avait pour objectif de réduire le positionnement


des sites Web qui violaient les Google’s Webmaster Guidelines
en utilisant des techniques de référencement abusif
(spamdexing), tels que le keyword stuffing, le cloaking, la
participation à des échanges de liens, la duplication délibérée de
contenu et autres.
III. Importance des mots clés
Sans texte, pas de référencement !
Le texte est LE contenu par excellence qui vous permettra de vous faire bien indexer
par les moteurs de recherche. Les robots vont en effet analyser en priorité le texte de
vos pages pendant leur visite et ainsi pouvoir définir le thème et les "mots
importants" (les mots-clés) il va donc être très important, sur chacune de vos pages,
d'intégrer un texte qui mettra en valeur le sujet de la page !

La notion de mots-clés dépasse donc celle des balises meta Keywords, ces dernières
n’étant plus utilisées par Google.

Nombre de mots tapés dans un requête du moteur Google :

– 1 mot : moins de 15 %
– 2 mots  30 %
– 3 mots  30%
– De 3 à 5 mots  50 %
– De 4 à 10 mots  30 %
I. Le choix des mots clés
Afin de savoir sur quels mots (vos mots-clés) optimiser votre texte, il faut tout
simplement vous mettre à la place de l'internaute qui va faire une recherche sur
Google : quels sont les mots qu'il va entrer dans la barre de recherche s'il souhaite
trouver un site comme le vôtre ?

A. La réflexion préalable :

 Réaliser un brainstorming ;

 Se documenter sur le secteur d’activité (presse, blog…)

 Lister les caractéristiques (utilisation, avantages…) du produit (ou service) ;

 Demander une liste à son client ;

 Analyser le langage des utilisateurs ;

 Déterminer une liste de termes clefs spécifiques au métier ;

 Étudier les mots clés des sites concurrents ;

 Chercher des synonymes…


B. Les outils :

 Les recherches associées :

Recherche

 Suggestion de mots-clés lors de la frappe de la requête :

Exemple Google Suggest


 Google Adwords https://adwords.google.fr/select/KeywordToolExternal
 Liens de sites proposant des outils « gratuits » de recherche de mots clés :

– Semrush : http://fr.semrush.com/

Pour voir les sites où


sont présents ces
termes cliquer ici

– Wordstream (envoi des résultats par mél) : http://www.wordstream.com/keywords


Conclusions

 Attention ! Il existe également des « mots-clés négatifs » (negatives Keywords),


c’est-à-dire des mots-clés tapés pour lesquels votre entreprise ne doit pas
apparaître dans les résultats (par exemple : problème, défaut, escroquerie,
malfaçons, pannes, HS…). Bien-sûr ces mots ne doivent pas apparaître sur votre
site (sauf pour une stratégie d’évitement – inclure ces mots mais sous forme
négative et ainsi faire venir les internautes sur votre site) mais de plus le
community manager de votre entreprise devra retrouver les sites où ils
apparaissent afin de trouver une solution…

 En résumé, vos mots-clés sont les mots ou combinaisons de mots pour


lesquels vous aimeriez être trouvé dans les résultats des moteurs de
recherche.
II. Quel contenu pour mes pages ?

 Réfléchissez bien et dressez la liste de vos 10 mots clés les plus importants.
 Vous placerez vos mots-clés principaux (ceux qui résument le mieux votre site de
façon générale) sur votre page d'accueil mais pas seulement sur celle-ci !
 De 3 à 5 % de mots-clés dans votre contenu, essayez de les intégrer
harmonieusement dans le texte.
 Les pages devront idéalement contenir au minimum 250 mots.
 Un contenu unique et actualisé : actualisation régulière du contenu (écriture de
nouveaux articles de blogs, de nouveaux textes, l’ajout de nouvelles photos (avec
ALT attributs, etc.) est considérée de façon positive par les moteurs de recherche,
tout comme leur caractère « unique » : le texte ne doit pas être la copie d'un
autre texte sur le même thème (« duplicate content »).
Remarque : Attention, évitez à tout prix de « surcharger » vos textes de mots-clés !
Le contenu doit rester naturel et ne pas être simplement une liste de mots-clés. Sinon,
votre contenu texte risque de paraître « suspect » (sur-optimisé) et vous risquer d'être
pénalisé par les moteurs de recherche !
III. Où placer nos mots clés ?

 Le titre de la page (balise title)

 Les titres et sous-titres du contenu rédactionnel (codés H1, H2, etc.)

 Les liens (balise A)

 Le texte, en début des phrases pour plus de poids (front-loading)

 Les attributs ALT des images (balise IMG)


L’importance des balises h1 à h6
 D’un point de vue référencement naturel, après la balise « title », ce sont les
balises h1 à h6 qui sont probablement les plus importantes de l’ensemble du
contenu d’une page web. Lorsqu’ils sont bien rédigés, les titres h1 à h6 doivent
fournir les termes les plus pertinents pour identifier le contenu du paragraphe
qui les suit.

 H1 est la balise la plus importante. Chaque page doit contenir sa propre balise
H1 qui indique en 5 à 7 mots le contenu de la page. Plus on augmente de niveau
de titre (h2, h3, h4, h5 et h6), moins son contenu sera considéré comme
important par les moteurs de recherche.

Mauvais mots-clés, balises mal Mots-clés, balises optimisées


optimisées

<h1>Le sport</h1> <h1>L’importance de la pratique du sport </h1>


... ...
<h2>Quel sport ?</h2> <h2>Quelle activité sportive choisir ?</h2>
... <h3> ex. de sports ... <h3> ex. de sports
<h2>Où ?</h2> <h2>Où pratiquer une activité sportive ?</h2>
... <h3> des lieux où pratiquer ... <h3> des lieux où pratiquer
Exemple de structuration sur un page
d’accueil

<H1>Nom du site et indication de son champ d'activités</H1>

<H2>Différentes rubriques du site</H2>

<H3>Sous-niveaux éventuels dans les rubriques</H3>


Optimiser le contenu : exemple sur un article

Correct
Titre <h1>
Le titre et le chapô reprennent ici des mots
clés essentiels à la bonne compréhension
de l'article : vote, traité de Lisbonne,
référendum, Irlande…

Chapô <h2>

A éviter
Site Libe.fr : comprenez-vous
de quoi parle l'article en lisant
uniquement le titre ?
Les images
 Donner des noms de fichier explicites (exemple pour sa photographie sur un site
CV : éviter ma_photo.jpg, de préférence Prenom-NOM-CV-
Commmunication.jpg)
 Renseigner les attributs ALT des images.

En HTML : <IMG src="images/Logo-Orange.png" alt="Logotype Orange">

Avec Dreamweaver :
La description longue n'est pas un attribut
obligatoire mais recommandé, il permet de lier
l'image à une page fournissant des informations
sur l'image en question.

Avec Jimdo :
Lorsque vous insérez une image sur votre site,
vous pouvez donner à cette image un sous-titre
(qui sera visible sur le site) et aussi un texte
alternatif.

En quelques mots, décrivez simplement son


contenu.
Divers conseils
 Les mots importants doivent être en gras (balise html <strong>)

 Les mots clés doivent être présents sous les différentes formes : singulier ,
pluriel, masculin, féminin.

 La gestion des fautes d’orthographes (dans les requêtes des internautes) est
maintenant gérée au niveau du moteur de recherche.

 Concernant les URL, éviter les caractères diacritiques (é, è, ê, ë, à, ç … à


remplacer par la lettre de base) et les apostrophes (à remplacer par des -).

 Pour des articles, dans l’URL, indiquer éventuellement la date du jour de


publication ou une autre séquence de 3 chiffres minimum (critère indispensable
pour être présent dans Google News).

 Chaque page du site doit être accessible en 3 clics maximum depuis la page
d’accueil.
IV. Les liens entrants
La qualité des liens entrants

Les liens entrants (ceux qui conduisent sur votre site) sont essentiels pour le
référencement, mais faut-il encore qu’ils soient de bonne qualité issus d’un site :

 Populaire et/ou de référence ;

 Appartenant à la même thématique avec des contenus de qualité ;

 Proposant le moins de liens sortants possible ;

 Avec des intitulés de lien donnant bonne « réputation ».


V. La mise en œuvre du référencement
Première étape référencement et analyse
Créer un compte google : https://accounts.google.com/signup?hl=fr
Créer un compte google analytics : http://www.google.fr/intl/fr/analytics/
Explications pour relier votre compte jimdo à Google analytics :
http://aide.jimdo.com/basiques/fonctions-utiles-tutoriels/google-analytics/
Outils Google pour les Webmasters :
https://www.google.com/webmasters/tools
Choix des mots clés (démo prof) :
https://adwords.google.fr/select/KeywordToolExternal

Référencer votre site auprès des principaux moteurs de recherche :


Google : http://www.google.fr/intl/fr/addurl.html
Bing : http://www.bing.com/docs/submit.aspx
Exalead : http://www.exalead.com/search/web/submit/

S’inscrire dans l’annuaire DMOZ :


http://www.dmoz.org/World/Fran%C3%A7ais/R%C3%A9gional/Europe/France/Commerce_et_%C3%A9conomie/Emploi/CV/
Création de compte Google

De préférence, choisir comme nom


d’utilisateur : prénom.nom
Les informations doivent être exactes car
sinon risque de pénalités.
Création de compte Google Analytics (GA)
Intégration de compte Google Analytics
dans Jimdo

Coller ici le code


 envoyé par GA
Inscription aux outils Google pour les Webmasters
Étape 1 : récupération de la balise méta


 Copier cette balise
méta afin de
l’intégrer dans
votre site Jimdo
Inscription aux outils Google pour les Webmasters
Étape 2 : intégration de la balise méta


Copier cette balise


méta afin de

 l’intégrer dans
votre site Jimdo
Ne pas oublier d’enregistrer
Inscription aux outils Google pour les Webmasters
Étape 3 : valider l’intégration

Sur la page des outils Google


pour les Webmasters cliquer sur

Et commencer à utiliser les outils mis à


votre disposition.

Référencement dans le moteur de recherche
Google
Attention de mettre l’adresse sous la
forme :
http://[votre site].jimdo.com/
L’URL lorsque vous êtes en mode
consultation et non pas celle en mode
édition :
http://www32.jimdo.com/app/s5f9194b73
ca6ef0c/p34a81b2b833f6a71?safemode=0
&cmsEdit=1
Référencement dans le moteur
de recherche Bing
Attention de mettre l’adresse sous la
forme :
http://[votre site].jimdo.com/
L’URL lorsque vous êtes en mode
consultation et non pas celle en mode
édition :
http://www32.jimdo.com/app/s5f9194b73
ca6ef0c/p34a81b2b833f6a71?safemode=0
&cmsEdit=1
Référencement dans le moteur de recherche
Exalead

Attention de mettre l’adresse sous la


forme :
http://[votre site].jimdo.com/
L’URL lorsque vous êtes en mode
consultation et non pas celle en mode
édition :
http://www32.jimdo.com/app/s5f9194b73
ca6ef0c/p34a81b2b833f6a71?safemode=0
&cmsEdit=1
Inscription Dmoz

Plus formalités habituelles…


VI. Les mentions légales
Vous trouverez sur le réseau un exemple de Mentions légales (Exemple de Mentions
légales.pdf et Exemple de Mentions légales.docx) pour un site Internet, je vous autorise
à réutiliser ce modèle.

Les mentions légales doivent permettre :

 D’identifier l’organisation ou le particulier à l’origine du site, le Directeur de la


publication, l’hébergeur (avec ses coordonnées)

 De connaître l’objet du site

 De préciser les droits d’auteurs, copyrights (ou creative commons)

 D’assurer la protection des données personnelles (sans oublier le droit d’accès et


de modification, si vous utilisez des outils de tracking, ils doivent être signalés )

 D’exonérer votre responsabilité


VII. Vocabulaire
© 2014 Axenet : http://www.axenet.fr/sem-seo-sea-smo/
 SEM : Search Engine Marketing
Marketing sur les moteurs de recherche.
Regroupe l'ensemble des activités visant à renforcer la visibilité d'un site Internet
à partir du web. Ne se limite plus strictement aux moteurs de recherche, mais
s'est ouvert aux réseaux sociaux.
 SEO : Search Engine Optimization.
Optimisation pour les moteurs de recherche.
Comprend les activités visant à renforcer la visibilité d'un site sur les moteurs de
recherche, ceci dans les résultats naturels (aussi appelés organiques).
Ces activités se déclinent en :
– SEO Onpage (sur le site) : arborescence, contenu, codage
– SEO Offpage (en dehors du site) : netlinking, linkbaiting, achat de liens...

 SEA : Search Engine Advertising.


Publicité sur les moteurs de recherche.
Comprend les activités visant à acheter de l'espace publicitaire sur les moteurs
de recherche.
En France, le programme le plus connu est Adwords qui permet d'afficher des
annonces dans les résultats du moteur de recherche Google, et sur les sites
affiliés.

 SMO : Social Media Optimization.


Optimisation sur les réseaux sociaux.
Comprend les activités visant à développer la visibilité d'une entité au travers des
médias sociaux.
Les médias concernés les plus connus en France sont : Facebook, Twitter, Google
Plus, Linkedin, Youtube, viadéo...
 Ancre : L'ancre d'un lien est le texte du lien sur lequel on peut cliquer.

 Annuaire : Site ou service d'un site listant d'autres sites web. L'un des plus
connus, à cause de son ancienneté, est Dmoz. Certains SEO peuvent avoir
l'habitude d'inscrire sur ces annuaires les sites sur lesquels ils travaillent pour
obtenir, souvent facilement, un backlink. Mais attention, bon nombre de ces
annuaires n'apportent pas des backlinks efficaces, et certains d'entre eux ont
même pu être pénalisés par Google).

 Authorship / Author Rank : Il est possible d'insérer dans le code source des
pages web une "balise auteur" associant le contenu de la page à un auteur (et
son profil Google+). Attribuer ainsi un contenu à un auteur correspond à ce
qu'on appelle l'authorship. C'est aussi ce système qui a permis, pendant
plusieurs années, de voir les photos des profils Google+ dans les résultats
remontés par Google. Mais le moteur a mis fin à cette pratique en juin 2014.
Quelques semaines plus tard, c'est tout le système de l'authorship que Google a
abandonné : cette balise auteur n'intéresse désormais plus son moteur. Des
référenceurs avaient imaginé, s'appuyant sur l'interprétation de plusieurs
déclarations de Google, que le moteur puisse largement intégrer ce système
d'authorship dans son algorithme. Ils s'attendaient même à voir Google doper la
visibilité des contenus des profils les plus pertinents : c'est la thèse dite de
"l'author rank", qui a perdu l'un de ses meilleurs arguments lorsque Google a mis
fin à l'authorship.
 Backlink (parfois surnommé "BL" ou traduit en "lien entrant") : C'est
l'anglicisme utilisé pour parler d'un lien pointant vers une page, depuis la page
d'un autre site. Avoir de bons "backlinks", issus de sites d'autorité par exemple,
est un objectif important pour les SEO. Les obtenir constitue même un peu le
"nerf de la guerre" en référencement, car ils ont un poids considérable dans
l'algorithme des moteurs.

 Balises : Dans le jargon SEO, les balises renvoient à certaines balises HTML, qui
sont visibles dans le code source des pages web. Elles peuvent mettre un texte
en gras, en intertitre, en lien, etc. Les balises d'ouverture (par exemple <title>)
doivent précéder des balises de fermeture (</title>). Les balises sont au centre
du langage HTML, mais aussi du travail de SEO "on page" (voir balises Hn et
title).

 Black Hat SEO (parfois réduit à Black Hat voire à "BH"). Désigne des techniques
en matière de référencement, mais aussi ceux qui les pratiquent. De manière un
peu réductrice, les Black Hat SEO sont les référenceurs qui ne respectent pas les
consignes des moteurs (et notamment celles qu'expose Google). Volontiers
expérimentateurs, ils jouent avec ces règles, et essayent de trouver et exploiter
des failles dans les algorithmes des moteurs. Ils cherchent aussi souvent à
automatiser certaines tâches du SEO (comme le netlinking) au moyen de
logiciels dédiés, et savent que leur pratique peut conduire à des résultats
spectaculaires tout comme à de sévères pénalités. Ils s'opposent aux
référenceurs respectant les consignes de Google, appelés eux les White Hat SEO.
 Blast : Terme anglais plutôt utilisé par des SEO Black Hat pour désigner une
génération massive et automatisée de backlinks, avec l'aide d'outils dédiés
comme ceux de cette sélection : "Six logiciels de référencement black hat".

 Cloaking : Technique consistant à présenter une page différente aux robots des
moteurs et aux internautes. La technique étant trompeuse et souvent utilisée
pour manipuler l'algorithme, elle expose le site à des pénalités de Google.

 CP : Abréviation de "communiqué de presse" qui est souvent utilisée pour


évoquer en fait les "sites de CP" - c'est-à-dire les sites pouvant accueillir et
diffuser des communiqués de presse. Bien souvent, ces sites ne sont en fait
jamais consultés par des journalistes, et n'ont été créés qu'à des fins de SEO. En
effet ils permettent aux référenceurs d'obtenir des backlinks car ils peuvent y
diffuser des pseudo communiqués incluant des liens pointant vers les sites dont
ils travaillent le SEO. Mais là encore attention, beaucoup de ces sites de CP ont
subi des pénalités de Google, et, comme ceux des annuaires, les liens issus de
ces CP ont bien souvent vu leur cote chuter.

 Crawl : Anglicisme se rapportant à l'exploration des pages et leur code source


réalisée par des robots, en général ceux des moteurs de recherche, ou d'autres
outils qui les imitent. Le terme s'emploie comme un verbe (Google "crawle" un
site) ou comme un substantif (le crawl d'un site). Pour décrire les étapes de
fonctionnement du moteur de Google, on peut dire que le crawl précède
l'indexation, qui précède l'affichage des résultats.
 CTR : Vient de Click-Through Rate, et se traduit par "taux de clic". C'est le
rapport entre le nombre de clics et le nombre d'impressions. Si un site est
apparu 100 fois dans une page de résultats sur une requête (soit 100
impressions), et que les internautes ont cliqué 10 fois dessus, le "CTR" est donc
de 10%. Le terme apparaît notamment dans Google Webmaster Tools.

 EMD : Acronyme de Exact-Match Domain utilisé pour évoquer les noms de


domaine qui correspondent exactement à la requête visée. Le domaine "voiture-
pas-cher.com" est un EMD qui a pour but de remonter sur la requête "voiture
pas cher".

 HN et H1, H2... : Une page Web peut être découpée en plusieurs parties. Les
balises dites "Hn" (pour H1, H2, H3,...) vont couper, titrer et hiérarchiser ces
parties. Ainsi, H1 correspondra au titre le plus important et H6 au moins
important. Ces balises ont aussi un poids en SEO.

 Liens nofollow : Si un lien normal est "dofollow", un lien "nofollow" donne une
indication aux robots des moteurs de recherche, leur demandant de "ne pas
suivre" ce lien lorsqu'ils parcourent la page. Google ou Bing sont censés
respecter cette consigne, et donc ne pas tenir compte de ce lien dans leur
algorithme. Les liens nofollow ne transmettent donc pas de PageRank. Leur
usage est recommandé au sein de contenu acheté pour ne pas risquer une
pénalité.
 Linkbuilding. : Anglicisme signifiant la "construction de liens", et évoquant le
travail consistant à obtenir de bons backlinks et donc à "bâtir" son netlinking...

 Méta description : La Méta description a pour but de décrire le mieux possible


le contenu d'une page web en à peu près 160 caractères. Elle doit être
renseignée au sein des balises HTML meta name="description". Les moteurs s'en
servent car c'est aussi, bien souvent, la description de la page qui apparait sous
son titre repris dans les résultats remontés.

 MFA : Un site dit MFA pour Made For AdSense est réalisé avec l'objectif
principal de le monétiser le plus et le mieux possible, grâce à AdSense donc,
mais aussi via d'autres régies, l'affiliation et... le SEO. Le crédo de ce type de site :
un minimum de travail pour un maximum de revenu, car la qualité du contenu
d'un MFA est secondaire, ce qui compte c'est que les visiteurs cliquent sur les
publicités le plus possible.

 Negative SEO : Ensemble des techniques visant à pénaliser le référencement


d'un site concurrent, par exemple en faisant pointer une multitude de liens
contraires aux consignes de Google vers lui en espérant que cela puisse le
pénaliser. Google a reconnu l'existence du Negative SEO tout en soulignant sa
rareté. Le moteur a cependant mis en place un outil de désaveu de lien pour,
entre autres, empêcher de telles pratiques.
 Netlinking : Désigne à la fois l'ensemble des liens qui pointent vers un site et
ses pages, et le travail qui vise à acquérir et optimiser ces liens pour améliorer le
référencement.

 Not provided : Ce terme anglais est devenu très célèbre car c'est désormais ce
qu'affiche Google Analytics concernant les mots clés à l'origine du trafic venant
de Google. Ce dernier a en effet décidé de chiffrer via SSL (c'est-à-dire "HTTPS")
ses pages de résultats, qui ne peuvent en conséquence plus fournir (d'où le "not
provided") aux outils de web analytics la requête à l'origine d'une visite. La
montée en puissance de ces mots clés "not provided" a commencé en 2011.
Progressive, elle a désormais atteint 100% du trafic venant des résultats naturels
de Google, privant évidement les SEO d'indicateurs très précieux (les mots clés
achetés via AdWords et tapés dans d'autres moteurs de recherche continuent,
eux, d'apparaître). Des méthodes imparfaites existent pour essayer de récupérer
les mots clés désormais "not provided", la plus efficaces étant sans doute celle
consistant à regarder les données fournies par Google Webmaster Tools.

 PageRank : Aussi surnommé "PR", il s'agit d'un indice de Google mesurant, de 0


à 10, la popularité des pages en fonction du nombre et de la qualité des liens qui
pointent vers elles. Google communique un indice public pour chaque page,
mais il est désormais trop rarement actualisé pour être considéré comme fiable.
Le PageRank vient du nom de son créateur, Larry Page, le cofondateur de
Google, et ne renvoie pas à un "classement de pages" comme sa traduction
pourrait le suggérer.
 Panda : c’est sans doute le filtre le plus connu de Google, qui le déploie
régulièrement pour nettoyer ses résultats et les débarrasser de certains spams.
Lancé en 2011, d'abord aux Etats-Unis, puis en France, il a provoqué un véritable
séisme sur le web, réduisant presque à néant la visibilité de certains sites trop
dépendants du SEO. Son objectif : pénaliser le référencement des sites « de
mauvaises qualité », et a donné quelques indices pour juger de la qualité d'un
site (l'absence de contenu dupliqué par exemple. Lire aussi l’article sur JDN :
Google Panda et Penguin, récapitulatif de toutes les mises à jour.

 Pénalité manuelle, ou action manuelle : Le premier terme est utilisé par les
référenceurs, le second par Google dans son Google Webmaster Tools qui
notifie ses utilisateurs lorsqu'ils sont frappés d'une telle "action manuelle". Il
s'agit d'une pénalité affectant le référencement d'une ou plusieurs pages d'un
site, déclenchée par l'analyse d'un employé de Google et non par un algorithme
comme Google Penguin ou Panda. Parmi les pratiques SEO déclenchant le plus
souvent les pénalités manuelles figurent les liens factices, c'est-à-dire les liens
dofollow non naturels, résultant par exemple d'achats (lire : Ce que dit Google sur
ses pénalités manuelles).

 Penguin : c’est, comme Panda, un filtre que Google déploie de temps en temps
pour nettoyer ses résultats. D'après les observations des référenceurs, il semble
s'en prendre aux abus de liens artificiellement obtenus et à des pratique SEO
Black Hat. Lancé dans le monde entier en 24 avril 2012, il n'a depuis été déployé
qu'une poignée de fois...
 Robots.txt : Fichier qui indique aux moteurs, y compris à celui de Google, ce
que leurs robots ne doivent pas indexer. Il doit être placé à la racine des sites (En
savoir plus sur les fichiers robots.txt grâce aux aides officielles rédigées par
Google).

 Rich Snippet : Le snippet est l'extrait de la page qui apparaît dans les résultats
remontés par Google. Cet extrait peut se limiter à un titre et une description,
mais il peut aussi s'enrichir (d'où le terme de "rich snippet", ou "extrait enrichi")
avec des images, des vignettes de vidéo, des étoiles d'avis... Des lignes de codes
peuvent être insérées dans le code source des pages pour pousser les moteurs à
afficher ces "rich snippets" : ces petits bouts de code sont notamment décrits et
expliqué sur le site schema.org.

 Seo on-page ("SEO on-site" est parfois aussi employé) : Travail SEO réalisé au
sein même de la page web, et de son code source, par opposition au travail SEO
qui peut être fait en dehors du site (le linkbuilding par exemple). Cela concerne
donc notamment les titles et les autres balises, mais aussi les URLs, la "webperf"
et toutes les optimisations faites pour améliorer le crawl des robots de Google.

 SERP : Pour Search Engine Results Page, soit la page de résultats remontés par
le moteur.
 Spam : Employé par un SEO, le mot "spam" ne renvoie pas au spam qui pollue
les messageries, c'est-à-dire aux e-mails non désirés, mais aux sites que Google
ne désire pas voir dans ses résultats... Il s'agit des sites de mauvaise qualité, et
qui, en général, ne respectent pas les consignes de Google. Le terme webspam
peut aussi être préféré.

 SpamCo : Terme mélangeant les mots "spam" et "commentaire" qui désigne les
commentaires d'un contenu (en général sous un article ou billet de blog). Des
commentaires qui cherchent plus à glisser un lien vers un site à référencer qu'à
faire une remarque pertinente. Google en a donné un exemple caricatural très
parlant.

 Splog : Terme contractant "spam" et "blog" qui désigne un blog sans aucune
qualité éditoriale, souvent généré de manière automatique par des Black Hat
SEO. Les splogs contiennent cependant des backlinks qui doivent pousser le
référencement d'un autre site plus stratégique.

 Trafic organique : Correspond au trafic issu des résultats naturels générés par
les moteurs de recherche. Il n'inclut donc pas le trafic acheté, c'est-à-dire issus
des résultats payants, via AdWords. La mission principale du SEO se concentre
sur l'amélioration de ce trafic organique.
 Title : En langage HTML, l'élément ou la balise <title> définit le titre de la page.
Il est en général visible tout en haut du code source d'une page. Ce titre s'affiche
aussi sur les onglets des navigateurs Firefox ou Chrome. C'est bien souvent ce
qu'affiche Google, en gros et en bleu, lorsqu'il fait remonter une page dans ses
résultats. Le title est considéré comme un critère très important en SEO.

 URL Canonique : Lorsque plusieurs URL présentent le même contenu, il est


conseillé d'indiquer au moteur l'URL de référence avec le marquage HTML
adéquat (rel="canonical"). Cette URL préférée, c'est l'URL canonique, celle que
l'on souhaite voir indexée et apparaître dans les résultats. Google détaille la
procédure à suivre pour mettre en place de telles URLs canoniques dans des
pages d'aides officielles en français.

Vous aimerez peut-être aussi