Le dossier du MOIS Cybercorrèze

Référencement naturel (SEO)


 

Le Référencement - Définition

On désigne habituellement par le terme « référencement » (en anglais SEO pour Search Engine Optimization) l'ensemble des techniques permettant d'améliorer la visibilité d'un site web :

  • soumission (en anglais submission) consistant à faire connaître le site auprès des outils de recherche ;
  • positionnement (en anglais ranking) consistant à positionner les pages d'un site en bonne position dans les pages de résultat pour certains mots-clés .

Toute la difficulté de l'exercice ne réside pas tant dans la promotion du site auprès des moteurs de recherche que dans la structuration du contenu et le maillage interne et externe pour être bien positionné dans les résultats sur des mots-clés préalablement choisis.

En effet une majorité d'internautes utilise les moteurs de recherche afin de trouver de l'information et interroge à ce titre un moteur de recherche à l'aide de mots clés (en anglais keywords). Il est donc essentiel avant tout chose de se préoccuper du contenu que l'on propose afin de répondre au mieux aux attentes des internautes, et d'identifier les mots-clés susceptibles d'être saisis par ces derniers !

SERP

Le terme SERP (Search Engine Result Pages) désigne les résultats de recherche tels qu'affichés après une requête. Il est essentiel de comprendre que d'un utilisateur à l'autre les résultats pour un même moteur de recherche peuvent varier, d'une part selon le paramétrage qu'a choisi l'utilisateur (langue, nombre de résultats par page) mais aussi selon le lieu (pays, région) d'où la requête est faite ou encore le terminal (mobile, tablette, ordinateur de bureau) ou bien parfois selon les requêtes effectuées préalablement par l'utilisateur et enfin car les moteurs de recherche font régulièrement de l'A/B testing pour tester différents affichages.

Cela signifie donc que ce n'est pas parce que vous vous voyez en première position que vous l'êtes forcément. Pour obtenir un résultat le plus proche possible de ce que la majorité des utilisateurs voient, il est conseillé de désactiver l'historique des requêtes, voire de naviguer en utilisant la navigation privée de son navigateur.

Les pages référencées en première position obtiennent évidemment plus de visites, puis viennent les pages en seconde position, etc. Il en va de même pour les pages référencées en première page par rapport aux pages référencées en seconde page. Ainsi, si une page se trouve en 11ème position (donc en seconde page), il est très intéressant d'essayer de l'optimiser afin de la faire passer en première page et obtenir un gain important de visiteurs uniques.

Mots-clés

Le référencement n'a de sens que vis-à-vis de mots-clés, c'est-à-dire les mots utilisés par les visiteurs pour faire des recherches.

Le premier travail consiste donc à déterminer les mots-clés sur lesquels on souhaite positionner les pages de son site. Les mots-clés que l'on a en tête ne correspondent pas toujours aux mots-clés utilisés par les visiteurs, car ceux-ci ont tendance à utiliser des termes les plus courts possibles ou encore à faire des fautes d'orthographe.

Il existe des outils permettant de comparer le volume de recherche d'un mot-clé par rapport à un autre et donnant des suggestions :



Enfin, il existe des sites permettant de connaître les mots-clés des sites concurrents :


SEO Black hat / White hat

En matière de référencement naturel, on oppose généralement deux courants de pensée :

  • Le SEO White hat (traduisez chapeau blanc), désignant les référenceurs respectant scrupuleusement les consignes des moteurs de recherche aux webmasters, dans l'espoir d'obtenir un référencement durable en jouant avec les règles du jeu ;
  • Le SEO Black hat (traduisez chapeau noir), designant les référenceurs adoptant des techniques contraires aux consignes des moteurs de recherche, dans le but d'obtenir un gain rapide sur des pages à fort potentiel de monétisation, mais avec un fort risque de déclassement. Les SEO black hat jouent ainsi au chat et à la souris avec les moteurs de recherche, qui adaptent régulièrement leurs algorithmes pour identifier et déclasser les sites ne respectant pas les consignes. Des techniques telles que le cloaking ou le content spinning sont ainsi considérées comme dangereuses et non recommandées.


Soumettre son site

Avant de parler d'optimisation du référencement, la première étape consiste à faire en sorte que les principaux moteurs de recherche et en particulier Google (car il est le plus utilisé) identifient le site et viennent le parcourir régulièrement.

Pour ce faire, il existe des formulaires en ligne permettant de soumettre son site web :


Optimiser le référencement

L'élément de référence pour les moteurs de recherche est la page web, il faut donc penser, lors de la conception du site web, à structurer les pages en prenant en compte les conseils ci-dessus pour chacune des pages.

En effet la plupart des webmasters pensent à indexer correctement la page d'accueil de leur site mais délaissent les autres pages, or ce sont généralement les autres pages qui contiennent le contenu le plus intéressant. Il est donc impératif de choisir un titre, une URL et des métas (etc.) adaptés pour chacune des pages du site.

Il existe quelques techniques de conception de site permettant de donner plus d'efficacité au référencement des pages d'un site :


Contenu de la page web

Les moteurs de recherche cherchent avant tout à fournir un service de qualité à leurs utilisateurs en leur donnant les résultats les plus pertinents en fonction de leur recherche ainsi avant même de songer à améliorer le référencement il est indispensable de s'attacher à créer un contenu consistant et original.

Un contenu original ne signifie pas un contenu qui n'est proposé par aucun autre site, cela serait une mission impossible. En revanche il est possible de traiter un sujet et de lui amener une plus-value en approfondissant certains points, en l'organisant d'une manière originale ou en mettant en relation différentes informations. Les réseaux sociaux sont à ce titre un excellent vecteur pour promouvoir le contenu et pour identifier l'intérêt que les lecteurs portent à votre contenu.

D'autre part, toujours dans l'optique de fournir le meilleur contenu aux visiteurs, les moteurs de recherche accordent de l'importance à la mise à jour des informations. Le fait de mettre à jour les pages du site permet donc d'augmenter l'indice accordé par le moteur au site ou en tout cas la fréquence de passage du robot d'indexation.

Titre de la page

Le titre est l'élément de prédilection pour décrire en peu de mots le contenu de la page, c'est notamment le premier élément que le visiteur va lire dans la page de résultat du moteur de recherche, il est donc essentiel de lui accorder une importance particulière. Le titre d'une page web est décrit dans l'en-tête de la page web entre les balises <TITLE> et </TITLE>.

Le titre doit décrire le plus précisément possible, en 6 ou 7 mots maximum, le contenu de la page web et sa longueur totale recommandée ne doit idéalement pas dépasser la soixantaine de caractères. Enfin, il doit idéalement être aussi unique que possible dans le site pour que la page ne soit pas considérée comme du contenu dupliqué.

Le titre est d'autant plus important qu'il s'agit de l'information qui s'affichera dans les favoris de l'internaute, dans la barre de titre et les onglets du navigateur ainsi que dans l'historique.

URL de la page

Certains moteurs de recherche accordent une importance capitale aux mots-clés présents dans l'URL, notamment les mots-clés présents dans le nom de domaine. Il est donc conseillé de mettre un nom de fichier adapté, contenant un ou deux mots-clés, pour chacun des fichiers du site plutôt que des noms du genre page1.html, page2.html, etc.

CommentCaMarche utilise une technique appelée URL-Rewriting consistant à écrire des URL lisibles et contenant les mots-clés du titre de la page. Sur CCM le tiret est utilisé comme séparateur : http://www.commentcamarche.net/faq/20265-php-nettoyer-une-chaine-de-caracteres


Liens internes

Afin de donner le maximum de visibilité à chacune de vos pages, il est conseillé d'établir des liens internes entre vos pages pour permettre aux crawlers de parcourir la totalité de votre arborescence. Ainsi il peut être intéressant de créer une page présentant l'architecture de votre site et contenant des pointeurs vers chacune de vos pages.

Cela signifie par extension que la navigation du site (menu principal) doit être pensée pour donner efficacement accès aux pages ayant un fort potentiel en terme de SEO.

NetLinking

Le terme NetLinking désigne le fait d'obtenir des liens externes pointant vers son site web car cela augmente d'une part le trafic et la notoriété de son site, d'autre part car les moteurs de recherches prennent en compte le nombre et la qualité des liens pointant vers un site pour caractériser son niveau de pertinence (c'est le cas de Google avec son indice appelé PageRank).

 


Améliorer le crawl

Le référencement commence par le crawl (en français exploration) de votre site par les robots d'exploration des moteurs de recherche. Il s'agit d'agents parcourant les sites à la recherche de nouvelles pages à indexer ou bien de pages à mettre à jour. Un robot d'indexation agit en quelque sorte comme un visiteur virtuel : il suit les liens présents sur votre site afin d'explorer le maximum de pages. Ces robots sont identifiables dans les logs par l'en-tête HTTP User-Agent qu'ils envoient. Voici les user-agents des principaux moteurs de recherche :

Googlebot, etc.

Voici quelques exemples de User-Agents pour les moteurs de recherche les plus populaires :

 

Nom du moteur User-Agent
Google GoogleBot
Mediapartners-Google
Googlebot-Image
Googlebot-Mobile
Google Wireless Transcoder
AdsBot-Google
Bing bingbot
MsnBot
Yahoo Slurp
Yandex Yandex
Orange/Voila VoilaBot
Cuil Twikler




Ainsi, il convient de faire en sorte de mailler intelligemment ses pages à l'aide de liens afin de permettre aux robots d'accéder au maximum de pages, le plus rapidement possible.

Pour améliorer l'indexation de votre site, il existe plusieurs méthodes :

Robots.txt

Il est possible et souhaitable de bloquer les pages inutiles au référencement à l'aide d'un fichier robots.txt afin de permettre aux robots d'indexation de consacrer toute leur énergie aux pages utiles. Les pages en doublon (ayant par exemple des paramètres inutiles aux robots) ou les pages ayant peu d'intérêt pour les visiteurs depuis une recherche (résultats de recherche interne du site, etc.) doivent typiquement être bloquées ;

Sur CommentCaMarche, les résultats du moteur de recherche interne sont explicitement exclues du référencement via le fichier robots.txt, afin de ne pas fournir aux utilisateurs arrivant par un moteur de recherche des résultats générés automatiquement, conformément aux consignes de Google.

Vitesse de chargement des pages

Il est important d'améliorer le temps de chargement des pages, en utilisant par exemple des mécanismes de cache car cela permet d'une part d'améliorer l'expérience utilisateur et donc la satisfaction des visiteurs et d'autre part car les moteurs de recherche prennent de plus en plus en compte ces types de signaux dans le positionnement des pages ;

Sitemap

Le fait de créer un fichier sitemap permet de donner accès au robots à l'ensemble de vos pages ou des dernières pages indexées.

Réseaux sociaux

De plus en plus de moteurs de recherche prennent en compte les signaux de partage sociaux dans leur algorithme. Google Panda prend notamment en compte ce critère pour déterminer si un site est de qualité ou non. Autrement dit, le fait de favoriser le partage social limite les risques d'impact par les algorithmes tels que Panda.

Sur CommentCaMarche, les pages contiennent des boutons de partage asynchrones afin de ne pas ralentir le chargement des pages, ainsi que les META OpenGraph og:image permettant d'indiquer aux réseaux sociaux quelle image afficher lorsqu'un utilisateur partage un lien.

Référencement d'un site mobile

L'idéal est d'avoir un site mobile conçu en responsive design car, dans ce cas, la page indexée pour les ordinateurs de bureau et terminaux mobile est la même, seul son affichage change selon le périphérique d'affichage.

Si votre site web mobile est sur un domaine ou sous-domaine à part, comme c'est le cas pour CommentCaMarche, il suffit de rediriger automatiquement les internautes vers le site mobile en faisant attention que chaque page redirigée pointe bien vers son équivalent sur le site mobile. Il faut également s'assurer que le crawler Googlebot-Mobile soit bien traité comme un terminal mobile !

Pour approfondir: Référencement d'un site mobile

Contenu dupliqué

Dans la mesure du possible, il s'agit de créer des titres de pages uniques sur l'ensemble du site, car les moteurs de recherche tels que Google ont tendance à ignorer le contenu dupliqué (en anglais duplicate content), c'est-à-dire soit de nombreuses pages du site ayant le même titre ou bien des pages du site dont le principal contenu existe sur le site ou des sites tiers.

Le contenu dupliqué est quelque chose de naturel, ne serait-ce que par le fait que nous sommes amené à faire des citations, à rapporter des propos de personnalités ou encore à faire mention à des textes officiels. Toutefois, une trop grande proportion de contenu dupliqué sur un site peut conduire à une pénalité algorithmique, il est donc conseillé de bloquer un tel contenu à l'aide d'un fichier robots.txt ou une balise META robots ayant pour valeur "noindex".

Pénalités

On distingue généralement deux types de pénalités :

  • Les pénalités manuelles, c'est-à-dire résultant d'une action humaine, faisant suite à un non respect des consignes aux webmasters. Il peut s'agir de liens non naturels (liens achetés), de contenu artificiel, de redirections trompeuses, etc. Ces pénalités ne peuvent être levées qu'après avoir corrigé le problème (ce qui suppose d'avoir identifié le problème) et effectué une demande de réexamen du site via le formulaire consacré. Le réexamen d'un site web peut prendre plusieurs semaines et ne conduit pas nécessairement à une récupération de position ou parfois partielle ;
  • Les pénalités algorithmiques, c'est-à-dire ne résultant d'aucune action humaine, liée généralement à un ensemble de facteurs que seul le moteur de recherche connaît. C'est le cas par exemple de Google panda, l'algorithme de Google déclassant les sites dits de mauvaise qualité. Ces pénalités ne peuvent être levées qu'à près avoir éliminé les "signaux" conduisant à un déclassement, à l'itération suivante de l'algorithme.


Outils pratiques