Pour bien comprendre le référencement il est important d’étudier le fonctionnement des moteurs de recherche de l’indexation jusqu’à la restitution des résultats.

Qu’est-ce qu’un moteur de recherche ?

Un moteur de recherche est un programme informatique dont le but est de visiter les différentes pages publiées sur internet, de les analyser et de les indexer afin de pouvoir identifier leur contenu, le caractériser, l’indexer puis de le proposer en retour aux internautes qui font une requête.

Pour offrir une réponse pertinente aux requêtes des internautes, les moteurs de recherche doivent répondre à plusieurs contraintes. Ils doivent :

  • Pour ce qui est du contenu :
    • Être capable d’indexer le plus grand nombre de contenu, dans des formats divers (langage, nature (écrit, vidéo, son, image, ..), taille, structure, …).
    • Pouvoir qualifier le contenu (qualité, fraîcheur, pertinence, …)
    • Pouvoir indexer les différents types de contenu (actualité, litérature, enseignement, …)
  • Pour ce qui est des requêtes :
    • Pouvoir comprendre la nature de la requête
    • Etre capable de proposer des réponses à la fois précises, uniques et diversifiées pour offrir un champ de réponses complet et pertinent
    • Etre rapide (quelques millisecondes)
    • S’adapter aux différents formats de demande (ordinateurs, tablettes, smartphones, …)
    • S’adapter aux différentes formes de support (écrit, vidéo, image, carte, son, …)

 

Remarque : les clients des moteurs de recherche sont les internautes. Le rôle du moteur de recherche est d’apporter une réponse la plus pertinente possible aux internautes. C’est-à-dire une réponse permettant de répondre à la question posée. Toute la difficulté réside dans leur capacité à offrir un choix précis et diversifié, pertinent sans toutefois devenir réducteur, multisupport, de nature différente, …

Les phases de fonctionnement du moteur de recherche

Le fonctionnement d’un moteur de recherche comme Google peut être décrit en 5 phases principales :

  • La collecte des données : le moteur de recherche prend connaissance des pages. Il les identifie et décide si elles doivent être indexées ou pas. Cette phase permet de collecter les données en copiant le contenu de chaque page dans l’index. Appelée « le crawl » elle est faite par les robots de Google (appelés Googlebot, crawlers ou spiders) qui visite les pages du web en suivant les liens situés sur chacune des pages pour découvrir d’autres pages du même site ou menant vers des sites extérieurs.
  • L’indexation : le contenu des pages crawlées est copié par les robots. Il est qualifié et indexé les disques durs de Google qui composent une gigantesque base de données du moteur : l’index Google. Les résultats proposés par Google proviennent de ces bases de données. Le nombre de page indexées est estimé à plus de 20 milliards de pages par jour.
  • Le traitement des « copies » : l’ensemble les données copiées dans l’index sont classées informatiquement pour en permettre la restitution.
  • Le ranking : la phase de ranking permet à Google de classer les résultats en fonction de ses critères de pertinences. Ces critères lui sont propres, ils sont intégrés dans son algorithme et ses filtres.
  • La restitution : les résultats sont présentés aux utilisateurs dans les pages de recherche appelées SERP (Search Engine Results Page). Chaque page se compose d’une liste de 10 résultats qui sont, selon Google, les réponses les plus pertinentes. Les SEP contiennent aussi d’autres éléments comme les annonces dont l’emplacement est vendu aux enchères aux plus offrants.

Le but de tout cela ? Proposer le plus rapidement possible des réponses pertinentes et de qualité aux requêtes posées sur le moteur de recherche.

 

Le Googlebot

Il existe des milliers de Googlebot, c’est-à-dire des programmes informatiques qui parcourent les pages web pour les étudier. Ces dernières sont ainsi vues et copiées à travers les yeux de ces robots. Les Googlebot ne s’intéressent qu’au contenu, c’est-à-dire au code source des pages. Ils ne peuvent reconnaître les informations important à la mise en avant de la qualité du contenu (mises en forme, les titres, les mots importants, …etc ) que lorsque des indications leur permet de le faire.

Optimiser un site pour le référencement naturel consiste à faciliter le travail des robots afin que ceux-ci comprennent la valeur ajoutée apportée par votre contenu. Il faut pour cela réaliser des optimisations techniques sur le contenu.

Remarque : l’algorithme, les recommandations et les filtres de Google évoluent sans cesse, les règles d’optimisations évoluent en même temps. On ne met plus en avant un contenu comme on le faisait il y a 2 ou 3 ans. Il est important de suivre l’évolution des règles de référencement afin de conserver une bonne visibilité.