Algorithmes Google : tout savoir !

Dans le marketing digital, nous entendons souvent parler d’algorithmes, que ce soit sur les réseaux sociaux ou pour le référencement naturel d’un site web sur les moteurs de recherche. Le terme algorithme est peut-être encore flou pour beaucoup de personnes. Pour cela, nous allons vous expliquer ce qu’est un algorithme, à quoi il sert et nous vous présenterons également les algorithmes utilisés par Google pour le SEO. Ainsi, si vous avez un site web, vous saurez comment être plus visible sur les moteurs de recherche et améliorer votre positionnement sur Google grâce aux algorithmes.

Algorithmes Google : découvrez les dernières mises à jour

Qu’est-ce qu’un algorithme sur les moteurs de recherche ?

Comme le définit la CNIL, « un algorithme est la description d’une suite d’étapes permettant d’obtenir un résultat à partir d’éléments fournis en entrée ». Concrètement, l’algorithme correspond à un programme informatique capable d’analyser les contenus présents sur le web.

Les algorithmes de Google représentent l’ensemble des procédures utilisées par le moteur de recherche pour répertorier et classer les sites web. Il s’agit d’un système complexe se basant sur un certain nombre de critères afin de déterminer si un contenu sur le web est de qualité et pertinent pour l’internaute. Pour déterminer la qualité d’un site web, les algorithmes de Google se basent sur trois étapes :

1. Le crawl

Lors de cette première étape, le moteur de recherche va analyser les différentes pages des sites internet à l’aide de robots appelés crawlers. Ces robots naviguent de page en page grâce aux liens qui y sont intégrés.

2. L’indexation

Lorsque les robots de Google analysent les multiples pages présentes sur le web, ils collectent les éléments disponibles sur ces pages : contenus, liens, balises, fichiers multimédia… Ces données vont ensuite être répertoriées et stockées dans une base de données détenue par Google, il s’agit de l’indexation. Il est indispensable pour les sites web d’être indexés sur les moteurs de recherche afin d’être visibles auprès des internautes.

3. Le classement

Le classement correspond aux résultats d’une recherche d’un utilisateur sur les moteurs de recherche. Lorsqu’un utilisateur tape une un mot clé sur Google, les algorithmes effectuent une recherche dans l’index en fonction de cette requête, afin d’afficher les sites correspondant le plus, selon lui, à la recherche de l’utilisateur, ceci est le classement.

Quels sont les facteurs de classement des algorithmes de Google ?

Le classement d’un site internet sur les moteurs de recherche dépend de multiples facteurs analysés par les algorithmes de Google.

Le contenu du site

Il s’agit d’un critère très important, Google estime que l’utilisateur doit systématiquement trouver une réponse à sa requête sur les moteurs de recherche. De ce fait, le contenu des sites internet doit être pertinent et de haute qualité.

La présence de liens internes et externes

Toujours dans une démarche de réponse aux besoins des internautes, les liens présents sur un site internet doivent faciliter leur navigation entre les différentes pages. L’ajout de liens internes et externes doit donc avoir du sens et apporter une valeur ajoutée au site.

L’expérience utilisateur

Si un utilisateur passe du temps sur un site internet, cela signifie que le contenu du site correspond à ses attentes. À l’inverse, si un utilisateur ne reste que quelques secondes sur un site, cela peut laisser penser que l’utilisateur n’est pas satisfait du contenu du site ou de la navigation sur celui-ci. Dans ce cas de figure, les algorithmes de Google peuvent décider de ne plus mettre en avant le site internet dans le classement.

Le nom de domaine

Google examine la cohérence entre le nom de domaine et le contenu du site, il est donc important de choisir un nom de domaine en adéquation avec la thématique du site.

La réactivité du site

Pour qu’un site soit mis en avant par Google dans les résultats d’une recherche, le temps de chargement des différentes pages du site doit être rapide. De plus, le site doit être optimisé pour la navigation sur mobile. Souvent, on préconise un site en responsive design, c’est-à-dire qui s’adapte à tous les supports de navigation (ordinateur, tablette ou smartphone).

Quels sont les principaux algorithmes de Google ?

Depuis 2010, Google a lancé un certain nombre d’algorithmes ayant un rôle précis dans le classement des sites web sur les moteurs de recherche.

Caffeine

Lancé en juin 2010, l’algorithme Caffeine permet de crawler et indexer instantanément une page web. Avant sa mise en place, l’indexation des pages était plus longue car Google devait extraire, analyser et comprendre le contenu de chaque page. Grâce à cet algorithme, l’indexation des pages sur Google est beaucoup plus rapide, efficace et pertinente.

Panda

L’algorithme Panda a été introduit en 2011, il vise à pénaliser le référencement des sites web dont le contenu est de faible qualité. Le but de cet algorithme est de lutter contre les sites créés uniquement pour le contenu, le référencement ou le spam. L’algorithme est régulièrement mis à jour afin de permettre aux sites précédemment pénalisés de récupérer leur référencement s’ils ont amélioré la qualité de leur contenu.

La mise à jour 4.2 de l’algorithme Panda a déterminé l’importance de la qualité du contenu pour le référencement d’un site internet. Depuis 2016, Panda est d’ailleurs intégré à l’algorithme principal de Google.

Penguin (pingouin)

Lancé en avril 2012, l’algorithme Penguin a pour objectif principal de pénaliser le référencement naturel des sites internet ne respectant pas les règles de Google en termes de création, d’achats et de réseaux de liens. Les liens étant considérés comme litigieux par Google doivent alors être supprimés. Les webmasters qui auraient fait de la sur-optimisation, notamment à l’aide de backlinks artificiels, craignent cet algorithme puisque cela nécessite un travail long et incertain pour sortir d’une pénalité imposée par Google.

Tout comme l’algorithme Panda, Penguin est aujourd’hui ajouté à l’algorithme principal de Google pour analyser les liens présents sur les sites web.

Pirate

Déployé en août 2012, l’algorithme Pirate lutte contre la violation des droits d’auteurs et le téléchargement illégal qu’il s’agisse de musiques, films ou séries. Les sites proposant le téléchargement illégal sont retirés des résultats de recherches sur Google.

Hummingbird (colibri)

Cet algorithme est l’un des plus importants de Google. Déployé en septembre 2013, il impacte la façon dont les internautes formulent leurs recherches sur Google. L’algorithme porte le nom d’Hummingbird car selon Google, grâce à lui les recherches sont beaucoup plus précises et rapides. En effet, grâce à cet algorithme, Google peut comprendre une requête ou une phrase dans sa globalité et pas seulement en fonction de quelques mots clés. Ainsi, les résultats de recherches proposés par Google sont de meilleure qualité et peuvent davantage correspondre aux attentes des internautes. Les résultats de recherches des internautes ont pu devenir plus « humains » notamment grâce à la compréhension de la recherche conversationnelle. Avec l’algorithme Hummingbird, il est possible d’obtenir des réponses précises à des requêtes telles que « Quelle est la boulangerie la plus proche ? » ou « Quel supermarché est ouvert aujourd’hui ? ».

Pigeon

L’algorithme Pigeon a été lancé en juillet 2014 aux États-Unis et en 2015 au niveau mondial. Il favorise les résultats liés à la recherche locale afin de répondre davantage aux besoins des utilisateurs. Cet algorithme a un réel impact sur les entreprises locales, commerces, bars, restaurants et professions médicales, puisqu’il permet de mieux les mettre en avant auprès des utilisateurs.

Mobile Friendly

Déployé en avril 2015 par Google, l’algorithme Mobile Friendly privilégie le référencement des sites web adaptés aux mobiles. Avec la démocratisation des smartphones et tablettes, cet algorithme a eu un impact considérable sur le SEO des pages web puisqu’il vérifie que chaque page d’un site est compatible avec les appareils mobiles et tient compte de cet élément pour le référencement naturel du site. Cet algorithme a d’ailleurs été renforcé par le Mobile First Index, lancé en 2017. Avant cette date, Google déterminait le référencement naturel des sites web en fonction de leur version desktop c’est-à-dire sur ordinateur. Le comportement des utilisateurs et les habitudes de consommation ayant changé, les internautes ont commencé à passer plus de temps sur les appareils mobiles que sur ordinateur. C’est pour cette raison que Google a décidé de prendre en compte la version mobile des sites web pour mieux les référencer.

Rankbrain

Lancé en 2015, l’algorithme Rankbrain fait partie de l’algorithme de recherche Hummingbird. Rankbrain est en réalité une intelligence artificielle capable de comprendre le sens de plusieurs requêtes formulées de façons différentes. Grâce à cette nouvelle méthode de compréhension, les résultats des différentes recherches rédigées différemment sont très similaires. Par exemple, pour les requêtes telles que « Emmanuel » et « Mari de Brigitte Macron », l’algorithme est en capacité d’apporter une réponse similaire qui est « Emmanuel Macron ».

Tout comme Hummingbird, Rankbrain interprète et comprend les recherches mêmes abstraites des utilisateurs. Google a d’ailleurs affirmé que Rankbrain faisait partie des critères de référencement les plus importants avec la qualité du contenu et les backlinks.

Sachez que le fonctionnement de Rankbrain est particulier puisqu’il s’effectue hors ligne. Avec le temps, Google est en capacité d’alimenter des fichiers contenant des recherches anciennes, grâce à cela, Rankbrain effectue des prédictions qui sont testées et intégrées dans le moteur de recherche.

Phantom (ou Quality)

Déployée en 2015, la mise à jour Phantom de Google porte sur la qualité des contenus présents sur les sites internet. Cette mise à jour est très similaire à l’algorithme Panda car elle vise à améliorer la qualité des contenus sur les sites web et pénaliser les sites proposant des contenus de faible qualité.

La particularité de cette mise à jour réside dans le fait qu’elle a été déployée en secret par Google. En effet, beaucoup de webmasters s’étaient rendu compte de changements dans les résultats de recherches. Ils se sont alors tournés vers les équipes qualité de Google qui ont dans un premier temps nié avoir effectué une mise à jour (d’où le nom de l’algorithme) mais qui ont fini par l’annoncer officiellement quelques temps après.

BERT

L’algorithme BERT a été déployé en France en décembre 2019 et représente le début de l’intelligence artificielle pour les moteurs de recherche. L’algorithme BERT est capable de contextualiser les mots clés issus d’une requête afin de les considérer dans leur ensemble et non plus de façon individuelle. Grâce à cet algorithme, il est plus facile pour Google de hiérarchiser les termes et expressions d’une requête par importance et ainsi mieux comprendre les besoins des internautes. Puisque les internautes utilisent énormément la recherche vocale ou la forme de questions écrites sur Google, les résultats qui leurs sont proposés sont encore plus précis et fidèles à leurs attentes.

Google Core Web Vitals

Lancé en 2021, cet algorithme a engendré quelques changements en référencement naturel et a accentué l’importance de l’expérience utilisateur. L’algorithme vise à mieux évaluer l’expérience sur les sites internet. Pour cela, les critères de contrôle ou « signaux web essentiels » définis par Google sont :

  • L’analyse du temps d’affichage des pages et contenus (LCP – Largest Content Pain) ;
  • Le temps de chargement entre le moment où l’utilisateur clique pour afficher la page et le moment où le navigateur affiche la page (FID – First Input Delay) ;
  • La qualité visuelle de la page lorsque celle-ci charge (CLS – Cumulative Layout Shift).

Ces critères sont très importants pour le classement des sites internet dans les résultats de recherches puisque les sites obtenant de mauvais scores sont déclassés par Google. Les sites internet souhaitant être bien référencés doivent travailler sur le temps de chargement des pages, le temps de réponse du serveur, la performance des images mais également soigner leur design.

Les algorithmes de Google ne cessent d’évoluer et d’être mis à jour, leur objectif est le même : faciliter la navigation des internautes et répondre au mieux à leurs besoins, il est donc indispensable pour les sites internet d’agir en fonction de ces algorithmes.

Si, comme pour l’algorithme, vous aimeriez comprendre certains termes liés au digital et plus précisément au SEO, découvrez notre lexique reprenant les termes clés liés au SEO !

Retrouvez d'autres articles
Choisir ses mots clés

Choisir ses mots clés : quelles sont les bonnes pratiques ?

La mise en place d’une stratégie de référencement naturel (SEO) nécessite le choix de mots-clés adaptés. Il peut être compliqué de savoir comment choisir des mots-clés efficaces, car cela implique non seulement une compréhension approfondie de votre public cible, et de la concurrence dans votre secteur d’activité, mais aussi une bonne connaissance des tendances de recherche actuelles…

Lire la suite...
Contenu dupliqué

Contenu dupliqué : quelles conséquences sur le SEO ?

Grâce à internet, nous avons tous la possibilité d’accéder gratuitement à des milliers de contenus. La quantité de contenus disponibles en ligne étant de plus en plus importante, Google doit déterminer ceux qui ont une réelle valeur pour l’internaute, afin de les mettre en avant dans la SERP. Pour qu’un contenu soit considéré comme qualitatif par Google, il doit répondre à plusieurs critères : sa pertinence, sa qualité mais aussi son unicité…

Lire la suite...