SEO : 15 algorithmes Google à connaître pour améliorer votre référencement naturel

0
101

Face à aux milliards de pages web disponible sur Internet, il n’est toujours pas aisé de voir votre site web se positionner dans les premiers résultats de recherche. Chaque algorithme de google joue un rôle spécifique dans le référencement d’un site web. Connaître donc ces algorithmes google, vous aidera à améliorer votre référencement naturel. De ce fait, découvrez dans cet article les principaux algorithmes mis en place par google pour perfectionner votre stratégie SEO.

À quoi peut servir un algorithme Google

Paris, France - October 19, 2017 : Google.fr homepage on the screen under a magnifying glass. Google is world's most popular search engine

Les algorithmes de Google ont tous un rôle bien défini. Par exemple, un des algorithmes détermine la page d’un site web qui doit apparaître dans les résultats après une requête d’un internaute. Cet algorithme est basé sur les mots-clés utilisés par l’internaute pour lui fournir les informations qu’il recherche.

En effet, pour référencer un billet ou article et le positionner dans la page de résultats, Google se base sur une multitude de facteurs. Leurs algorithmes évoluent régulièrement et sont mis à jour en permanence.

Les principaux algorithmes de Google

Web business

Google possède une multitude d’algorithmes qui lui permet de mieux répondre aux besoins des internautes et de référencer les meilleurs sites sur sa page de résultats. Voici donc quelques-uns :

Caffeine

Caffeine est un algorithme de Google officialisé en juin 2010. Il s’agit d’une réorientation du système d’indexation de Google. Il permet d’indexer rapidement les pages afin d’afficher dans les résultats de recherche des contenus plus récents. Avant la mise en place de Caféine, pour indexer une page, Google devait d’abord extraire, analyser et comprendre le contenu. Cet algorithme le lui permet désormais.

Panda

Panda est un algorithme de google sortie en février 2011 dont l’objectif principal est de lutter contre le spam en pénalisant le référencement naturel des sites web à faible qualité de contenu.

Les principaux sites web visés par l’algorithme Panda sont les fermes de contenu, les contenus dupliqués et divers sites intermédiaires comme les comparateurs de prix, les annuaires d’entreprise, etc. Cet algorithme est régulièrement mis à jour pour permettre aux sites pénalisés de reprendre leur référencement naturel après avoir améliorer de la qualité de leur contenu ou de pénaliser les sites web qui ne respectent plus les conditions de Google. Les pénalités émises affectent l’ensemble du site. Néanmoins, c’est possible de supprimer ces pages s’ils sont identifiés ou d’améliorer leurs qualités.

Si Google retient qu’un site est de faible qualité et le pénalise, ce site sera moins visible dans les pages de résultats et sera limité par le crawl. Ainsi, après la mise à jour de la version 4.2, la qualité des contenus est devenu un facteur clé pour améliorer le référencement naturel.

Panda est intégré depuis 2016 comme algorithmes principal. Dès lors, aucune annonce de mise à jour n’a été communiqué. Il est régulièrement pris en compte pour établir le classement d’un site web sur les pages de résultat.

Penguin

Comme Panda, Penguin est un filtre de recherche sortie en avril 2012. Il pénalise le référencement des sites web qui ne respecte pas les conditions de Google dans le domaine de création, d’achat ou de liens pointant vers le site.

Les webmasters pénalisés par Penguin doivent nettoyer tous les liens artificiels. Après un nettoyage correct, ils peuvent reprendre leur positionnement d’origine au cours de la prochaine mise à jour de l’algorithme.

Pirate

Pirate est un filtre de recherche sortie en août 2012 puis la version 2 en novembre 2014. Il a pour objectif de retirer de la page de résultat les sites en violation de droit d’auteur notamment les sites de téléchargement illégal. Comparable à Panda ou Penguin, l’algorithme Pirate identifie les sites qui ont enfreint un copyright ou qui ont été énormément dénoncés par le biais d’une procédure DMCA.

Hummingbird-Colibri

Hummingbird a été officialisé en septembre 2013. Il a été nommé Hummingbird (Colibri) à cause de sa précision et sa rapidité.

L’objectif de cet algorithme de Google est de fournir des meilleures informations aux questions complexe des internautes. Le principal challenge de Humminbird est de savoir répondre aux requêtes formulées sous forme de conversation.

Par exemple, la requête de conversation : quel est le restaurant le plus proche de ma position.

BERT

BERT est un algorithme de Google, officialisé uniquement au USA en octobre 2019 pour des requêtes en anglais. C’est le 10 décembre 2019 qu’il a été diffusé dans 70 autres langues y compris le français. Il s’agit d’un algorithme de traitement de langage naturel (NPL). Google l’a publié en open source en novembre 2018. 

En revanche, l’objectif de la mise à jour de l’algorithme BERT est d’améliorer la compréhension des requêtes afin d’apporter des résultats plus pertinents. Il permet à Google d’être humain à travers la compréhension des contenus qu’il indexe. Ainsi que de mieux s’adapter à la croissance des recherches vocales.

C’est un algorithme particulièrement efficace pour les longues requêtes conversationnelles et l’analyse des liaisons entre les mots notamment les prépositions.

Pigeon

L’algorithme Pigeon est sorti en juillet 2014 aux USA et en juin 2015 à l’international. Il permet d’améliorer les résultats de recherche locaux afin de fournir des solutions plus précise aux requêtes des internautes. Son objectif est donc de rendre la recherche locale plus utile, pertinente et précise. Pigeon Impacte majoritairement les business locaux comme les cabinets d’avocats, les hôtels, les restaurants, les bars, etc.

Vitesse

Vitesse est un algorithme Google annoncé le 9 avril 2010 sur ordinateur puis le 9 juillet 2018 sur mobile. Son objectif est de valoriser les sites rapide sur ordinateur et de pénaliser les sites assez lents sur mobile.

HTTPS

HTTPS a été officialisé en août 2014. C’est un algorithme de Google qui favorise les page utilisant le https (HyperText Transfer Protocol Secure).

L’utilisation de HTTPS est une condition intégrée dans l’algorithme de Google. Ce qui fait qu’il est mis à jour en temps réel. Cette condition est évaluée URL par URL et non sur l’ensemble de votre site.

Publicité interstitielle intrusive

C’est un algorithme google sorti le 10 janvier 2017. Son objectif est de pénaliser le référencement naturel des sites qui contiennent assez de pop-up ou de bannière interstitielle intrusive gênant la lecture du contenu.

Lorsqu’un site web n’affiche pas bien le contenu de ces pages aux internautes, sur leur mobile, son positionnement sera pénalisé par cet algorithme.

Top Heavy

L’algorithme Top Heavy ou excès de publicité google a été officialisé en janvier 2016. Il pénalise le référencement naturel des sites surchargé de publicité au-dessus de la ligne de flottaison.

Google a officialisé 3 versions de cet algorithme de 2012 à 2014. Cependant, ces mises à jour n’ont que 1% d’impact sur les résultats de recherche.

Exact Match Domain (EMD)

Exact Match Domain est un algorithme qui date de septembre 2012. Il pénalise les sites qui ont mis uniquement dans leur nom de domaine les mots-clés recherchés par les internautes alors que leur contenu est de faible valeur ajoutée ou de mauvaise qualité. Ainsi, cet algorithme vise à réduire la visibilité de ces sites dans la page des résultats de Google.

En effet, le nom de domaine a une importante influence pour améliorer le référencement naturel d’un site internet. Insérer des mots-clés dans un nom de domaine aide à améliorer le référencement naturel raison pour laquelle certains webmasters avaient décidés de le faire. 

Avant l’avènement de Exact Match Domain, en prenant un nom de domaine : www.vacance-pas-cher.com, il y a de forte chance que la page d’accueil de ce site soit référencée dans les premiers résultats de Google avec la requête “vacance pas cher” même si le contenu ne répondait à la requête de l’internaute. Ainsi, la naissance de Exact Match Domain a permis d’éviter ce problème.

Freshness

L’algorithme Freshness a été annoncé le 3 novembre 2011. Son objectif est de fournir des résultats plus frais et plus récents. Le but de Google est de favoriser les pages récentes pour certaines requêtes qui le nécessitent. L’algorithme Freshness est en quelque sorte une suite de la mise à jour de l’algorithme Caffeine.

Payday Loan

Payday Loan est sorti en 2012 suivi de sa dernière version en juin 2014. Le but de cet algorithme est d’améliorer la qualité des résultats sur certaines requêtes assimilés au spam. C’est le cas des sites de crédits, de jeux en ligne, de contenu pour adultes, de casino, etc.

Core Update : site diversity

C’est une mise à jour lancé également dans le mois de juin 2019. L’objectif de cette mise à jour de l’algorithme est de renforcer la diversité des résultats dans les pages. À cet effet, les modifications

effectuées dans la mise à jour a permis de limiter l’affichage de plusieurs pages d’un même domaine dans la SERP.

Plus de secrets sur les algorithmes de Google

À présent, vous savez  à quoi peut vous servir les algorithmes de Google. Vous avez découvert certains algorithmes mis en place par Google pour référencer ou pénaliser vos pages web. Tenez compte des différentes caractéristiques de chaque algorithme pour améliorer votre référencement naturel.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici