Tout le monde aimerait percer les secrets de l'algorithme de Google. En effet, arriver en première position dans les résultats de recherche donne à votre site internet une extrême visibilité. Et c'est un rêve pour toutes les entreprises, semble-t-il ...
Aujourd'hui, je vous propose d'arrêter de rêver et de comprendre comment fonctionne l'algorithme de Google. Le comprendre vous permettra d'imaginer une stratégie pour que votre rêve devienne réalité !
Concentrez-vous, on est parti ! 🤩 Google nous voilà !
Je ne vais pas vous faire l'affront de vous expliquer ce qu'est Google 🤓 Je pars du principe que vous ne vivez pas dans une grotte et que vous savez que Google est un moteur de recherche.
Comme tout moteur de recherche, il fonctionne grâce à un algorithme, un programme informatique qui classe les résultats de recherche dans un certain ordre. Cet ordre de classement repose sur certains critères. Précisément, nous allons nous intéresser à ces critères pour comprendre le fonctionnement de l'algorithme de ce moteur de recherche, Google 👇
En fait, il serait plus juste de parler d'algorithmes plutôt que d'un algorithme. En réalité, Google classe les sites internet à l'aide d'une multitude d'algorithmes qui ont tous des missions différentes et donc un fonctionnement différent. Néanmoins, ils partagent tous un objectif commun : améliorer la pertinence des résultats de recherche sur Google.
Avec les années, de nouveaux algorithmes ont vu le jour, d'autres ont été supprimés, des mises à jour ont été faites, ce qui fait qu'on est face à un environnement très complexe, dans lequel il est difficile de se retrouver ... Ça ne doit pas être facile tous les jours chez Google 😝
Sans compter qu'il y a toute une part d'ombre sur le fonctionnement des algorithmes, leur existence et leurs critères de décisions.
😎 Maintenant que tout ceci est posé, je vous donne la liste des noms des principaux algorithmes de Google, leur date d'apparition et leur mission respective :
Les mises à jour majeures des algorithmes Google n'ont pas toujours de nom. Depuis 2019, Google les regroupe sous le nom de Core Updates : ce sont des mises à jour régulières de l'algorithme de Google qui visent à améliorer la qualité des résultats de recherche.
La mission de "Helpful Content" est de favoriser les résultats de recherche qui répondent aux besoins des utilisateurs et les aident à trouver les informations qu'ils recherchent. Les sites de spam, les sites de contenu dupliqué ou les sites de contenu automatisé auront une visibilité réduite dans les résultats de recherche.
Cet algorithme a pour but d'évaluer la vitesse des sites internet en favorisant les sites rapides et en défavorisant les sites qu'il juge trop lents.
Cet algorithme entend favoriser les meilleurs produits, soit ceux qui récoltent les meilleurs avis, des avis pertinents et bien réels. Pour l'instant, il n'est déployé que sur les contenus anglais.
Panda est un filtre qui pénalise les sites de mauvaise qualité (contenus dupliqués, très fort taux de rebond…). Avec Penguin, ils sont "au cœur de l'algorithme" global d'après Google.
Penguin est un filtre qui pénalise les techniques SEO qui s’appuient sur un netlinking agressif ou le keyword stuffing (bourrage de mots clés).
Ce programme évalue en permanence la compatibilité mobiles des sites web. Il s'agit d'un critère important de Google : si une page web est compatible sur mobile, elle sera favorisée dans les recherches mobiles. En revanche, les pages incompatibles souffriront d'une pénalité de positionnement.
Bert est une IA qui vise à mieux comprendre le contenu des pages web afin d'évaluer leur pertinence en fonction des requêtes.
Cet algorithme est basé sur des techniques d'intelligence artificielles comme le machine learning pour but de mieux répondre aux requêtes complexes des utilisateurs. Il n'attribue pas de points et ne pénalisent pas les sites.
Sa mission est de mieux comprendre les requêtes des utilisateurs, notamment les recherches vocales.
Il s'agit d'une mise à jour de l'algorithme du classement des résultats de recherche.
Cet algorithme favorise les pages qui utilisent un niveau de sécurité Https.
L'algorithme pénalise les pages satellites, c'est-à-dire les pages seules créés dans un but purement SEO. Il et capable de reconnaitre cette stratégie et de déterminer si le contenu a été plus ou moins dupliqué en vue de gagner des places dans les résultats de recherche.
App Indexing estun algortihme qui permet d'optimiser la visibilité des applications en lien avec une requête, dans les résultats de recherche Google.
Cet algorithme pénalise les sites qui utilisent trop de fenêtres pop-up. Le contenu devient moins lisible et c'est que cet algorithme cherche à punir.
Il évalue la totalité d'un site web et distribue des mauvais points si la publicité est trop présente et intempestive.
Cet algorithme étudie les articles de fond pour un sujet donné. Il fait apparaitre parfois un encart avec un article qu'il juge bon, en haut des résultats de recherche.
Ce programme permet de faire apparaitre en priorité les résultats les plus récents pour des requêtes qui le nécessitent.
L'objectif de cet algorithme est de faire disparaitre les sites web proposant le téléchargement illégal.
Cet algorithme a pour objectif d'améliorer la qualité des résultats de recherches pour des sujets sensibles où le spam est présent (jeux d'argent, crédits, sexe ...)
La mise à jour qui a le plus d'impact en 2023 concerne l'algorithme "Helpful Content". Comme évoqué précédemment, il a été conçu pour mettre en avant d'excellents contenus aux utilisateurs. Son objectif est de lutter contre le spam, le contenu automatisé et les contenus dupliqués.
Voilà, donc je vous déconseille de vous lancer dans la création de contenu à l'aide de ChatGPT par exemple (cette IA va-t-elle mettre fin au métier de rédacteur ? On explore cette question juste ici). À moins que vous ne vouliez être pénalisé par "Helpful Content". Mais j'ai quelques doutes 🤔
Tout d'abord, lorsque de nouvelles pages web sont mises en ligne, les robots de Google le détecte, grâce à deux processus : l'exploration et l'indexation.
🤖 L'exploration concerne la recherche automatique du contenu à indexer par les robots de Google via les liens hypertextes.
📚L’indexation permet le recueil des informations dans des bases de données selon les mots contenus dans les pages parcourues.
Pour accélérer ces processus, il existe des démarches à entreprendre. Premièrement, vous pouvez envoyer votre Sitemap à Google pour lui "présenter" votre site internet. Une arborescence claire sera importante à la fois pour vos utilisateurs et pour Google. Des textes clairs avec des mots-clés pertinents faciliteront l'exploration, l'indexation de vos pages mais aussi leur classement.
Pour classer ces sites web, Google prend en compte plus de 200 éléments.
Le PageRank (ou PR) désigne le système de classement des pages sur Google. Cet algorithme attribue un score d'importance et d'autorité à chaque page web et classe les pages dans les résultats de recherche en fonction de ce score. Pour être bien noté, vous avez intérêt à être irréprochable sur ces éléments 🤭
N'hésitez pas à vous imprégner de la liste des algorithmes ! 👆
Google utilise toute une variété de critères pour classer les résultats de recherche. Certains sont connus, d'autre pas 🤷🏻♀️
En tout cas, d'après les communications de Google, le nom et les objectifs des algorithmes cités précédemment on peut en déduire que les critères privilégiés concernent : la pertinence du contenu, la vitesse de chargement, l'autorité des avis produits et l'absence de contenus dupliqué ou spams et la compatibilité mobile.
Maintenant que vous avez compris le fonctionnement de l'algorithme de Google, il peut être (carrément) utile de procéder à des améliorations de vos pages web pour améliorer votre position dans les résultats de recherche sur Google. Vous êtes chanceux, j'ai 12 conseils à vous partager ! 😍