Tout le monde aimerait percer les secrets de l'algorithme de Google. En effet, arriver en première position dans les résultats de recherche donne à votre site internet une extrême visibilité. Et c'est un rêve pour toutes les entreprises, semble-t-il ...
Aujourd'hui, je vous propose d'arrêter de rêver et de comprendre comment fonctionne l'algorithme de Google. Le comprendre vous permettra d'imaginer une stratégie pour que votre rêve devienne réalité !
Concentrez-vous, on est parti ! 🤩 Google nous voilà !
Je ne vais pas vous faire l'affront de vous expliquer ce qu'est Google 🤓 Je pars du principe que vous ne vivez pas dans une grotte et que vous savez que Google est un moteur de recherche.
Comme tout moteur de recherche, il fonctionne grâce à un algorithme, un programme informatique qui classe les résultats de recherche dans un certain ordre. Cet ordre de classement repose sur certains critères. Précisément, nous allons nous intéresser à ces critères pour comprendre le fonctionnement de l'algorithme de ce moteur de recherche, Google 👇
En fait, il serait plus juste de parler d'algorithmes plutôt que d'un algorithme. En réalité, Google classe les sites internet à l'aide d'une multitude d'algorithmes qui ont tous des missions différentes et donc un fonctionnement différent. Néanmoins, ils partagent tous un objectif commun : améliorer la pertinence des résultats de recherche sur Google.
Avec les années, de nouveaux algorithmes ont vu le jour, d'autres ont été supprimés, des mises à jour ont été faites, ce qui fait qu'on est face à un environnement très complexe, dans lequel il est difficile de se retrouver ... Ça ne doit pas être facile tous les jours chez Google 😝
Sans compter qu'il y a toute une part d'ombre sur le fonctionnement des algorithmes, leur existence et leurs critères de décisions.
😎 Maintenant que tout ceci est posé, je vous donne la liste des noms des principaux algorithmes de Google, leur date d'apparition et leur mission respective :
Les mises à jour majeures des algorithmes Google n'ont pas toujours de nom. Depuis 2019, Google les regroupe sous le nom de Core Updates : ce sont des mises à jour régulières de l'algorithme de Google qui visent à améliorer la qualité des résultats de recherche.
La mission de "Helpful Content" est de favoriser les résultats de recherche qui répondent aux besoins des utilisateurs et les aident à trouver les informations qu'ils recherchent. Les sites de spam, les sites de contenu dupliqué ou les sites de contenu automatisé auront une visibilité réduite dans les résultats de recherche.
Cet algorithme a pour but d'évaluer la vitesse des sites internet en favorisant les sites rapides et en défavorisant les sites qu'il juge trop lents.
Cet algorithme entend favoriser les meilleurs produits, soit ceux qui récoltent les meilleurs avis, des avis pertinents et bien réels. Pour l'instant, il n'est déployé que sur les contenus anglais.
Panda est un filtre qui pénalise les sites de mauvaise qualité (contenus dupliqués, très fort taux de rebond…). Avec Penguin, ils sont "au cœur de l'algorithme" global d'après Google.
Penguin est un filtre qui pénalise les techniques SEO qui s’appuient sur un netlinking agressif ou le keyword stuffing (bourrage de mots clés).
Ce programme évalue en permanence la compatibilité mobiles des sites web. Il s'agit d'un critère important de Google : si une page web est compatible sur mobile, elle sera favorisée dans les recherches mobiles. En revanche, les pages incompatibles souffriront d'une pénalité de positionnement.
Bert est une IA qui vise à mieux comprendre le contenu des pages web afin d'évaluer leur pertinence en fonction des requêtes.
Cet algorithme est basé sur des techniques d'intelligence artificielles comme le machine learning pour but de mieux répondre aux requêtes complexes des utilisateurs. Il n'attribue pas de points et ne pénalisent pas les sites.
Sa mission est de mieux comprendre les requêtes des utilisateurs, notamment les recherches vocales.
Il s'agit d'une mise à jour de l'algorithme du classement des résultats de recherche.
Cet algorithme favorise les pages qui utilisent un niveau de sécurité Https.
L'algorithme pénalise les pages satellites, c'est-à-dire les pages seules créés dans un but purement SEO. Il et capable de reconnaitre cette stratégie et de déterminer si le contenu a été plus ou moins dupliqué en vue de gagner des places dans les résultats de recherche.
App Indexing estun algortihme qui permet d'optimiser la visibilité des applications en lien avec une requête, dans les résultats de recherche Google.
Cet algorithme pénalise les sites qui utilisent trop de fenêtres pop-up. Le contenu devient moins lisible et c'est que cet algorithme cherche à punir.
Il évalue la totalité d'un site web et distribue des mauvais points si la publicité est trop présente et intempestive.
Cet algorithme étudie les articles de fond pour un sujet donné. Il fait apparaitre parfois un encart avec un article qu'il juge bon, en haut des résultats de recherche.
Ce programme permet de faire apparaitre en priorité les résultats les plus récents pour des requêtes qui le nécessitent.
L'objectif de cet algorithme est de faire disparaitre les sites web proposant le téléchargement illégal.
Cet algorithme a pour objectif d'améliorer la qualité des résultats de recherches pour des sujets sensibles où le spam est présent (jeux d'argent, crédits, sexe ...)
La mise à jour qui a le plus d'impact en 2023 concerne l'algorithme "Helpful Content". Comme évoqué précédemment, il a été conçu pour mettre en avant d'excellents contenus aux utilisateurs. Son objectif est de lutter contre le spam, le contenu automatisé et les contenus dupliqués.
Voilà, donc je vous déconseille de vous lancer dans la création de contenu à l'aide de ChatGPT par exemple (cette IA va-t-elle mettre fin au métier de rédacteur ? On explore cette question juste ici). À moins que vous ne vouliez être pénalisé par "Helpful Content". Mais j'ai quelques doutes 🤔
Tout d'abord, lorsque de nouvelles pages web sont mises en ligne, les robots de Google le détecte, grâce à deux processus : l'exploration et l'indexation.
🤖 L'exploration concerne la recherche automatique du contenu à indexer par les robots de Google via les liens hypertextes.
📚L’indexation permet le recueil des informations dans des bases de données selon les mots contenus dans les pages parcourues.
Pour accélérer ces processus, il existe des démarches à entreprendre. Premièrement, vous pouvez envoyer votre Sitemap to Google to “present” your website to them. A clear tree structure will be important both for your users and for Google. Clear texts with relevant keywords will facilitate the exploration and indexing of your pages but also their ranking.
To classify these websites, Google takes into account more than 200 elements.
The PageRank (or PR) refers to the system for ranking pages on Google. This algorithm assigns an importance and authority score to each web page and ranks pages in search results based on this score. To be well rated, you have better be perfect on these elements 🤭
Do not hesitate to take a look at the list of algorithms! 👆
Google uses a variety of criteria to Sort search results. Some are well known, some not 🤷🏻 ♀️
In any case, according to Google's communications, the name and objectives of the algorithms mentioned above can be deduced that the preferred criteria concern: relevance of the content, the loading speed, theProduct review authority and the absence of duplicate content or spam and the mobile compatibility.
Now that you have understood how the Google algorithm works, it can be (downright) useful to make improvements to your web pages to improve your position in the search results on Google. You are lucky, I have 12 tips to share with you ! 😍