Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the debug-bar domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/u670148216/domains/lucyseo.com/public_html/app/wp-includes/functions.php on line 6114

Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the simple-custom-post-order domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/u670148216/domains/lucyseo.com/public_html/app/wp-includes/functions.php on line 6114

Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the wordpress-seo domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/u670148216/domains/lucyseo.com/public_html/app/wp-includes/functions.php on line 6114
Les algorithmes de positionnement

 

Les algorithmes de positionnement

Le principe du référencement naturel est d’adapter son site Internet pour répondre aux critères des algorithmes des moteurs de recherche. Au fil des ans, ces algorithmes ont connu une évolution considérable et sont devenus de plus en plus sophistiqués. Les critères utilisés sont toujours plus nombreux et allient technique, sémantique et analyse comportementale.

Un petit retour sur l’historique des algorithmes de référencement permet de comprendre l’état des lieux des algorithmes des moteurs de recherche et d’identifier les prochaines évolutions à venir.

1990 – 2000 : naissance des premiers moteurs de recherche

Au cours des années 1990, les premiers moteurs de recherche sont apparus sur Internet et ont rapidement trouvé leur place dans la vie quotidienne des internautes.

Le premier moteur de recherche à voir le jour était Archie, créé en 1990 par Alan Emtage, un étudiant à l’Université McGill. Archie a indexé les fichiers sur les serveurs FTP et a permis aux utilisateurs de rechercher des fichiers spécifiques sur les réseaux FTP.

En 1993, le moteur de recherche Web le plus populaire, appelé World Wide Web Wanderer, a été créé par Matthew Gray. C’est le premier moteur de recherche à utiliser le système de crawl du web à l’aide de robots conçus pour parcourir les documents sur le Web et les indexer. Ce principe de parcours du web est toujours utilisé aujourd’hui.

En 1994, le moteur de recherche Web le plus populaire de l’époque, appelé Yahoo, a été créé par deux étudiants à l’Université de Stanford, Jerry Yang et David Filo. Yahoo a mis en place un système de classement des pages Web afin que les utilisateurs puissent trouver des sites Web plus rapidement. Yahoo développe alors le premier moteur de recherche utilisant un algorithme de tri utilisant des critères avancés. A l’époque, des brigades d’employés du moteur de recherche avaient pour missions de consultés les pages indexés par le moteur de recherche pour les vérifier et les qualifier manuellement.

En 1995, le moteur de recherche Web, Google, fait ses débuts. Google a été fondé par Larry Page et Sergey Brin, deux étudiants à l’Université de Stanford, et a mis en place un algorithme de recherche avancé qui permet aux utilisateurs de trouver des informations plus facilement. L’entreprise utilise cet algorithme comme un pilier de son marketing, communiquant sur ses avancées technologiques et la qualité de ses résultats, les secrets jalousement gardés de ses critères utilisés.

Les premiers critères connus pour être pris en compte sont :

  • Les balise meta title et meta description des pages (la balise meta keyword pour certains moteurs de recherche).
  • les balises h1 des pages.
  • Le nombre de liens pointant vers une page.
  • Les ancres des liens pointant vers une page.

Entre le milieu des années 1990 et le début des années 2000, on passe d’un donc d’un système quasi manuel à un système automatisé avec des milliers de robots parcourant le web quotidiennement pour indexer de nouveaux contenus.

2000 – 2010 : la sophistication des algorithmes des moteurs de recherche

Au début des années 2000, les moteurs de recherche connaissent déjà un énorme succès et les créateurs de sites internet comprennent les enjeux du référencement naturel. Commence alors un jeu du chat et de la souris entre les créateurs de sites Internet prêts à tous les artifices pour placer leur site en haut des résultats de recherche, et les moteurs de recherche obligés de mettre à jour leurs algorithmes pour bloquer leurs trouvailles.

Voici quelques exemples de solutions employés par les « référenceurs black hat » qui permettaient au début des années 2000 à bien positionner son site :

  • Le bourrage de mot clé. Truffer une page d’un mot-clé permettait de la faire remonter dans les résultats de recherche.
  • Créer du contenu caché pour les Internautes mais uniquement visible par les moteurs de recherche pour favoriser l’indexation des pages.
  • Créer des milliers de liens pointant vers votre page en spammant de commentaires les blogs ou les livres d’or non modérés
  • Créer des centaines de sites Internet automatiquement en inondant les plateformes de blog gratuites et autres skyblog.

Les moteurs de recherche sont obligés de modifier en permanence leurs algorithmes et ils deviennent de plus en plus sophistiqués. C’est aussi à cet époque que l’on voit apparaître le principe des pénalités : si votre site utilise des méthodes douteuses pour tenté de mieux se positionner dans les résultats de recherche, il risque de subir une pénalité et être déclassé dans les résultats de recherche. Du coup, les « black hat SEO » en profite, s’ils ne peuvent plus utiliser ces techniques pour améliorer le positionnement de leurs sites Internet, ils peuvent au moins les utiliser sur les sites de leurs concurrents pour qu’ils soient pénalisés.

2010 – 2015 : La qualité du contenu, le responsive, la sécurité

La prise en compte du responsive dans les résultats de recherche.

Avec la sortie des premiers Iphone en 2007 et le début de la navigation sur Internet à partir de smartphone, les sites deviennent peu à peu responsive et s’adaptent aux différentes tailles d’écran. Google communique alors sur son algorithme et annonce que le responsive sera maintenant pris en compte dans ses calculs de résultat de recherche.

La sécurisation des sites Internet.


Google fait exactement le même travail de communication avec le protocole https, version sécurisé du protocole http. Après avoir annoncé étudier ce protocole pour son algorithme, l’entreprise a recommandé aux développeurs d’utiliser ce protocole pour mieux ressortir dans les résultats de recherche puis a carrément annoncé que les sites non sécurisés seraient pénalisés dans les résultats de recherche.

Les mises à jour de l’algorithme de Google

Entre 2010 et 2015, l’entreprise Google procède à 5 grandes mises à jour de son algorithme de recherche, modifiant profondément le positionnement des sites Internet dans les résultats de recherche :

  • Google Panda en juin 2011 : cet algorithme visait à favoriser les contenus de qualité et pénalisait les sites utilisant du contenu copié, généré automatiquement, écris spécifiquement pour les moteurs de recherche ou sans contenu réel. C’est la première mise à jour orientée vers l’utilisateur, afin de lui proposer des résultats de recherche avec du contenu pertinent et unique.
  • Google Penguin en avril 2012 : l’objectif affiché de cette mise à jour était de pénaliser les sites Internet avec des backlinks de mauvaise qualité ou non naturel.
  • Hummingbird en septembre 2013 : l’objectif de cette mise à jour était de mieux prendre en compte les requêtes des utilisateurs dans leur ensemble et non seulement les mots clés utilisés. Le sens même de la recherche est prise en compte. Cette mise à jour, encore une fois tournée vers l’utilisateur a impacté près de 90% des résultats de recherche du site.
  • Rankbrain en janvier 2015 : une évolution de Hummingbird se basant sur le machine learning pour comprendre les intentions de recherche des utilisateurs en se basant notamment sur les comportement des utilisateurs sur le moteur de recherche.
  • Pigeon en juin 2015 : ce nouvel algorithme visait à favoriser les résultats locaux pour certains types de recherche.

Ces différentes mises à jour ont profondément modifié tout le secteur du web, provoquant la chute de nombreuses entreprises employant parfois plusieurs centaines de personnes, favorisant d’autres entreprises et parfois les services proposés directement par Google.

C’est aussi ces différentes mises à jour qui ont révélées l’immense impact de Google sur tout le secteur et l’expertise nécessaire de plus en plus importante et stratégique pour optimiser le référencement de son site et générer du trafic sur son site Internet.

2015 – aujourd’hui : des mises à jour orientées utilisateurs

Depuis 2015, Google procède chaque année à une ou deux mises à jour de son algorithme de résultat de recherche : les core updates.

Les objectifs de ses mises à jour ne sont pas toujours communiquées mais elle semblent de plus en plus orientées sur 2 grands axes :

Le confort de l’utilisateur

Google dans ses derniers algorithmes s’intéresse particulièrement aux utilisateurs et à leur expérience sur les sites web. Il pénalise les pages affichant un taux de rebond élevé, affichant un temps de chargement trop important ou ne retenant pas l’attention des utilisateurs.

La rétention des utilisateurs.