debug-bar
domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init
action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/u670148216/domains/lucyseo.com/public_html/app/wp-includes/functions.php on line 6114simple-custom-post-order
domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init
action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/u670148216/domains/lucyseo.com/public_html/app/wp-includes/functions.php on line 6114wordpress-seo
domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init
action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/u670148216/domains/lucyseo.com/public_html/app/wp-includes/functions.php on line 6114Le principe du référencement naturel est d’adapter son site Internet pour répondre aux critères des algorithmes des moteurs de recherche. Au fil des ans, ces algorithmes ont connu une évolution considérable et sont devenus de plus en plus sophistiqués. Les critères utilisés sont toujours plus nombreux et allient technique, sémantique et analyse comportementale.
Un petit retour sur l’historique des algorithmes de référencement permet de comprendre l’état des lieux des algorithmes des moteurs de recherche et d’identifier les prochaines évolutions à venir.
Au cours des années 1990, les premiers moteurs de recherche sont apparus sur Internet et ont rapidement trouvé leur place dans la vie quotidienne des internautes.
Le premier moteur de recherche à voir le jour était Archie, créé en 1990 par Alan Emtage, un étudiant à l’Université McGill. Archie a indexé les fichiers sur les serveurs FTP et a permis aux utilisateurs de rechercher des fichiers spécifiques sur les réseaux FTP.
En 1993, le moteur de recherche Web le plus populaire, appelé World Wide Web Wanderer, a été créé par Matthew Gray. C’est le premier moteur de recherche à utiliser le système de crawl du web à l’aide de robots conçus pour parcourir les documents sur le Web et les indexer. Ce principe de parcours du web est toujours utilisé aujourd’hui.
En 1994, le moteur de recherche Web le plus populaire de l’époque, appelé Yahoo, a été créé par deux étudiants à l’Université de Stanford, Jerry Yang et David Filo. Yahoo a mis en place un système de classement des pages Web afin que les utilisateurs puissent trouver des sites Web plus rapidement. Yahoo développe alors le premier moteur de recherche utilisant un algorithme de tri utilisant des critères avancés. A l’époque, des brigades d’employés du moteur de recherche avaient pour missions de consultés les pages indexés par le moteur de recherche pour les vérifier et les qualifier manuellement.
En 1995, le moteur de recherche Web, Google, fait ses débuts. Google a été fondé par Larry Page et Sergey Brin, deux étudiants à l’Université de Stanford, et a mis en place un algorithme de recherche avancé qui permet aux utilisateurs de trouver des informations plus facilement. L’entreprise utilise cet algorithme comme un pilier de son marketing, communiquant sur ses avancées technologiques et la qualité de ses résultats, les secrets jalousement gardés de ses critères utilisés.
Les premiers critères connus pour être pris en compte sont :
Entre le milieu des années 1990 et le début des années 2000, on passe d’un donc d’un système quasi manuel à un système automatisé avec des milliers de robots parcourant le web quotidiennement pour indexer de nouveaux contenus.
Au début des années 2000, les moteurs de recherche connaissent déjà un énorme succès et les créateurs de sites internet comprennent les enjeux du référencement naturel. Commence alors un jeu du chat et de la souris entre les créateurs de sites Internet prêts à tous les artifices pour placer leur site en haut des résultats de recherche, et les moteurs de recherche obligés de mettre à jour leurs algorithmes pour bloquer leurs trouvailles.
Voici quelques exemples de solutions employés par les « référenceurs black hat » qui permettaient au début des années 2000 à bien positionner son site :
Les moteurs de recherche sont obligés de modifier en permanence leurs algorithmes et ils deviennent de plus en plus sophistiqués. C’est aussi à cet époque que l’on voit apparaître le principe des pénalités : si votre site utilise des méthodes douteuses pour tenté de mieux se positionner dans les résultats de recherche, il risque de subir une pénalité et être déclassé dans les résultats de recherche. Du coup, les « black hat SEO » en profite, s’ils ne peuvent plus utiliser ces techniques pour améliorer le positionnement de leurs sites Internet, ils peuvent au moins les utiliser sur les sites de leurs concurrents pour qu’ils soient pénalisés.
Avec la sortie des premiers Iphone en 2007 et le début de la navigation sur Internet à partir de smartphone, les sites deviennent peu à peu responsive et s’adaptent aux différentes tailles d’écran. Google communique alors sur son algorithme et annonce que le responsive sera maintenant pris en compte dans ses calculs de résultat de recherche.
Google fait exactement le même travail de communication avec le protocole https, version sécurisé du protocole http. Après avoir annoncé étudier ce protocole pour son algorithme, l’entreprise a recommandé aux développeurs d’utiliser ce protocole pour mieux ressortir dans les résultats de recherche puis a carrément annoncé que les sites non sécurisés seraient pénalisés dans les résultats de recherche.
Entre 2010 et 2015, l’entreprise Google procède à 5 grandes mises à jour de son algorithme de recherche, modifiant profondément le positionnement des sites Internet dans les résultats de recherche :
Ces différentes mises à jour ont profondément modifié tout le secteur du web, provoquant la chute de nombreuses entreprises employant parfois plusieurs centaines de personnes, favorisant d’autres entreprises et parfois les services proposés directement par Google.
C’est aussi ces différentes mises à jour qui ont révélées l’immense impact de Google sur tout le secteur et l’expertise nécessaire de plus en plus importante et stratégique pour optimiser le référencement de son site et générer du trafic sur son site Internet.
Depuis 2015, Google procède chaque année à une ou deux mises à jour de son algorithme de résultat de recherche : les core updates.
Les objectifs de ses mises à jour ne sont pas toujours communiquées mais elle semblent de plus en plus orientées sur 2 grands axes :
Google dans ses derniers algorithmes s’intéresse particulièrement aux utilisateurs et à leur expérience sur les sites web. Il pénalise les pages affichant un taux de rebond élevé, affichant un temps de chargement trop important ou ne retenant pas l’attention des utilisateurs.