Le SEO (Search Engine Optimization) ou « optimisation pour les moteurs de recherche » est une méthode employée afin d'optimiser la position d'une page, d'un site web ou d'un blog dans les résultats d'un moteur de recherche, Google notamment. Il est donc question du référencement naturel qui consiste à augmenter la visibilité d'un site ou d'une page web.
Si cette optimisation est dite naturelle, c'est par rapport aux techniques utilisées, qui doivent être en conformité avec les règles mises en place par Google. Et ces différentes règles, la firme américaine les a traduites en différents algorithmes, avec chacun un but précis.
Il apparaît donc que le SEO n'a absolument aucun caractère aléatoire et requiert un véritable savoir-faire, couplé d'une bonne compréhension des algorithmes de Google. Il y a en a essentiellement 3 :
- Panda
- Pinguin
- Colibri
Conçus pour surveiller et analyser les contenus proposés sur Internet, ces outils ont chacun un domaine de prédilection. Un Community Manager ou un producteur de contenus a donc besoin de maîtriser leur fonctionnement pour établir une stratégie Seo efficace. Cette efficacité se traduit par l'importance du trafic généré par le blog ou le site Internet.
Il faut noter qu'il existe aussi un autre moyen permettant d'assurer un meilleur positionnement. Il s'agit du SEA (Search Engine Advertizing) dont le principe repose sur l'achat de publicités et de mots clés. Les deux techniques SEO et SEA peuvent être utilisées exclusivement ou conjointement, pour des résultats plus poussés.
Avec une première version sortie en février 2011, Panda est un algorithme qui a pour tâche de rechercher les sites en contradiction avec les standards de Google en matière de contenu. Les pages web sont ainsi évaluées en fonction de la qualité et de la pertinence de leur texte. Les sites avec un contenu jugé non approprié sont pénalisés et peuvent voir leur position dans les résultats chuter. Les plagiats ou la suroptimisation font ainsi partie des critères amenant à une sanction.
Même si le SEO s'appuie sur le netlinking, il est constaté que certains sites abusent de cette technique, en multipliant les liens entrants et sortants. D'autres, pour être bien référencés, s'appuient sur des mots clés utilisés à outrance, sans penser à la qualité du texte. Google Panda permet aux internautes d'éviter des contenus indigestes, en filtrant les pages non compatibles avec les règles édictées par Google. Il faut rappeler par ailleurs que la firme de Mountain View, dans le but d'aider les Webmasters et les éditeurs, a publié en 23 points, les clés d'un contenu de qualité.
Depuis son déploiement en 2011, Panda a connu plusieurs mises à jour, afin de le rendre moins contraignant et plus performant. Les exigences changeant également avec les mises à jour, il est important de suivre leur développement et leur évolution.
A l'image de Panda, Pinguin est un traqueur des sites et des pages web de mauvaise qualité. Cet algorithme est notamment à l'affût des sites pratiquant un référencement abusif. Paru en avril 2012, il a évolué au gré des mises à jour pour rendre son fonctionnement plus intuitif. En plus du spamdexing, il traque également le keyword stuffing qui se base sur l'intégration de mots clés dont la pertinence est non justifiée, dans le contenu ou les balises méta d'un site. Les pages qui sont structurées de cette façon voient donc leur position dévaluée dans les résultats de recherche. Dans certains cas, les sites en question sont éliminés et n'apparaissent pas dans les recherches.
Le cloaking frauduleux est également surveillé par Pinguin, qui évite ainsi aux internautes de tomber sur des pages qui ne sont pas en rapport avec leurs requêtes. Cette technique est utilisée pour forcer le positionnement d'une page, en proposant des contenus différents, selon que l'utilisateur soit un robot ou un humain. Pinguin vise aussi à réduire le champ d'action des black hat qui se basent sur différentes techniques pour contourner les règlements établis par Google.
Depuis sa parution, l'algorithme a impacté significativement les résultats des moteurs de recherche. La portée de l'impact diffère en fonction de la langue. Il est estimé par exemple à 3,1 % sur les requêtes faites en anglais et 3 % sur celles en allemand, par exemple. Il est possible pour un site pénalisé par l'algorithme de remonter dans les résultats de recherche en se conformant aux guidelines de Google.
Différentes versions de Pinguin ont été enregistrées, avec des mises à jour de plus en plus performantes. Elles ont permis une nette amélioration de la détection des techniques frauduleuses, comme le netlinking abusif. Après les versions 2.0, 2.1 et 3.0, Pinguin 4.0 se veut être une version beaucoup plus intelligente. Elle a été publiée en octobre 2016.
Colibri ou Hummingbird, sorti en septembre 2013, se veut être un algorithme avec un fonctionnement basé sur l'intuition. Si Panda et Pinguin sont plus tournés vers la traque des contenus de piètre qualité, Colibri a pour but de mieux comprendre les requêtes formulées par les internautes. Il contribue de manière significative à la pertinence des résultats affichés. L'algorithme passe par une meilleure compréhension des mots clés, afin d'avoir une définition précise des requêtes. Cela facilite le mécanisme de recherche de Google, qui devient ainsi plus intuitif.
Google Colibri formule dans un premier temps la demande et l'interprète par la suite en y associant un champ sémantique approprié. Les résultats ainsi présentés sont ainsi plus conformes à ce que recherche vraiment l'utilisateur. Ce dernier voit s'afficher les pages ou les informations en rapport direct avec sa recherche, classées par ordre d'importance. Les internautes peuvent ainsi accéder à des sites traitant d'une même thématique, en un court laps de temps.
Même les recherches basées sur des synonymes peuvent aboutir à des résultats reliés entre eux. Cette fonctionnalité vaut aussi bien pour les requêtes écrites que vocales. On en voit toute l'utilité avec l'utilisation encore plus poussée des assistants vocaux. Google se veut donc plus réactif et plus rapide, tout en proposant des résultats avec une réelle pertinence.
Dans la pratique du SEO, ces algorithmes se révèlent décisifs et récompensent les producteurs de contenus qui se tiennent aux guidelines de Google. Les sites avec des textes de bonne qualité, ont ainsi plus de chance de figurer dans le haut du tableau, en ce qui concerne les résultats de recherche. La priorité est donnée à l'optimisation naturelle, permettant d'avoir en première ligne des pages présentant un réel rapport avec les recherches effectuées. Intimement liés au SEO, les algorithmes sont des outils dont l'utilisation se veut de plus en plus intuitive, à travers les différentes mises à jour.
Tout en encourageant les bons contenus, les algorithmes sont une barrière efficace contre les manœuvres frauduleuses comme le spamdexing ou l'abus des liens hypertextes en vue de créer du trafic. Sur cet aspect, Google Pinguin révèle toute son importance et privilégie l'usage des backlinks dits « naturels ». Les contenus plagiés ou dupliqués se voient relégués au second plan ou supprimés des résultats de recherche. Avec leurs différentes mises à jour, ces algorithmes s'adaptent aux réalités de La Toile. On le constate notamment avec Colibri dont le fonctionnement convient aussi bien aux requêtes écrites que vocales. En analysant plus en profondeur les demandes des internautes, les réponses proposées sont plus ciblées et permettent d'avoir rapidement des résultats pertinents.
L'expérience utilisateur s'en trouve grandement améliorée, avec un gain de temps non négligeable et une plus grande aisance dans l'utilisation du moteur de recherche Google.
Demandez votre devis gratuit pour le référencement naturel de votre site