Google Penguin : existe-t’il toujours en 2022 ?

Pour les propriétaires de sites MFA et les black hat, le mot Pingouin n’évoque pas un oiseau vivant en arctique, mais un cauchemar incarné en une série de mises à jour de Google.

Penguin est apparu le 24 avril 2012 (un an après Panda) sous la forme d’un filtre. Rappelons ici que les filtres sont des surcouches de l’algorithme de classement, dont la fonction est de faire descendre de la tête des résultats des urls jugées non légitimes pourtant placé là par le coeur de l’algorithme. Penguin s’attaquait particulièrement aux sites utilisant des techniques de manipulation de l’algorithme de classement, notamment la présence de backlinks manipulés ou d’autres techniques de type blackhat.

Penguin a connu toute une série d’avatars entre 2012 et 2016 :

  • Penguin V2 le 25 mai 2012
  • Penguin V3 le 5 octobre 2012
  • Penguin 2.0 le 23 mai 2013 (une version qui s’est attaquée à une plus grande variété de sites)
  • Penguin 2.1 le 4 octobre 2013
  • Penguin 3.0 non confirmée
  • Penguin 4.0 le 23 décembre 2016

Penguin, depuis décembre 2016, fait partie du coeur de l’algorithme

L’annonce de Penguin 4.0 a marqué la fin de Penguin en tant que filtre. Depuis lors, les scores « Penguin » sont calculés en temps réel et pris en compte dans le coeur de l’algorithme.

Cela signifie que la fonction d’évaluation de la pertinence tient compte des scores liés à Penguin dès l’élaboration de son classement sur une requête donnée, avant que les filtres soient appliqués.

La même chose avait été faite pour le filtre Panda en janvier 2016, dont les critères sont également pris en compte dans le coeur de l’algorithme.

Penguin existe-t’il encore ?

5 ans plus tard, on trouve régulièrement des référenceurs continuer à parler de Penguin comme s’il existait encore sous sa forme de 2012.

Cette approche empêche de voir le fonctionnement actuel des couches de l’algorithme chargée d’empêcher les pages manipulées d’accéder à la tête des classements :

  • avec le temps, plus de signaux sont maintenant pris en compte : votre site peut-être détecté comme non légitime sur une requête pour bien d’autres choses qu’un simple abus d’ancres exactes dans vos backlinks
  • la méthode de détection des urls à déclasser passe par du machine learning, et c’est devenu plus difficile de passer dans les mailles du filet
  • même en respectant les conseils que l’on trouve ici et là pour éviter de se faire prendre par l’affreux Google Pingouin, vos pages peuvent quand même être déclassées

Le Penguin de 2012 existe-t’il encore ? Oui, et non.

En mars 2019, Gary Illyes de Google confirmait que ses équipes travaillaient encore à améliorer le dispositif Penguin : à cette date, ils continuaient donc à l’appeler comme ça. Mais depuis, plus de mentions.

L’algorithme actuel est devenu beaucoup plus sophistiqué quant à la détection des pages suroptimisées, il s’est fondu dans la logique de mesure de la qualité qui est apparue dans les « Phantom Updates » que l’on appelle aussi les « Quality Updates ». Et notons que ce que nous appelons aujourd’hui les « broad core updates » sont des mises à jour pour lesquelles on arrive plus à détecter ce qui a été modifié exactement.

Penguin a tellement évolué qu’il a en réalité muté vers quelque chose d’assez différent, fondu dans les mécanismes qui évaluent la légitimité d’une page à figurer en tête des résultats. La nouvelle bestiole qui est « un recombinant » de plusieurs choses (ou plutôt un joli nom marketing pour qualifier une réalité composite et complexe)

Spambrain a deux fonctions, dont l’une était celle dévolue à Penguin:

  • il prend la forme de scores gérés dans le coeur de l’algorithme,
  • et de filtres qui interviennent pour déclasser les pages qui réussissent malgré tout à être classée en tête des résultats.

Conclusion : chez Neper, on ne parle plus de Penguin, mais les consignes pour éviter de se faire prendre par le filtre Penguin restent d’actualité. Mais plus pour ne pas se faire prendre par Spambrain.

Et comment ne pas se faire prendre par Spambrain ?

  • Evitez soigneusement de partager des caractéristiques avec des sites blackhat et de spam.
  • Faites en sorte que votre profil de backlinks apparaisse comme normal et non manipulé
  • N’utilisez pas de techniques de bourrin sur vos sites qui révéleront que vous cherchez à suroptimiser vos sites pour le référencement (ce qui nous ramène aussi au point un)
  • Faites attention à tous les signaux de mauvaise qualité (également couvert par le point un) : fautes d’orthographe, de syntaxe, pb techniques, manque de valeur ajoutée / d’intérêt / d’originalité de votre contenu

Laisser un commentaire