Google Pingouin s’attaque-t-il qu’aux sagouins ?

Juin 03, 12 Google Pingouin s’attaque-t-il qu’aux sagouins ?

Invité dans le cadre d’un dossier JDNet dédié au nouvel algorithme Google Pingouin, voici ma participation avec le titre original.

« Pingouin est le doux nom d’une mise à jour de Google, qui, alliée au fameux Panda,  vise à lutter contre les techniques « webspam » utilisés par les SEO dits black hat. Cette façon de cibler une partie des référenceurs est une bonne occasion de proposer une typologie personnelle du métier.

Le white hat (ou référenceur bisounours), s’il ne respecte pas au pied de la lettre les guidelines Google, il les utilise pour justifier une approche très prudente. Il parle depuis longtemps de qualité, de linkbait (attirer le lien avec du contenu original), de buzz… Mais sa vision long terme paraît souvent seulement adaptée aux grandes marques ayant des gros budgets éditoriaux et de communication.

Du côté obscur de la force, on retrouve le black hat. Sa particularité est d’utiliser un maximum l’automatisation (avec des logiciels ou des développements spécifiques), que ce soit en terme de contenu ou de liens entrants.

Et le grey hat ?

Continuellement dans le viseur de Google, la prise de risque du black-hat est maximum. Avec les mises à jour Panda et Pingouin certaines batailles contre lui sont en passe d’être gagnées par le moteur.

Panda, luttant contre le contenu « mixé » pour générer des pages en masse (landing pages), a pénalisé de nombreux comparateurs ou sites de flux d’actualités (Wikio a même subi un coup de bambou mortel).

Pingouin, s’attaquant quant à lui au netlinking de masse (communiqués de presse, échanges/achats de liens, annuaires, commentaires de blogs…), semble aussi avoir touché ses cibles. L’agitation actuelle du milieu black hat le confirme.

Mais au-delà de cette vision manichéenne, se cache le type majoritaire : le grey hat. Il n’a pas les moyens d’être white hat, mais n’a pas le goût du risque d’un black hat.

Entre deux, il touche parfois à des techniques qui frisent avec le black hat (parfois sans le savoir). Et lorsqu’il est pénalisé par Panda ou Pingouin, il crie à l’injustice. En effet, malgré sa bonne foi, il voit subitement la fin de son activité, alors qu’il a l’impression que Google laisse tranquille les grandes marques concurrentes et même des blacks hats plus rusés.

Écœurés, certains ont lancé une pétition « Google : tue ta mise à jour Pingouin ! » D’autres, comme Twenga, intentent même des procès contre Google.

Google injuste ?

Nous sommes loin de l’époque des pionniers du web, où des pans entiers étaient à explorer, il suffisait de lancer un site pour s’y positionner. Aujourd’hui, hormis quelques niches, tous les sujets sont traités par de nombreux sites. La concurrence est globalement extrêmement forte et, pour une requête, des dizaines voire des centaines de sites pourraient se positionner dans les premiers résultats sans que les internautes crient au scandale.

Google peut donc se permettre de pénaliser certains sites sans remettre en cause la qualité de sa recherche : les sites les plus white hat remplaceront les autres. D’une certaine manière, avec ce type de mise à jour, il cherche autant à améliorer ses résultats, qu’à faire rentrer les référenceurs dans ses Guidelines.

Le référencement doit être bio selon Google

Ses nouveaux mots d’ordres donnés aux référenceurs et webmasters : Désoptimiser ! Faites de la qualité ! Soyez naturel ! Plutôt que « désoptimiser », il faudrait utiliser le terme « évoluer ».

Pendant plusieurs années, les évolutions de Google étaient plus subtiles et pouvaient permettre aux référenceurs d’évoluer plus en douceur. Mais il est loin le temps des pages satellites, des mots-clés cachés ou du cloaking (proposer un contenu différent à Google et aux internautes). En réalité, pas de révolution, continuons à optimiser !

La qualité selon Google : un concept mythologique

La qualité est le Graal pour Google. Mais il reste un robot et lorsqu’il « lit » un contenu, il est incapable de le comprendre et donc de définir si le contenu est de qualité. Il lui reste alors à passer ses algorithmes pour vérifier si ce contenu n’est pas repris d’un contenu ailleurs (contenu dupliqué), si des liens pointent vers ce contenu (PageRank), si le site est de confiance (autorité), si les internautes en parlent sur les réseaux sociaux…

La qualité est un concept mythologique, un contenu n’est pas de même qualité pour tous les internautes. A la requête « fusion nucléaire » un article scientifique sur la fusion nucléaire sera vu comme pertinent pour un chercheur, mais complètement inutile pour un internaute lambda. En réalité, la qualité n’existe pas, continuons à optimiser !

En réalité, celui qui comptera sur le « naturel » restera sur place

Lorsqu’on regarde les guidelines de Google, on se demande parfois si un référenceur peut réellement les respecter. Google avec sa vision très « peace and love » du Web imagine la toile comme un Eden, où chacun serait à sa juste place sans chercher à s’imposer, ce qui entraîne leur mantra : créer du contenu de qualité à destination des internautes, ceux-ci créeront naturellement des liens vers votre sites…

Doux rêve, valable seulement pour quelques grandes marques fortes d’une communauté (l’exemple typique : Apple), mais absurde dans la plupart des autres cas, certains n’ayant même pas réellement de contenus à fournir (quoi dire d’intéressant sur un plombier ?). En réalité, celui qui comptera sur le « naturel » restera sur place, continuons à optimiser !

Les référenceurs ne doivent pas se faire intoxiquer par la communication de Google. Ils doivent continuer à benchmarker les pratiques des concurrents, tester de nouvelles pratiques… pour développer leurs propres stratégies. Ils doivent évidemment avoir conscience qu’il y a des risques et prévoir les ressources suffisantes pour prendre des mesures correctives lorsque le vent tourne. Et, surtout, ils doivent continuer à optimiser !

27 Comments

  1. Difficile de suivre Google dans ses mises à jour. Une chose est sûre et heureusement : c’est la qualité qui prime au détriment des sites « poubelle ». Faites du beau, faites du propre, écrivez du contenu de qualité !

    • Le problème c’est que le référencement naturel n’existe pas, puisque le fait de référencer n’est pas naturel, idéalement google voudrai que l’on ne fasse rien, et que comme par magie les gens nous mettent des liens, cela fonctionne au pays des bisounours…

    • Clairement… et même en 2015 c’est toujours le cas!

  2. La qualité est primordiale avec pingouin. Je préfère perdre du temps à écrire un article propre et unique que de copier et me faire taper sur les doigts.

  3. Avec plus de 300 critères de référencement j'ai de plus en plus l'impression que Google cherche à rendre opaque ses méthodes afin de proposer un classement difficilement "truquable".

  4. Tant que Google n’aura pas crée un système de concurrence, celle-ci sera toujours liée (essentiellement) aux liens. Il me semble qu’un énorme vide existe à ce niveau et Google ne semble pas connaître une solution plus efficaces que ces mises à jour, assez brouillant je dirais.

  5. Difficile d'y voir clair la dedans parfois le site prend une grosse claque et remonte dès le lendemain. Affaire à suivre …

  6. Tout à fait d'accord avec Marc, suivant les jours, les résultats montent ou descendent sans réelle raison.. Le temps de l'instabilité du positionnement est arrivé.

  7. En effet, c'est de plus en plus compliqué de satisfaire Google aujourd'hui……..et demain…

  8. Il faut optimiser autant que possible même avec le maximum de respect aux internautes, c'est vrai mais quand on n'oublions pas qu'il est question de vendre.

  9. Encore un article fort intéressant. Je pense que nous sommes tous d’accord sur le fait de proposer de la qualité. Comme le souligne Patrick, le référencement n’est pas quelque chose à la base de « naturel ». Il faudrait peut être revoir la définition même du référencement. Et puis pour Google nous serons toujours une sorte de concurrence non ?

  10. Un article très complet et très intéressant.
    Google a fort à faire pour sanctionner toutes les personnes qui essayent de contourner leur règle.
    Il faut jouer dans les règles.
    Les techniques de blackhat ou de backlink abusif doivent être prohibé. J’entend par là des sites de voitures qui se lie à des sites de cuisine
    A voir

  11. L’instabilité du positionnement google peut s’expliquer dans le fait que certains facteurs de positionnement des sites dans les résultats de recherche sont bien connus.
    Les résultats changent à chaque fois qu’un site est mis a jour ou qu’un lien entrant supplémentaire est indexé par Google.
    Les robots d’indexation de Google parcourent constamment le net à la recherche de liens et de contenus nouveaux.
    Cela conduit le moteur de recherche à régulièrement mettre à jour les résultats de recherche.
    De plus, l’algorithme de Google est lui aussi mis a jour fréquemment afin d’améliorer l’ergonomie du site et de faciliter les recherches des utilisateurs.

  12. Tip Top ! L’article est reelement genial!Il traite pleinement la matiere present. En attendant les suivants. Je vous souhaite toujours plus de succes pour la suite. Sincerement.

    • I’m grufetal you made the post. It’s cleared the air for me.

    • Oui je me suis fait de9gager toutes mes fiechs d’un annuaire e0 cause de e7a, sous pre9texte que je les avais lie9es avec du bookmark tu parles! Les grands perdants ce sont surtout les annuaires et autres sites de CP, je ne pleurerai pas. Ca confirme qu’il vaut mieux avoir son propre re9seau que d’eatre tributaire de celui des autres.Ps: pourquoi vous avez de9sactive9 les liens en commentaire??

  13. C’est facile pour google de parler de qualité lorsque lui-même est loin de respecter ses propres règles! Y’en a vraiment marre de panda et cie ! Google a vraiment massacré la libre pensée du web ! C’est devenu un terrain de professionnels de la rédaction web !

  14. La « désoptimisation » voulue par google ne veut en effet pas dire grand chose… celui qui ne travaille pas du tout son site avec les title, balises H1,H2.. ou méta description, et qui de plus ne travaille aucunement son netlinking restera toujours au fin fond des serp !

  15. Google est très sérieux pour ces règles. Mais nous somme obligé de le suivre, c’est la vie 🙂

  16. Bonne action ! Merci beaucoup pour cet article et ses infos intéressantes. Bonne continuation.

  17. Encore un article fort intéressant. Je pense que nous sommes tous d’accord sur le fait de proposer de la qualité. Comme le souligne Patrick, le référencement n’est pas quelque chose à la base de « naturel ». Il faudrait peut être revoir la définition même du référencement. Et puis pour Google nous serons toujours une sorte de concurrence non ?

  18. chauffage ou pas

  19. Tout à fait d’accord avec la conclusion. Quoi que dise Google, il vaut parfois mieux se fier à son bon sens, son instinct et surtout ses tests.

Répondre à Piccolo Annuler la réponse.

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *