Pour mieux comprendre ce filtre de Google, éviter de tomber dans les mailles du filet, ou s’en sortir, il faut essayer de décrypter ce qu’il sanctionne, et le message que veut faire passer Google.
Initialement baptisé « Content farmer update », Google panda a été introduit d’abord au US le 24 février 2011, puis est arrivé à une certaine maturité (version 2.4) il a été étendu aux résultats internationaux et francophones le 12 août de la même année. Cet algorithme qui vient donc de souffler sa première bougie possède en réalité un spectre beaucoup plus large que la simple détection des fermes de contenu, et son rayon d’action difficile à cerner. On sait néanmoins qu’il se focalise en grande partie sur la qualité du contenu. Certes, la qualité est très subjective, et nous verrons plus tard sur quels critères se base Google. C’est en tout cas un pari ambitieux de la part de Google de vouloir évaluer la pertinence et la qualité intrinsèque d’un site, et on devine que l’algorithme est complexe et difficile à décrypter.
Ce que l’on sait sur le fonctionnement de panda
- Il est essentiellement basé sur le contenu
- Les sites touchés le sont dans leur intégralité : une page de mauvaise qualité aura un impact négatif sur tout le site, et pénalisera même le contenu pertinent.
- Sortir de Google panda requiert généralement de gros efforts et beaucoup de patience de la part des webmasters. S’en sortir est difficile, mais théoriquement pas impossible.
- L’impact peut être également positif. Les sites qui bénéficient d’une telle faveur deviennent de facto des références en matière d’architecture, et de contenu.
- Le filtre est activé manuellement (environ 1 fois par mois), et fonctionne comme un filet dérivant et ne se focalise que sur les sites qui ressortent sur des requêtes concurrentielles.
- La sanction est généralement facile à identifier : grosse chute de trafic, jusqu’à -70%, avec un déclassement plus prononcé sur les occurrences concurrentielles.
Quel est l’objectif de Google avec l’introduction de cet algorithme ?
Sans surprise, la raison officielle avancée est d’améliorer les résultats de recherche (SERP).
Mais il y a pas mal de rumeurs, et de légendes urbaines sur les motivations de Google. Par exemple, certains pensent qu’avant 2011, de grands groupes de presse américains influants on fait pression sur Google pour que les résultats leur soit plus favorables. D’autres ont une vision plus machiavélique de Google, et suspectent la firme de Mountain View d’avoir modifié son algorithme pour favoriser la visibilité de sa branche shopping, ou augmenter ses revenus Adsense (ce qui a d’ailleurs été le cas).
Il y a peut-être un peu de vrai dans tous ces scénarii, mais si d’un point de vue purement SEO on veut faire avancer les choses et éviter la sanction, je retiendrai plutôt le suivant :
Le talon d’Achille de Google, c’est l’énergie. Avec plus d’un million d’ordinateurs à travers le monde, Google essaye de limiter les coûts de ses infrastructures, et les serveurs voraces en électricité. Panda arrive justement comme un signal aux webmasters pour dire grosso modo la chose suivante (propos tirés de mon imagination bien entendu) :
« Notre robot (Googlebot) est fatigué de visiter, et revisiter continuellement des quantités astronomiques de pages de faible qualité, spammy, longues à charger, trop datées, bref qui polluent le web et surchargent inutilement notre index. Faites le ménage ! Et tant que vous n’aurez pas nettoyé de fond en comble votre site, vous serez pénalisés, et notre robot vous visitera moins souvent. »
Ce postulat a plusieurs avantages pour Google. Il demande aux webmasters de nettoyer leur mauvais contenu, et d’augmenter significativement la qualité de leur site. Moins d’activité pour le googlebot d’un côté, résultats plus pertinents de l’autre (enfin c’est ce qu’ils prétendent), avec des effets de bords non négligeables pour Google : augmentation des recettes adwords, et présence accrue de Google shopping.
Pour autant, est-ce que les résultats obtenus dans les SERPS sont meilleurs depuis l’introduction de panda ? Les avis sont très partagés.
Des contours très flous
Premier réflexe légitime de tout bon SEO est de deviner les contours de ce filtre, comment éviter d’être pris dans les mailles du filet, et trouver les leviers pour s’en sortir. Fidèle à son habitude, Google brouille les pistes et personne ne peut prétendre que telle ou telle formule marchera à coup sûr pour dépénaliser un site affecté par Google panda. Si une seule page de votre site est à l’origine d’une sanction, le seul retrait ou refonte de cette dernière ne suffira probablement pas à retrouver votre ranking et votre trafic habituel. Vous devrez envoyer plusieurs signaux positifs de telle sorte que vous ne pourrez jamais identifier avec précision l’élément nocif de votre site.
La levée de la sanction n’est pas forcément immédiate, dans le sens où vous ne retrouverez pas vos positions à la mise à jour de Google panda qui suit vos modifications (si elles sont suffisantes).
Attention aux faux positifs. En parcourant les forums sur le sujet, des personnes affirment avoir trouvé des solutions salvatrices en changeant d’hébergeur ou en modifiant le whois pour simuler une revente du site impacté. Souvent l’effet ne dure que jusqu’à la mise à jour suivante de panda. Même chose avec le truchement des sous-domaines qui consiste à déporter les sections sans valeur ajoutée de votre site vers des sous-domaines. Pérennité non garantie, mais on manque de recul pour savoir dans quelle mesure ces techniques fonctionnent durablement ou pas. Google ajoutera toujours une « couche » d’aléatoire à son algorithme et rien ne pourra être certifié et garanti à ce niveau. Nous devons nous contenter d’extraire des tendances.
Un algorithme qui s’enrichit avec les retours humains
Panda est un très bon exemple de « machine learning ». Evaluer la pertinence d’un contenu est loin d’être évident pour une machine, et on le devine, énergivore. L’algorithme s’enrichit et s’affine au fur et à mesure des signaux qui lui sont envoyés par différentes actions humaines. Il y a un peu moins de 2 ans, Google a commencé à embaucher (indirectement) des personnes pour évaluer la qualité des résultats de recherche, appelés les « Quality raters ». Ils ont pour mission d’évaluer certains sites avec des questions bien précises :
- Ce site vous inspire-t-il confiance ?
- Seriez-vous prêt à faire un achat en ligne sur ce site ?
- La présentation de ce site fait-elle sérieuse ?
- Avez-vous trouvé des informations pertinentes sur ce site ?
- Les pages que vous avez visitées méritent-elles d’êtres imprimées ?
- Liste non exhaustive…
Les informations recueillies forment ainsi une matrice qui permettra de séparer pour une niche spécifique, les bons sites des mauvais (quand bien même ils ont un bon référencement). Je rappelle que tout ce processus n’est appliqué qu’aux sites ayant une présence bien établie dans les SERPS, surtout sur des secteurs concurrentiels.
Les quality raters ne sont pas les seuls à participer à l’enrichissement de cette intelligence artificielle. Les actions faites par les internautes comme l’ajout en favori d’un site/page, l’abonnement à un flux RSS, les clics sur le bouton +1 de Google, sont autant d’éléments positifs pour l’évaluation de votre site. D’autres actions peuvent au contraire avoir un impact très négatif, par exemple, Google chrome via l’extension « Personal Blocklist » permet de blacklister des sites qui n’inspirent pas confiance. Si plusieurs utilisateurs font de même pour un site, on peut craindre une pondération négative forte. Néanmoins, n’espérez pas trop faire du NSEO avec ça : si il n’y a pas de chevauchements avec d’autres signaux négatifs envers le site visé, il est peu probable qu’il soit sanctionné.
Panda bouscule le monde du référencement… en tout cas pour certains
L’introduction du machine learning, et surtout le facteur humain, marque de gros changement dans le mode opératoire de Google, et fatalement dans notre approche du SEO.
Il n’est pas rare d’entendre des consultants ou des webmasters dire qu’au fond panda n’a pas changé grand chose. En tout cas en ce qui concerne leur porte-feuille de clients ou leur propre site. S’ils font du bon travail depuis le début, et que les sites méritent leur position, ils n’auront aucune raison d’être inquiétés. En revanche, je connais personnellement des consultants patentés qui n’ont pas encore pris la mesure du rayon d’action de ce filtre, et préconisent à leur clients (touchés par panda) d’utiliser (par exemple) des templates pour rédiger leurs articles plus rapidement. Cela relève de l’incompétence pure. Espérons que le ménage voulu par Google avec ce filtre, puisse également assainir le marché des SEO où l’on trouve beaucoup de prestataires faiblement qualifiés et peu scrupuleux.
Mais panda (conjointement avec le travail des quality raters) va peut-être encore plus loin que la qualité et la pertinence intrinsèque des sites internet. Il est aussi sensible au modèle économique et à la façon de les monétiser, et ça c’est une grande première. Si avant panda il était possible de faire monter très haut des sites articulés exclusivement autour de l’affiliation, aujourd’hui c’est impossible si vous n’apportez pas de valeur ajoutée à votre site. Vous vous ferez dégommer dès lors que vous passerez au dessus du radar. A ce niveau, les changements apportés par Google panda sont considérables puisque beaucoup de sites et de sociétés fonctionnaient sur ce business model (sites comparateurs de prix, codes promo, agrégateurs de flux, etc.) et se retrouvent aujourd’hui à faire face à de gros soucis économiques. Repérer et supprimer du contenu nocif est une chose relativement facile, changer de modèle économique est une autre affaire.
Les 10 commandements pour éviter les pénalités
- Tu ne dupliqueras pas de contenu provenant d’autres sites.
- Tu éviteras de paraphraser bêtement les articles existants, et ne perd pas de vue qu’acheter du contenu sur textbroker revient au même.
- Tu diversifieras tes sources de trafic et ne miseras pas tout sur l’apport organique de Google.
- Tu te démarqueras de tes concurrents, avec une approche éditoriale originale et pertinente.
- Tu multiplieras les signaux de confiance envers tes visiteurs
- Tu travailleras ton « Personal branding » (ton image et ta popularité sur le web)
- Tu éviteras les techniques black hat si tu ne maîtrises pas bien les outils
- Tu n’utiliseras pas de template pour faciliter la rédaction de ton contenu
- Tu mettras à jour régulièrement ton site
- Tu remanieras ou supprimeras les pages sans intérêt pour le visiteur et qui ne drainent plus de trafic