Google pingouin : se sortir de la pénalité, ou s’en prémunir

Jusqu’à ce jour, je n’ai jamais eu la motivation d’écrire un billet sur pingouin. Sûrement la faute à un grand nombre de publications, overdose d’infographies, et pas envie de faire du recyclage pour faire du remplissage. Puis les prestations "spécial pingouin" se sont enchaînées, surtout depuis pingouin 2.0. Avec le recul, les méthodes et les outils se sont affinés. La lecture récente de plusieurs articles -un peu légers- sur le sujet m’ont finalement motivé à partager une partie de mon approche pour curer les profils de netlinking qui piquent les yeux.

L’objectif de cet article n’est pas de proposer une méthode pas à pas, mais plutôt d’aborder l’angle d’attaque pour la mise en place d’un plan d’action efficace, les fondamentaux à prendre en compte, l’état d’esprit à adopter.
Si vous voulez maximiser vos chances de réussite, vous comprendrez qu’élaborer une stratégie « anti pingouin », ou veiller à ne pas passer au-dessus du radar n’a rien d’une sinécure. Faire des grandes saignées à la hache et à l’aveuglette dans ses backlinks peut être improductif voir contre performant. Cela demande un travail méticuleux, souvent long et fastidieux. Il faut savoir aussi où l’on va, et avoir une idée précise de ce que sera son profil de backlinks une fois nettoyé.

Savoir diagnostiquer une pénalité Google pingouin

Ceux qui suivent les updates de Google avec assiduité n’ont en théorie pas de problème pour déterminer si une baisse de trafic provient d’une itération de Google pingouin ou pas. Mais quand un client vient vous voir et qu’il n’a pas la moindre idée de quand et comment est survenue la baisse de trafic, il faut réaliser un recoupement entre les stats de Google Analytics et le calendrier des updates de pingouin.

Il existe un très bon outil "Panguin Tool" développé par Barracuda Digital. En autorisant l’outil à se connecter à votre compte analytics, il superpose sur vos stats les différents updates de pingouin, mais également de panda (d’où le nom Panguin tool). Et c’est important d’afficher les deux filtres car souvent une pénalité peut en cacher une autre… certains sites ont parfois un « casier » très lourd.

Barracuda

Attention : une pénalité pingouin n’est pas toujours franche. Il est parfois difficile de la repérer. Cela n’affecte pas forcément le site en entier, mais juste quelques mots clés bien ciblés. Il faut alors bien analyser les statistiques, GWT, le suivi des positions quand il y en a, ou utiliser des outils comme SEMrush ou SEMvisu qui permettent d’avoir une estimation de l’évolution des positions.

Bien intégrer les notions de corrélation et causalité… mais également d’écosystème.

Souvent les mêmes questions reviennent : « mes ancres internes peuvent-elles conduire à une pénalité ? », « les réseaux sociaux ont-ils un impact sur le référencement naturel ? »… Le genre de questions ou l’on ne peut jamais apporter de réponse tranchée, les moteurs de recherche procédant de plus en plus au recoupement pour affiner leurs algorithmes, et les rendre moins discernables. Et il est évident que Google utilise à fond le recoupement pour son filtre pingouin… et pas que !

Pour faire simple, je pars maintenant du principe que tout ce qui peut être mesurable par Google sur le web, peut avoir une corrélation avec le référencement naturel. Si aujourd’hui rien ne permet d’affirmer que le volume de mentions (url sans lien hypertexte) a un impact direct (causalité) sur le positionnement, c’est un indice tout à fait valable pour évaluer par recoupement un profil de backlinks.
Un autre exemple avec la balise meta keywords : on nous rabâche qu’elle n’a pas d’impact sur le SEO… Ouais ouais ouais… Sérieusement, 1 site sur 2 pour qui je réalise des audits « spécial pingouin » ont gardé leur balise meta keywords indiquant avec une grande précision les mots clés sur lesquels ils souhaitent ranker. J’vous jure…

Par ailleurs, il est très important de tenir compte de la niche dans laquelle évolue le site, et dans une moindre mesure son modèle économique. Supposez qu’on ait à auditer le profil de backlinks d’un site de divertissement cherchant en permanence le buzz en publiant régulièrement des vidéos de fails, et photos chocs en tout genre. On devine aisément que le profil de son netlinking (ses ancres, son rythme d’acquisition, etc.) sera très différent du petit site e-commerce qui vend des jouets en bois. Bon.

Voilà pourquoi il ne faut pas réfléchir uniquement en terme de nocivité des backlinks ou des ancres, mais en terme d’écosystème global du netlinking. Tout ce qui peut être recoupé pour apprécier la qualité et le « naturel » du netlinking doit être pris en considération. Tout ! Si vous pouvez le faire, Google le fait… du moins, il faut partir de ce principe.

Avoir le bon état d’esprit

« Tout ce que je sais, c’est que je ne sais rien. » (Socrate)

Oubliez vos certitudes sur Google pingouin, et tout le bruit généré à ce sujet. Ne vous polluez pas l’esprit avec ces idées préconçues et souvent manichéennes comme quoi le filtre concerne surtout les ancres ou les plateformes type annuaires ou CP. Si il y a du vrai dans tout ça, c’est en réalité beaucoup plus complexe. Ne vous basez plus seulement sur les facteurs reconnus comme nocifs, mais essayez également de deviner ceux qui pourraient l’être par le biais de footprints par exemple.

Projetez-vous à la place des ingénieurs de Google (Matt Cutts par exemple) lors d’un brainstorming sur l’élaboration de l’algorithme de pingouin. Imaginez la conversation qu’ils auraient pu avoir, compte tenu des moyens qu’ils ont, mais aussi de leurs contraintes énergétiques. J’aime bien cet exercice.

Evaluer la faisabilité, savoir renoncer, apprendre de ses erreurs.

Certains éditeurs (et SEO) ont tellement abusé de techniques crades (pas seulement au niveau du netlinking), qu’il est parfois plus honnête de leur dire : « recommencez tout ». Ils ont souvent le cul entre deux chaises, et leur réaction est souvent la même :

« Mais monsieur, je ne vais pas vous payer un audit "spécial pingouin" si au final il faut que je relance mon projet sur un nouveau nom de domaine ! »

La réaction peut se comprendre si nettoyer un profil de backlinks est plus insurmontable que de repartir de zéro avec un nouveau NDD… Encore faut-il évaluer la faisabilité ou la non-faisabilité, ce qui passe inévitablement par un travail d’analyse aux petits oignons.

Dans la majorité des cas, un audit « spécial pingouin » est bénéfique, et le client ne jette jamais son argent par la fenêtre. Pas seulement parce qu’il débouche sur une levée de pénalité (chose non garantie), mais aussi pour sa culture : apprendre de ses erreurs, c’est aussi capitaliser pour mieux repartir sur un nouveau projet si besoin.

Il faut aussi reconnaître qu’un plan d’action anti pingouin, est bien plus simple à mettre en place qu’une stratégie éditoriale pour sortir de Google panda ! Certes, c’est une véritable corvée, mais si le travail d’analyse est bon au départ, on sait en gros où l’on va. Avec Panda, on avance souvent en plein brouillard.

Dans tous les cas, il ne faut pas espérer retrouver 100% de ses positions d’antan. Bien souvent, si un site se fait shooter, c’est qu’il a été beaucoup plus haut que là ou il devrait être. La purge imposée par le travail de désoptimisation et de suppression de backlinks conduit d’une part à lever la pénalité, mais aussi à remettre le site sur les positions qu’il mérite. Il faut accepter ce principe. Par la suite, il sera toujours possible de booster à nouveau le ref nat, intelligemment et avec mesure.

Les outils : sans jus de cerveau, la puissance n’est rien.

Cher lecteur, si tu commences ta lecture par ce paragraphe, je me permets de te rediriger (301) vers le début de ce billet, car comme on dit, « l’outil ne fait pas le moine », et il te manquera certainement quelques notions fondamentales pour les utiliser de manière productive et rentable.

Les outils SEOMême avec la meilleure approche, sans outil, point de salut. Encore faut-il choisir les bons, et savoir interpréter les données qu’ils fournissent. Mais ne vous faites aucune illusion ! Qui dit outil, dit pour les plus évolués d’entre eux « algorithme », et ces algos n’arrivent -et n’arriveront- jamais à la cheville de celui de Google, si perfectible soit-il.
A ce jour, aucun outil ne permet d’analyser intégralement un écosystème de backlinks et vous fournir « tout cuit » la méthodologie salvatrice qui blanchira votre site en 2 ou 3 clics. La maîtrise et l’expertise humaine sont indispensables pour faire ce que l’on appelle communément en SEO, du « revers engineering ».

Services de récolte et d’analyse de backlinks

Pour faire une bonne analyse de backlinks, il faut de bons outils pour les récolter. Les plus connus sont certainement les meilleurs : Majesticseo.com, opensiteexplorer.org, ahrefs.com, tous les trois en SaaS. Ils ne sont pas forcément donnés, mais si votre liste de backlinks est biaisée ou incomplète à la base, toute l’analyse et les décisions qui en découleront le seront également.

Détail important, l’outil doit permettre d’analyser les backlinks du site pénalisé (ou susceptible de l’être), mais également ceux des concurrents. Vous allez le voir, l’analyse de la concurrence est très souvent déterminante.

Ces outils doivent également vous permettre d’apprécier la répartition des backlinks entre pages profondes et homepage. Souvent les modèles de linking trop artificiels ont une proportion trop importante de liens vers la home, la faute sans doute trop d’inscriptions dans les annuaires, ou trop de placement de liens en sitewide, blogroll, etc.
Le rythme d’acquisition des backlinks est également important. Des backlinks acquis de manière régulière dans le temps enverra un signal moins suspect que des acquisitions massives sur de courtes périodes.

Et l’on en vient à la fameuse analyse de la toxicité des backlinks

Avec l’introduction du filtre Google pingouin, quelques outils/services ont vu le jour, spécialisé dans l’analyse de la toxicité des liens, et le « déréférencement » de ces derniers. Par exemple linkdetox.com que j’utilise de temps en temps, peut avoir une place dans le processus d’analyse. Mais attention, il faut le prendre comme une aide au décisionnel, et ne vous dispensera en aucun cas d’un travail d’évaluation manuelle.

Quelques mots sur linkdetox :

Link Dtox
Le principe de ce service (très cher) est le suivant : vous lui fournissez vos listes de backlinks (majestic, GWT, ahrefs etc), puis il fait le reste (dédoublonnage et analyse). Vous pouvez également croiser les données avec ceux des sites concurrents, mais attention il faut vite monter en gamme et les prix s’envolent littéralement. Son analyse de la toxicité des liens repose sur plusieurs facteurs : les remontées des utilisateurs, les footprints trouvés dans l’environnement des liens, la récolte d’indices pour déterminer si les domaines référents sont pénalisés ou pas etc. En fonction de tout ça, les liens sont étiquetés selon 3 grands groupes : « Healthy », « Suspicious », « Toxic ». Je ne vais pas m’attarder trop longtemps sur l’outil, mais pour l’avoir utilisé quelque fois, je le trouve vraiment très limité et décevant au regard du coût.

Notamment, il manque cruellement de précision quand il s’agit de classer les ancres (money, brand, compound, other). 90% de la classification doit être faite à la pogne, et ce n’est pas assez segmenté. Il manque par exemple, les ancres de type url, longue traîne, les mentions (url sans lien hypertexte), les ancres neutres (cliquez ici, lire la suite, etc.). De plus tout est cloisonné : impossible d’appliquer plus de 2 attributs à une ancre.

Dtox

Autre gros point faible de cet outil, il est anglo-saxon. Même si on peut le paramétrer pour qu’il soit ciblé sur le web francophone et Google.fr, il n’empêche que les remontées utilisateur, et tout le travail d’analyse relatif aux footprints sera toujours porté majoritairement sur l’environnement anglo-saxon. Il faut également souligner la présence de faux-positifs : des sites que l’on sait pertinemment « safe » sont parfois flagués comme « toxic ». De fait, il faut tout relativiser, revérifier, affiner pour obtenir une granularité satisfaisante. D’ailleurs, ils le reconnaissent dès lors que l’on s’approche du point de non-retour, en voulant créer par exemple une liste de désaveux à soumettre à Google :
Désaveux de liens

Tout ce que vous donnera ce service n’est qu’indicateur, et là aussi toutes les informations et les indices de nocivité doivent être recoupés… lien par lien si possible. C’est un véritable travail d’expertise. Pour peu que le site compte plusieurs milliers de backlinks, on se retrouve vite confronté à une problématique dite « big data », à l’échelle du référenceur/éditeur in house.

Et les autres…

Cognitiveseo que j’ai déjà évoqué dans mon article sur l’analyse des logs Apache propose également un service d’analyse de toxicité des backlinks, mais ce n’est pas sa vocation première. Les faiblesses sont grosso modo les mêmes qu’avec linkdetox, mais hélas en plus prononcé. Vous trouverez plus de détails sur l’outil ici ou encore ici.

Cognitive seo

D’autres outils dans la même veine que link detox, mais que je n’ai pas encore essayé :
removeem.com,
rmoov.com,
linkaudit.co.uk.
linkrisk.com.

L’outil de désaveux de Google webmaster tools

Quelques mots sur cet outil qui a fait beaucoup parler de lui. La communication de Google à son sujet est toujours teintée de mystère, et l’efficacité de ce service n’est jamais garantie. Obtenir la rédemption simplement en désavouant ses backlinks les plus moisis serait trop simple. Comme pour panda, les efforts doivent être palpables. Il est donc fortement recommandé de retirer ou modifier ses backlinks les plus toxiques par soi-même, en contactant les webmasters. L’outil de désaveux sera donc utilisé en dernier recours, une fois le mammouth dégraissé.
N’oublions pas qu’un désaveu est toujours considéré comme une simple suggestion par Google. Là-dessus, ils ont été plutôt clairs.

Tout est affaire de proportion et de ratio par rapport à une certaine normalité

Qu’on se le dise, le rayon d’action du radar de pingouin n’est pas la même pour tous les sites. Il n’y a pas une ligne jaune à ne pas franchir, mais une association de signaux qui, une fois comparé à la « normalité », conduit à une pénalité. Cette normalité repose sur les données que peut avoir Google sur des sites qu’il juge de confiance et de référence (rien à voir avec le PR). Pour schématiser, votre écosystème de liens sera mis en comparaison avec d’autres sites concurrents ou similaires trustés par Google. Si ça déborde trop sur certains aspects (au regard de la normalité) alors la sanction peut tomber.

Radar ancres

Comparer le profil de backlinks du site impacté à celui de la concurrence

Au cas par cas, il est souvent judicieux de « superposer » les données du netlinking d’un site, à ceux de ses concurrents. Pour des raisons de budget et de temps, cela n’est pas toujours pleinement réalisable. Attention aussi à une chose : ce n’est pas parce qu’un site (concurrent) est bien placé, qu’il n’a pas une épée de Damoclès au-dessus de la tête. Il faut analyser les données récoltées avec beaucoup de recul et de savoir-faire. Le plus important étant de mettre en exergue les aberrations de l’écosystème conduisant à la pénalité.

A minima, il est utile de comparer le rythme d’acquisition des backlinks, leur volume, la répartition des ancres, et le type de plateformes (voir liste plus bas) ainsi que la répartition des backlinks entre homepage et pages profondes.

Les « metrics », indicateurs indispensables au travail d’analyse

Quelques soient les outils, vous devez obtenir un maximum d’indicateurs utiles (metrics).
Décomposons d’abord ce qui constitue un écosystème de liens :

Typologie des domaines référents

  • L’adresse IP : la liste des IP (et classes d’IP) de tous les domaines référents permet de repérer -s’il en est- les réseaux de sites montés de toute pièce. Comme pour tout, l’IP n’est qu’un indicateur qui sera recoupé avec d’autres.
  • L’identifiant Google Analytics (GA-ID) : je croise encore régulièrement des éditeurs faisant des blogs/sites satellites pensant être sous le radar de Google, mais avec des GA-ID identiques. Alors quand l’IP et le Whois coïncident…
  • Pays hôte et langue : en temps normal, un site français devrait avoir des domaines référents majoritairement localisés en France. Si ce n’est pas le cas, cela peut éveiller quelques soupçons.
  • Indicateur de confiance (trustrank, powerrank, ACrank etc) : les meilleurs indicateurs nous donnent une idée de la popularité, l’autorité, et dans une certaine mesure le degré de confiance que l’on peut accorder aux sites. C’est également un moyen de se rapprocher de l’appréciation que Google peut avoir de l’autorité d’un domaine (ou d’une page).
  • Le PageRank (PR) : lui, il a une importance toute particulière, et pas forcément celle que l’on croit. Un site ayant un profil de backlinks avec une mauvaise distribution de PR peut attirer l’attention de big G. Par exemple, un site ayant 99% de liens provenant de sites avec peu ou pas de PR, et le 1% restant provenant de sites à très fort PR (6 ou 7) peut laisser supposer un achat de lien.
    Autre point important : un backlink provenant d’un site sans PR (barre grisée), et dont l’existence remonte bien avant la dernière mise à jour du PR, est souvent le signe que le domaine a été fortement pénalisé par Google. Obtenir des liens depuis ces sites n’a forcément rien de bon, surtout quand il y en a une proportion conséquente.
  • Les domaines en .EDU .Gouv : aaah le mythe des TLD .gouv et .edu… Déjà rien ne prouve que ces TLD aient intrinsèquement une valeur ajoutée en terme de « jus ». Je vous invite d’ailleurs à lire ce billet de Majesticseo. Ce mythe conduit généralement à ce que les spots en .gouv/edu soient archi spammés par les SEO du dimanche. Si l’on prend en compte la très faible probabilité pour qu’un site ait des liens avec ce type de TLD, on obtient alors un signal plus que douteux.
  • La thématique : si les domaines référents ont une thématique trop éloignées, voir sans thématique précise comme les annuaires généralistes, là aussi cela peut envoyer un signal suspect.

Typologie des plateformes

Dans la mesure du possible, j’effectue toujours un repérage du type de site où a été posé le backlink. Les footprints et signaux sont tellement évidents qu’il y a fort à parier que Google sache faire le distingo entre annuaire, site institutionnel, forum, etc. Et il aurait tort de ne pas évaluer la répartition de ces plateformes dans l’algo de pingouin.
Sans dresser la liste exhaustive de toutes les plateformes, je « flag » dans mon tableau Excel si le domaine est un blog, un splog (souvent nocif), un annuaire, un CP, un digg like, un forum etc. Cela permet d’apprécier la proportion de plateformes permettant d’obtenir des liens « faciles » et artificiels.

Typologie de la page hébergeant le backlink

Indépendamment du domaine et du type de plateforme, il faut étudier la nature de la page et ses metrics associés.
Quelques exemples :

  • Le trustflow, citationflow etc : ces indicateurs propres à MajesticSEO sont très appréciables pour évaluer la popularité des pages, et leur indice de confiance. L’avantage, comparé au PR, est qu’ils sont mis à jour en temps réel. Mais attention, toujours prendre ces mesures avec des pincettes ! Ce ne sont que des indicateurs, et une page avec un bon trustflow peut très bien cacher une page avec un environnement nocif, ou un domaine pénalisé.
  • Le titre de la page (balise title) : est-il en relation avec la page cible du backlink ? Peut-on objectivement accorder du crédit à un lien pointant vers une recette de cuisine, si la page hôte a pour titre « partenaires serrurier à Nice » ?
  • Le PR : même chose que pour la typologie des domaines référents (voir plus haut).
  • Les pages partenaires : un grand classique du linkbuilding. La proportion de ces pages, et le nombre de liens sortants (OBL) sont à prendre en compte.
  • Les articles en guest et billets sponsorisés : un grand nombre de SEO qui pratiquent cette technique me font franchement halluciner. L’intérêt est simple : alimenter à moindre effort le site qui héberge l’article, et en contrepartie envoyer du lien vers le site de l’auteur. Et 90% du temps on précise que le billet est du « guest posting » ou sponsorisé, histoire de laisser un footprint bien en évidence à Google pour qu’il crame le lien, et pourquoi pas le site si il construit son modèle éditorial autour de ça.
  • Le spamco : le spam de commentaires ça peut être bénéfique, mais c’est comme les annuaires, il ne faut pas en abuser. Une trop grande proportion de spamco, associé à des ancres trop optimisées en « exact match » constitue souvent un combo nuisible.
  • La page est-elle indexée ? : si vous avez déjà expérimenté des campagnes de soumissions massives (et automatisées) sur des annuaires ou CP, vous avez peut-être remarqué que ces pages tombaient par la suite dans les méandres de ces plateformes, disparaissant souvent de l’index de Google. Si trop de BL proviennent de pages non-indexées, on devine facilement la pauvreté de ces derniers.
  • Les profil / signature / forum : même chose que pour le reste. Tout est affaire de proportions.

Typologie des emplacements / environnements de liens

Je le répète souvent, Google connaît sa géographie, dans le sens où il peut très bien déterminer si un lien est placé « naturellement » au sein du contenu d’une page, dans un menu ou dans un pied de page. Du coup, le lien « in text » qui baigne dans du vrai contenu, et qui sera suivi par les internautes aura beaucoup plus de poids qu’un lien en footer entouré d’autres liens externes sans vraiment de rapport sémantique.

Comme pour les autres metrics, je « flag » dans mon tableau (Excel) les backlinks en fonction des critères ci-dessous :

  • Lien en footer : en soit, un lien en footer n’a rien de nuisible. Mais il n’y a pas besoin d’être un ingénieur ni d’élaborer un algo sophistiqué pour deviner que ces liens sont généralement le fruit d’un partenariat sous forme d’échange de lien.
  • Blogroll ou « partenaires » : même chose qu’au-dessus. Si en plus on indique clairement « nos partenaires » ou « blogroll », on donne des billes à Google pour identifier la nature du lien.
  • Lien en signature : certains forums autorisent encore les liens dofollow en signature. Ces liens n’apportent plus grand chose en matière de jus, puisqu’ils sont forcément artificiels, et contiennent souvent des ancres sur-optimisées.
  • Lien « in text » dans du (vrai) contenu : en théorie, ce sont les meilleurs. Mais cela ne dispense pas d’évaluer le contexte, le type de plateforme, les autres liens présents sur la page, etc.
  • Qualité du texte ou réside le lien : La génération de contenu à grande échelle (à petite ça n’a pas grand intérêt) passe très souvent par la technique du « content spinning ». Ceux qui connaissent savent que les spuns générés sont parfois très/trop proches les uns des autres et donc détectable par l’algorithme de Google. Ce point peut être très nocif avec pingouin !
  • Lien en colonne sans véritable texte : même approche que pour les liens en footer, en site wide, ou dans un encadré « blogroll ».
  • Lien entouré d’autres liens externes de thématiques très variées : avoir un beau lien dans un bon contenu c’est bien, mais si il cohabite avec d’autres liens bien « spammy » renvoyant vers des sites de thématiques aussi divers que « pharmacie en ligne », « cigarette électronique », « riad à Marrakech » votre lien prendra de facto un air suspect. Logique.

Typologie des ancres

On a tous connu le poids des ancres, on en a abusé, on sait ce que ça a donné. Selon les niches, le profil des ancres peut varier, mais la sur-optimisation à outrance a souvent conduit à des aberrations flagrantes, conduisant irrémédiablement à la pénalité. Les ancres « exact match » et concurrentielles ne doivent plus être en proportion dominante. Inversement, les ancres reprenant la marque (branding), les liens « url », et les mentions doivent représenter les parts les plus importantes de votre camembert. Ces ancres apportent une caution aux yeux de Google, au même titre que les votes sociaux (likes, +1, retweets, etc.).

Comme je l’évoquais plus haut, il faut classer et segmenter avec la plus grande précision les ancres. Ce travail devra être fait en grande partie à la main, ancre par ancre.

  • Les ancres de type « exact match » : elles sont, à l’image des noms de domaine, composées de mots calqués sur des expressions concurrentielles régulièrement tapées dans les moteurs de recherche. Si on force trop dessus, le signal peut être des plus mauvais.
  • Les ancres de type « money » : elles englobent forcément les ancres « exact match » (EMA), mais ont un spectre plus large. La limite empirique s’arrête là où le CPC descend en dessous d’un certain seuil, variable en fonction des profils et des secteurs d’activité. D’une manière générale il se situe entre 0,70€ et 1,20€ au CPC.
  • Les ancres de type « brand » : elles reprennent la marque de l’entreprise, parfois marque + slogan, le nom de domaine.
  • Les ancres mixtes « brand + money/EMA » : c’est par définition l’association des 3 ancres ci-dessus.
  • Les ancres de type URL : pas d’optimisation, pas de mots clés, juste une url.
  • Les ancres avec nom ou prénom : elles peuvent avoir une importance selon les cas pour renforcer l’authorship par exemple. On peut également considérer ces ancres comme neutres.
  • Les ancres neutres : « lire l’article », « en savoir plus », « ici », « site du fabriquant », « www »…
  • Les ancres divers : c’est un peu le fourre-tout où on mettra les inclassables composées de plusieurs mots, et les ancres ciblant la longue traîne.
  • Les mentions : ce sont les références au site, bien souvent des URLs, mais sans lien hypertexte (non cliquables). On ne peut pas parler d’ancre dans ce cas précis, mais il n’est pas inutile de les inclure dans l’analyse globale des ancres. Les mentions (urls) peuvent s’obtenir avec majesticseo par exemple, à condition de bien le configurer.

Bien éplucher ses stats (Google Analytics ou autre)

Une des clés pour distinguer les « bons » des « mauvais » backlinks peut également se trouver dans les stats. Si un lien ne renvoie aucun trafic organique, c’est qu’il est par essence médiocre. A l’inverse, les meilleurs liens sont ceux qui renvoient des visiteurs, et dont l’appétence montre clairement qu’ils ont apprécié leur visite sur le site.

Plans d’actions possibles (cumulables)

Au cas par cas, plusieurs stratégies peuvent être envisagées :

  1. Contacter les sites hébergeant le(s) lien(s) entrant(s) pour modifier l’ancre ou retirer le lien.
  2. Désavouer (via GWT) les liens ou les sites qui nuisent à la normalité de l’écosystème, et dont il n’est pas possible d’obtenir la suppression en contactant les éditeurs.
  3. Démarrer une nouvelle campagne de netlinking plus naturelle et conforme à la normalité.
  4. Démarrer une nouvelle campagne de netlinking axée sur les liens neutres, « brand », et mixtes.
  5. Changer de nom de domaine et repartir de zéro, au regard de la (non) faisabilité.

Illustration

Voilà grosso modo mon approche pour lever ou prévenir d’une pénalité Google pingouin. Dans mon processus, j’utilise beaucoup Excel, ajoutant autant de colonnes que nécessaire pour trier, croiser et filtrer au mieux les backlinks et les ancres. Cela me permet d’obtenir des pourcentages très précis, et de créer des graphiques « camambert » ou « radar » bien parlants.

My 2 cts

Panda, pingouin… avec le recul, ce tour de vis imposé par Google, je l’apprécie de plus en plus contrairement à beaucoup de mes confrères. J’ai fais le deuil de mes MFA, et les combines BH à 2 bitcoins. J’ai totalement tourné la page. Mais combien ne s’en sont pas remis ? Difficile de le savoir. C’est certainement un sujet un peu tabou. Mais je me rends compte de plus en plus que ces filtres anti-spam de Google contribuent à assainir le marché du SEO plus qu’à le tuer. C’est devenu un vrai métier. Les clients sont de plus en plus vigilants et sensibilisés. Beaucoup ont souffert de ces pseudos agences qui autrefois faisaient du travail de porc avec de la soumission automatique à peine spinnée… Quelque part je n’ai pas envie de leur jeter la pierre car ils ont appliqué les techniques qui marchaient à l’époque, mais c’est surtout la manière de présenter les choses et de facturer la prestation aux clients qui me dérange le plus. Aujourd’hui je me récupère des projets qui sont justement passés dans les mains de ces prestataires « presse bouton » et adeptes du moindre effort. Tant mieux pour moi dans un sens, mais la situation est toujours délicate. Les clients qui ont déjà investi lourdement dans le SEO et qui du jour au lendemain se retrouve avec des -70% de trafic (et parfois autant de CA), n’ont plus forcément le budget ou le courage pour remettre la main au portefeuille afin d’assainir leur existant. Hélas pour eux, s’ils veulent pérenniser leur business sur le web, ils n’ont guère le choix. Souvent c’est un mal pour un bien, enfin c’est comme ça que j’essaye de présenter les choses.

Un audit « spécial pingouin » est un véritable travail d’expertise, ça prend du temps, et forcément ce n’est pas donné. Il faut avoir la vista, et une bonne culture SEO pour produire une analyse fiable. Et soyons honnêtes, le succès n’est pas toujours au rendez-vous, sortir d’une pénalité Google n’est jamais facile. Vous me direz qu’avec ce postulat de départ, difficile de convaincre les clients. Ok. Mais de là à vendre du rêve…
Mon discours est immuable quand un nouveau prospect vient vers moi pour une presta anti pingouin : si le plan d’action ne marche pas pour sortir de la pénalité, tout le travail d’analyse effectué en amont doit servir de base pour lancer, si besoin, d’autres projets en parallèle. Faire une croix sur le canal internet est rarement une option pour les entreprises, et les efforts financiers injectés pour tenter de sauver un projet ne doivent jamais être vains.

Au-delà de pingouin, c’est l’avenir du backlink qui est en jeu. A l’instar de Yandex, je pense que le backlink ne sera bientôt plus la pierre angulaire pour Google. Il deviendra un indicateur comme un autre au même titre que les votes sociaux. L’engagement et le comportement des internautes en revanche devient de plus en plus important et/car quasiment impossible à manipuler. Google en est forcément conscient.

En tout cas, le backlink n’est pas mort. Quoi qu’on en dise, on peut toujours faire du netlinking. C’est beaucoup plus risqué et coûteux, mais ça marche toujours, surtout quand c’est bien fait et que l’on respecte cette règle d’or : ne jamais compenser le manque de qualité par la quantité.

Quelques liens qui m’ont inspiré pour écrire sur ce sujet, et susceptibles de vous aider :
SEO Penalty Removal by identifying poor quality links (Smartinsights.com / EN)
A Theory for Preventing & Recovering from a Google Penguin Penalty (Moz.com / EN)
Disavowed: Secrets of Google’s Most Mysterious Tool (Moz.com / EN)
If You Disavow Links Are They Gone Forever? Experiment Update (Cyrusshepard.com / EN)
Vous pouvez avoir un lien en DoFollow si :
  • Vous ne faites pas de lien optimisé (brand ok).
  • Votre contribution apporte de l'eau au moulin et ne se contente pas de remercier (même si c'est toujours appréciable).
  • Vous ne donnez pas l'impression de ne pas avoir lu l'article.
  • Votre site doit graviter dans l'univers du SEO / web marketing / IT.
  • Nouveau : Se suivre mutuellement sur Twitter (oui ça fait copinage, et j'assume !).
Le but n'étant pas d'être plus sévère, mais au contraire plus équitable et... naturel. N'oubliez-pas : moins de spamco = meilleur jus !

34 réflexions au sujet de « Google pingouin : se sortir de la pénalité, ou s’en prémunir »

  • Encore un très bon article, merci!
    Tu évoques google webmaster tools concernant le désaveu de liens mais pas du tout pour l’analyse de backlinks. Tu ne l’utilises pas du tout lors de ce genre d’audit?

  • Article très complet, j’ai beaucoup apprécié notamment sur le fait de se remémorer que Pingouin est un écosystème avec plusieurs paramètres (pas manichéen).
    Au niveau des désaveux de lien, il n’existe pas des outils gratuits pour connaître les liens toxiques ?

  • @Jerome : Dans ce contexte, oui je l’utilise quand je passe par le service link detox qui fait une agrégation de plusieurs sources de BL. Sinon en temps normal, je me tourne plutôt directement vers majestic car je n’ai pas toujours les accès GWT, et il y a quand même beaucoup plus d’infos et de metrics sur les outils spécifiques comme ahref, majestic ou OSE.

  • Merci pour ton retour sur Link Detox. J’hésite depuis un moment à tester mais les tarifs sont vraiment trop élevés. Au vu de ton feedback, je suis encore moins motivé à le tester. Les tarifs baisseront peut-être lorsqu’il y aura plus de services plus ou moins similaires.

  • J’aimerais que tous ceux qui me contacte aient lu ton article avant :-)
    Tu as tellement raison en ce qui concerne la complexité globale d’une pénalité Pingouin.

    Le pire, ce sont certains clients pour qui je fais du linking aux petits oignons et qui me complètent ça avec leur stagiaire « qui lui fait plus de liens ». De la future chair à Pingouin…

    Sinon de mon côté j’aime plutôt bien linkdetox que je trouve ultra parano. Tu as entierement raison quand tu dis qu’il faut de toute façon revoir tous les liens à la main 1par 1, mais ses analyses sur les réseaux sur la même IP ou les marqueurs GA identiques sont quand même bien pratiques. Idem pour repérer très rapidement les liens sur des sites qui ont 2 ans ou plus et une homepage sans PR.
    Bien sûr, il est loin d’être parfait, mais comme tu le dis, aucun outil ne l’est.

    ps: très bon article qui devrait metrre un peu de plomb dans la tête de certains j’espère, car l’idée est aussi d’éviter des pénalités à venir…

  • Dossier très complet avec lequel je suis en accord total.

    Mon money site principal a perdu de la visibilité à cause de Pingouin. Il s’agit de l’annuaire Waaaouh (je mets le lien du retour que j’avais fait sur WRI).

    À la base, je ne pouvais qu’abandonner la chose, le projet était mort. Mais suite à un débriefing avec de prestigieux spécialistes, 2 autres options s’offraient à moi : dévouer les liens (issus de +25.000 domaines différents), ou repartir d’une page blanche, un nouveau nom de domaine, pas de redirection 301 et éviter les liens sales.

    J’ai fini par choisir la 2e option. Perdu pour perdu.

    Il aura fallu 1 mois et demi pour récupérer le trafic Pingouin qui, à partir de là, à continué à augmenter et l’a supplanté.

    Aujourd’hui, le CA du site est à environ 250% de ce qu’il était après la pénalité et je peux enfin envisager d’apporter de nouvelles améliorations au contenu du site et à sa présence sociale. Ce qui était devenu inutile avant.

  • Bjr
    (nouveau commentaire, le premier étant parti dans les limbes du web)
    Merci pour cet article très détaillé !
    La question qui se pose souvent, pour ces pénalités algorithmiques est la suivante : après avoir corrigé les problèmes (ici netlinking par suppression et/ou désaveu), au bout de combien de temps la pénalité « saute-t-elle » ? Faut-il attendre quelques jours ou un nouveau lancement de Penguin ?
    Quelle est votre expérience à ce niveau
    Merci
    Olivier

  • > Au bout de combien de temps la pénalité « saute-t-elle » ? Faut-il attendre quelques jours ou un nouveau lancement de Penguin ?

    J’ajouterais :  » est-on certain qu’après correction, la pénalité peut être levée un jour ? certains nom de domaine ne sont-ils pas condamnés à vie ?  » :?

  • @Sylvain (Axenet) : Tu sais cet article est en partie destiné à mes prospects pour m’éviter de répéter inlassablement les mêmes choses chaque fois. Merci pour ton intervention ;)

    @Olivier Andrieu : Une levée de pénalité s’opère normalement à chaque itération de pingouin (excepté les updates « data refresh »). A condition bien sûr que le travail de purge soit bien mené. Je me rends compte qu’il y a quelques aspects dont je n’ai pas parlé dans cet article, celui ci en est un, y’a le NSEO également… Dans un prochain billet peut-être ^^

    @Nico : Je ne crois pas que l’on puisse parler d’incurabilité avec pingouin. Y’a des cas beaucoup plus lourds que d’autres, mais contrairement à Panda ou la manière de monétiser le site peut influer, on peut en théorie toujours s’en sortir. C’est un problème de « casier » en fait. Si le site cumule les faiblesses et que la faisabilité est quasi nulle alors on peut parler de condamnation. Merci en tout cas pour ton retour d’expérience (très détaillé sur WRI) !

  • En fait, je suis à peu près du même avis :

    « on peut en théorie toujours s’en sortir »

    Par contre, je trouvais ça amusent de soulever la question car j’ai l’intime conviction qu’avec Pingouin, les gourous de l’algorithme Google ont décidés d’infliger une sorte de « reset » à toute une partie du Web. Un reset du Web en sommes.

    En gros : « Ha les SEO, vous faites les malins avec vos techniques de netlinking… Eh bien aujourd’hui, je déclare que vos techniques SEO off page sont complètement obsolètes et vous allez devoir, soit faire un gros boulot de nettoyage, soit repartir de 0, et vous remettre en question. ».

    Partant de ce constat, on peut penser avec optimisme que nous rentrons dans une phase de transition comparable à la période de l’Eldorado du Web, les débuts du Web où il était facile de s’en mettre pleins les fouilles.

    En plus d’avoir changé le nom de domaine de mon annuaire (cf. précédents messages), pour mon entreprise de créa Web, j’ai décidé d’abandonner mon précédent site (bien (trop) optimisé niveau linking) et d’en refaire un tout neuf en travaillant uniquement sur la SMO. Eh bien, dans ce nouvel « écosystème Pingouin » et à contenu équivalent, le nouveau site a largement dépassé le premier en terme de visibilité/trafic/positionnement.

    J’en ai donc conclu que la rentabilité du netlinking était devenue très relative, surtout lorsqu’on ajoute à l’équation le « facteur risque de pénalité ». Il y a tellement de critères sur lesquels jouer pour faire de son site « une référence » (comme tu définis très bien le SEO dans ta bio sur Twitter ;) ) que perso, je ne me concentre plus sur le linking. Beaucoup ne sont pas de mon avis.

  • @Nico : concernant la possible reflexion des « gourous de l’algorithme Google », tu oublis quand même un détail hyper important dans le choix des alternatives qui se présentent aux éditeurs : Adwords ;-)

  • > tu oublis quand même un détail hyper important dans le choix des alternatives qui se présentent aux éditeurs : Adwords

    @Aurélien : Ha ha ! Excellente remarque ! Rendez-vous ici ou même là pour voir si j’oublie cette option ! ^_^

    Mais tu as raison… beaucoup veulent les bonnes grâces de Google en oubliant complètement que ce qui fait tourner le moteur de cette société, c’est Adwords ! Mais ce n’est pas mon cas :-)

    Sûr que si Google, en déployant Pingouin, peut gagner quelques clients Adwords, il ne va pas cracher dessus :-)

  • Bonjour.

    Article très intéressant qui m’a permis de découvrir des outils concernant l’analyse de la toxicité des backlinks que je ne connaissais pas.

    J’aurais cependant une petite question. Un de mes sites a été touché par pingouin (mai 2013) suite à de mauvais liens, principalement dans des annuaires. Après avoir passé un temps fou à modifier les différentes ancres de type exact match en brand (NDD.com, NDD), URL … rien n’a changé lors de la mise à jour d’octobre 2013.

    Du coup j’en arrive à ma question, modifier l’ancre des liens est-il suffisant à faire tomber la sanction ou pas ? De mon expérience je dirais que non, mais si vous avez des retours je suis preneur :)

    Cela étant dit, très bon article !

  • @Pierre : Ben non ce n’est pas suffisant, c’est un peu ce que je démontre dans mon article…
    Tu changes les ancres de tes BL dans les annuaires, mais ça reste des BL provenant d’annuaires. Pas sur que tu ai lu l’article en entier… en même temps je ne te jette pas la pierre, j’ai un peu débordé sur mon quota de mots.
    ps : lien supprimé (y’a que 4 ou 5 lignes pour les règles)

  • Bonjour,

    Bravo pour cet excellent article !
    Ayant été pénalisé plusieurs fois par le pinguin (mai et octobre 2013), je me suis penché sur ce « profil de backlinks » ou cet environnement.
    Effectivement il faut prendre un nombre de facteurs énormes en considération : le tableau Excel des liens devient gigantesque une fois tout rempli. Et on ne peut se passer d’un travail « à la mano ».
    LinkDetox fait de l’oeil depuis un moment à tous ceux qui comme moi ont subi la colère du Pinguin. Mais effectivement je pense qu’il ne sera jamais aussi efficace qu’un travail personnalisé, même s’il est long et fastidieux.
    Pour info j’ai retrouvé quelques positions et un peu de trafic en appliquant la méthode citée.
    D’où la bonne nouvelle : ça marche !

    Au plaisir d’en discuter sur Twitter (@seb_bp) ou par email.

  • « une pénalité pingouin n’est pas toujours franche. Il est parfois difficile de la repérer. Cela n’affecte pas forcément le site en entier, mais juste quelques mots clés bien ciblés »
    On pourrait même résumer à des pages non? Ce que j’ai remarqué c’est que le filtre pénalise sur un ou plusieurs mots clefs d’une page mais finalement étend le pénalité à toute la page.
    Dans les sites que j’ai analysé j’ai commencé à repérer les pages qui ont dégringolé et ensuite j’ai recoupé avec les mots clefs.

  • Je suis d’accord avec l’analyse et spécialement avec la citation : le backlink n’est pas mort. Quoi qu’on en dise, on peut toujours faire du netlinking. C’est beaucoup plus risqué et coûteux
    Je suis d’acc aussi avec le statement à propos de Link Detox trop cher pour ce que ça fait. En revanche CognitiveSEO est d’une aide précieuse grâce à leur technique de Clustering des liens en fonction du type de site.
    Rmoov je l’utilise pour tous mes clients : gratuit et efficace. Voilà my 2cts ;)

  • Article ultra complet, et compréhensible par tous je pense (déjà, moi, j’ai compris…).
    Il faut certainement beaucoup de patience dans l’analyse pour faire un travail en tout point utile à une lévée de pénalité. Et donc il faut beaucoup de temps, avant même de commencer à se dire « Maintenant, j’attends le prochain manchot pour sortir la tête de l’eau.

  • Super article :)

    Une question concernant la balise keywords, tu dis très justement que les mots clés sur lesquels le site veut ranker sont indiqués. tu conseilles quoi de s’en servir pour vérifier si ce sont sur ces mots clés là que le site a le plus été pénalisé, la supprimer, la laisser tel quelle ?

    Et histoire de faire un peu de parano, tu penses qu’il y a une relation de cause à effet ou une simple correlation entre son contenu et les mots-clés qui sont le plus pénalisés ? ( j’avoue n’avoir jamais pensé à vérifier ce point – mais je travaille sur un site pénalisé en ce moment, je vais regarder ca de mon côté)

  • @Sandrine : Pour les meta keywords, je recommande toujours de les supprimer. Dans une logique de « purification » il ne faut rien laisser qui puisse donner du grain à moudre au pingouin, mais également aux concurrents ;) Je te dirai également que les mots clés contenu dans ces balises sont souvent répétés systématiquement sur toutes les pages car bien souvent, à la base, les éditeurs n’ont pas fait de véritable étude de mots clés (cf mon article), et se focalise et bourrinent sur 2 ou 3 expressions sur l’ensemble de leur site.

    Quant à la possible relation entre contenu et pénalité, je pars du principe qu’il peut y avoir une corrélation. Si les ancres et expressions « exact match » sont en proportion anormale on site comme off site, c’est certainement la preuve que l’éditeur du site cherche à ranker sur ces expressions. Très dur à vérifier forcément, mais il vaut mieux ne pas regarder que le côté « off site » dans ce genre d’analyse.

  • Merci pour cet article très complet ! Je suis tout à fait d’accords avec le fait d’apprendre de ses erreur (étant victime de Google pingouin) et savoir se relever. En tout cas, merci pour tous ces détails et toutes ces méthodes, c’est d’un granf aide.

  • Bonjour Aurélien, sincères félicitations pour ton article car non seulement il aborde dans de nombreux détails cette satanée pénalité, mais en plus ce sont les véritables méthodes pour s’en sortir.
    J’ai personnellement eu quelques sites impactés, dont aujourd’hui plusieurs sont de nouveau en piste.
    Toutefois, avec l’effet désoptimisation, c’est à dire quelques pages de positionnement perdues et nous savons tous que si le site n’est pas sur la 1ere page ca ne sert pas à grand chose.
    Mais bon, la solution que j’ai trouvé et qui fonctionne bien c’est le traitement de choc. Mais il y en a d’autres encore.
    Enfin, je voulais aussi rajouter un petit détail sur la balise kw, perso soit je ne la met plus comme tu le fais également, soit je la met en y plaçant volontairement les kw qui sont en corrélation avec l’activité du site mais que je ne vise pas. Ca laisse du grain à moudre pour gg et pour les concurrents aussi.

  • Juste my 2 cts les outils Removeem.com et rmoov.com sont très utiles pour contacter les webmasters et supprimer les liens (très bons par ailleurs). Je suis d’accord que Link Detox est super cher et Cognitive SEO bien que très complet ne propose pas une solution rapide. Je préfère à la mano via FullContact API, NetPeak Checker et Excel

  • L’article parfait sur penguin, j’en suis arrivé à la même conclusion que vous. Pour ma part j’utilise link detox, c’est très cher, mais ça fonctionne. J’avais vu Removeem et j’avais eu un doute devant l’austérité de l’interface, j’ai pensé que c’était une arnarque, merci Mohammed.

  • Merci pour cet article qui m’a bien servi pour mes audits de netlinking !

    Je me sers de MajesticSEO et Open Site Explorer, au moins pour mes sites. Le problème, c’est que certains outils ne prennent pas en compte tous les backlinks d’un domaine (ils s’arrêtent parfois à 10).

    Est-ce que c’est pour aller dans le sens de Google qui accorde un poids dégressif aux liens sur un même domaine ? (le 10 vaut moins que le premier). Comment faire un audit complet de sa distribution d’ancres dans ce cas ?

  • Quand je lis « Si en plus on indique clairement « nos partenaires » ou « blogroll », on donne des billes à Google pour identifier la nature du lien. », pour moi, c’est quand même l’aveu d’incapacité de Google à proposer des sites répondant à une requête d’après ses propres critères. En effet, quand Google à annoncé que les liens externes favorisaient le référencement parce qu’ils signifient que « votre site est populaires auprès des autres sites », on pourrait penser qu’il est honnête de placer les sites qu’on aime et qu’on veut proposer aux internautes de façon explicite. Et bien non, il faut les dissimuler ça et là comme si de rien n’était, avec de mauvais title comme par erreur… bref une pure hypocrisie. Et après Google s’étonne que les référenceurs ne la jouent pas franc-jeu…
    Je continue de penser que Google est nul, comme le jour où j’ai lancé ma première requête (pour afficher les quelques vingt sites que je connaissais sur le sujet) et qu’il m’a sorti… 3 résultats…. Et que tous ces algo ne sont mis en place que pour contrer d’autres formes d’entrée sur le Web qui risqueraient de le faire chuter.

  • Bonjour,
    J’essaye de me rendre compte du temps qu’il faut pour sortir d’une pénalité et ca me donne le tournis…

    Tu parlais dans un de tes commentaires de NSEO :
    Le site d’un client s’est fait piraté en juin dernier (script créant un dossier bidon avec des milliers d’url aux mots clés bien précis + htaccess redirigeant vers des sites pharma ou + si affinités ;) ) ; ce qui a été suivi par une campagne de netlinking massif sur l’ensemble des URLs créées. Aujourd’hui, malgré un nettoyage (suppression du script, renvoi vers page 404), ces liens existent toujours et renvoient des milliers d’erreurs sur GWT.
    Même si pour le moment ca ne semble pas avoir trop impacté le trafic global, ces liens restent une menace. Je me vois mal contacter les milliers de webmasters (piratés eux aussi pour la plupart, souvent plus maintenus en apparence…).

    Y a t il une solution pour désavouer un dossier complet sur GWT ? Est-ce suffisant ? Ou faut il vraiment tout se « taper » à la mano, un par un -en attendant la prochaine campagne de NSEO- ?

    Merci pour l’article super complet en tous cas.

  • bon article, bon site (et hop rss si dispo), belle découverte, juste au moment ou je decide de « devenir pointu » en seo new-age !

  • Merci pour cet article et merci Mohammed pour Removeem qui a l’air très fonctionnel :)
    Je vais tester cet outil pour une cliente qui a pris un coup avec la dernière MAJ Pingouin.

  • Il est tout de même plus compliqué de se sortir d’une pénalisation pingouin que panda.
    Je suppose que lorsqu’un site est pénalisé il ne sort jamais vraiment de l’oeil de Google même après avoir nettoyer les liens.

    Derrière si le site reprend une stratégie de Netlinking je suppose qu’à la moindre ancre optimisée il se fait sortir.

  • @Baptiste : Par expérience, je trouve au contraire qu’il est plus difficile de sortir de panda que de pingouin (d’une manière générale).
    En outre un site qui sort de pénalité (pingouin) ne peux pas retrouver ses positions d’origine car à la base il est souvent monté trop haut artificiellement, et le travail de désoptimisation fait qu’il se retrouvera forcément à un niveau inférieur aux positions passées. Est-ce qu’un site qui a été pénalisé de manière algorithmique (et qui ne l’est plus) devrait être toujours pondéré négativement dans le futur contrairement à un site au casier vierge ? Je n’en sais rien, mais je ne pense pas.

Les commentaires sont fermés.