Les backlinks, c’était mieux avant ?

Avec l’arrivée de la dernière terreur « Google pingouin » le 24 avril dernier, le backlink, jusqu’ici considéré comme le levier le plus fort du référencement, semble subir une crise existentielle. Plus que jamais à double tranchant, comment envisager des campagnes de netlinking pérennes sans prendre de claque, qui sont souvent catastrophiques financièrement ?

Un peu d’histoire pour se rafraîchir la mémoire :
Le scénario est souvent le même : on découvre un levier puissant pour faire monter nos sites, on en use et on en abuse jusqu’à ce que les moteurs pondèrent la technique, et pénalisent les plus bourrins. Au temps où l’on utilisait encore Altavista (je sais, je ne suis pas tout jeune), il suffisait simplement de jouer sur la densité de mots clés dans une page, et bourrer les balises meta keywords pour grimper dans les résultats de recherche. Effet pervers assuré, le spam a rapidement envahit le moteur. C’est là que Google a fait la différence avec son algorithme beaucoup plus complexe basé sur le pagerank (évalué sur la popularité des liens entrants), offrant des résultats beaucoup plus pertinents.
Puis les SEO se sont adaptés, et ont articulé leurs campagnes autour du fameux pagerank, et tout tournait (ou presque) autour de la barre verte. Comme tout facteur prépondérant au ranking chez Google, cela a généré beaucoup d’abus, et ce dernier n’a eu d’autre choix que de minimiser son importance en le diluant avec d’autres signaux.

Jusqu’à l’introduction du filtre panda et pingouin, il était très difficile à Google de déprécier l’importance du backlink dans son algorithme. Les liens entre sites sont la raison d’être du web, et logiquement la qualité et le nombre de liens pointant vers un site restera toujours un facteur déterminant pour évaluer sa popularité. De ce point de vue, on peut supposer que le backlink a de beaux jours devant lui.

Depuis des années, on sait qu’un mauvais linking peut être nocif, que la variation des ancres est nécessaire, que des backlinks provenant de sites autoritaires et supposés trustés par Google sont très puissants… Le filtre pingouin n’a strictement rien de nouveau comparé à panda, Google a juste serré la vis maintenant qu’il a appris (grâce notamment au machine learning) comment évaluer la pertinence d’un site sans nécessairement prendre en compte les liens entrants.

Combien de référenceurs émérites se sont fourvoyés en soutenant que Google ne pénaliserait jamais à ce point les mauvaises pratiques en matière de linking, arguant une porte ouverte au NSEO ? Moi-même j’avoue m’être contenté de ce postulat, du moins jusqu’à l’arrivée de panda, profitant pleinement de cette époque maintenant révolue où quelques pauvres backlinks, au pire n’apportaient rien, et permettait de tester toutes sortes de stratégies. La situation est dorénavant bien moins confortable.

Hé oui, les backlinks c’était mieux avant, quand ils se suffisaient à eux seuls pour propulser un site en haut des SERPs. Pour autant, un bon backlink au sein d’une stratégie SEO bien menée, aux sources diversifiées et « naturelles » aura toujours autant de puissance, et devrait même garder encore quelques années la palme du facteur prépondérant dans le référencement, à condition bien sûr qu’il naisse dans un environnement sain, et un contexte naturel.

Un exemple de ce qui ne marche plus, et qui devient même nuisible : Votre site traite de la finance ? Vous éviterez d’obtenir un backlink d’un site traitant de la protection des animaux, quand bien même il possède un PR6. Il n’est plus question ici de tenir compte uniquement du « Google juice ».
Si la thématique diffère radicalement, et qu’en plus le lien se trouve dans un environnement pauvre (emplacement footer, site wide, pas de texte réel ou que des liens autour, etc), alors c’est le red flag assuré.

Il faut changer ses habitudes et parfois ses outils

Les messages que nous envoie Google sont multiples et sujet à beaucoup d’interprétations. Considérons, pour bien faire, qu’il nous demande simplement d’être plus ouvert d’esprit, et de considérer son algorithme comme une entité humaine. Si je suis assez intelligent pour deviner à la première lecture d’une page qu’un lien est naturel ou artificiel, alors l’algo peut le faire également.
Cette logique doit également s’appliquer à l’acquisition des backlinks dans le temps, la variation des ancres surtout quand on vise des occurrences concurrentielles, et la concordance avec l’évolution de son site.

Faire naturel est devenu impératif pour rester sous le radar. On parle même aujourd’hui de « référencement bio » où l’on cultive son site comme un potager… sans engrais artificiel. Enfin, c’est l’image qu’il faut renvoyer à Google : faire du référencement sans donner l’air d’en faire.

Certains outils black hat parfois très puissants, qui étaient déjà potentiellement dangereux, ont pris du plomb dans l’aile. Je pense par exemple à des outils d’automatisation de backlinks développés initialement pour le marché anglophone comme SenukeX, qui en plus d’envoyer des liens de faible qualité risque d’envoyer majoritairement du lien non francophone vers votre site cible.
Les outils conférant plus de latitude à l’utilisateur s’en sortent mieux (Scrapebox, Sick Submitter) à condition de bien maîtriser la puissance de feu dont ils sont capables.

Vente de liens réprimée, champs d’action SEO réduit, à qui profite la situation ?

Depuis le 25 mai 2012, Google semble en effet bannir les agences qui revendent des liens à leurs clients. iAquire par exemple en a fait les frais comme le relate searchingineland.

De même, avec tout le buzz et le bruit négatif qu’a généré le filtre pingouin, quelle entreprise irait aujourd’hui miser aveuglément dans une campagne de netlinking au risque de flinguer son business avant même qu’il ne décolle ? Le coût et le risque en valent-ils la peine ? Est-il envisageable pour une entreprise qui veut faire du SEO « white hat » d’attendre 2 ans pour voir son site (enfin) rentable ?

Tous ces précédents devraient faire réfléchir beaucoup d’agences et de SEO qui préféreront lever le pied sur les campagnes SEO trop agressives et risquées, quitte à proposer à leurs clients des campagnes adwords, in-fine la motivation première de Google qui est le grand gagnant dans l’histoire. Chaque nouveau filtre qui sort réduit de plus en plus la marge de manœuvre des SEO et augmente d’autant le CA de la firme de Mountain View et Adwords. Est-ce que les résultats de recherche sont plus pertinents, ça c’est une autre histoire.

Là où il y a une véritable crise existentielle du backlink, et par extension du référencement naturel, c’est donc le coût en temps et en argent que requiert l’acquisition de ces derniers. La vente de liens est certes prohibée et pénalisée par Google, mais reste difficilement décelable si elle ne passe pas par une agence spécialisée (et grillée) dans ce domaine ou un marketplace genre buypr8link.com.

Quelles sont les nouvelles pistes pour trouver des backlinks ?

Si l’obtention de bons backlinks reste une tâche chronophage et parfois compliquée, il restera toujours des moyens d’en obtenir. Voici les dernières tendances :

  • Le link bait : proche du marketing viral, la technique consiste à proposer un contenu ou service favorisant la création de liens (backlinks). La technique mise en place peut être noble, voire border-line.
  • Le guest blogging : consiste à publier des billets sur d’autres blogs/sites établis en y insérant bien entendu un ou des lien(s) vers le site à référencer. Souvent plus efficace que les communiqués de presses (CP), le procédé est à la mode, surtout chez les anglo-saxons. Mais essayons de voir plus loin : si aujourd’hui Google sanctionne l’achat de lien, pourquoi n’en serait-il pas de même pour cette méthode ? D’autant que ces billets sont généralement annoncés clairement comme « sponsorisés » ou « guest blogger », autant de footprints évident pour se faire repérer.
  • L’achat de blog : nouvelle tendance outre atlantique. On rachète des blogs qui possède déjà un existant et un bon background, pour en faire par la suite des sites satellites (ou parasites si vous voulez). Ce n’est pas donné à tout le monde : il faut trouver les bonnes cibles, et les prix grimpent vite.

Le bon backlink a de beaux jours devant lui, mais le backlink facile devient vite nocif.

nocif Les quelques techniques ci-dessus montrent comment obtenir de bons backlinks, qu’importe la légitimité et la légalité selon Google. Un bon lien provenant d’un site autoritaire sera toujours bénéfique et précieux. Mais à l’avenir il faudra faire beaucoup plus attention à la tentation d’obtenir des liens faciles provenant d’annuaires, et de sites de CP. Ne prenez que les plus réputés et les plus exigeants, et évitez les solutions de facilité vous permettant d’arroser des centaines voire des milliers d’annuaires en quelques clics.

Par ailleurs, il est de plus en plus évident que trop miser sur le canal du référencement naturel, et l’acquisition de backlinks s’avère périlleux. Si vous avez des liens irréprochables et de qualité mais qu’à côté vous n’avez aucun signal social évident, et/ou un contenu pauvre, vous vous ferez automatiquement descendre. C’est comme une recette de cuisine : elle sera ratée si il n’y a pas une bonne alchimie entre les ingrédients, ou si on en laisse de côté.

Diversifiez vos sources de trafic, mais diversifiez également vos backlinks : gardez un ratio nofollow/dofollow cohérent, variez vos ancres quitte à ressortir les expressions bannies par les SEO jusqu’ici comme « lire l’article », « en savoir plus sur le sujet », « cliquez ici », et même l’url de la page sous forme de copier coller, forme que l’on retrouve très souvent dans les liens spontanés et 100% naturels. Accordez plus d’attention à l’environnement du lien, et le texte à sa périphérie. Le plus important est peut-être de ne pas trop insister sur les mots-clés dans l’ancre du lien, surtout s’ils sont concurrentiels.

Vous pouvez avoir un lien en DoFollow si :
  • Vous ne faites pas de lien optimisé (brand ok).
  • Votre contribution apporte de l'eau au moulin et ne se contente pas de remercier (même si c'est toujours appréciable).
  • Vous ne donnez pas l'impression de ne pas avoir lu l'article.
  • Votre site doit graviter dans l'univers du SEO / web marketing / IT.
  • Nouveau : Se suivre mutuellement sur Twitter (oui ça fait copinage, et j'assume !).
Le but n'étant pas d'être plus sévère, mais au contraire plus équitable et... naturel. N'oubliez-pas : moins de spamco = meilleur jus !

25 thoughts on “Les backlinks, c’était mieux avant ?

  • Comme tu le dis si bien dans ton article, chaque nouveau filtre apposé par Google assoit son hégémonie. Quand j’analyse certains résultats, où la pertinence est pourtant censée avoir été améliorée lors des dernières mises à jour, on peut aisément comprendre que Google pousse de plus en plus les sociétés à se tourner vers l’adwords. Et tout cela en toute impunité ni réélle concurrence.

    A nous de nous adapter à cette situation, ou de changer de métier :)

  • Les habitudes sont souvent difficiles à contrer, mais il est clair qu’à moins d’envisager d’autres formes plus créatives de netlinking, le modèle de référencement de ces dernières années est voué à donner de moins en moins de résultats.

  • « diversifiez également vos backlinks : gardez un ratio nofollow/dofollow cohérent »

    n’oublie pas de préciser aussi d’insérer des liens « bio » c’est à dire juste un copié collé de l’url (sous forme de lien mais aussi en texte) je sais que c’est contraire à notre volonté (on cherche toujours à peaufiner ses ancres etc) mais dans la réalité il y a énormement d’internautes (sur des forums et autres) qui partagent des sites en mettant juste l’url du site

    Ca donne un coté « naturel » d’autant que certains sites ne permettent pas d’y inclure d’ancres , autant en profiter pour insérer des liens « crades » (seo parlant) mais naturel

  • Je serais un poil plus exhaustif sur les techniques de linking qui marche – Dans l’absolu toutes les techniques marches toujours mais c’est l’application de ces techniques dans la campagne SEO qui a changé – on peut toujours faire un peu commentaire, annuaire etc meme du splog (je le sais je l’ai vu) – l’achat de liens aussi se porte bien (a partir du moment ou on se fait pas chopper). Le truc c’est qu’il aut etre plus fin dans la mise en place des liens

  • Complètement d’accord avec le fond de l’article, tant va la cruche à l’eau qu’à la fin elle casse dit-on.

    Mais je suis aussi d’accord avec le juge.
    Le constat que je fais est le suivant. Un site qui possède de très bons BL bien trustés dans la même thématique peut se permettre d’avoir un linking pas forcément super clean en parallèle. La condition étant d’avoir une très forte variation des ancres, mais ce dernier point est loin d’être nouveau, on en parlait déjà… en 2008

  • Je suis d’accord avec le juge, l’évolution de Google ne pénalise pas réellement tous les liens, mais demande une meilleure stratégie.
    Il veut du naturel, donc il faut l’être, ne pas venir avec ses gros sabots, diversifier le plus possible.

  • Les techniques ne changent pas, il faut juste être moins bourrin et plus prudent qu’avant

  • Je suis un peu dubitatif face à cette nouvelle mode de « désoptimisation ». Quand j’ausculte le netlinkink de mes gros concurrents, je vois très peu de « cliquez-ici svp », « lire cet article sympathique » ou de « veuillez cliquer sur ce lien bio madame la marquise ». Quant à la diversité des ancres, elle se réduit chez eux au minimum syndical.
    Pourtant, ils restent sur le podium de google (malgré l’invasion des manchots) et surtout devant moi.
    Ils ont juste plus de liens (CP, partenariats, articles sponsorisés, spam de commentaire), plus d’ancienneté et des partenariats avec des sites à forte autorité. C’est peut-être ce dernier point qui fait toute la différence entre leur Porsche Cayenne et ma 106 à 4 vitesse :).

  • Complètement d’accord, j’ai édité l’article dans ce sens. Il y a parfois des trucs tellement évidents qu’on oubli de les mentionner.

  • Je n’avais pas l’intention d’être exhaustif sur ce point, mais tu as raison, les techniques bien connues de tous (spamco, annuaires etc) marchent encore à condition d’observer un modèle naturel de linking (dans sa forme et son évolution).

  • Je suis d’accord avec ce que tu dis dans ton billet.
    Globalement, il suffit de repenser un peu sa stratégie tout en évitant les techniques de bourrins.
    De notre côté, nous avons une technique pas trop agressive ce qui nous a permis de ne pas avoir de soucis, mais il est vrai qu’il faut continuer à rechercher de nouvelles techniques.

  • Je serai plus tenté d’analyser ce que font les gens spontanément quand ils partagent des liens, plutôt que de regarder les BL des concurrents. Comme tu le dis si bien, ils ont sans doute des liens et partenariats avec des sites à forte autorité, une évolution des BL dans le temps plus naturelle. Mais à contrario, ils peuvent aussi être au bord de la ligne rouge, et ça tu ne le vois pas !

  • Je partage l’avis du juge et sylvain, tout dépend des méthodes mais potentiellement ca fonctionne encore.
    J’ai ri en lisant « référencement BIO », je n’avais pas encore lu cette expression.

  • En faite il n’y a rien de nouveau sur les technique qui marchent la seule chose est que les taux a respecter sont plus strict

  • En fait, le challenge est surtout pour les sites jeunes. Bâtir une stratégie 100% naturelle aux yeux de big G et se positionner va devenir de plus en plus chronophage, et les résultats seront plus long à arriver.

    Il va falloir être innovant et subtil, c’est un perpétuel challenge, il suffit de s’adapter :)

  • Pour ma part, j’estime que c’est le gros bourrinage type création de liens hors contexte dans les forums qui a pris une claque, et qui le prendra de plus en plus… maintenant, des mises à jour de google, il y en a eu et il y en aura, si vous regardez bien depuis le début, ils disent la même chose : du contenu intéressant pour obtenir des liens au profil naturel… aux seo de trouver ce que cela veut dire ;-)

  • Le linkbait et le guest blogging sont des techniques qui datent du début de l’acquisition de liens. Reste que maintenant les gros bourrins du SEO qui font du travail bien sale vont devoir apprendre à faire les choses un peu plus subtilement… Et on risque du coup d’avoir peut-être un peu + de vrai concurrence au niveau du métier :).

  • Si Google était une entreprise philanthropique ça se saurait et c’est clairement une situation de monopole.

  • Je suis d’accord aussi avec « Liens Bio ». La présentation des choses selon Google peut paraitre compréhensible sauf qu’il n’est pas rare ici ou là, d’auditer un site qui se trouve hyper bien placé et de se rendre compte que celui-ci ne respecte aucune règle. Dans ma spécialité, les hôtels, on trouve encore pas mal de sites boostés par des réseaux de site, propriété d’agence pour qui le référencement se borne à placer des BL dans leur propres annuaires et basta. Si on devait suivre ce que nous dit Google à la lettre, ce genre de système d’auto-alimentation de base aurait dû tomber avec Panda + Penguin, mais pourtant les sites sont toujours là bien au chaud dans le top 3.
    A l’inverse, on trouve aussi parfois des sites (hors Google Adresse) avec peu de contenu et à peine 20 BL depuis 12 domaines qui se placent devant.
    Comme quoi..

  • Merci pour ton très bon article.

    Tu résumes bien, la triste réalité de ces dernières semaines et effectivement le BL perd en importance, seulement je pense que nous manquons de recul pour être aussi affirmatif sur la portée « négative » d’une compagne de linking.

    Certes comme tu le soulignes un peu plus haut en réponse à un commentaire, il est difficile d’observer le linking des concurrents qui sont borderline, la mise à jour du manchot 1.2 aura peut être raison d’eux, mais je pense surtout que les sites qui ont la chance d’avoir de très beaux liens de sites d’autorités et/ou de sites .edu/.gov sont « protégés » d’un linking outrageux…

  • Très bon article qui est malheureusement le quotidien de tous les référenceurs. Je pense que c’est vraiment plus agréable d’avoir des filtres correctifs, cela sert notamment à doubler d’ingénieusement et de curiosité pour obtenir de nouvelles sources de qualité :)

  • Je partage ton analyse et la lutte contre le SPAM est légitime, mais ce qui me gêne, c’est la manière dont Google profite de sa situation de quasi monopole pour imposer le passage par sa régie Adwords.

    Dans le même temps la concurrence et les enchères augmentent. Ce sera à terme inaccessible pour les petites boîtes. Est ce que le web, in fine, sera réservé à des multinationales qui devront dépenser des sommes astronomiques pour exister ?

    C’est vrai que le SEO n’est pas mort et que les petits peuvent encore tirer leur épingle du jeux, mais ça devient de plus en plus difficile et il faut imaginer ce que sera le web dans 5 ans au rythme où il évolue…

  • Excellent article qui montre bien toute la difficulté de creer un netlinking efficace. Tout dépend aussi de la thematique: pour de l’immo par exemple, les échanges de liens a foison et autres liens en footer ont l’air indispensables. Il est important aujourd’hui aussi de prendre en compte le controle de ses liens dans le futur, les sites de cp ouvrent et ferment sans prevenir…

  • Excellent article ! Je suis entièrement d’accord avec ce qui a été dit, et malheureusement (ou heureusement) pour nous autres référenceurs, on doit constamment s’ajuster et s’adapter aux évolutions de l’algorithme très complexe de Google. Si c’était trop facile de se référencer comme par le passé, ce serait la porte ouverte à tout le monde ;)

  • Très bonne analyse, mais il est important de rappeler (comme cela a déjà été fait au sein de quelques commentaires) que toutes ces analyses sont très dépendantes des sites à référencer, et de la concurrence sur les requêtes en question.

    J’arrive encore à faire remonter des sites sur des requêtes moyennement concurrentielles avec un site dont l’onsite et le contenu est très bossé, mais dont le netlinking se compose à 90% de liens d’annuaires et de CP. Mais c’est également vrai que ça prend a priori plus de temps. D’où l’analyse particulière du a chaque projet.

Les commentaires sont fermés.