Panorama des différentes pratiques et fondamentaux
Préambule
Préambule
Le netlinking (ou linkbuilding) est toujours un pilier très puissant en SEO. Mais contrairement aux années pré-2012, il est préférable de l’inclure dans une stratégie multicanal qui doit associer réseaux sociaux, communication off line, relations presse, advertising, et branding. Un lien peut être considéré comme un vote ou une caution. Avoir un profil de lien à l’ancienne, à savoir beaucoup de liens sans signaux positifs par ailleurs, ne passera pas inaperçu aux yeux des algorithmes. Attention donc.
Rappelons que le ROI en SEO, et via le netlinking, peut-être très important si les actions sont bien menées. A l’inverse, une mauvaise campagne peut être désastreuse (pénalité, perte de CA, licenciements…).
Cet article est un panorama des différentes techniques connues. Il n’a pas vocation à donner toutes les connaissances et la culture nécessaires pour pratiquer sans risque le netlinking qui est un vrai métier, qui réclame passion, culture et justesse. La liste des techniques abordée ici n’est pas exhaustive, et ne le sera jamais. Je l’ai écrit à la base pour une présentation, trop long, je l’ai gardé privé pour mes clients, et je me décide finalement à le publier puisqu’il n’a pas la prétention d’inventer l’eau chaude.
« Tiers 1 » Késako ?
« Tier 1 » puise sa définition dans les réseaux de sites à plusieurs niveaux (voir l’infographie). Toutes les sources (sites, forums, annuaires, etc) faisant un lien direct vers votre site principal (appelé également « money site ») sont considérées comme tiers 1 (ou premier niveau). En tiers 2 on trouvera des sites qui « poussent » des sites satellites/fusibles. Mais là on ouvre une boite de pandore ou l’automatisation et les techniques black hat sont nécessaires. J’aborde brièvement le sujet avec les réseaux de sites PBN dans ce guide. Dans tous les cas, les liens du tiers 1 doivent être dénués de toute toxicité.
On peut donc faire le raccourci suivant : Tiers 1 = techniques de linking white hat.
Le graphique que j’ai réalisé ci-dessous était une sorte de défi : représenté dans un seul visuel un écosystème de liens (ou de backlinks si vous préférez) intégrant un réseau de sites privés (PBN) :
Fixer les erreurs 404
Le netlinking c’est long et parfois compliqué, à tel point qu’on oublie parfois le plus simple et le plus évident. Le 1er réflexe à avoir, c’est de regarder les liens entrants existants (backlinks) et contrôler si ils pointent tous vers des pages existantes (code 200), au pire redirigé (code 301). Mais un lien pointant vers une page 404 est un lien perdu ! Pour se faire :
- Voir données dans Google Search Console (Erreurs d’exploration)
- Faire un export des liens trouvés dans majestic.com ou ahrefs.com puis repasser la liste des pages ciblées dans Screaming Frog en mode “list” pour repérer les 404, 302, ou encore DNS Lookup failed).
- Éventuellement éplucher les logs du serveur web.
Produire du bon contenu… non mais sérieux !
C’est tellement évident ! Un contenu à forte valeur ajoutée, bien rédigé, aura beaucoup plus de chances d’être relayé naturellement… et les liens acquis naturellement sont bien souvent les plus qualitatifs. Par ailleurs, un contenu riche influencera la longue traîne qui peut représenter une part très importante de trafic.
Reste qu’il n’est pas toujours évident de produire du contenu selon les secteurs, les ressources humaines à disposition, le budget et bien d’autres facteurs.
Si vous n’avez pas de budget pour du rédactionnel de qualité, vous en aurez probablement encore moins pour un netlinking performant et pérenne. Pour la rédaction de textes sans véritable valeur ajoutée, vous pouvez toujours utiliser des marketplaces comme Textmaster ou Textbroker. Il est également possible d’outsourcer la création de contenus sur des places de marché comme Upwork.com plus généralistes, mais qui pourra peut-être vous apporter du contenu plus « quali » à condition de bien briefer vos interlocuteurs.
Récupérer les liens disparus + alertes enlèvements
Un bon lien doit subsister dans le temps. Il faut donc veiller (et être réactif) aux liens qui disparaissent.
Linkody.com par exemple est un “tracker de backlinks” qui signale toute disparition et bien plus encore (mailing auto, etc). Il est également possible d’utiliser le service Majestic.com pour examiner les “losts”, et réclamer leur réintégration, mais cet outil reste complémentaire et n’est pas assez fiable pour faire du tracking réactif.
Relations presse (RP)
Obtenir des liens et des mentions dans la presse peut générer un très bon signal SEO. Avoir un bon carnet d’adresses et entretenir de bonnes relations avec les journalistes est très important. Voici quelques consignes :
- S’abonner à datapresse.com / cision.com pour étendre son réseau et être mis en relation avec des centaines/milliers de journalistes. Imediapresse.com peut jouer un rôle complémentaire/intermédiaire.
- Ne jamais “draguer” un(e) journaliste avec la casquette de SEO.
- Mettre le journaliste dans un rapport win win : vous lui apportez de la matière, quitte à pré-écrire l’article en échange d’une parution.
- Demandez un lien (en dur et dofollow) en fin de négo, une fois la confiance établie.
Les annonces de recrutement
Passer une annonce sur un site spécialisé permet d’avoir un lien vers son entreprise. Bien sûr cela peut impliquer de passer une fausse annonce, et de devoir gérer les candidatures par la suite. En revanche si ce n’est pas le meilleur levier en netlinking, ça a le mérite d’être totalement safe.
- Effectuer une recherche générique avec Google.
- Crawler quelques sites avec Screaming Frog en regardant l’onglet external. S’il y a beaucoup de liens sortants, alors le site autorise sûrement l’ajout de liens dans les annonces. Par exemple Monster.fr ou encore jobs.ch permettent de faire ça, mais pas jobup.ch.
- Publier l’annonce sur un maximum de sites, et penser à les renouveler ! Cela peu avoir un coût, mais un lien qui ne dure pas, n’est pas un bon lien.
Clique hunter (Majestic.com)
Majestic.com propose un outil très intéressant pour dénicher des opportunités de “backlinks”. Clique hunter permet de comparer plusieurs concurrents et de lister les domaines référents communs à chaque site. Si 3 de vos concurrents ont obtenu un lien depuis un site et pas vous, c’est que vous avez peut-être manqué une opportunité.
D’une manière générale, Majestic.com permet la découverte et l’analyse du netlinking des concurrents (et pas que). C’est un outil indispensable au netlinking et au SEO.
Recherche de mentions
Il arrive parfois qu’une marque soit citée sur le web sans qu’il y ait de lien. Cela peut être une opportunité à condition d’être réactif. Utiliser un service comme mention.com ou encore Google Alert permet de rebondir rapidement et obtenir des liens renvoyant du trafic.
Les mentions sont également des références aux noms de domaines ou URL trouvés en texte clair sur le Web. Elles permettent de rechercher les endroits où votre site a été mentionné. Avec le service Majestic.com on peut trouver ces mentions via les Options d’analyse des Rapports avancés. Il suffit ensuite de réclamer la transformation de l’URL en lien. Ahrefs propose également un service similaire.
Monitorer les SERPs, et espionner les concurrents
Le SEO implique souvent le suivi de positions. Mais souvent, on ne se focalise que sur son site et ses expressions, mais rarement sur tout ce qui se passe autour. L’idée est de suivre l’évolution de 100 premières positions pour mieux comprendre ce qui se passe, voir le recoupement avec les acquisitions de backlinks des différents sites. Par exemple, il peut être utile de repérer un site qui passe de la 90ème position à la 30ème en 1 semaine, et de voir les derniers liens gagnés. Les opportunités de liens ne se trouvent pas uniquement dans le top 3 !
Quelques services font ça très bien : SEObserver, Serpwoo ou Monitorank.com.
Les blogs sur les grands sites (de presse)
Les plus grands “spots” sont souvent sur les sites de presse qui proposent à leurs lecteurs un espace blog. Cela permet d’obtenir du trafic et de très bons liens. Cela implique d’entretenir correctement le blog et de ne surtout pas passer pour un spammeur au risque de voir le modérateur supprimer votre travail.
Par exemple : http://www.lexpress.fr/styles/blog/, ou encore https://blogs.letemps.ch/.
Quelques règles à respecter : ne pas faire trop de liens vers son site. En faire également vers des sites institutionnels, voir concurrents pour rester sous le radar de la modération. Pas de lien sur le premier billet. Plus vous serez pertinent et qualitatif dans votre publication, plus vous aurez de chance de voir votre blog figurer en homepage des blogs, et donc d’avoir un apport en “jus” plus important.
Les domaines expirés (marketplaces)
L’achat d’un domaine expiré peut s’avérer très intéressant, car on peut récupérer sa popularité (liens entrants, PageRank etc) acquise lors de son existence. Les NDD expirés sont surtout utilisés pour monter des réseaux de sites privés satellites (PBN). On peut bien entendu rediriger (301) un NDD expiré vers son domaine principal, cela peut être très bénéfique, mais la tentation de renouveler l’opération est grande, et au final Google pourra détecter une part trop importante de NDD expirés pointant sur votre domaine principal et le pénaliser. D’où la stratégie du réseau de sites où l’on renvoie les NDD expirés sur des sites “fusibles”.
Quelques marketplaces : domraider.com, adopteundomaine.com, kifdom.com, expireddomains.net.
Les domaines expirés (recherche manuelle)
Il est également possible de trouver des domaines expirés soi-même, mais il faut bien garder à l’esprit que les meilleurs tombent souvent dans l’escarcelle des services de snapping (cités juste avant). On peut néanmoins trouver des choses intéressantes.
Avec un crawler comme Screaming Frog, on crawl divers sites de la même thématique et on regarde les liens sortants qui sont en “DNS Lookup Failed”. Les annuaires thématiques sont souvent un bon point de départ. On check ensuite la disponibilité de ces derniers sur GoDaddy par exemple.
Le réseau de sites privé (PBN)
Quand les petits ruisseaux font les grandes rivières
C’est la partie la plus complexe, probablement l’une des plus performantes, et paradoxalement l’une des plus risquées dans le netlinking. Très succinctement, l’idée est d’accumuler du PageRank dans une galaxie de sites satellites, pour le redistribuer majoritairement au site principal. C’est également l’opportunité d’avoir la main mise sur son écosystème de liens et avoir plus de latitudes en cas de déplacement de curseur dans l’algorithme de Google.
D’une manière générale, on positionne des sites satellites en 1er niveau (tiers 1), totalement clean, qui font des liens vers le site principal. En tiers 2, d’autres sites/liens beaucoup plus “border line” viennent apporter du jus aux sites du 1er tiers, qui redistribueront à leur tour du jus au site principal. Si il doit y avoir une pénalité, elle arrivera sur l’un des sites de niveau 1 qui jouera le rôle de fusible.
Attention, les pyramides de liens et les linkwheels restent détectables par Google, et il faut beaucoup de connaissances pour rester sous le radar. Il est essentiel de ne pas linker massivement les sites du tiers 1 vers le money site, et de brouiller les pistes en faisant également des liens vers des sites institutionnels, forums, concurrents (he oui, c’est certainement le meilleur des leurres !). Cette technique suscite beaucoup de fantasmes dans le cercle des prestataires SEO car elle symbolise à elle seule une sorte d’aboutissement dans la lutte technique qui les opposent à Google. Pour autant, la recette ne s’applique pas à tous les types de projets et doit (à mon avis) être pratiquée en complément. Le socle de tout ça restant la communication au sens large.
Schéma simplifié d’un réseau de sites privé (PBN)
Les sites de niveau 1 (N1 / tiers 1) vont servir de fusible en cas de pénalité Google, et brouiller l’organigramme du réseau. (Voir le visuel en début d’article pour plus de détails).
L’achat de lien & articles sponsorisés
Sans doute la technique la plus performante et la plus accessible actuellement.
Les méthodes sont nombreuses, mais il y a une constante : ne jamais se faire prendre. On évitera ainsi d’avoir un lien “dofollow” sur un article clairement identifié comme article sponsorisé.
Le meilleur outil pour négocier un lien reste sans aucun doute le téléphone.
Oubliez définitivement le mail (surtout Gmail) si vous ne connaissez pas votre interlocuteur.
Pour faciliter la tâche, des marketplaces existent pour faciliter la mise en relation entre éditeurs et annonceurs. Par exemple : Rocketlinks.fr (nécessite de montrer patte blanche pour accéder à la place de marché).
Travailler son branding avec la recherche d’ambassadeurs
Cet aspect est un peu plus distant du SEO pur et dur, mais participe pleinement à l’apport en popularité et à la visibilité d’un site… ou plutôt d’une marque (branding). La recherche d’e-influenceurs ou d’ambassadeurs est un travail de très longue haleine. Reech.com, détenu par les créateurs de Rocketlinks.fr permet justement la mise en relation entre marques et influenceurs.
NB : Reech.com a été lancé en 2015 et reste encore très jeune, mais son concept est extrêmement intéressant pour apporter une caution à une stratégie active de netlinking et valoriser un site.
Recherche de contenu dupliqué
Ce n’est pas l’eldorado, mais la technique fait partie de l’arsenal : dénicher les sites qui dupliquent votre contenu pour réclamer un lien retour (citer la source).
Pour aider à la découverte de contenu dupliqué, 2 techniques :
- faire des recherches “exactes” Google avec des extraits de phrases entre guillemets. Technique longue et fastidieuse, mais gratuite.
- Utiliser des services comme killDuplicate.com ou Copyscape.com spécialisés dans la détection de contenu dupliqué off site.
Si les “copy cats” refusent de mettre un lien pour citer la source, demander un canonical, ou demander la désindexation du contenu à Google au cas échéant.
Recherche d’image inversée
Le contenu dupliqué ce n’est pas que du texte. C’est aussi très souvent les images !
Une recherche sur Google image avec vos images permet de découvrir les doublons égarés et réclamer la source à ceux qui les exploitent.
- Aller sur Google image et cliquer sur l’icône en forme d’appareil photo dans la zone de recherche pour spécifier l’image originale (URL ou import).
- On peut également utiliser un service similaire ou complémentaire : tineye.com
Inscriptions dans les annuaires
Cette stratégie n’est définitivement plus suffisante à elle seule pour populariser un site comme ce fût le cas avant 2010. Néanmoins, on peut inscrire un site sur des annuaires ayant une thématique concordante, particulièrement au début pour donner un coup de pouce au site. On peut également inscrire le site sur des sites institutionnels qui disposent d’annuaires, ou autres sites très trustés comme https://annuaire.laposte.fr par exemple. Par la suite, il faut veiller à ce que les annuaires ne représentent pas une part trop importante du netlinking. Il faut également veiller à :
- Ne pas utiliser d’ancres optimisées (ou très peu),
- Utiliser des descriptions uniques,
- S’assurer du sérieux et de la bonne santé de l’annuaire : par exemple en regardant sa courbe sur SEMrush.
Outils de soumissions +/- automatiques
Les services “à l’ancienne” qui ne sont pas regardants sur les supports ciblés (annuaires, site de “communiqués de presse” etc) sont à proscrire. En 2016 il y a beaucoup mois d’outils qu’il y a 6 ou 7 ans, et certains sont beaucoup plus qualitatifs dans toute la chaîne de publication : choix et diversité des supports, déploiement, ancres, rédaction, contexte, etc. Exemple : Soumettre.fr. Bien entendu, on est plus dans le service “blast” sur 2000 annuaires pour 50€, néanmoins je conseille de l’utiliser de préférence sur un site « tiers 2 ».
Là aussi, il faut toujours veiller à avoir un profil de liens cohérent et relativement naturel. Quel que soit l’outil ou le service utilisé, il ne faut jamais tout miser dessus.
Les commentaires de blog (SPAMCO)
Très prisés des SEO à l’époque où Google était très permissif, les commentaires de blogs (avec lien dofollow) ne sont plus la panacée au même titre que les annuaires.
Ceci dit, cela peut être bénéfique. Par exemple une (petite) campagne de spamco pour rééquilibrer le volume des ancres brandées, tout comme les annuaires. Le spamco est aussi un bon moyen de populariser des sites déportés (réseau de site PBN, blogs, profils etc).
Bien choisir son blog, avec une thématique connexe, et ne pas aller commenter un article de 2008 ! Faire des commentaires pertinents pour être validé à la modération. Attention, il y a de moins en moins de blogs avec commentaires permettant les liens en
dofollow. Bien regarder au préalable.
Partenariats « old school » & échanges de liens
Un bon échange de lien peut être bénéfique pour le SEO, à condition d’être bien ficelé. L’échange classique et bilatéral A -> B & B -> A n’apporte quasiment rien, la réciprocité étant évidente pour Google. Pour valoriser au maximum un échange de lien, il faut faire en sorte que ça n’en ai pas l’air.
Favoriser les échanges asymétriques, voir triangulaires :
A -> B & C (qui appartient discrètement à B) -> A. Mais ça reste facilement démentelable. Il faut également respecter un certain timing. On fera par exemple le renvoi d’ascenseur à J+60 pour brouiller au maximum l’aspect “échange”.
Ne surtout pas oublier (et exiger) la qualité des liens dans ces échanges : oubliez les liens en pied de page, et favorisez les liens “in text” et contextuels. Pour les échanges de liens, favorisez le téléphone ! Le mail ne “reach” pratiquement plus !
Partenaires métier / revendeurs
Eux représentent une excellente opportunité pour le netlinking. C’est peut-être même le levier avec le rapport performance/facilité le plus intéressant en netlinking. Encore faut-il avoir un business qui s’y prête.
L’idée est donc de contacter chaque entreprise qui gravite dans votre secteur d’activité pour négocier un lien. Comme ce sont des partenaires de longue date et qu’il y a probablement un climat de confiance déjà instauré, vous obtiendrez plus facilement un lien partenaire.
Attention, dans ce contexte, il faut parfois expliquer longuement ce qu’est un lien, comment le faire, où le placer, etc. Tout le monde n’est pas webmaster avec une sensibilité SEO. Un lien non cliquable ou sur une page non “crawlable” (en flash par exemple) ne servira à rien en terme de SEO.
Stratégies inbound : les infographies
Les infographies, c’est un peu comme les images de chatons, ça buzz très facilement à condition de produire de bonnes réalisations. On se prive souvent de ce vecteur pensant qu’il faut être un expert en Photoshop pour arriver à quelque chose de qualitatif. Pourtant il existe plusieurs sites dédiés qui font ça très bien :
Stratégies inbound : tout ce qui peut être viral
En plus des infographies, tout ce qui génère du buzz et fédère l’engagement est bon pour le SEO et l’acquisition de trafic en général.
Concours, sondages, vidéo, informations exclusives, tout peut être bon pour créer de la visibilité. C’est aussi ce que l’on appelle le “link baiting”. En plus d’être une bonne stratégie, c’est une technique 100% “white hat” et clean pour Google.
La data est également un trésor très mal exploité par les entreprises : il faut savoir faire fructifier les données que l’on a en interne pour les traduire en contenu (articles, infographie, RP etc).
Blog(s) déporté(s) d’entreprise
Beaucoup de sites/entreprises créent des blogs pour promouvoir leur business. Stratégie SEM et/ou simple effet de mode, ce n’est pas toujours évident. Un vrai blog qui draine du trafic demande beaucoup de courage et d’énergie. Beaucoup abandonnent en cours de route faute d’investissement et de retour.
Pourtant un blog déporté peut apporter beaucoup de notoriété au site principal, à condition d’y croire, et de faire véritablement du blogging.
Article en relation : http://www.htitipi.com/blog/blog-inutile.html
Sites institutionnels, CCI, offices du tourisme, mairies etc
Ici, on joue plutôt avec le référencement local. Une entreprise doit théoriquement pouvoir trouver des connivences avec des sites institutionnels locaux comme la chambre des métiers, la CCI ou encore des sites associatifs de communes. Les liens ne seront pas trop “thématisés”, mais ces sites restent généralement très sérieux et trustés, donc bénéfiques au SEO.
Reste qu’obtenir un vrai lien “dofollow” de ces sites est parfois compliqué. Un travail de recherche préalable est indispensable avec beaucoup de recherches Google, et des crawls avec Screaming Frog pour apprécier le volume de liens sortants (si il n’y en a pas, laisser tomber), et pourquoi pas dénicher un domaine expiré au passage (onglet external, DNS lookup failed) !
Être tout le temps à l’affût
Même à 23h après une dur journée de travail (pour décrocher des backlinks) et que vous surfez sur des sites de divertissement, vous devez ouvrir l’œil. Systématiquement vous demander « est-ce que je peux placer un lien (dofollow) ici ? ». C’est plus un état d’esprit qu’une technique en fait. La chasse au lien doit se faire en continue. Un conseil, ajoutez une extension à votre navigateur pour identifier automatiquement les liens nofollow (par exemple SEO Quake pour Chrome). Sur tous les modules communautaires (profils, forums, avis, commentaires…), vous verrez très vite si les liens vous apporteront du jus ou pas.
Les techniques à oublier et qui ne marchent plus
Les techniques évoluent, Google aussi, et il faut s’adapter. Ce qui marchait avant peut maintenant apporter du plomb. Autant le savoir (liste non exhaustive) :
- Les pétitions SPIP et les livres d’or : so spammy.
- Les services d’inscriptions « full auto » sur les annuaires (greeglobe etc) comme Seohackers.org (Tiens, le site ne répond plus, ce qui illustre la fin d’une époque), sauf si on sait vraiment ce que l’on fait.
- Blogroll et liens sitewide. Techniques old school trackées par les quality raters.
- Lien d’affiliation ou campagne display sans nofollow : réprimé par Google.
- Splog & auto blog : création de sites/contenus automatisés linkés au domaine principal : facteur risque trop élevé.
- Blasts Xrumer, Zennoposter ou Scrapebox sur le site principal : à réserver au NSEO ! Cependant, bien maîtrisé, cela peut s’avérer “payant” sur des sites tiers d’un réseau PBN.
- Les pseudos sites de CP : ils n’ont de communiqué de presse que le nom. Leur période de gloire est maintenant révolue.
Au-delà des techniques…
Comment évaluer la santé/toxicité d’un site ?
Chaque fois que l’on pose un lien sur un site, ou que l’on souhaite acheter un domaine expiré, il est vivement recommandé de regarder ce que le site a sous le capot.
Plusieurs indicateurs :
- Le TrustFlow et CitationFlow de Majestic.com est un indicateur aussi performant si ce n’est plus que le PageRank de Google. Cela dit, il ne faut pas regarder que ce metrique, un très bon site peu avoir un TF faible.
- Âge du nom de domaine et PageRank : si le site date d’avant 2014 (voir whois) et qu’il n’a pas de PageRank, c’est probablement qu’il a été pénalisé, ou a changé de main (remise à zero). Mais le PR n’est plus un indicateur de référence, suite à son non rafraîchissement depuis 2013.
- Voir son évolution dans web.archive.org si le site est passé entre plusieurs mains, si il a été parké durant plusieurs années, hacké, etc.
- Vérifier son netlinking et les ancres avec majestic.com.
- Évaluer l’évolution du trafic et des positions avec Searchmetrics ou SEMrush. Si c’est un NDD expiré, il n’y aura pas forcément de data.
- Pour vérifier rapidement une liste de domaines sur Majestic : Bulk Backlink Checker.
Qu’est-ce qu’un bon lien ?
Le profil de lien idéal
En réalité, il n’y a pas de profil idéal, mais plusieurs en fonction des secteurs d’activité et d’autres facteurs.
Les ancres : voir sur majestic.com. En 1er on doit trouver les ancres brandées (marque), et les URLs neutres (sans mot clé spécifique). L’ensemble des ancres neutres doit également être dominant (“cliquer ici”, “source de l’article”, “voir plus…”). Les ancres optimisées ne doivent pas dépasser 3 à 5% en fonction des secteurs.
Ensuite la diversité des sources est essentielle. Des liens acquis naturellement bien sur, du blog déporté, 3 ou 4 annuaires au début, 2 ou 3 domaines expirés (et pas cramés) en 301 répartis dans le temps, de l’achat de lien, des partenariats, etc.
Populariser la page où l’on pose un lien
Ce principe vaut surtout pour les pages/sites comme les fiches d’annuaires ou les pages de profil qui ont très peu de “jus”, et un taux de visites du Googlebot (pour l’indexation) très faible.
On “ping” alors ladite page pour accélère sa découverte par Google, on fait des mentions sur les réseaux sociaux comme Twitter, les Digg like, les SPAMCO, ou tout simplement un vrai lien.
Néanmoins, on ne transforme pas un poney en cheval de course, et un lien sur un annuaire (ou profil de forum) de mauvaise qualité ne sera jamais un geyser à PageRank, quand bien même vous balancez des centaines de liens (fatalement médiocres) dessus.
Avoir le bon timing, et ne pas cibler que la homepage
Il n’y a pas de règle pour dire qu’il faille plus de liens sur la home que sur les pages profondes… ou l’inverse. D’une manière générale, la home encaisse le plus de liens entrants, mais si elle endosse théoriquement la requête la plus concurrentielle et celles brandées, il ne faut pas compter sur elle pour se positionner sur l’ensemble des expressions de la thématique. Il est nécessaire d’envoyer du jus sur les pages de destination « profondes » pour aller chercher d’autres expressions et influencer la longue traîne.
Le timing (rythme acquisition) doit être cohérent. Prenons un exemple : pensez-vous qu’il soit normal qu’une page vielle de 2 ans reçoive du jour au lendemain quelques liens alors qu’elle ne se positionne sur aucune expression, et ne génère pas de trafique (page inactive) ? Non bien sûr, et Google ne s’y trompera pas. Je ne dis pas qu’il pénalisera, mais la performance ne sera pas là. Synchronisez au mieux l’acquisition des liens avec l’éditorial du site, l’actualité, ou l’ajout de nouveau produits.
Le netlinking, c’est aussi le linking interne !
Idéalement, avant de faire du netlinking avancé, il faut un socle technique stable. Chaque page doit avoir une URL unique, et les pages de destination clairement identifiées. Le netlinking peut coûter très cher en temps et en argent, ce serait donc préjudiciable d’envoyer un lien sur une page dont le “jus” serait dilué sur des dizaines d’URLs faute de canonical, rel alternate etc. En d’autres termes, on accède plus facilement à la performance avec un site optimisé, qu’avec une “passoire”.
N’hésitez pas à calculer la répartition du PageRank dans votre linking interne, soit avec un outil comme Gephi (un peu l’usine à gaz) ou “plus simple” avec le package iGraph associé au formidable outil de statistique R (article(s) & tuto(s) à venir). Conjointement, l’analyse de l’appétence du Googlebot est fondamentale pour optimiser son linking interne aux petits onions.
S’inspirer des autres sans jamais copier naïvement
L’analyse de la concurrence fait partie de l’arsenal du netlinker. Cela ne doit pas entraver la créativité et l’originalité. “Être différent” est fondamental en marketing web, et particulièrement en SEO. Le fait de copier n’est pas un problème en soit, beaucoup de grandes firmes sont devenue des empires industriels en copiant leur concurrents… C’est juste la manière de copier qui peut s’avérer productive ou pas.
- Soyez originaux dans la manière de démarcher vos partenaires.
- Google favorise l’originalité : ne reprenez pas les title, baseline, ou meta description de vos concurrents.
- Veillez à ne pas avoir un écosystème de liens identiques aux autres. “Clique hunter” de Majestic c’est bien pour trouver des opportunités, mais le but n’est pas d’avoir le même profil de liens que ses concurrents. Reproduire n’a jamais été une stratégie permettant de dépasser la concurrence en SEO.
Le footprint : l’ennemi n°1 du netlinker
Chaque fois que vous posez un lien, que vous achetez un nom de domaine, que vous communiquez avec un partenaire, vous êtes susceptible de laisser une empreinte (footprint) qui permettra aux algorithmes de Google de confondre votre réseau de liens.
Liste non exhaustive des précautions à prendre :
- Éviter les services de Google (Gmail, drive, chrome etc).
- Pour les réseaux de sites et domaines achetés : Whois, serveurs, et IP variés.
- Varier les sources (blogs, articles sponsorisés, achat de liens, PBN etc).
- Ne pas dépasser 3% d’ancres optimisées sur les niches.
- Sites satellites : comptes GA & SC différents, CMS variés (Joomla, WP, Drupal…).
Enfin…
Il y a une chose qu’il faut toujours garder à l’esprit, c’est de ne pas se donner du mal et dépenser beaucoup d’argent pour envoyer du jus sur une passoire ! Comprenez qu’il est indispensable d’avoir une architecture et une structure de site saine avant de faire du netlinking. Dans l’ordre, d’abord le « on site », ensuite le « off site ». Si vous souhaitez être accompagné dans votre stratégie de netlinking, n’hésitez pas à me contacter ;-).
PS : attention, nouvelles règles pour les commentaires de ce blog ! Lien « dofollow » uniquement si thématique SEO/SEM/SEA/IT/webmarketing ET si on se suit mutuellement sur Twitter ET si commentaire constructif ;-)
Toujours un plaisir de lire tes articles Aurélien, hâte de voir le prochain sur R, un domaine que je ne maîtrise pas du tout.
Je me permets de rebondir sur la mention de Firefox, pourrais tu préciser selon toi le danger de l’utiliser ?
Pour ce qui est d’un linking propre, tu ne réalise donc jamais de webprofil directement sur le MS ?
Le problème étant que sur certaines thématiques, si tu souhaites avoir un nombre de ref domains un petit peu important, il est très dur de trouver des articles de presse ou des échanges d’articles, donc à moins d’avoir une quantité de satellites importantes, quelques commentaires ou webprofil hors thématique sont quelque fois nécessaire.
Je me pose aussi la question depuis un certain moment sur le nombre de satellite que l’on peut avoir sans que cela paraisse suspect. Certainement à déterminer selon la niche/concurrence.
La question de la présence des liens en footer des agences de comm sur tous les sites qu’il créer restent aussi une grande énigme pour moi.
Enfin, pas de liens entre les satellites ?
Bonjour Aurélien,
Alors autant effectivement pour un vieux comme moi cet article ne réinvente pas l’eau chaude comme tu dis, autant c’est quand même, encore une fois, une belle collection de méthodes et d’outils qui va faire référence.
Le seul inconvénient à ce genre de bible, c’est que le discernement que tu mentionnes n’est :
1/ pas évident à avoir (on sait pas et on sait qu’on sait pas / on sait pas mais on croit qu’on sait / on sait mais on croit ne pas savoir / on sait qu’on en sait trop peu…)
2/ pas applicable uniformément. Certaines typologies de sites web peuvent très bien s’appuyer sur certaines pratiques contre lesquelles tu mets en garde.
La fausse annonce emploi est très à la mode chez les Growth Hackers, mais je décommande vivement, par respect pour ceux qui cherchent du boulot. Et puis je pense qu’une boîte qui publie une annonce tout au long de l’année se décrédibilise d’elle-même. Mais ce n’est que mon avis :-)
@Adrien :
Je n’ai pas souvenir de l’avoir évoqué dans ce billet, mais pour moi Firefox a toujours était plus ou moins en partenariat avec Google, ne serait-ce que pour la page de démarrage.
Qu’est-ce qui te fait dire ça ?
Exactement ! il faut relativiser ;) Tu as des niches ou avoir 300 domaines référents pour un jeune site n’est pas hors normes. Du coup tu peux tabler sur une cinquantaine de sites « tiers 1 » sans que ce soit le flag.
Les choses sont plutôt très claires à ce sujet : aucun risque tant que les ancres ne sont pas optimisées.
Ha si ! Comment tu fais monter la moyo, si tu ne fais pas tourner ? Regarde bien mon infographie ;)
@omnireso (fidèle intervenant sur ce blog ^^) : 100% d’accord. Pour les discernement comme pour le côté actionable. Mais je n’ai pas manqué de mettre en garde ;) Ce n’est qu’un éventail de techniques, et il faut beaucoup de discernement pour se lancer dans une opé de netlinking. On dira ce qu’on voudra, c’est une discipline très complexe, et il est impossible de pondre un sujet qui aborde tous les aspects, techniques comme pédagogiques. C’est un vrai métier encore une fois.
Pour les offres d’emploi, tu as raison il y a un aspect irrespectueux envers ceux qui triment pour trouver du boulot… Cela dit le spam d’offre d’emploi est vraiment anecdotique.
Salut, super article comme d’hab :)
Sauf… Sur un point que je ne partage pas du tout avec toi :) La fausse annonce d’emploi. Personnellement, je trouve cette technique particulièrement sale et contraire à toute éthique, je me demande même si découvert, tu ne t’exposes pas à des poursuites derrière ? Quoiqu’il en soit, puisqu’il s’agit de tromper sur la « marchandise » pour gagner un peu de jus, j’aurais ranger cette tec dans le pur BH. Cependant, c’est une technique bien répandu chez ceux qui cherchent à grimper sur des requêtes type « un truc SEO », je trouve ça bien triste…
Sinon, que penses tu des BLs sur les sites de code promo ? Ca me parait plus clean :)
Au plaisir de te (re)lire plus souvent !
>Comment évaluer la santé/toxicité d’un site ?
Pour ma part je tape ce qui ce situe entre www et .tld , si ça ne sort pas en page 1 de google, je considére que le site est toxique.
Superbe article, je vais le faire lire a mes clients. Merci pour cet énorme travail.
@Patrice : Oui la technique est valable, mais que si le site est cramé de chez cramé (pénalité manuelle).
Sympa comme article :)
Tu précises « 3% d’ancres exactes », si je peux me permettre une remarque, comme l’article concerne le netlinking, j’aurai aimé un paragraphe plus détaillé avec des conseils sur les ancres et leurs quotas de variations (exactes, similaires, mots clés, url, « cliquez ici », « visitez http:/machin.com », images, etc..) selon les différents Tiers.
Ouahh, là c’est un sacré article.
Je garde en mémoire l’article sur les différentes structures de site, favorisant ou pas le maillage interne, que j’avais gardé comme bible quelques temps. Je crois que celui-ci va avoir une belle place aussi car il n’y a pas que du réchauffé à mon niveau.
@SylvainV pour la fausse annonce emploi, je crois effectivement que c’est illégal et qu’on s’expose à des poursuites. Après, une fois qu’on a dit ça, on peut aussi être malin. Il est possible que l’entreprise envisage d’avoir un stagiaire et puis finalement non. On évite de demander la lettre de motivation à la rigueur, on aura pas trop truandé les vrais candidats qui n’auront alors envoyé que leur CV.
@Fab : 3% c’est surtout sur les expressions « pompe à fric ». Difficile d’établir des quotas précis cela dit, vu que cela varie beaucoup d’un site/secteur à l’autre.
@Régis : Merci ;)
Concernant les annonces : y’a pas mort d’homme hein… Et si c’est bien fait, je vois mal comment on pourrait se faire pincer. Mais je pense aussi à toutes ces boites dont le SEO est important et qui mettent de vraies annonces sans avoir le réflexe de coller un vrai lien dans leur fiche.
Très bon récap !
Juste une coquille dans le paragraphe « Comment évaluer la santé/toxicité d’un site ? », la notion d’absence de PR n’est plus pertinente, même pour les vieux sites.
En tout cas c’est un article en or qui devrait en aider plus d’un à comprendre comment réaliser un bon linking externe.
Super article sur le netlinking, très complet … un peu trop même ;) ! Merci
Bonjour,
L’article est très intéressant je vais le partager.
Dans l’article tu ne parles pas du tout des liens via les réseaux sociaux. Même si ça reste du nofollow, ça reste un lien qui peut engendrer une visite et donc une conversion.
Il ne me semble pas avoir lu non plus que les liens en nofollow étaient quand même importants. Encore une fois ça peut engendrer visiter et conversion mais au delà de ça, il me semble préférable d’avoir 15 excellents liens en nofollow plutôt qu’un lien spammy en dofollow mais peut être que je me trompe.
@Pierre : Tu as complètement raison. C’est que j’ai commencé à rédiger cet guide il y a au moins 1 an, et certaines choses sont désuettes now.
@Véronique Duong : C’est un peu ma marque de fabrique ;)
@Romain petit : Alors oui et non. Ce n’est pas un guide sur l’acquisition de trafic en général ! Je pourrai te parler de campagnes display aussi ;) En revanche, j’insiste dès le départ sur la communication multicanal et cela inclus forcément les RS.
Bonjour Aurélien, super article, qui devrait bien faire son travail coté link baiting justement. Je me permets de commenter même si tu ne me suis pas (pas encore ?) sur Twitter, puisque je t’ai moi-même cité dans mon article sur Gephi (voir sur mon blog).
Au plaisir de lire d’autres pépites comme celle-ci une autre fois !
Cordialement
Charles
Bravo pour ce panorama du linkbuilding très complet !
Du vrai article de qualité, l’un des plus topissimes de ces dernières années…merci beaucoup de partager tout ça avec nous :)
Bonjour Aurélien, un grand merci pour ton article vraiment constructif et très complet, j’ai un petit stagiaire que je dois former au référencement, ton article va être un de ses cours.
Sinon, pour la partie sites PBN, oui je pense que c’est une excellente technique que toutes les grosses agences pratiques, se faire des petites niches pour son propre netlinking, après, certain automatisent les choses. :)
Très bon article complet sur le Linkbuilding. Cependant j’ajouterai un paragraphe sur le linking via le social media qui peut s’avérer être très bénéfique, de façon évidente, au niveau du trafic, mais côté référencement aussi. J’ai remarqué des très bons résultats pour certains de nos clients disposant d’une multitude de liens en provenance de plateformes divers comme Scoop it, Pinterest, Google+ qui parvenaient à un très bon classement dans les serp. La plupart des liens provenant des RS sont Nofollow mais pas ceux de Google+ ;).
Merci & je partage.
Vraiment un excellent article de fond. Une mine d’or pour ceux qui enseignent le SEO à mon avis ;)
Je reviens juste sur un point de ton article car cela me semble important. Tu mentionnes comme levier, la création d’annonces d’emploi. Nous sommes nombreux je pense à l’avoir testé et effectivement cela fonctionne bien. En revanche attention, publier une fausse annonce d’emploi est interdit par la loi (Article L. :311-4 du Code du travail).
@Cédric : Pour les fausses annonces, cela a été évoqué dans les commentaires, mais je vais reprendre ta référence sur les textes de loi pour le spécifier dans mon texte. Merci ;)
Enfin un article clair qui synthétise et explique simplement mais efficacement l’univers du Backlink. Franchement l’article est long mais je l’ai dévoré du début à la fin et je le met dans mes favoris.. BRAVO!! 20/20
Pour les liens toxiques j’utilise un logiciel pas « trop chère », moins que majestic),( existe aussi en version Free) et qui évalue le risque de pénalité en fonction de multicritères ( Page indexé, ancienneté NDD, DA,Bloc de liens de Classe C, nombre de liens, Ancre,etc..).
Salut Aurélien,
L’article le plus complet sur le sujet. Un très grand bravo, à diffuser comme le dit @cedric à tous ceux qui apprennent le SEO ; surtout pour les risques encourus…
Tu n’évoques pas les désaveux mais ils sont pour toi je suppose hors sujet dans le cas du PBN :)
@Xavier : Merci beaucoup pour ton message :) PBN ou pas, le sujet du désaveux est effectivement HS, car pas une technique de netlinking.
Bonjour Aurélien
C’est avec un grand intérêt que je découvre ton site, et notamment l’article qui a été retranscrit sur le site d’abondance.
Ancien adepte de scrapbox, je ne m’y aventure plus aujourd’hui, tu fais bien de préciser que ces outils de mass linking ne fonctionnent plus.
Concernant les extensions, tu mentionnent Seoquake, je ne sais pas si tu connais l’extension Firefox de chez MOZ, elle également très bien faite.
Concernant les liens en footer pour les marques (ex thèmes ou autre agence de ref), je me demande comme toi pourquoi ils adoptent cette pratique pourtant néfaste d’après Google.
Concernant le netlining sous forme d’échange de liens, penses tu que le triangulaire soit plus efficace que le « one to one » qui apparamment n’a plus trop de poids en seo ?
A+
Yvan,
@yvandupuy : Scrapebox reste un bon outil, et je continue à l’utiliser. Pour faire du blast sur du money site par contre, non ;)
Oui y’a pléthore d’extension pour repérer le nofollow, cellede Moz en fait partie.
Pour le lien en footer, c’est juste qu’il ne faut pas que le lien soit optimisé.
Enfin pour les échanges triangulaires, ça reste très repérable par les algos. Faut essayé de faire plus subtil, avec un timing adapté.
Bonjour Aurélien et merci pour ce superbe résumé que je vais de ce pas partager.
Il a, entre autre, la faculté d’expliquer clairement et dans un langage vulgarisé la complexité de notre métier à des patrons d’entreprises qui, sur base de légendes urbaines ou d’anciennes techniques jusque là efficaces, que le référencement naturel et principalement le Netlinking est à la portée de tous.
d’autres outils (mais il y en a tellement) sont assez utiles : Yooda, Screaming frog, etc..
Très bel article :-)
@Jean D’Alessandro : Merci pour ton commentaire :) Pour les outils, y’en a plein, impossible de les citer tous. Screaming Frog, j’en parle ;)
Bonjour Aurélien,
Je suis responsable SEO pour une PME et aussi gérant d’une agence web donc autant dire que le SEO est mon quotidien. Ce genre d’article est parfait pour se tenir à jour.
Mais tu dis « d’abord le on-site et après le off-site », à moins d’être confronté à un cas très particuliers je mets toujours une certaine priorité sur le off-site en travaillant le netlinking. Ai-je tort ?
Il me semblait que Google affirmait récemment que les liens faisaient partie des 3 principaux pris en compte. Même si Andrey Lipattsev n’a pas donné de numéro il les a tout de même cités dans cet ordre là : Liens/Contenu/Rank Brain
@MKG Digital : je mets toujours une certaine priorité sur le off-site en travaillant le netlinking. Ai-je tort ?
Y’a pas d’obligation, et à chacun son approche, mais j’aurai tendance à dire quand même que tu as tort à 99% ;-)
Mais attention à ne pas faire de raccourcis dans ce que je dis ! Absolument rien n’empêche de commencer une presta avec du netlinking, et ce dernier peut être bénéfique. M’enfin sur un site optimisé, la synergie opère mieux !
Il me semblait que Google affirmait récemment que les liens faisaient partie des 3 principaux pris en compte. Même si Andrey Lipattsev n’a pas donné de numéro il les a tout de même cités dans cet ordre là : Liens/Contenu/Rank Brain
Et donc ?
Bonjour Aurélien et merci pour cet article très complet (merci au passage à Olivier Andrieu car c’est depuis Abondance que je suis arrivé sur htitipi.com), je partage à mes rares collègues qui ne sont pas arrivés jusqu’ici au cours de leur veille.
Je rebondis sur deux points :
– d’une part le relationnel réel pour négocier des liens. Nos boîtes mails sont envahies de proposition souvent totalement inintéressantes et les quelques contacts que j’ai eu par téléphone avec des blogeurs ou SEO ont eu un taux de succès bien plus élevé que par mail.
– et d’autre part, je suis complètement d’accord avec ta réponse à MKG Digital. Je préfère largement créer des liens vers un site déjà propre et optimisé, à la fois sur le plan technique et à la fois sur contenu.
Bonjour,
Merci pour les conseils très quali. Je mets un bémol sur TF & CF de Majestic qui sont trop souvent influenaçable. Je préfère 100% le Domain Authority de Moz (extension chrome) qui est plus fiable. Sur mes tests réalisés, tu peux facilement gagner 4-5 pts sur TF racine avec lien DF commentaire d’un site très bien en TF alors que Moz ne se fait pas avoir. Mon site est passé a un TF racine >20 avec nb domaine >50.
Je dirai plutot que TF & CF est un 1er regard, je garde ou pas mais il faut creuser après.
Yohann
Tu as très bien résumé le netlinking version 2016, à savoir paraitre le plus naturel possible pour rester sous le radar de Google. Evidemment, un profil de lien naturel comportera également des liens non trustés, car avoir uniquement des liens trustés est en soi quelque chose de non naturel. De même pour le rythme d’acquisition de liens, recevoir la même quantité de liens tous les X jours/semaines n’est à mon sens pas naturel.
Bonjour,
je te remercie pour ce brilliant article !
Du coup, pour SemRush, je trouve que les données sont souvent faussées surtout pour les petits sites (moins de 20 k visites mensuelles) car ils semblent compiler les données de trafic à partir des données accumulées par leurs bots sur Google (sur une base de données de mots-clés prédéfini) => le souci, c’est que cette base de données est limité, le trafic est estimé en fonction de la position du site sur le mot-clé, cette technique ignore les données du référencement local (parfois loin d’être négligeable pour certains sites)…
J’utilise SimilarWeb, et je dois dire que c’est très fiable. J’ignore la provenance exacte de leurs données, mais il semblerait qu’ils se basent (tout comme Alexa à une époque) sur les données de navigateurs (sans doute en accumulant des données d’extensions amies).
Après pour ce qui est de la qualité d’un lien à mon sens, c’est sans aucun doute la qualité du trafic envoyé par un site (=> trafic qualifié, donc bon lien, => trafic peu qualifié car non ciblé, alors mauvais lien), après c’est sûr que tout est question de contexte… donc ça revient un peu au même.
Merci pour ton article qui résume bien les choses et qui donne de bons tuyaux.
Pour ma part en Stratégies inbound j’ajouterai la confection d’un petit guide PDF à partir d’un article, à télécharger moyennant un partage sur les réseaux sociaux. ça ramène du traffic sur la page et contribue à la notoriété du blog. De plus vu que le text est déjà écris, ça prend pas beaucoup de temps !
Sinon pour les fausses annonces, j’en connais qui en abusent grave. Comme pleins de techniques, un peu pourquoi pas, mais faut savoir se poser des limites…
Bonjour Aurélien,
Je suis tombé sur ton site par hasard, tentant de rafraîchir mes connaissances en référencement.
Je possède un « petit » site pédagogique non-marchand et gratuit, qui commence à peiner dans les backlinks. Il avait fait le « buzz » lors de son lancement en 2007 (LeMonde, Télématin, LeMatin, etc.) mais depuis quelques années, même si mon trafic est correct, je n’ai pas la courbe de progression de BL naturels que j’espérais.
La majorité de mon trafic vient de google où je suis en bonne position sur des choses improbables (les chameaux, le système solaire,…) mais mon site possède un contenu très varié (bientôt 550 articles, sur autant de sujets que de matières, articles originaux, bonne qualité, bonne longueur, désintéressés et maillage interne correct…).
Du coup, impossible de trouver « une niche » car il ne semble pas en exister. A moins de m’amuser à trouver des niches pour chacun de mes articles phares…
J’ai lu ton article avec grand intérêt mais j’ai peur que le caractère diffus des articles publiés entrave un référencement correct.
Rien que cette année, sur le mot « thématique principal » de mon site, Topito m’est passé devant avec un Top X de -mot clef- … sans me renvoyer de lien, dur dur…
Si jamais tu as des idées à chaud (ou n’importe qui qui lit mon commentaire), je suis preneur :)
Merci !