Préconisations SEO pour 2013

Ca y est, l’année se termine, et pingouinisé ou pas, vous n’abdiquez pas face aux stratagèmes du grand G. La tendance lourde pour 2013 sera de prendre toutes les précautions pour assurer à votre site une protection maximale contre les sanctions, élaborer un bouclier de confiance avant d’entreprendre une campagne de netlinking.

Blindez-vous avant de partir à l’assaut des SERPs

300

Vous ne devez plus attendre que telle ou telle technique soit sanctionnée pour agir, ne plus systématiquement cracher sur les guidelines ou M. Cutts pour vous forger une image de SEO rebel. Forcez-vous à prendre du recul, faites preuve d’intuition et surtout d’anticipation.
Si les techniques et les outils (black hat) évoluent sans cesse, Google en fait de même… D’ailleurs, cela m’amène directement à la première préconisation :

Ne plus jamais prendre Google pour un con… ni son ami

Je ne sais pas pour vous, mais je trouve qu’on a perdu cette méfiance envers les entreprises à position dominante, comme on le faisait au début des années 2000 avec Microsoft par exemple. On s’expose de plus en plus sur la toile avec les réseaux sociaux dont les techniques de pénétration sont souvent très intrusives. Ils ont réussi à changer nos comportements…
Google, lui, sait énormément de choses sur nous. Pour peu que l’on utilise ses services les plus connus, il sait ce que l’on recherche, connaît nos relations, nos centres d’intérêt, notre historique de navigation… la liste est intarissable.

J’ai cru jusqu’en 2011 que le point faible de Google était l’énergie. Imaginez si pour tous les sites il devait croiser les données générées par le surf (via chrome), le comportement des utilisateurs, le rythme d’acquisition des backlinks, l’écho sur les réseaux sociaux etc, Google deviendrait certainement l’un des plus gros pollueur de la planète, avec une multiplication exponentielle des datacenters, et un coût en infrastructure exorbitant.
Seulement voilà, Google a toujours élaboré son algorithme par couche, et il n’a aucun intérêt à allouer toute sa puissance de calcul pour le site du concours annuel de belote de Publier. Il sait trop bien ce qui est concurrentiel, là où ça bastonne pour les premières positions, et c’est là qu’il va cibler ses analyses gourmandes en ressources.
De là sont nés les filtres panda et pingouin, et comme les ingés de Google sont loin d’être cons, plutôt que de rajouter ces filtres en surcouche à l’algo principal qui est modifié chaque jour, ils les activent manuellement (itératif) une fois par mois environ. L’économie en énergie est conséquente.

Si on ajoute par dessus le machine learning et la veille des quality raters, on comprend la nécessité d’avancer prudemment, en 2013 plus qu’avant. Si vous voulez grimper dans les SERPs, allez-y avec votre glaive sans oublier votre bouclier. C’est devenu mon premier réflexe lors de mes prestations : m’assurer que l’écosystème dans lequel évolue les sites soit 100% clean avant d’essayer de pousser quoi que ce soit.

2013 sera presque 100% « not provided »

La généralisation du mode sécurisé (https) des services de Google, mais également des navigateurs, empêche nos outils web analytics de connaître les requêtes saisies par les internautes pour arriver sur nos sites. Cette tendance déjà bien répandue en 2012, devrait s’accélérer en 2013. Cela devrait définitivement tuer un des aspects les plus attractifs de nos stats.

Veiller à un bon équilibre entre trafic de recherche, sites référents, et accès direct

camambertJe ne vous dirai pas qu’il faut un camembert à parts égales, mais une disproportion trop importante peut être interprétée comme un signal négatif. Les sites dépassant les 80% de trafic moteur sont certainement dans la ligne de mire.

Récemment, un client dont le site avait un parfait équilibre entre ces 3 sources, m’a confié sont souhait d’augmenter son trafic moteur de 20%. Si on atteint ces objectifs uniquement par le biais d’optimisations techniques « on site », les risques sont quasi nuls. En revanche, si on mise tout sur le netlinking, et que l’activité sociale autour du site (tout comme le trafic direct) n’augmente pas, le red flag n’est pas loin.

Miser sur les réseaux sociaux

Si le backlink (dofollow) reste la clé de voûte dans l’algorithme de Google, l’impact direct des réseaux sociaux sur le référencement naturel d’un site reste difficilement palpable. Mais une chose est sûre, Google regarde l’activité sociale pour évaluer la crédibilité d’un site. Ici aussi tout est affaire de proportion et de régularité. N’entamez pas une campagne de netlinking sans effectuer de montée en puissance au niveau social.

champagneHa, un détail important que je dois régulièrement préciser : quand on parle « d’activité social », cela ne se résume pas à tenir un compte Facebook, Twitter ou G+ en les alimentant au lance pierre. Non ! Et votre karma sur les réseaux sociaux n’augmentera pas en fonction du nombre de vos followers… vu qu’il est possible de les acheter par pack de 100, vous imaginez, ce serait trop simple.
Il faut de l’effervescence, ou du buzz si vous préférez. Un site relayé et retweeté des centaines de fois par des comptes « trustés » renforcera la confiance que Google porte sur votre site, d’autant qu’il est difficile de prendre le contrôle de cette effervescence.

Ne plus négliger le trafic mobile

Voilà une autre grande tendance, qui a débuté depuis plusieurs années déjà, mais qui aura une influence palpable sur le ref nat en 2013 et plus. Le comportement de vos visiteurs (j’en suis convaincu) va devenir prépondérant dans le SEO, et c’est peut-être même déjà le cas. Si vous ne proposez pas une version mobile digne de ce nom à vos visiteurs, ils iront voir ailleurs, faisant augmenter votre « taux de retour » : le visiteur arrive sur votre site, fait un retour vers Google, pour aller ensuite vers un autre site plus optimisé. Mais au delà de ça, ne pas se soucier du confort des divers terminaux, c’est s’affranchir d’une manne de trafic sans cesse grandissante.
Voir mon billet coup de gueule sur le responsive web design.

Différencier et augmenter la qualité de son contenu

Cela m’agace de lire parfois qu’il faut observer un rythme de publication d’un article par jour ou par semaine pour maintenir son ranking. Certes il faut une certaine constance et régularité. Alimenter frénétiquement un site pendant 3 mois, puis le laisser en jachère pendant 1 an vous fera certainement plonger dans les SERPs. Mieux vaut publier du très bon contenu une fois par mois qui générera une émulsion bénéfique, plutôt que des articles de moindre qualité une fois par semaine qui ne retiendront l’attention de personne.
La qualité du contenu est la clé pour appliquer les préconisations abordées ci-dessus. Vos visiteurs reviendront (trafic direct), partageront (social et backlinks), mettront en favori (spyware Google chrome, j’y viens…), bref, enverront des signaux positifs qui augmenteront le « trustrank » de votre site.

Méfiez-vous des relevés de positions

Partant du principe que Google utilisera tout ce qu’il a en sa possession pour recouper et évaluer un site, je ne peux plus m’empêcher d’avoir un sentiment de paranoïa chaque fois que mon crawler va vérifier le positionnement des sites dont j’assure le suivi. Quelque soit l’outil, les proxies ou la fréquence, vous enverrez toujours une série d’occurrences accompagnées de l’URL de votre site. On donne sur un plateau à Google les mots clés que l’on compte pousser/optimiser. Là aussi il faut considérer ça comme un signal que Google recoupera avec d’autres.
A ce propos, faire des relevés de positions quotidiennement n’a pas grand intérêt sauf au cas par cas sur des sujets d’actu par exemple. Une fois par semaine reste largement suffisant, et moins chronophage.

Attendre avant d’agir après une baisse

red flagGoogle met tout en oeuvre pour rendre son algorithme le moins lisible possible, et brouille les pistes au maximum. Une chute de 20 places sur une occurrence n’est pas forcément synonyme de pénalité. Il se peut que la page retrouve son classement (sans intervention) quelques jours plus tard. Volonté de brouiller les pistes, ou de tester le webmaster ? C’est peut-être les deux !
Si vous paniquez, et qu’immédiatement après la baisse, vous rajoutez une couche de mots clés, remaniez votre balise title avec un titre bien spammy, cela peut s’avérer nocif.
IDEM avec pingouin et panda. Réagir de manière précipitée est rarement bénéfique et peu, à juste titre, être interprété par Google comme une volonté de se positionner « artificiellement ».

Désavouer des backlinks : l’outil à double tranchant

Pot de mielEn octobre 2012, Google a lancé son outil pour désavouer des liens via GWT. Les plus naïfs y verront un moyen de blanchir un site au linking border-line, mais ne rêvons pas, la fonction première de cet outil est bien plus perverse. Google fait d’une pierre deux coups :
– D’un côté, la mise en place des filtres panda et pingouin a ouvert la porte aux techniques de référencement négatif (NSEO). S’il est très difficile de faire vaciller un domaine bien installé et trusté, un jeune site est beaucoup plus fragile. Aveu de faiblesse ou pas, l’outil de désaveu de liens permet de remonter à Google les attaques qu’il aurait injustement interprété de manière négative.
– De l’autre, tout porte à croire que big G utilisera ces remontées d’informations pour identifier les vilains canards qui auraient échappés aux filets dérivants que sont les filtres pingouin et panda. D’ailleurs, Google ne garantit absolument pas de « supprimer » les liens remontés puisqu’il considère ça comme une « suggestion », se laissant toutes les latitudes pour interpréter ces informations.

Et les bons backlinks dans tout ça ?

Ne cherchez plus la quantité, mais l’autorité. 1 seul BL sur un site très bien trusté vous propulsera très haut si il y a une alchimie qui s’opère avec le comportement des visiteurs, et la résonance sur le web sociale. Gardez quand même quelques bons annuaires et spamco sous le coude pour varier vos ancres et délester votre homepage, mais ils ne doivent plus être majoritaires dans vos stratégies de netlinking. Voir mon billet sur l’avenir du backlink.

Attention au « duplicate container »

On a fait un bruit démesuré sur la duplication de contenu, mais strictement rien sur la duplication de contenant. Pourtant c’est un moyen évident d’identifier les sites montés à l’arrache, en particulier les « splogs » ou réseaux de sites satellites.
Un ex-employé de Google récemment interviewé sur le site searchenginejournal.com laisse entendre que Google peut « sniffer » toutes les similitudes entre les sites et leurs structures pour démasquer les réseaux. Attention donc aux footprints, et à l’utilisation de thèmes dupliqués, même si vous ne montez pas de linkwheel. Prenez le temps de développer votre propre thème si vous utilisez un CMS, comme je le suggère dans mon billet sur le duplicate container.

Travailler son branding

brandingEncore une tendance lourde pour cette année 2013, comme ce fut le cas en 2012. Popularisez le nom de votre site et votre marque. Surtout, ne composez plus votre nom de domaine en fonction des occurrences que vous visez, en particulier si elles sont concurrentielles. Le nom de votre marque doit résonner autour de votre site, être cité sur des blogs, Twitter ou Facebook sans nécessairement faire de lien ! Perdez ce reflex de poser vos backlinks chaque fois que vous laissez votre empreinte quelque part ! N’hésitez pas non plus à faire dans la demi-mesure en laissant l’URL de votre site, sans ancre : Google sait les identifier.
Vous atteindrez la perfection quand les utilisateurs chercheront votre site sur Google simplement en tapant le nom de votre marque (nom de domaine). Pour peu que l’on se donne un peu de peine, cela arrive plus vite qu’on ne le croit.
Selon la nature de votre site, travaillez l’authorship. Cela vous forcera la main pour utiliser Google+, mais il faut caresser notre big brother dans le sens du poil. Bref, ayez une approche beaucoup plus SMO que SEO.

Illustrez votre contenu avec vos propres medias

La duplication de contenu ne concerne pas forcément que le texte. Google sait repérer si une image a été repompée sur un autre site. Si cela n’a rien de répréhensible en soit, un site qui illustre l’intégralité de ses articles avec des images ou des vidéos recyclées et ne lui appartenant pas peut être synonyme de contenu maigre.
Et pour rejoindre l’optimisation de votre branding, n’hésitez pas à apposer le logo ou la marque de votre entreprise sur vos images (si elles sont originales), je préconise même d’insérer votre copyright dans les données IPTC des images.

Chrome est un très bon navigateur, mais également un formidable spyware

ChromeJ’avoue que Chrome m’a beaucoup séduit. Sa rapidité, sa gestion de la mémoire, ses extensions… Il a vite détrôné Firefox qui n’en finit plus de proposer des mises à jours pour combler un retard qu’il ne rattrapera peut-être jamais. Mais Chrome est également un support exceptionnel pour renseigner Google sur vos habitudes, votre historique de navigation, vos signets, vos cookies…
Si vous l’avez adopté, sachez l’abandonner quand il le faut : vous montez un réseau de sites (linkwheel) ? Vous utilisez des outils black hat en mode Saas (Software As A Service) ? Alors préférez un brouteur alternatif sans Google barre, et qui n’a aucun deal avec Google (Opera ?).
Dans le même ordre d’idée, vous pouvez utiliser d’autres outils de mesure d’audience comme Piwik, mais je suis persuadé que Google n’utilise pas les données de Google analytics vu les autres sources fiables dont il dispose.

Ne soyez plus égocentriques

Je ne préconiserai pas à un site e-commerce d’aller faire un lien externe vers ses concurrents sur chaque fiche produit, quand même pas. Mais selon la nature de votre site, n’oubliez pas de citer vos références, vos sources d’informations, linker des sites institutionnels de référence. Faites respirer vos pages, et n’emprisonnez plus vos visiteurs dans un cul de sac.
Pour le nofollow, je l’ai quasiment abandonné et ne le recommande que dans des cas bien particuliers, l’affiliation par exemple.

Bref…
Vous l’aurez compris, les futures stratégies SEO devront impérativement se baser sur l’attaque défense. Terminée la belle époque où l’on se contentait de balancer des liens un peu partout dans l’insouciance la plus totale. Ayez une approche plus marketing du référencement, et quoi que vous entrepreniez, évaluez toujours si cela fait naturel ou pas. Une optimisation « on site » irréprochable est la condition sine qua none pour réussir. Le comportement et l’appétence de vos visiteurs sont devenus un facteur primordial. Ne partez plus au combat la fleur au fusil et… à poil ! Google nous livre une guerre, et sera encore plus fort dans les années à venir.

Vous pouvez avoir un lien en DoFollow si :
  • Vous ne faites pas de lien optimisé (brand ok).
  • Votre contribution apporte de l'eau au moulin et ne se contente pas de remercier (même si c'est toujours appréciable).
  • Vous ne donnez pas l'impression de ne pas avoir lu l'article.
  • Votre site doit graviter dans l'univers du SEO / web marketing / IT.
  • Nouveau : Se suivre mutuellement sur Twitter (oui ça fait copinage, et j'assume !).
Le but n'étant pas d'être plus sévère, mais au contraire plus équitable et... naturel. N'oubliez-pas : moins de spamco = meilleur jus !

13 thoughts on “Préconisations SEO pour 2013

  • Wow, quel article ! et totalement d’accord sur l’importance du branding dans les stratégies web marketing. Sans oublier la montée en puissance de la « caution » sociale.

  • Twitté, plussé, insharé.. bref, bien d’accord avec tout ce qui a été énoncé! J’adore ce genre d’article, ce doit être le 1er qui parait pour 2013 je crois.
    Merci au passage car je n’avais pas envisagé le relevé de position sous cet angle!

  • On aurait pas pu rêver mieux pour finir l’année et partir sur des bonnes bases en 2013! Il y a plusieurs choses auxquelles je n’aurait pas pensé, comme par exemple le relevé de position. je rajouterais une petite chose, bien faire attention au choix de son nom de domaine et ne plus utiliser forcément un EMD, ce qui se couple bien avec le conseil donné de populariser le nom du site ou de la marque.

  • Donc je vois que nous avons du pain sur la planche pour 2012. C’est vrai que SEO doit être une affaire de professionnel, mais pas une chose accessible pas tous. Merci pour les prévisions. ;)

  • Google est très malin quand il s’agit d’identifier les sites qui nous appartiennent, quand bien même ceux-ci n’utilisent aucun service Google. J’ai eu la surprise de voir des sites qui n’ont jamais eu Analytics ni Adsense listés dans l’interface Adsense justement, section Gestion de site > Sites vous appartenant dans les paramètres. En tout cas, ça permet de repérer quels sites ont été détectés par Google.

    Quant au SEO en 2013, attention à rester propre et modéré dans ses tactiques de linking, un usage à outrance de « guest-post » (disons plutôt de l’échange ou achat d’articles) est une stratégie dangereuse car déjà abusée. Le bon sens est de rigueur pour tous les sites qui ne sont pas dans une niche ultra concurrentielle !

  • Bonjour Baptiste,

    Pour l’association des sites par Google, es-tu bien certain qu’il n’y ait pas de liens avec GWT ? Il serait également intéressant de comparer les données Whois de chaque sites. Que Google soit malin pour identifier les sites qui nous appartiennent je n’en doute pas une seule seconde, mais qu’ils les associes clairement dans l’interface Adwords sans qu’il y ait de liaison officielle me parait un peu étrange.

  • Ce qui est rassurant c’est qu’on n’en revient toujours aux mêmes fondamentaux, peu de bouleversement (du moins pour le moment).
    Et puis on ne sait toujours pas trop ou prendre le bon ou le faux au niveau des recommandations justement.

    Donc une fois de plus, il va falloir faire pas mal de test pour en tirer ses propres conclusions.

    Bon article :)

  • Un peu de détails sur les sites :
    – IP unique (serveur dédié + ip failover), avec comme voisins 3 autres sites sur des thèmes différents
    – pas d’analytics sur aucun d’entre eux
    – pas de WMT sur aucun d’entre eux
    – pas d’AdSense sur aucun d’entre eux
    – d’autres sites sur le même concept (mais thème différent), sur d’autres IP, ont AdSense
    – tous les domaines sont réservés en anonyme mais sur le même registrar

    Ce qui reste comme détection possible (plutôt des indices) :
    – architecture / code HTML / CSS / JS utilisé (c’est du custom)
    – espionnage via Chrome
    – mentions légales (bien qu’elles soient en noindex, pas de lien footer)
    – registrars identiques et whois anonymes
    – l’historique de recherche avec des commandes spéciales (site: etc.)

  • La vidéo est un formidable vecteur de trafic. Le moteur de recherche de youtube est l’un des plus utilisé avec celui de facebook, derrière Google bien sûr.
    Donc oui la vidéo est importante pour l’acquisition de trafic, surtout sur certaines niches. De là à dire que cela a un impact direct sur le ref nat, comme peut le faire un bon backlink, je ne crois pas. L’approche de la vidéo est plus marketing.

  • Merci pour la réponse.

    Un petit hors sujet, désolé je suis pas encore très familier avec le référencement : faire des communiqué de presse, ou s’inscrire dans des annuaires dans une langue étrangère permettent ils d’améliorer le référencement d’un site français ?

  • Article intéressant, merci ! Il va- à l’avenir – être beaucoup plus compliqué d’exercer son métier de référenceur. Il va falloir arriver à échanger des articles sur nos blogs/sites respectifs dans un ratio pas trop suspect et avec des complémentarités de sujet pour que les BL deviennent hyper qualitatifs…

Les commentaires sont fermés.