Plan d’action pour sortir et éviter le coup de griffe de Google panda

Rares sont les certitudes autour de panda. Il en est une qui fait quasiment l’unanimité, c’est qu’il est difficile d’en sortir. Cela demande parfois beaucoup de travail et de remise en question, et sans méthode et une bonne connaissance de cet algorithme, les chances de réussite sont quasi inexistantes.

Beaucoup de choses ont été dites, des rumeurs parfois infondées. La première fausse vérité à propos de panda que vous devez écarter d’emblée, est son incurabilité. Les personnes qui disent ça n’ont pas fournis les efforts et la motivation nécessaires pour y arriver, ou hélas n’en ont pas les moyens financiers. Beaucoup partent sur de fausses pistes avec une méconnaissance totale du fonctionnement de ce filtre. Les plus chanceux sont ceux qui auront pris le temps d’analyser leur existant avec tout le recul que cela demande, et auront fournis les efforts suffisants pour éradiquer les éléments nocifs et rendre leur site irréprochable. On dit qu’environ 5% des sites touchés par panda ont réussi à se sortir de la pénalité, impossible à vérifier, mais le chiffre est crédible.

Vous n’obtiendrez pas de résultats probant sans un véritable plan d’action, sans vous documenter, et en prenant à la hâte des mesures désespérées, dans l’urgence. Vaincre panda est un exercice au long cours, où vous devrez établir une sorte de communication avec Google, en lui envoyant des signaux positifs et prometteurs pour qu’il change d’opinion sur votre site.

Big brother is watching you

Google vous surveille Pure spéculation de ma part, mais dites-vous dès le départ que pour sortir de l’ornière, une personne humaine (quality raters) devra valider et inspecter votre site pour dire si oui ou non vous méritez de retrouver votre place dans les résultats de recherche (SERP). Pour ma part, je ne pense pas que la levée de sanction soit purement algorithmique, du moins au début. Le « machine learning » doit aussi avoir un rôle à jouer dans cette phase, au même titre que l’évaluation de la qualité des sites.
Considérez que vous êtes sous surveillance, et ce postulat de départ oriente déjà la stratégie à appliquer : il n’est plus question ici de berner un robot, ni un être humain. Exit donc les techniques de cloaking, d’obfuscation, et autres bidouilles on-site.

Accepter et reconnaître ses lacunes

Voilà un des points clé et souvent sensible dans le processus de recouvrement. C’est parfois digne d’un travail de psychanalyse ! Pour faire simple, Google envoie un message avec panda pour vous dire que votre site (soyons franc du collier) c’est de la merde, par ce que votre contenu est sans intérêt, et que vous ne méritez pas votre position en l’état. Point barre. Ne vous polluez pas l’esprit avec des « c’est injuste », « mon contenu est unique » etc.
Même si votre site a des qualités, vous devez accepter qu’il a de gros points faibles, car tout le reste de la procédure consistera justement à les énumérer et les corriger. Sans recul et sans objectivité ce sera beaucoup plus dur.
Pour mieux vous rendre compte de ce que vaut votre site, regardez ceux de vos concurrents (les mieux placés) et analysez objectivement ce qu’ils ont de plus, et par la suite ce que vous pourriez faire de mieux pour vos visiteurs.

Savoir abandonner si vous n’êtes pas prêt à fournir l’effort nécessaire

Plus ou moins indirectement, Google panda s’attaque au modèle économique de certains sites comme les agrégateurs de contenu, les comparateurs de prix, codes promo, affiliation, MFA (« Made For Adsense » ou encore « Made For Affiliation »). Prenons un exemple : vous êtes seul à piloter votre site e-commerce dont le catalogue est entièrement alimenté par des flux XML provenant d’une source externe (plateforme d’affiliation, grossiste etc). Vous êtes une cible potentielle pour panda car votre contenu sera très proche de beaucoup d’autres sites. Même si le contenu des fiches est spinné, remixé, retouché, la structure de votre boutique et le champs lexicale sentira à plein nez la duplication. Pour vous sortir de panda, vous devrez fournir un effort tel, qu’il n’en vaudra peut-être pas la peine. En plus d’apporter une valeur ajoutée à votre site (ce qui n’est pas évident), il vous faudra surement revoir votre modèle économique pour que tous les services externalisés (catalogues xml, liens d’affiliation, etc.) soient clairement mis en retrait.
Il faut savoir renoncer si le jeu n’en vaut pas la chandelle, rebondir sur d’autres projets en tirant parti de ses échecs.

Voilà, vous êtes descendu de votre piédestal, vous avez corrigé votre attitude égocentrique, vous avez accepté la domination de Google… on peut passer à la suite.

Dresser la liste de tous les éléments potentiellement nocifs

Là, vous devez vous mettre en mode parano, et ne rien laisser passer. Dès que vous avez un doute sur une page ou autre élément de votre site, notez-le.
Les approches et les méthodes peuvent varier selon votre niche, mais pour ce qui est des facteurs techniques bloquants, c’est pour tout le monde pareil. Commençons par ça.

indice 2

Améliorez la vitesse et la performance de votre site

Plus vos pages seront rapides à s’afficher, plus vos visiteurs, et surtout le googlebot, seront satisfaits. Une page trop lente c’est pour lui du temps d’attente en plus, des kilo-octets superflus à stocker, et au final beaucoup, beaucoup de ressources. Pas étonnant que les performances des sites soient prisent en compte dans l’algorithme de Google.

Les moyens pour arriver à booster les performances sont multiples, mais il faut commencer par le plus évident : alléger son interface graphique, optimiser les images, opter pour des boutons et menu 100% HTML/CSS.

Si vous utilisez un CMS avec un template qui n’est pas le votre à la base, vous devrez l’analyser en profondeur et supprimer tous les éléments inutiles et superflux : par exemple, pourquoi appeler une librairie javascript sur toutes les pages alors qu’elle n’est utilisée que sur une seule page pour afficher un slideshow ? Et d’ailleurs ce slideshow est-il vraiment nécessaire ? Apporte-t-il plus de visibilité à mon contenu ?
Coupez, taillez, élaguez comme on le fait avec les arbres pour qu’ils respirent et repartent de plus belle.

Une fois le ménage terminé, vous pourrez envisager l’ajout d’un plugin de cache pour présenter à vos visiteurs et aux robots une version statique de votre site. Si votre CMS (wordpresse par exemple) est dépourvu de cache, le gain est souvent significatif, à condition que vos accès disque soient rapides.

Après il faudra peut-être mettre la main à la poche pour choisir un hébergement haut de gamme (sur serveur dédié) avec des disques dur SSD ultra rapides.

Des hébergeurs comme OVH proposent maintenant un service CDN (Content Delivery Network) qui fonctionne comme un cache, mais déporté à plusieurs endroits stratégiques dans le monde ou en Europe pour encore plus d’efficacité.

indice 3

Les erreurs 404

Elles sont prises en compte par panda. Un nombre élevé est synonyme de négligence, et jamais agréable pour les visiteurs.

Vous supprimerez toutes les erreurs 404 internes à votre site. Cette étape ne devrait pas prendre beaucoup de temps si vous utilisez les bons outils. Google webmaster tools, et Xenu’s Link Sleuth permettent de lister les liens cassés automatiquement, et gratuitement.

Il vous faudra tantôt corriger les liens, tantôt faire des redirections 301. C’est souvent le cas pour les erreurs 404 qui proviennent de liens extérieurs que vous ne maîtrisez pas. Soyez rassuré, Google ne vous pénalisera pas si vous en avez. En revanche si ces liens peuvent transmettre du « jus » il est dommage de les laisser en 404 ! S’ils en valent la peine vous ferez des redirections 301 dans votre htaccess.

indice 2

CMS : utilisez un thème original, si possible le votre

Un indice de poids pour repérer les webmasters qui ont un poil dans la main : l’originalité du code source. Si vous ne l’avez pas encore lu, lisez mon billet sur le duplicate container et la nécessité de développer ses propres thèmes.
En temps normal, il est peu probable que Google pondère négativement le fait d’avoir un thème (et donc un code source) proche de milliers d’autres. Dans le contexte panda, je suis beaucoup plus prudent. Ne perdez pas de vu qu’initialement, le filtre panda s’appelait « content farmer update », et l’un des dénominateurs communs aux fermes de contenu, c’est le code source dupliqué.

Dans la mesure du possible vous ferez vous-même votre thème, ou vous sous-traiterez cette tache à un prestataire compétant (notamment en SEO). Acheter un thème premium sur un marketplace n’a à mon sens aucun intérêt.

En faisant vous-même votre thème, vous gagnerez en souplesse, et vous éliminerez tous les footprints inutiles (voir mauvais). Certains thèmes téléchargés gratuitement (plus ou moins légalement) contiennent parfois des liens cachés ou des backdoors. Il en va de même avec les plugins… soyez vigilent, épluchez votre code au peigne fin systématiquement !

indice 3

Balises d’entête en doublon, et optimisation

Chaque page de votre site doit être unique. Cela ne veut pas dire que reprendre un paragraphe de temps en temps vous pénalisera, mais les balises title et meta description (si vous les utilisez), voir H1 doivent obligatoirement êtres différentes d’une page à l’autre.
Et c’est encore plus important quand vous avez des pages au contenu très proche : vous compenserez cette proximité en renseignant vos balises title avec des titres très éloignés. Idem avec les balises meta et Hx.

Supprimez toutes les parties ajoutées automatiquement à vos titres de page, en préfixe et surtout en suffixe. Il est très commun de voir le nom du site associé au titre de la page. Ce critère n’est pas forcément pénalisant, surtout pour les sites bien établis de longue date, mais si vous êtes affecté par panda, cela peut être interprété comme une tentative de keyword stuffing.
Evitez le plus possible les répétitions de mots clés dans vos balises title. Faites des titres naturels avec des mots neutres et qui incitent tout de même à cliquer. La longueur optimale se situe entre 40 et 70 caractères.

Faites très attention à la sur-optimisation. La balise la plus importante c’est title. C’est là que vous mettrez les mots clés les plus importants… une fois suffit ! Vous éviterez également de les répéter dans votre balise H1, et vous jouerez plutôt avec des co-occurrences que Google sait très bien associer aux mots clés de la page.

indice 3

Désignez les pages canoniques

Il peut arriver qu’une page de contenu ait plusieurs URLs, à cause de paramètres de classement, d’impression, de session qui viennent s’y greffer.
Par exemple l’url http://www.votre-site.fr/mon-article.php peut également exister sous la forme http://www.votre-site.fr/article.php&print=1 ce que Google pourrait interpréter comme de la duplication de contenu.

Pour palier à ce problème, ajoutez dans la partie de votre page :
<link rel="canonical" href="http://www.votre-site.fr/mon-article.php" />
Si vous utilisez un CMS comme WordPress, vous devrez sans doute recourir à un plugin tiers pour que l’ajout soit effectué automatiquement.

indice 2

Faites la chasse aux copieurs

Google n’aime pas le contenu dupliqué (off site) et peut vraiment vous pénaliser car il a encore du mal à distinguer le contenu originel de la copie.
Un moyen rapide pour vérifier si une page de votre site a été repompée sur un autre consiste à sélectionner une phrase de votre contenu, et la copier coller dans Google, avec des guillemets pour ne faire ressortir que la phrase exacte.
Si vous trouvez des vilains petits canards qui ont scrapé ou copié votre site, plusieurs solutions s’offrent à vous. Contacter le webmaster, contacter l’hébergeur (ne perdez pas votre temps), mais le plus efficace reste le formulaire DMCA de Google pour signaler une atteinte aux droits d’auteurs. Vous pouvez compter sur la réactivité de Google. Ils désindexeront les contenus dupliqués en moins de 48h.

Vous pouvez également utiliser des services spécialisés comme celui de copyscape pour repérer vos contenus dupliqués.
Ne perdez pas de vue que ces outils ne vous permettrons que de repéré le contenu « copié collé », mais pour ce qui est du contenu paraphrasé et remanié (near duplicate) vous serez vite désarmé. Il faudra parfois prendre sur vous : si vous avez un article court (< à 400 mots) repris à droite et à gauche et que ce dernier date de plusieurs année, réécrivez-le !

indice 3

L’ouverture aux réseaux sociaux

On parle de plus en plus de SMO (Social Media Optimization), et il est clair que Google en tient compte pour évaluer la popularité d’une page ou d’un site. Mais QUID des sites qui n’ont aucun intérêt à entretenir une présence et une activité sur ces médias ? Créer des comptes twitter, facebook ou google+ sans qu’il y ait de réelle émulsion peut être à double tranchant.
Le mieux est de faire ce que fait certainement Google : regardez ce que font vos concurrents directs. S’ils ont une présence sur les réseaux sociaux, s’ils sont fédérateurs, et s’il y a une réelle effervescence, alors vous savez ce qu’il vous reste à faire.

indice 1

Autres facteurs techniques bloquants ou pénalisants

Si Google attend de vous que vous vous souciez plus de vos visiteurs que de votre ranking, rendez votre code accessible à tous. Vérifiez via le validateur HTML W3C que votre code HTML ne comporte aucune erreur. Optimiser votre site pour les plateformes mobiles est un plus.

Pour l’hébergement, assurez-vous d’être chez un hébergeur de qualité. Google a récemment mis en garde les sites hébergés chez certains hébergeurs low cost. Attention donc aux hébergements mutualisés pas chers où les performances ne sont pas garanties, et très aléatoires. Quant aux solutions gratuites, pas la peine de s’y attarder, je doute que les sites concernés par panda soient concernés.

Le contenu, cible privilégiée de panda

indice 4

Eradiquez tout votre contenu de mauvaise qualité

Là vous allez devoir être très sévère avec vous-même. Vous devez purement et simplement supprimer le contenu de mauvaise qualité, et sans intérêt. Encore faut-il l’identifier, et placer le curseur entre ce qui est valable et ce qui ne l’est pas.
Si vous êtes conscient d’avoir écrit des pages satellites sans réelle valeur, dans le seul but de vous positionner sur des mots clés ou pour pousser des pages cibles, supprimez-les sans scrupule.

Si vous êtes hésitant sur des pages à supprimer, identifiez par le biais de votre logiciel de statistiques (Google analytics) les pages qui ne vous apportent plus de trafic et/ou celles ayant un fort taux de rebond. Allez-y franco, n’ayez aucun état d’âme, même si vous devez sacrifier plus de 50% de votre contenu. Ne gardez que l’essentiel. Il se peut que vous mettiez des semaines si ce n’est des mois à passer ce cap. Ce n’est pas évident… et pourtant c’est une action prépondérante pour se sortir de panda.

Si vous avez des pages dont le sujet mérite d’être conservé mais avec un contenu de faible qualité, réécrivez-le. Mais attention, n’en faites pas un remix paraphrasé ! Vous devez être original et donner l’air de maîtriser votre sujet.

indice 4

Supprimer des pages : les bonnes manières

Il y a plusieurs méthodes pour supprimer proprement une page web. Pour le coup, pas question de générer des erreurs 404 potentiellement nuisibles, ni de faire une redirection 301 et encore moins 302 (temporaire). On évitera également les attributs noindex qui peuvent sous-entendre que l’on souhaite quand même garder la page. Le but est d’envoyer un message fort à Google :

« je me débarrasse complètement de cette page, et en plus je la retire de votre index ».

Voici une méthode Kärcher :

  1. Repérez dans un premier temps toutes les pages qui font référence à la page que vous souhaitez supprimer. J’utilise pour ça Google Webmaster Tools qui permet de lister les backlinks internes d’un site pour une page spécifique. Vous supprimerez tous les liens référents afin que la page à supprimer soit totalement isolée du reste de votre site.
  2. La suite consiste à créer une erreur 410 (gone) : vous retirez l’article de votre site, et vous ajoutez la ligne suivante à votre fichier .htaccess :
    Redirect gone /dossier/nom-fichier.html
  3. Retournez dans GWT, et demandez cette fois-ci à supprimer la page de l’index Google (Configuration du site / Accès du robot d’exploration / onglet « suppressions d’URL »)

Là, le message est clair ! N’oubliez pas de créer une page d’erreur 410 si cette dernière n’existe pas. Vous ajouterez la ligne suivante dans votre fichier .htaccess :
ErrorDocument 410 http://www.domaine.fr/erreur410.html

indice 2

Faut-il indexer les pages de taxonomie (rubriques, mots clés, tags, etc.) ?

Il n’y a pas lieu de supprimer ces pages, mais elles sont à double tranchant pour votre référencement car souvent vides de réel contenu et paginées (une plaie pour le référencement).

Soit vous ajoutez la balise meta noindex à ces pages, ce qui est la technique de loin la plus rapide, soit vous prenez le parti de les indexer et pourquoi pas de les faire ranker, mais vous devrez vous débrouiller pour en faire des pages de vrai contenu.
Il m’arrive d’opter pour cette solution avec WordPress, je procède de la façon suivante pour les rubriques :
je limite au maximum la pagination pour avoir des pages monolithiques. Grâce au plugin « HTML in Category Descriptions », je saisi une description détaillée et « riche » de ma rubrique, comme si je faisais un article. J’utilise ensuite les champs personnalisés, ou le plugin « Advanced Custom Fields » pour renseigner une description unique de chaque article, qui servira à alimenter les pages de rubriques, plutôt que de dupliquer systématiquement le chapeau. Je me retrouve alors avec des pages de rubrique dont le contenu est 100% unique, et mis à jour régulièrement. Google adore !

indice 5

Faire du contenu pertinent pour vos lecteurs

Tous les conseils prodigués dans cet article ne serviront à rien si vous n’avez pas un contenu pertinent et résolument écrit pour vos visiteurs.
Ecrire dans un bon français, avec un texte unique ne suffit plus, surtout pour les sujets qui ont déjà été abordés mainte et mainte fois par ailleurs. Vous devez être meilleur que les autres, plus pertinent et peut-être aborder votre sujet sous un angle différent. Ne vous méprenez pas, il n’est plus question d’optimisation de mots clés, de longueur minimale… Avec panda, vous serez jugé par le comportement de vos visiteurs : s’ils apprécient votre article ils feront un like, un bookmark, un +1, un share, un (re)tweet, et toute cette effervescence autour de votre article ne peut se faire que si ce dernier apporte l’information « unique » que vos visiteurs cherchent. Et nul doute que l’activité utilisateur autour de vos articles (ou vos services) sera mise en comparaison avec d’autres sites concurrents jugés « bons » par les quality raters. La clé de panda est là !

A partir de là, si vous ambitionnez encore de meubler vos carences en contenu en achetant vos textes chez TextMaster, TextBroker, ou encore moins cher par des malgaches, vous vous enliserez encore plus. Voir mon article sur mon expérience du service TextBroker.

Votre stratégie SEO favorable jusqu’ici peut même se retourner contre vous. Est-ce normal qu’un article avec un linking important et bien placé dans les SERP ressorte comme mauvais de la matrice panda ? Probablement pas !
Ne rédigez pas vos articles pour les robots, du moins cela ne doit pas se sentir. L’heure est même à la désoptimisation si vous avez eu la main un peu lourde avec les mots clés, en particulier dans les zone sensibles (title, et Hx).

Le contenu, ce n’est pas que du texte !
Pensez à illustrer vos articles pour ajouter un second degré de lecture. Vous rendrez vos lecteurs plus captifs. Ne vous contentez pas d’une image récupérée sur flickr ou Google ! N’oubliez pas, vous devez être en mode parano, et la duplication de contenu peut très bien s’appliquer aux médias : faites vous-même (si vous le pouvez) vos graphiques, photographies, et autres illustrations.

La vidéo est très en vogue, n’hésitez pas à en intégrer dans vos pages. Utilisez Youtube histoire de graisser la patte à Google ;-)
Autre support intéressant, les slideshare qui en plus de leur facilité d’utilisation et de partage, sont « crawlables » par les moteurs.

Vous pouvez avoir un lien en DoFollow si :
  • Vous ne faites pas de lien optimisé (brand ok).
  • Votre contribution apporte de l'eau au moulin et ne se contente pas de remercier (même si c'est toujours appréciable).
  • Vous ne donnez pas l'impression de ne pas avoir lu l'article.
  • Votre site doit graviter dans l'univers du SEO / web marketing / IT.
  • Nouveau : Se suivre mutuellement sur Twitter (oui ça fait copinage, et j'assume !).
Le but n'étant pas d'être plus sévère, mais au contraire plus équitable et... naturel. N'oubliez-pas : moins de spamco = meilleur jus !

15 thoughts on “Plan d’action pour sortir et éviter le coup de griffe de Google panda

  • Super article avec plein de conseils…
    C’est vrai qu’il est parfois nécessaire de lacher l’affaire si on est pas près de faire des efforts et des sacrifices comme la suppression de pages …

    Quand on a un site qui reprend du contenu (cas affilié / comparateur) es ce qu’il peut s’en sortir si on décide de ré-écrire toutes les pages/fiches produits ?

  • Pas sûr ! Si tout le biz model du site repose sur le comparateur (effet entonnoir prononcé), ce n’est pas le DC qui plombe le site, mais bien le modèle économique.

  • Comme je l’ai souligné dans mon billet, si le modèle économique repose essentiellement sur un tiers (affiliation), et que le site n’a pas vraiment de valeur ajoutée, c’est la douille assurée dès lors qu’il pointera son nez sur les occurences concurrentielles.

  • Très bon article bien rédigé qui résume bien les efforts à effectuer depuis la mise en place des nouveaux algorithmes Google.

  • Hello Aurélien,

    J’aime bien retomber sur ton article quand je recherche des infos sur Panda !

    En ce qui concerne le modèle économique, est ce que tu pense que Google détecte la présence de liens d’affiliation pour mettre un coup de bambou quand il faut ?

    Par ailleurs, j’ai pu lire sur divers articles sur le web, que la balise noindex était une bonne alternative pour envoyer un signal fort à Google et ainsi, lui indiquer de ne pas indexer des pages avec un contenu mince / faible ou duplicate ?

    Au plaisir de te relire…

    (PS : Dommage qu’on ne puisse pas cocher une case pour recevoir des notifications par email quand un commentaire est posté pour cet article) :)

  • @hams : oui Google peut détecter la présence de liens d’affiliation (par algo, ou quality raters peu importe). Mais ce n’est pas pcq tu as des liens d’affiliation que tu vas être pénalisé. Tout est question de proportion. Si tout le site tourne autour de l’affiliation, c’est ni plus ni moins un MFA et la sanction n’est jamais loin.

    Oui la balise noindex peut aider. Il faut garder à l’esprit que rien n’empêche le google bot de crawler ta page et en faire ce que bon lui semble, sauf la montrer dans les résultats ;)

  • Cool, merci pour ton retour…

    Google Bot doit toute façon crawler la page pour détecter qu’il y a un noindex… Après, je me dis que ça peut être un signal positif de chercher à ne pas faire apparaitre ces pages dans les serps de Google (en raison du duplicate par ex)

    Google peu en faire ce que bon lui semble, je suis d’accord, mais s’il détecte une bonne présentation des informations ainsi qu’une expérience utilisateur positive, il peut être content, non ? :)

    Au plaisir ^^

  • Excellent article sur le fond, mais il faut aussi redescendre sur terre : Si Google maitrisait toutes les qualités dont vous l’affublez, il n’y aurait pas encore un grand nombre de sites faiblards (tant niveau rédactionnel et technique que niveau éthique SEO) en haut des SERPs

  • Bonjour,
    J’ai lu cet article avec beaucoup d’intérêt. Je susi d’accord avec toutes ces mesures, mais je trouve que les priorités que tu ajoutes sont très utiles.
    J’ai été pénalisé début septembre, comme beaucoup d’autres selon seroundtable.com, et depuis j’essaie de m’en sortir (voir le site de mon comm) en mettant tout ça en place.
    Et depuis 2 mois, Google ne change pas son index me concernant : les pages que je mets en noindex sont encore là (celles qui faisaient du DC) et celles qui sont pénalisées ne remontent pas, bien sûr.
    J’ai fini par mettre des 410 et des 301 quand c’est justifié. Maintenant j’essaie de différencier plus mon contenu. J’ai aussi refait le design du site pour montrer que je m’intéresse aux utilisateurs. Je ne sais pas si je dois rester patient ou pas…
    Surtout que mes concurrents trônent en haut des SERPs sans avoir fait aucune des précos que tu donnes.
    Un truc dont tu ne parles pas, c’est le linking interne qui peut aussi jouer je pense.
    Et j’ai un souci avec l’outil de suppressions d’URL de GWT : on ne peut le faire que pour une URL, pas en masse. Alors pour supprimer mes DC, j’espère que les 410 seront utiles, mais encore faut-il que Google repasse par là.
    Merci !

  • Bonjour Aurélien

    Concernant les 301, il y a une question que je me pose et pour laquelle, je ne trouve pas de réponse exacte. Est-ce pénalisant si un site a trop de 301 ? Sans les mettre dans le htaccess pour ne pas trop solliciter le serveur bien sûr.
    Quand tu as des dizaines de liens que tu e peux pas demander à changer car ils viennent de forums etc, tu finis par avoir des centaines de 301… Est-ce pénalisant ?

    Merci Aurélien

  • @Dadoo : Salut David ;) Je n’ai jamais connu de site pénalisé pour gros volume de 301. Est-ce que dans certains cas ça peut être pénalisant, je n’en sais rien, mais on peut supposer que cela puisse envoyer un mauvais signal dans certains cas. Et puis en fonction des projets, on a parfois pas le choix, et il vaut mieux avoir un gros volume de 301 qu’un gros volume de 404, de DUST, ou je ne sais quoi qui serait encore plus nocif.

Les commentaires sont fermés.