Tag Archive


Quelques outils SEO pour le quotidien

Que l’on soit un référenceur professionnel ou amateur de la « discipline », il est parfois bien utile d’avoir sous la main quelques outils indispensables pour mener à bien notre travail.

Aujourd’hui nous allons vous présenter les outils qui vous permettront d’analyser vos pages, backlinks et d’autres points liés à votre positionnement.

Optimisation de votre contenu Web

Une des règles essentielle du web est d’avoir du contenu bien rédigé qui respecte les règles éditoriales. Voici donc quelques outils pour analyser votre contenu :

Analyser le contenu dupliqué et les liens brisés

On le sait tous, le contenu dupliqué est extrêmement pénalisant pour votre référencement, il est donc très important de surveiller votre contenu et de mettre la main sur le duplicate content. Siteliner est l’outil qu’il vous faut. Vous pourrez :

  • Identifier le contenu dupliqué
  • Traquer les liens brisés sur votre site Internet
Siteliner La Comtoise Web

Analyser les liens internes et externes d’une page

http://www.infowebmaster.fr/outils/analyse-liens.php

Voici un outil bien sympa qui vous permet d’analyser 2 types de lien :

  • Les liens internes de votre site Internet
  • Des liens de votre site vers d’autres sites Internet

Les outils de crawling

Ces outils permettent d’analyser l’ensemble du code de votre site, toutes les pages et tous les fichiers. Lorsque vous crawlez votre site vous obtenez des informations sur les metatags, les erreurs 404 et bien d’autres informations.

Les extensions pour Mozilla Firefox

Mozilla Firefox est votre meilleur compagnon ! En effet, tout bon référenceur utilise Firefox car ce dernier dispose d’extensions indispensables pour votre référencement :

  • Web Developper : un outil indispensable pour tous référenceurs
  • Seoquake vous donne un aperçu des indicateurs SEO (Page Rank, nombre de liens, backlinks etc.)
  • SEO Link Analyses fournis les informations sur les backlinks

Pour conclure…

J’espère que tous ces outils vous permettront de gagner du temps pour l’optimisation de votre référencement.

Conseils pour éviter les pénalités de Google Penguin, l’algorithme antispam SEO

Le nouvel algorithme de Google sorti le 24 avril (nom de code Penguin) vise à réduire le spamdexing (spam des moteurs de recherche) en pénalisant les sites ne respectant pas ses consignes. Dans ce dossier, j’ai regroupé tous les critères (supposés) pris en compte par Google. A vous d’en tenir compte pour éviter de tomber sous l’effet de pénalités.

Généralités sur l’algorithme

Le Pingouin Google

Avertissement préalable

Tout d’abord, je préfère préciser que tout ce qui suit n’est que suppositions : Google n’a pas fourni la liste des critères (signals) utilisés par son manchot (oui, Penguin signifie manchot et non pas pingouin). Ces hypothèses n’engagent donc que moi et ne sont que des hypothèses. Néanmoins j’ai pris le temps de la réflexion et de l’analyse pour vous fournir cette première synthèse, qui sera mise à jour à chaque fois que ce sera nécessaire. Je me base sur :

  • l’étude concrète de quelques dizaines de sites pour lesquels j’ai eu accès à suffisamment d’informations
  • de nombreux échanges avec d’autres webmasters et référenceurs, en public sur le forum mais surtout en privé
  • mon expérience du référencement naturel depuis 1997 (ça ne me rajeunit pas !)
  • la lecture de nombreux articles

Je compte sur vous dans les commentaires pour me signaler mes éventuelles erreurs ou imprécisions car je ne prétends pas détenir la vérité absolue, loin de là !

Fonctionnement global de Google Penguin

Google Penguin semble toucher les pages une par une et non le site globalement ou par grandes rubriques comme c’est le cas avec son collègue le panda. C’est plutôt une bonne nouvelle car votre site ne sera pas pénalisé dans son ensemble à cause d’erreurs ou de quelques écarts envers les consignes de Google.

Autre différence avec Panda, Penguin fait totalement partie de l’algorithme, ce n’est pas un filtre de plus :

  • Avec Panda, Google ré-évalue tous les sites environ une fois par mois pour estimer s’ils remplissent ses exigences. Entre temps vous avez beau améliorer votre site il ne peut rien se passer.
  • Avec Penguin, l’optimisation du référencement de votre site est analysé en permanence. Si vous corrigez suffisamment les critères pris en compte par Penguin, alors vous pouvez sortir de la pénalité immédiatement.

Globalement, cet update se base un peu sur des éléments internes du site et beaucoup sur les éléments externes (netlinking). D’après ce que j’ai pu analyser, une trop forte sur-optimisation interne entraine rarement des pénalités : c’est très souvent le netlinking sur-optimisé qui est la cause de la chute.

Les paragraphes suivants détaillent ces deux familles de critères ainsi que le rôle des réseaux sociaux dans Penguin.

Les critères on-site (ou on-page) : optimisation des contenus et du site

Les aspects onpage sont assez faibles dans Penguin mais il ne faut pas les négliger. C’est une sorte de facteur aggravant.
Inversement, les aspects sociaux semblent également minimes mais c’est une sorte de facteur qui atténue (j’y reviens plus loin ).

Voici d’après mes analyses actuelles les éléments négatifs internes au site pris en compte par Penguin.

Les titres

  • des titres (balise title) créés pour être optimisés sur un nombre trop important d’expressions-clés. Il s’agit de titres constitués d’une série de mots-clés ou de plusieurs séries d’expressions-clés, ne donnant pas assez envie à l’internaute de cliquer.
  • une répétition systématique du ou des mots-clés principaux de la page dans toutes les balises h1, h2, h3…

Le contenu (texte)

  • un texte écrit avec l’idée que plus on répète les mots-clés, mieux c’est : ce qu’on appelle lekeyword stuffing (bourrage de mots-clés). Ceux qui me lisent depuis longtemps savent que cette stratégie n’a jamais payé avec Google. Mieux vaut rédiger naturellement (en utilisant malgré tout quelques bonnes méthodes).
  • des textes qui ne veulent même plus dire grand chose. Faites attention par exemple aux techniques de content spinning (à moins qu’il soit de très haute qualité, ce qui est rare, et encore je vous le déconseille sur votre propre site)
  • des pages saturées de publicités au-dessus de la ligne de flottaison

Les liens situés sur le site (internes ou externes)

  • trop de liens sortants vers des sites de mauvaise qualité (ou pire, pénalisés par Google)
  • des liens internes utilisant tout le temps la même ancre (texte du lien), parfois répétés plusieurs fois dans une même page. C’est ce qu’on obtient en général quand on utilise des outils qui insèrent des liens automatiquement dans les contenus.

Complément

Comme vous pouvez le constater, aucun de ces critères n’est nouveau et la plupart sont largement sanctionnés par Panda depuis 2011.

Toujours à propos des aspects on-site, je pense pour l’instant que Google Penguin ne tient pas compte :

  • des données whois (registrar) et globalement de tout ce qui peut être associé directement au webmaster. Mais sur ce point je suis preneur de retours d’expérience car je n’ai pas eu le temps de faire des tests approfondis
  • du CMS utilisé (par exemple, WordPress n’est pas plus risqué qu’un autre système)

Que pensez-vous de ces critères ? Lesquels manquent ?

Les critères off-site (ou off-page) : netlinking

Voici d’après mes analyses actuelles les éléments négatifs externes au site pris en compte par Penguin. J’ai essayé de les classer en mettant en premier les critères a priori les plus importants.

Les ancres des backlinks

  • trop de backlinks dont l’ancre (le texte de lien, anchor text) contient exactement (ou presque) la requête phare de la page de destination. Dans ce cas, la page ne sort plus dans Google pour cette(s) requête(s)
  • trop de backlinks venant de commentaires ou signatures de forums avec soit un anchor text ultra optimisé, soit un pseudo pas trop optimisé mais sur un blog totalement hors thématique.

La qualité des sites backlinks

  • trop de backlinks venant de pages hors thématique, ou de pages qui certes sont dans la thématique mais de façon isolée sur le site. Prenons le cas d’un site de CP : une page A est publiée, elle contient un lien vers une page B d’un autre site. Certes elle est dans la thématique de la page B, mais sur le site de CP elle semble isolée, peut-être la seule à aborder cette thématique (ce qui est assez étrange pour un site normal).
  • trop de backlinks venant de sites de CP (communiqués de presse) de qualité moyenne ou faible. Je pense que les quelques cas rapportés de sites non pénalisés malgré des backlinks issus de CP correspondent aux cas où les sites de CP et les textes publiés sont de bonne qualité. Cela dit je pense qu’avec le temps Google réduira la puissance de linking pour la plupart des sites de CP (car le principe de ce type de site est de contourner l’algorithme de Google).
  • les liens issus des annuaires ne semblent pas être visés même s’il y a pas mal d’exceptions. Sans doute que la notoriété de l’annuaire compte plus qu’avant. Il faut aussi noter que plusieurs vagues de pénalisation d’annuaires ont déjà eu lieu dans les années passées.
  • trop de backlinks venant de sites rédigés dans une autre langue que le site qui les reçoit

Les liens achetés et les réseaux de sites backlinks

  • backlinks achetés (on passe de côté la question Comment Google peut-il être certain qu’un lien a été acheté/vendu..)
  • trop de backlinks issus de sites identifiés comme appartenant au même propriétaire et reliés entre eux par des liens (réseaux de sites trop visibles). L’adresse IP du serveur n’est pas du tout la seule à entrer en ligne de compte pour cette analyse.
  • trop de backlinks basés sur un principe de linkweel

J’ai aussi d’autres idées qui sont pour l’instant plus hypothétiques donc encore en test dans mon « labo ».
Que pensez-vous de ces critères ? Lesquels manquent ?

Et le social dans tout ça ?

Pour l’instant je ne suis pas convaincu que les aspects sociaux jouent un rôle important dans l’algo du pingouin. Pour les aspects négatifs, peut-être n’ai-je pas eu l’occasion de tester des cas de spam évident via les réseaux sociaux. En fait je suis plutôt de ceux qui pensent que les réseaux sociaux jouent un rôle d’atténuation des sanctions. En gros, si vous avez des mauvais backlinks mais une excellente visibilité sur les réseaux sociaux, plein de partages, like et autres +1, alors vous pouvez espérer être épargné.

Avez-vous une idée différente de l’impact des réseaux sociaux sur Google Penguin ?

Autres ressources pour vous aider à vaincre le pingouin :-)

Source : Web Rank Info.