Meilleur Audit SEO


, Mis à jour le 29 mai, 2015

Meilleur Audit SEO

Maintenant que la saison fiscale est terminée, je peux enfin revenir sur mon mot commençant par la lettre A préféré…audit ! Eh oui. Je m’appelle Steve et je suis un junkie des audits SEO.

Comme tout junkie qui se respecte, j’ai lu tout ce qui concernait les audits en question ; j’ai écrit des milliers de ligne de codes les concernant et ai performé des audits pour des amis, des clients et pas mal tous ceux que je connais qui ont un site web.

Toute cette recherche et cette expérience m’ont aidée à mettre en place un processus d’audit SEO plutôt complet que j’ai décidé de partager avec vous aujourd’hui.

Il s’agit d’un guide complet sur comment performer un audit SEO technique. Que ce soit pour votre propre site ou pour celui d’un client, ou que vous soyez simplement à la recherche d’une bonne lecture dans vos moments de loisir, je peux vous assurer que ce guide a de quoi satisfaire tout le monde. Mais assez de blabla, commençons plutôt.

Audit SEO – Préparation

Lorsque vous exécutez un audit, la plupart des gens veulent se rendre directement à l’analyse. Bien que je sois d’accord que c’est effectivement beaucoup plus fun de commencer par là, vous devriez tout-de-même rester patient.

Un audit complet requiert au moins un petit planning pour s’assurer que rien ne lui échappe.

Rampez avant de marcher

Avant de pouvoir diagnostiquer ce qui ne va pas sur le site, il faut savoir exactement ce à quoi s’en tenir. C’est pourquoi la première étape (et la plus importe) dans votre préparation est d’indexer le site web dans son ensemble.

Outils de collection (crawling) et d'indexation

J’ai écrit des codes personnalisés d’indexation et d’analyse pour mes audits, mais si vous voulez éviter de coder, je vous suggère d’utiliser Screaming Frog’s SEO Spider pour le crawling du site (c’est gratuit pour les premières 500 URLs et $99/an après cela).

Autrement, si vous voulez un outil véritablement gratuit, vous pouvez utiliser Xenu’s Link Sleuth ; sachez cependant que cet outil a été désigné pour explorer un site et y trouver des liens brisés. Il affiche des titres de pages de sites et des métas descriptions, mais il n’a pas été créé pour performer le niveau d’analyse dont nous allons discuter.

Configuration du crawling

Une fois que vous avez choisi (ou développé) un outil de crawling, vous devez le configurer de sorte qu’il agisse comme votre robot d’indexation préféré (genre Googlebot, Bingbot, etc.). Tout d’abord, vous devez installer l’agent utilisateur d’indexation sur une base appropriée.

Robots d’indexation populaires :

. Googlebot – « Mozilla/5.0 (compatible ; Googlebot/2.1 ; +http://www.google.com/bot.html) ». Bingbot – “Mozilla/5.0 (compatible; bingbot/2.0; +http://www.bing.com/bingbot.htm)”

Ensuite, vous devez décider comment vous voulez que le robot gère les différentes technologies web.

Il existe tout un débat sur l’intelligence des robots d’indexation. Ce n’est pas très clair s’il s’agit de navigateurs idiots à part entière ou de scripts en boucle idéalisés (ou quelque chose entre les deux).

Par défaut, je suggère de supprimer les cookies, JavaScript et CSS lorsque vous indexez un site web. Si vous pouvez diagnostiquer et corriger les problèmes rencontrés par des robots d’indexations idiots, ce travail peut être également appliqué à la plupart (si ce n’est tous) des problèmes rencontrés par des robots d’indexations plus intelligents.

Enfin, pour des situations où un robot d’indexation idiot ne fera pas l’affaire (par ex. des pages lourdement dépendantes d’AJAX), vous pouvez changer pour un robot d’indexation plus intelligent.

Demandez aux Oracles

L’indexation du site nous donne pas mal d’information, mais pour se rendre au prochain niveau dans l’audit, il faut consulter les moteurs de recherche. Malheureusement, ceux-ci n’aiment pas donner un accès illimité à leurs serveurs ; il nous faudra donc nous préparer pour les outils du webmaster.

La plupart des moteurs de recherche offrent un ensemble d’outils de diagnostic pour les webmasters, mais dans le cadre de ce qui nous intéresse, nous nous concentrerons sur le Google Webmasters Tools et le Bing Webmaster Tools. Si vous n’avez toujours pas souscrit ces services pour votre site, maintenant est le moment.

Maintenant que nous avons consulté les moteurs de recherche, nous avons également besoin d’obtenir les données des visiteurs du site. Le moyen le plus facile de les obtenir est via les analytiques du site.

Le Web est surveillé par des packages d’analytiques toujours en plus grand nombre, mais en ce qui nous concerne, savoir lequel de ces packages utilise votre site n’a pas d’importance. Tant que vous pouvez investiguer les modèles de trafic de votre site, vous pouvez vous continuer jusqu’à notre analyse à venir.

A ce stade, nous n’avons pas terminé de collecter les données, mais nous en avons assez pour commencer l’analyse alors lançons-nous !

SEO Audit – Analyse

L’analyse actuelle est divisée en cinq grandes sections :

  1. Accessibilité
  2. Indexation
  3. Facteurs de classement On-Page
  4. Facteurs de classement Off-Page
  5. Analyse concurrentielle

1- Accessibilité

Si les moteurs de recherche et les utilisateurs ne peuvent accéder à votre site, c’est comme s’il n’existait pas. Avec cela à l’esprit, faisons en sorte que les pages de votre site soient accessibles.

Robots.txt

Le fichier robots.txt est utilisé pour limiter l’accès des robots d’indexations aux sections de votre site web. Bien que ce fichier soit très utile, il s’agit également d’un moyen facile pour bloquer lesdits robots par inadvertance.

Dans l’exemple extrême suivant, le robots.txt limite l’accès de tous les robots d’indexation à n’importe quelle partie de votre site

User-agent : *Disallow : /

Vérifiez manuellement le fichier robots.text et assurez-vous qu’il n’y a pas de restrictions d’accès aux parties importantes de votre site. Vous pouvez également utiliser votre compte Google Webmaster Tools pour identifier les URLs bloquées par ce fichier.

Robots Meta Tags

Ce robots meta tag est utilisé pour signaler aux robots d’indexation s’ils sont autorisés à indexer une page spécifique et à suivre ses liens.

Lorsque vous analysez l’accessibilité de votre site, vous voulez identifier les pages qui bloquent les robots d’indexation par inadvertance. Voici un exemple de robots meta tag qui empêche les robots d’indexation d’indexer une page et d’en suivre les liens :

robots meta tag qui empêche les robots d’indexation d’indexer une page

HTTP Status Codes

Les moteurs de recherche et les utilisateurs sont incapables d’accéder au contenu de votre site si vous avez des URLs qui affichent des erreurs (par exemple des erreurs de type 4xx et 5xx).

Durant l’indexation de votre site, vous devez identifier et régler chaque URL affichant renvoyant à des erreurs (ce qui inclue également les erreurs 404, non trouvé !). Si une page correspondant à une URL brisée n’est plus disponible, redirigez l’URL vers un placement adéquat.

En parlant de redirection, c’est également l’opportunité de faire l’inventaire de vos techniques de redirection de votre site. Assurez-vous que le site utilise des redirection de type 301 http (et non ceux de 302, redirection http, redirection par meta refresh, ou encore des redirection en utilisant des codes JavaScript) étant donné qu’ils passent le plus de liens que leurs pages de destination.

Sitemap XML

La Sitemap XML de votre site fournit une carte « routière » pour les robots d’indexation, vous assurant qu’ils trouveront facilement toutes les pages de votre site.

Voici quelques questions importantes auxquelles vous devez répondre sur votre Sitemap :

  • La Sitemap est-il un document XML bien formaté ? Suit-il le protocole Sitemap? Les moteurs de recherche s’attendent à un format spécifique pour les Sitemaps ; et si la vôtre n’est pas conforme à ce format, il se pourrait qu’il ne soit pas bien exploré.
  • La Sitemap a-t-elle été soumise à vos comptes d’outils webmaster ? Il est possible pour les moteurs de recherche de trouver la Sitemap sans votre aide, mais vous devriez leur notifier explicitement sa location.
  • Avez-vous trouvé des pages dans l’indexation du site qui n’apparaissent pas dans la Sitemap ? Vous voulez être sûr(e) que la Sitemap présente une vue mise-à-jour du site web.
  • Y a-t-il des pages listées dans la Sitemap qui n’apparaissent pas dans l’indexation du site ? Si ces pages existent toujours sur le site, elles sont actuellement orphelines. Trouvez-leur un endroit approprié dans l’architecture du site et assurez-vous qu’elles reçoivent au moins un lien de retour interne.

Architecture du site

L’architecture de votre site définit la structure d’ensemble de votre site web, incluant sa profondeur vertical (combien de niveaux il comporte) de même que sa largeur horizontale à chaque niveau.

Lorsque vous évaluez l’architecture de votre site, identifiez combien de cliques ça prend pour aller de la page d’accueil aux autres pages importantes. Evaluez aussi à quel point les pages sont reliées aux autres dans la hiérarchie du site et assurez-vous que les plus importantes soient priorisées dans l’architecture du site.

Idéalement, il faudrait faire tout son possible pour avoir une architecture de site plus plate qui prenne avantage d’à la fois des opportunités de linking verticales et horizontales.

Les navigations Flash et JavaScript

La meilleure architecture de site du monde peut être ébranlée par des éléments de navigation inaccessibles aux moteurs de recherche. Bien que les robots d’indexation soient devenus beaucoup plus intelligents au cours des années, il est toujours plus sûr d’éviter les navigations Flash et JavaScript.

Pour évaluer l’usage par votre site de la navigation JavaScript, vous pouvez effectuer deux indexations de site différentes : une avec JavaScript désactivé et une autre avec JavaScript activé. Vous pouvez ainsi comparer les graphiques de liens correspondants pour identifier les sections du site inaccessibles sans JavaScript.

La performance du site

Les utilisateurs ont une très petite durée d’attention et si votre site met trop de temps à télécharger, ils le quitteront. De même, les robots d’indexation ont un court espace de temps à consacrer pour chaque site sur internet. En conséquence, les sites qui se chargent rapidement sont indexés plus en profondeur et de manière plus consistante que ceux qui se chargement plus lentement.

Vous pouvez évaluer la performance de votre site via différents outils. Google Page Speed et YSlow vérifient une page donnée en utilisant les meilleures techniques et vous fournissent des solutions intéressantes (comme l’activation de la compression, le nivelage de la distribution d’un contenu de réseau pour les ressources beaucoup utilisées, etc.). Pingdom Full Page Test présente une liste détaillée des objets chargés par une page, leurs tailles et leur durée de chargement. Ci-dessous, un extrait des résultats de Pingdom pour Revue Hébergement Web :

performance de site

Ces outils vous aident à identifier les pages (et les objets spécifiques sur ces pages) qui forment embouteillage sur votre site. Vous pouvez ensuite détailler les propositions pour optimiser les éléments défaillants et améliorer la performance de votre site.

Articles intéressants :

 

2- Indexation

Nous avons identifié les pages que les moteurs de recherches sont autorisés d’accès. Prochaine étape, il faut déterminer combien de ces pages sont actuellement indexées par les moteurs de recherche.

Site : Commande

La plupart des moteurs de recherche offrent une commande « site : » qui vous permet de chercher du contenu sur un site web spécifique. Vous pouvez utiliser cette commande pour obtenir une bonne estimation des pages qui sont indexées par un moteur de recherche en particulier.

Par exemple, si nous cherchons « site :tophebergeur.com » sur Google, nous voyons que le moteur de recherche a indexé près de 18 500 pages pour tophebergeur.com :

commande site:

Bien que ce chiffre de pages indexées soit rarement exact, une estimation grossière peut toujours servir. Vous savez déjà le nombre total de pages de votre site (basé sur l’indexation du site et sur la Sitemap XML), et donc l’indexation estimée peut vous aider à identifier l’un des trois scénarios suivants :

  • Les comptes indexés et actuels sont grossièrement équivalents – c’est le scénario idéal ; les moteurs de recherche indexent les pages de votre site avec succès.
  • Le compte indexé est beaucoup plus petit que le compte actuel – ce scénario indique que les moteurs de recherche n’indexent pas beaucoup de pages de votre site. Avec un peu de chance, vous avez déjà identifié la source de ce problème en menant l’investigation de l’accessibilité de votre site. Dans le cas contraire, vous aurez sûrement besoin de vérifier si le site fait l’objet d’une pénalité de la part des moteurs de recherche (nous parlerons de ce sujet plus longuement dans un moment).
  • Le compte indexé est beaucoup plus grand que le compte actuel – ce scénario indique généralement que votre site propose du contenu dupliqué (comme des pages accessibles sur plusieurs points d’entrée, du contenu « relativement similaire » sur d’autres pages, etc.).

Si vous pensez qu’il s’agit d’un problème de contenu dupliqué, la commande Google « site : » peut aussi vous aider à vous en assurer. Ajoutez simplement « &start=990 » à la fin de l’URL dans votre navigateur

Puis cherchez pour un avertissement Google sur du contenu dupliqué en bas de la page. Le message d’avertissement ressemblera à ceci :

« Afin d'afficher les résultats les plus pertinents, nous avons omis quelques entrées qui sont très similaires aux 1 entrées actuelles. Si vous le souhaitez, vous pouvez relancer la recherche pour inclure les résultats omis. »

S’il s’agit d’un duplicata de contenu, ne vous inquiétez pas. Nous parlerons des contenus dupliqués dans une section prochaine.

Index Sanity Checks

La commande « site: » vous permet d’envisager l’indexation à un très haut niveau. A présent, nous avons besoin de rentrer un peu plus dans les détails. Plus précisément, nous devons nous assurer que les moteurs de recherche indexent les pages les plus importantes du site.

Les recherches de pages

Avec un peu de chance, vous avez déjà trouvé les pages prioritaires de votre site dans l’index en effectuant des recherches « site : ». Dans le cas contraire, vous pouvez chercher l’URL d’une page spécifique pour vérifier qu’elle ait bien été indexée

recherche pageweb sur google

Si vous ne trouvez pas la page en question, revérifiez son accessibilité. Si elle est accessible, vous devriez vérifier si la page a été pénalisée ou non.

Recherches de marques

Après avoir vérifié que vos pages importantes ont bien été indexées, vous devriez vérifier si votre site web est bien classé pour le nom de votre compagnie (ou le nom de votre marque).

Faites juste une recherche pour votre compagnie ou le nom de votre marque. Si votre site web apparait en haut dans les résultats, tout va bien. Dans le cas contraire, si vous ne voyez pas votre site web dans la liste, il se peut qu’il fasse l’objet d’une pénalité et il est alors temps de pousser l’investigation.

Pénalités des moteurs de recherche

Avec un peu de chance, vous vous êtes rendu jusqu’ici dans l’audit sans avoir détecté la moindre trace d’une pénalité de la part d’un moteur de recherche. Mais si vous pensez que votre site fait l’objet d’une pénalité, voici 4 étapes pour vous aider à régler le problème.

Etape 1 : Assurez-vous de faire effectivement l’objet d’une pénalité

Je ne sais pas le nombre de fois où j’ai cherché de telles pénalités pour des gens pour me rendre compte qu’il ne s’agissait que d’une page accidentellement non indexée ou d’un petit battement dans les classements du moteur de recherche. Donc avant de vous alarmez, assurez-vous qu’il s’agit bien d’une pénalité.

Dans plusieurs cas, une vraie pénalité sera bien évidente. Vos pages seront complètement désindexées (quand bien même elles soient ouvertement accessibles), ou vous recevrez un message de pénalité sur votre compte d’outils webmaster.

Etape 2 : Identifiez la ou les raisons pour lesquelles vos pages sont pénalisées

Une fois que vous êtes sûr(e) que votre site fait l’objet d’une pénalité, vous avez besoin de trouver la raison à cela. Si vous recevez une notification formelle de la part d’un moteur de recherche, cette étape est déjà complétée.

Malheureusement, si votre site est victime d’une mise à jour algorithmique, vous devrez creuser un peu plus. Commencez à chercher des sites et forums relatifs au SEO jusqu’à ce que vous trouviez votre réponse. Lorsque les moteurs de recherche changent leurs algorithmes, plusieurs sites sont affectés et donc vous devriez trouver rapidement ce dont il s’agit.

Pour encore plus d’aide, lisez notre article sur l’identification des pénalités des moteurs de recherche.

Etape 3 : Régler le comportement du site objet d’une pénalité

Après que vous ayez identifié la raison pour laquelle votre site a été pénalisé, vous devez régler méthodiquement le comportement incriminé. C’est plus facile à dire qu’à faire mais heureusement, la communauté SEO sur internet est toujours là pour vous aider.

Etape 4 : Faire une demande de reconsidération

Une fois que vous avez réglé tous les problèmes, vous avez besoin de faire une demande de reconsidération par les moteurs de recherche qui vous ont pénalisé. Cependant, sachez que si votre site n’a pas été explicitement pénalisé (parce qu’il était victime d’une mise à jour d’algorithme par exemple), la demande de reconsidération sera ineffective et vous devrez attendre le rafraichissement de l’algorithme. Pour plus d’information, lisez le guide de Google pour les Demandes de Reconsidération et le guide Bing pour sortir de la pénalisation.

Avec un peu de chance, Matt Cutts vous sortira de n’importe quelle prison internet.

MattCutts

 

3- Facteurs de classement On-Page

Jusqu’ici, nous avons analysé l’accessibilité et l’indexation de votre site. Il est temps à présent d’orienter notre attention vers les caractéristiques des pages de votre site qui influencent les classements des moteurs de recherches.

Pour chacun des facteurs de classement on-page, nous investiguerons les caractéristiques du niveau de page pour les pages individuelles du site de même que les caractéristiques du niveau de domaine pour le site web au complet.

En général, l’analyse du niveau de page aide à identifier les exemples spécifiques d’opportunités d’optimisation, et l’analyse du niveau de domaine aide à définir le niveau d’effort nécessaire pour faire des corrections sur tout le site.

URLs

Une URL étant le point d’entrée du contenu d’une page, il est logique de commencer par là notre analyse on-page.

Lorsque vous analysez l’URL d’une page donnée, voici quelques questions importantes à garder à l’esprit :

  • L’URL est-elle courte et accessible aux utilisateurs ? Une règle générale est de garder des URLs avec moins de 115 caractères.
  • L’URL comprend-elle des mots-clés pertinents ? Il est important d’utiliser une URL qui décrit effectivement le contenu correspondant.
  • L’URL utilise-t-elle des sous-dossiers ou des sous-domaines ? Les sous-domaines sont plus souvent traités comme des domaines uniques lorsqu’il s’agit de passer du jus. Les sous dossiers n’ont pas ce problème, et en conséquence, ils sont généralement préférés aux sous domaines.
  • L’URL évite-t-elle d’utiliser des paramètres excessifs ? Si possible, utilisez des URLs statiques. Si vous ne pouvez vraiment pas éviter d’utiliser des paramètres, enregistrez-les au moins avec votre compte Google Webmaster Tools.
  • L’URL utilise-t-elle des traits d’union pour séparer les mots ? Les tirets bas (underscores) ont un passé très en dents de scie avec certains moteurs de recherche. Pour être du bon côté, utilisez seulement des traits d’union.

Lorsque vous analysez des URLs d’un domaine entier, voici quelques questions additionnelles :

  • La plupart des URLs suivent-elles les meilleures pratiques établies dans l’analyse du niveau de page ou il y a-t-il trop d’URLs pauvrement optimisées ?
  • S’il y a un certain nombre d’URLs sous optimales, rompent-elles avec les règles au moins de manière cohérente ou sont-elles sur toute la carte ?
  • Basé sur les mots-clés du site, le domaine est-il approprié ? Contient-il des mots-clés ? Apparait-il spammé ?

Contenu dupliqué basé sur URL

En plus d’analyser l’optimisation des URLs d’un site, il est également important d’investiguer l’existence de contenu dupliqué basé sur les URLs sur le site.

Les URLs sont souvent responsables pour la majorité des contenus dupliqués sur un site web parce que chaque URL représente un point d’entrée unique sur le site. Si deux URLs distinctes pointent vers la même page (sans redirection), les moteurs de recherche croiront que deux pages différentes existent.

Idéalement, le crawling de votre site découvrira la plupart (si ce n’est toutes) des sources de contenus dupliqués basés sur URLs sur votre site. Mais pour être tranquille, vous devriez vérifier explicitement votre site en ce qui concerne les coupables les plus populaires (par programmation ou manuellement).

Dans la section analyse de contenu, nous discuterons d’autres techniques pour identifier du contenu dupliqué (incluant le contenu dupliqué basé sur URL).

Contenu

Nous savons tous que le contenu est roi, donc à présent, traitons votre site comme tel.

Pour investiguer le contenu d’une page, vous avez des outils variés à votre disposition. L’approche la plus simple est de voir la copie cachée de la page de Google (la version text-only). Autrement, vous pouvez utiliser SEO Browser ou Bowseo. Ces outils affichent une version de la page basée sur le texte et incluent également des informations essentielles sur la page (comme son titre, sa meta description, etc.).

Quels que soient les outils que vous utilisez, les questions suivantes peuvent vous aider à orienter votre investigation :

  • La page contient-elle du contenu substantiel ? Il n’y a pas de règle définitive pour combien de contenu une page devrait contenir mais utiliser au moins 300 mots est une bonne base.
  • Le contenu est-il valable pour ses lecteurs ? C’est bien entendu un peu subjectif, mais vous pouvez vous faire une idée approximative avec des métriques telles que le taux de rebond et le temps passé sur la page.
  • Le contenu contient-il des mots-clés visés ? Apparaissent-ils dans les premiers paragraphes ? Si vous voulez vous classer pour un mot-clé, ça aide vraiment d’en utiliser dans votre contenu.
  • Le contenu est-il spammé ? Vous voulez inclure des mots-clés dans votre contenu, mais vous ne voulez pas en faire trop.
  • Le contenu minimise-t-il les erreurs d’orthographe et de grammaire ? Votre contenu perd sa crédibilité professionnelle s’il contient des erreurs évidentes. Le correcteur d’orthographe est votre ami, c’est promis.
  • Le contenu est-il facilement lisible ? Des métriques variées existent pour quantifier la lisibilité d’un contenu (ex : Flesch Reading Ease, Fox Index, etc.).
  • Les moteurs de recherche sont-ils capables de procéder le contenu ? Ne piégez pas votre contenu dans le Flash, ou dans un trop complexe JavaScript ou dans des images.

Lorsque vous vous lancez dans l’analyse du contenu à travers tout votre site, vous voulez vous concentrer sur 3 zones principales :

1-Information Architecture

L’architecture de l’information de votre site définit comment l’information est répartie sur le site. Il s’agit du plan sur comment votre site présente l’information (et comment vous attendez que les visiteurs consomment cette information).

Durant l’audit, vous devriez vous assurer que chacune des pages de votre site a un objectif. Vous devriez également vérifier que chacun de vos mots-clés ciblés est représenté par une page sur votre site.

2-Cannibalisme de mot-clé

Ceci décrit la situation dans laquelle votre site à plusieurs pages ciblant le même mot-clé. Dans ce cas, cela créé de la confusion pour les moteurs de recherche et plus important, cela crée de la confusion pour les visiteurs. Pour identifier cette situation, vous pouvez créer un index de mots-clés qui répertorie les mots-clés sur les pages de votre site. Puis, une fois les collisions identifiées (par exemple plusieurs pages associées avec un mot-clé particulier), vous pouvez fusionner les pages ou réorienter les pages concurrentes pour cibler des mots-clés alternatifs (et uniques).

3-Contenu dupliqué

Votre site a du contenu dupliqué si plusieurs pages contiennent le même (ou pratiquement le même) contenu. Malheureusement, ces pages peuvent être à la fois internes et externes (i.e. hébergées sur un autre domaine).

Vous pouvez identifier le contenu dupliqué sur les pages internes en créant des classes d’équivalence avec l’indexation du site. Ces classes sont essentiellement des groupes de contenus dupliqués ou presque dupliqués. Puis, pour chaque groupe, vous pouvez designer l’une des pages comme étant l’originale et les autres comme des dupliquées.

Pour identifier du contenu dupliqué sur des pages externes, vous pouvez utiliser Copyscape ou la détection de contenu dupliqué de blekko.

Markup HTML

C’est difficile d’exagérer la valeur HTML de votre site parce qu’il contient un peu des facteurs de classement on-page les plus importants.

Avant de plonger dans les éléments HTML spécifiques, il faut valider le HTML de votre site et évaluer sa conformité aux standards.

W3C offre un validateur de markup pour vous aider à trouver les violations aux standards dans votre markup HTML. Il vous offre également un validateur CSS pour vous aider à vérifier les feuilles de style en cascade de votre site.

Les titres

Le titre d’une page est sa caractéristique la plus identitaire possible. C’est ce qui apparait tout d’abord dans les résultats des moteurs de recherche, et c’est souvent la première chose que les gens repèrent dans les médias sociaux. Il est donc extrêmement important d’évaluer les titres de votre site.

Lorsque vous faites l’évaluation du titre d’une page individuelle, vous devez considérer les questions suivantes :

  • Le titre est-il succinct ? Une règle commune est de faire des titres avec pas plus de 70 caractères. Des titres plus longs seront coupés dans les résultats des moteurs de recherche et ils rendent difficile l’ajout de commentaires par les gens sur Twitter.
  • Le titre decrit-il effectivement le contenu de la page ? Utilisez un titre convaincant qui concerne directement le point essentiel de votre contenu.
  • Le titre contient-il un mot-clé ciblé ? Ce mot-clé est-il au début du titre ? Le titre d’une page est l’un des plus forts facteurs de classement ; assurez-vous donc qu’il inclue un mot-clé ciblé.
  • Le titre est-il sur-optimisé ?

Lorsque vous faites l’analyse des titres à travers un domaine entier, assurez-vous que chaque page a un titre unique. Vous pouvez utiliser le crawling de votre site pour effectuer cette analyse. Autrement, Google Webmaster Tools reporte les titres dupliqué que Google trouve sur votre site.

Meta Descriptions

La meta description d’une page n’agit pas de manière explicite comme un facteur de classement mais affecte néanmoins le taux de « cliques » dans les résultats des moteurs de recherche.

Les meilleures pratiques de description meta sont presque identiques à celles décrites pour les titres. Dans l’analyse de votre niveau de page, vous êtes à la recherche de descriptions succinctes (pas plus de 155 caractères) et pertinentes qui n’ont pas été sur-optimisées.

Dans votre analyse de niveau de domaine, vous voulez vous assurer que chaque page comporte une description meta unique. Votre compte Google Webmaster Tools signalera les descriptions meta dupliquées que Google trouve

Autres balises <d’en-tête>

Nous avons vu les deux plus importants éléments <d’en-tête> HTML, mais ils ne sont pas les seuls qu’il vous faut évaluer. Voici quelques questions de plus à vous poser sur les autres :

  • Il y a-t-il des pages qui utilisent des mots-clés méta ? Les mots-clés méta sont devenus pratiquement universellement associés au spam. Pour être tranquille, mieux vaut les éviter.
  • Il y a-t-il des pages qui contiennent un lien rel= « canonical » ? Ce type de lien est utilisé pour éviter les problèmes de contenu dupliqué. Assurez-vous que votre site les utilise correctement.
  • Il y a-t-il des pages dans une série paginée ? Utilisent-elles des éléments de liens rel= « next » et rel=« prev » ? Ces éléments de liens aident à informer les moteurs de recherche sur comment gérer la pagination sur votre site.

 

Images

Une image vaut mille mots pour les utilisateurs, mais pour les moteurs de recherche, les images sont muettes. C’est pourquoi votre site a besoin de fournir des meta données d’images afin que les moteurs de recherche puissent participer à la conversation.

Lorsque vous analysez une image, les deux attributs les plus importants sont le text alt de l’image et son nom de fichier. Ces deux attributs doivent inclure des descriptions pertinentes de l’image et, idéalement, également contenir des mots-clés ciblés.

Les liens externes

Lorsqu’une page fait un lien vers une autre page, ce lien est une promotion de la qualité de la page destinataire. Ainsi, une part importante de l’audit est de s’assurer que votre site renvoie à d’autres sites de qualité.

Pour vous aider à faire l’évaluation des liens sur une page donnée, voici quelques questions à se poser :

  • Les liens pointent-ils vers des sites de confiance ? Votre site ne devrait pas renvoyer vers des sites spammés, cela nuirait à sa propre crédibilité. Si un site renvoie vers du spam, il y a de bonnes chances que ce soit lui-même un spam.
  • Les liens sont-ils pertinents au vu du contenu de la page ? Lorsque vous faites un lien vers une autre page, son contenu devrait compléter le vôtre. Si vos liens ne sont pas pertinents, cela conduit à expérience médiocre pour l’utilisateur et à une diminution de pertinence pour votre page.
  • Les liens utilisent-ils un texte de présentation pertinent ? Ce texte inclue-t-il des mots-clés ciblés ? Le texte de présentation d’un lien doit décrire de manière exacte la page vers laquelle il renvoie. Cela aide les utilisateurs à décider s’ils veulent prendre le temps de s’y rendre ou non et ça aide les moteurs de recherche à identifier le point essentiel de la page de destination.
  • Il y a-t-il des liens brisés ? Les liens qui affichent un status code 4xx ou 5xx sont considérés comme brisés. Vous pouvez les identifier dans le crawling de votre site ou vous pouvez utiliser un Link Checker.
  • Les liens utilisent-ils une redirection non nécessaire ? Si vos liens internes génèrent des redirections, vous diluez de manière non nécessaire le jus de lien qui traverse votre site. Assurez-vous que vos liens internes pointent vers les pages de destination appropriées.
  • Il y a-t-il des liens non-suivis ? Mises à part les situations où vous ne pouvez pas contrôler les liens externes (par exemple du contenu généré par les utilisateurs), vous devriez laisser votre jus de lien s’écouler librement.

Lorsque vous faites l’analyse des liens externes d’un site, vous devriez investiguer la distribution des liens internes qui pointent vers différentes pages sur votre site. Assurez-vous que les pages les plus importantes reçoivent le plus de liens internes.

Pour être clair, ce n’est pas une tentative pour fouler les moteurs de recherche connu sous le nom de PageRank scupting. Vous vous assurez simplement que vos pages les plus importantes soient faciles à trouver sur votre site.

Autres balises <body>

Les images et les liens ne sont pas les seuls éléments importants que l’on peut trouver dans la section HTML <body>. Voici quelques questions à se poser sur les autres éléments :

  • La page utilise-t-elle une balise H1 ? La balise inclue-t-elle un mot-ciblé ? Les balises d’en-tête ne sont pas aussi importantes que les titres mais ce sont quand même des emplacements stratégiques où inclure des mots-clés.
  • La page évite-t-elle les frames et les iframes ? Lorsque vous utilisez un frame pour intégrer du contenu, les moteurs de recherche n’associent pas le contenu à votre page (mais au frame de la page source).
  • La page a-t-elle un ratio publicité approprié ? Si votre site utilise les publicités comme source de revenue, c’est ok. Assurez-vous simplement qu’elles ne prennent pas le dessus sur votre contenu.

Nous avons donc vu les facteurs de classement on-page les plus importants pour votre site web.

4- Facteurs de classement Off-Page

Les facteurs de classement on-page jouent un rôle important dans la position de votre site dans les classements des moteurs de recherche mais ils ne représentent qu’une pièce du puzzle. C’est pourquoi nous allons à présent nous pencher sur les facteurs de classement générés par des sources externes.

Popularité

Les sites les plus populaires ne sont pas toujours les plus utiles, mais leur popularité leur permet d’influencer plus de gens et d’en attirer plus encore. Ainsi, quand bien même la popularité de votre site ne soit pas la métrique qu’il faille surveiller impérativement, il s’agit tout de même d’un bon indicateur de succès à venir.

Lorsque vous faites l’évaluation de la popularité de votre site, voici quelques questions à se poser :

  • Votre site engendre-t-il du trafic ? Votre package d’analytiques est votre meilleure source pour de l’information sur le trafic (en plus de faire le traitement de l’activité de vos serveurs). Assurez-vous que votre site ne perd pas de trafic (et par conséquent de la popularité) au fur et à mesure du temps.
  • Comment votre site s’en sort-il en termes de popularité vis-à-vis d’autres sites similaires ? En utilisant des services tiers comme Compete, Alexa et Quantcast, vous pouvez évaluer si la popularité de votre site distance (ou se fait distancée par) celle des autres sites.
  • Votre site reçoit-il des backlinks de sites populaires ? Des métriques de popularité basées sur les liens telles que mozRank sont utiles pour surveiller la popularité de votre site de même que la popularité des sites renvoyant au vôtre.

Fiabilité

La fiabilité d’un site web est une métrique très subjective car chaque individu en a sa propre interprétation. Pour éviter ces jugements partiaux, il est plus facile d’identifier le comportement le plus communément reconnu comme étant fiable.

Une attitude non fiable concerne un certain nombre de catégories, mais en ce qui nous concerne, nous nous concentrerons sur les malwares et les spams. Pour vérifier que votre site n’a pas de malware, vous pouvez compter sur des listes noires comme DNS-BH ou Safe Browsing API de Google.

Vous pouvez également utiliser un service d’analyse comme SiteAdvisor de McAfee. Voici un extrait d’un rapport de SiteAdvisor pour tophebergeur.com :

 

site advisor revue hebergement web

Lorsque vous recherchez un comportement spam sur votre site, vous devriez prêter attention aux éléments suivants :

  • Surabondance de mots-clés – création de contenu avec beaucoup trop de mots-clés.
  • Du texte invisible ou caché – exploitation de l’espace technologique entre les navigateurs web et les robots d’indexation pour présenter du contenu aux moteurs de recherche qui est caché pour les utilisateurs (du texte « invisible » en lui donnant la même couleur que l’arrière-fond).
  • Cloaking – retourne différentes versions d’un site web basé sur l’agent utilisateur de requête ou sur l’adresse IP (montrant une chose aux moteurs de recherche et une autre aux utilisateurs).

Même si votre site semble être fiable, vous devez quand même évaluer la fiabilité de ses sites voisins (les sites vers lesquels il fait des liens et ceux desquels il reçoit des liens).

Au cas où vous ayez identifié une collection de sites non fiables, vous pouvez utiliser une version légèrement modifiée de PageRank pour propager la méfiance envers ces sites au reste du link graph. Pendant des années, cette approche a été référée en tant que BadRank, et elle peut être déployée sur des liens sortants ou entrants pour révéler le voisinage de sites non fiables.

Autrement, vous pouvez attaquer le problème en propageant la confiance pour un petit ensemble de sites de confiance (ex : cnn.com, mit.edu, etc.). On appelle cette méthode TrustRank ; elle fut implémentée par SEOmoz dans le formulaire de leur métrique mozTrust. Des sites avec une plus grande valeur mozTrust sont proches des sites de confiances dans le link graph et ainsi considérés comme des sites de confiance.

Profil des liens entrants (Backlinks)

La qualité de votre site est largement déterminée par la qualité des sites qui y renvoient. Ainsi, il est extrêmement important d’analyser le profil des liens entrants de votre site de savoir où faire des améliorations.

Heureusement, il existe une liste toujours plus grande d’outils disponibles pour trouver les données de backlink, incluant vos comptes d’outils webmaster, blekko, Open Site Explorer, Majestic SEO et Ahrefs.

Voici quelques questions à se poser sur les backlinks de votre site :

  • Combien de domaines sources uniques font des liens vers le site ? Vous n’avez jamais trop de backlinks de haute qualité, mais un lien de 100 domaines sources différents a considérablement plus de valeur que 100 liens d’un seul domaine source.
  • Quel pourcentage des liens est en nofollow ? Idéalement, la grande majorité des backlinks de votre site sera en dofollow. Cependant, un site sans aucun lien non suivi sera plutôt suspect pour les moteurs de recherche.
  • La distribution de l’ancre texte parait-elle naturelle ? Si trop des backlinks de votre site utilisent un ancre de parfait match (mots clés), les moteurs de recherche afficheront ces liens comme étant non naturels.
  • S’agit-il de backlinks de sites dont le sujet concorde au vôtre ? De tels liens aident à établir votre site comme source d’information d’autorité dans votre spécialité.
  • Quel est le degré de popularité/fiabilité/autorité des domaines sources qui renvoient à votre site ? Si trop de backlinks viennent de sites de faible qualité, votre site sera également considéré comme un site de faible qualité.

 

Autorité

L’autorité d’un site est déterminée par la combinaison de différents facteurs (la qualité et la quantité de ses backlinks, sa popularité, sa fiabilité, etc.).

Pour vous aider à évaluer l’autorité d’un site, SEOmoz propose deux métriques importantes : Page Authority et Domain Authority. Page Authority prédit la qualité de performance d’une page spécifique dans les classements des moteurs de recherche et l’Authority Domain prédit la performance d’un domaine entier.

Les deux métriques regroupent nombreuses caractéristiques basé sur les liens (mozRank, mozTrust, etc.) pour vous donner un moyen facile de comparer les forces relatives de différents domaines et pages..

Engagement social

Le web tendant de plus en plus vers le social, le succès de votre site web dépend de plus en plus de son habilité à attirer les mentions sociales et à créer des conversations sociales. Consulter notre article sur les statistiques des réseaux sociaux

Chaque réseau social fournit sa propre forme de devise sociale. Pour Facebook, ce sont les Aimes. Les retweets pour Twitter, les +1s pour Google+ et la liste continue. Quel que soit le réseau, les sites web qui possèdent le plus de devises sont les sites les plus pertinents au niveau social.

Lorsque vous analysez l’engagement social de votre site, il est conseillé de quantifier sa capacité à accumuler des devises sociales dans chacun des réseaux sociaux les plus importants (comme par ex. combien de likes/retweets/+1s/etc. reçoivent chacune des pages de votre site). Vous pouvez vous renseigner auprès des réseaux sociaux à ce sujet, ou vous pouvez utiliser les services d’une partie tiers comme Shared Count.

De plus, vous devriez évaluer l’autorité d’individus qui partagent le contenu de votre site. De la même manière que vous voulez des backlinks de la part de sites de haute qualité, vous voulez recevoir des mentions de la part de gens renommés et à haute influence.

Consulter notre article sur les effets des réseaux sociaux sur l’autorité des sites

5- Analyse concurrentielle

Juste quand vous pensez en avoir terminé, c’est le moment de recommencer l’analyse au complet pour vos sites compétiteurs. Je sais que c’est décourageant mais le plus vous en savez sur vos concurrents, le plus facile ce sera d’identifier (et d’exploiter) leurs faiblesses.

Mon processus d’analyse d’un site web concurrent est pratiquement identique à celui que l’on vient de voir.

Rapport d’audit SEO

Après que vous ayez analysé votre site et les sites concurrents, il vous reste à distiller toutes ces observations dans un rapport d’audit SEO concret. Mais vous en avez assez lu pour le moment, je parlerai de ce rapport dans un autre article.

D’ici-là, voici quelques astuces importantes pour présenter vos résultats de manière efficace :

  • Ecrire pour différentes audiences. L’essence de votre rapport contiendra des observations et des recommandations très techniques. Cependant, il est important de réaliser que le rapport ne sera pas toujours lu par des connaisseurs. Ainsi, lorsque vous rédigez le rapport, assurez-vous de garder tout type d’audience à l’esprit et de donner des résumés utiles pour les managers, les exécutifs, et qui que ce soit d’autre qui pourrait avoir une petite connaissance du SEO.
  • Priorisez, priorisez, et puis priorisez encore. Quelle que soit la personne qui lit le rapport, essayez de ne pas leur faire perdre leur temps. Mettez les problèmes les plus pressants au début du rapport afin que tout le monde sache quels éléments sont les plus importants (et lesquels peuvent attendre, si nécessaire).
  • Donnez des suggestions concrètes. Ne faites pas des recommandations génériques du genre « Ecrivez de meilleurs titres ». Donnez des exemples spécifiques à utiliser immédiatement pour donner un impact positif sur le site. Même si les recommandations ont une large portée, essayez de proposer les premières étapes à suivre pour que tout roule par la suite.

 

Besoin d'aide ? Rectrutez nous!

Nous proposons un serviced d'audit de site web à des prix imbattables. Faites confiance à notre équipe et contactez-nous pour avoir une estimation gratuite.

 Avoir une estimation

Qu’en pensez-vous ?

Bien évidemment, il existe plusieurs moyens de s’y prendre. Est c’est encore plus le cas lorsqu’il s’agit de faire un audit SEO, donc j’adorerais recevoir vos commentaires, suggestions et questions dans la section commentaires ci-dessous.

Je répondrai à tout et étant donné que j’ai sûrement dépassé le record de cette année pour l’article le plus long, je vous encourage à faire de même pour les commentaires !

Article original de : Steve Webb, Ph.D. avec amélioration


comments powered by Disqus

Comment bloquer le Referer spam dans Google Analytics

Comment bloquer le Referer spam dans Google Analytics

Savez-vous ce qui me fait réellement grincer des dents? Ouvrir un rapport dans Google Analytics et avoir à l’écran un pourriel de sites référants (referrals spam). À cet effet, je vais vous expliquer quoi faire avec des pourriels de référence et vous dire pourquoi ils sont dangereux. Cliquez ici pou … Continuer

Publié le 4 avril, 2015

1 Commentaires
50 astuces pour optimiser votre SEO

50 astuces pour optimiser votre SEO

Il arrive que certains articles se propagent à travers le globe du jour au lendemain, de même qu’ils attirent l’attention des médias locaux et nationaux, mais la question que l’on se pose le plus souvent est « Comment ces éditeurs d’articles  optimise leur SEO ? » Je pense que la plupart des gens q … Continuer

Publié le 10 juillet, 2014

0 Commentaires
Crowdsourcing: Pas de contenu ? Pas de problème !

Crowdsourcing: Pas de contenu ? Pas de problème !

Beaucoup de compagnies ont des stratégies sociales/de contenu qui dépendent du contenu généré par leurs fans pour créer une communauté et encourager les gens à participer. Cet article vous donne des exemples de compagnies qui utilisent ce genre de contenu et des instructions sur comment avoir des s … Continuer

Publié le 22 avril, 2014

0 Commentaires
10 statistiques sur les médias sociaux

10 statistiques sur les médias sociaux

Comme tout le monde le sait, les médias sociaux changent plus vite que jamais ! Si vous gérez un média social pour votre business, il serait peut-être utile de prendre connaissance de quelques-unes des statistiques les plus surprenantes cette année. En voici dix qui pourraient vous faire reconsidér … Continuer

Publié le 30 mars, 2014

4 Commentaires
Guide du débutant sur le SEO

Guide du débutant sur le SEO

Depuis que j’ai commencé à travailler dans le marketing en ligne il y a quelques années, j’ai la tête pleine d’acronymes. KPI, PPC, SoLoMo, TOFU, BOFU, et FOMO, tout ça sonne parfaitement normal pour moi maintenant – c’est fou, non ? Mais l’acronyme qui interpelle le plus les gens, c’est SEO (searc … Continuer

Publié le 13 mars, 2014

1 Commentaires
Création de backlinks à partir de liens brisés

Création de backlinks à partir de liens brisés

Vous êtes à court d’idées pour améliorer votre stratégie de création de liens ? Nous vous montrerons dans cet article comment créer des liens retour pour votre site web à travers des liens brisés. Cette méthode a très bien marché pour moi dans plusieurs cas, et je suis sûr qu’elle peut fonctionner p … Continuer

Publié le 3 mars, 2014

2 Commentaires
Réseaux Sociaux et autorité du Site Web

Réseaux Sociaux et autorité du Site Web

Les statistiques sur lesquelles l’autorité de domaine (« Domain Authority ») se base pour évaluer votre site web sont plus redoutables que celles sur lesquelles se base la PageRank. S’il fallait désigner un gagnant, je dirais que l’autorité de domaine est à présent bien loin devant la PageRank. Et j … Continuer

Publié le 3 février, 2014

0 Commentaires
Visualisation des données marketing- tutoriel

Visualisation des données marketing- tutoriel

Il est important de savoir bien analyser et interpréter vos données marketing. Il existe différents types d’outils et tableaux de bord pour vous aider dans cette tâche. Dans ce tutoriel, consacré aux débutants, nous vous présenterons les étapes à suivre pour créer votre premier tableau de bord de vi … Continuer

Publié le 23 janvier, 2014

0 Commentaires
Google AuthorRank

Google AuthorRank

Qu’est-ce que l'Author Rank? Si, comme moi, vous utilisez régulièrement Google, vous avez sûrement déjà entendu parler d’Author Rank, sans toutefois y faire vraiment attention. Mais honnêtement, je doute que vous y ayez porté une réelle attention et si vous avez été déconnecté de Google et de l’int … Continuer

Publié le 20 janvier, 2014

0 Commentaires
Outils d'audit SEO en ligne

Outils d'audit SEO en ligne

Maintenant que les chefs d’entreprise s’occupent de tout, de la planification stratégique au SEO pour leur site web, le monde du « fait maison » peut s’avérer être complètement écrasant. La bonne nouvelle, c’est que nous vivons à l’ère digitale, et que des collègues entrepreneurs ont créé des outils … Continuer

Publié le 18 janvier, 2014

0 Commentaires



Les avis des clients

Avis des utilisateurs


Faites entendre votre voix. Passez en revue votre fournisseur d'hébergement Web - bon ou mauvais.


j’étais héberger chez eux depuis des années vu que leurs clients augmentent beaucoup de bug presque tous les jours sur les serveurs quand vous faites des réclamations et affichés votre mécontentement c'est pire les techniciens désactivée votre serveur déconseillé …

eboue à propos LWS

Montrer une autre revue
Lire les avis LWS



Plans d'hébergement




Les plans d'hébergement de 59 sociétés d'hébergement partout dans le monde


Meilleur hébergeurs web

# hébergeur web prix action

1

Ikoula

1.95 EURO

Ajouter un Avis
Visiter

2

Siteground

6.95 USD

Ajouter un Avis
Visiter

3

Ex2hosting

3.99 EURO

Ajouter un Avis
Visiter

4

Inmotion

5.95 USD

Ajouter un Avis
Visiter

5

Webhostinghub

4.95 USD

Ajouter un Avis
Visiter

6

Bluehost

6.95 USD

Ajouter un Avis
Visiter






Hébergeurs par avis de clients

Ex2hosting
78 avis des clients
Nuxit France
70 avis des clients
Hostpapa France
67 avis des clients
1and1 France
62 avis des clients
Rapidenet
50 avis des clients
Ajouter un avis Tous les profils


Hébergeurs par fidélité de clients

Ex2hosting
73 / 78 recommandé
Nuxit France
68 / 70 recommandé
Rapidenet
49 / 50 recommandé
Infomaniak France
48 / 48 recommandé
Hostpapa France
39 / 67 recommandé
Évaluer hébergeur Tous les profils


Question de la Semaine


Le plus important critère de votre hébergeur



Contacter l'éditeur

Posez votre question