14/10/2013

Audit de référencement d'un site



Audit de référencement d'un site
Audit de référencement d'un site
Pour ce nouvel article, je souhaitais mettre en lumière un sujet quelque peu obscur qui est celui de l’audit de référencement d’un site. Vous me direz, très simple, il suffit d’analyser les statistiques de son compte Google Webmaster Tools, et le tour est joué ! Sauf que d’une part, vous n’obtiendrez pas toutes les infos nécessaires avec cet outil et d’autres part, si vous voulez étudier un autre site que le vôtre, vous n’y aurez pas accès.
Auditer un site pour le référencement, c’est un peu comme regarder ce qu’il y a sous le capot d’une voiture (sauf que çà, ce n’est pas quelque chose que j’ai l’habitude de faire !), on peut y découvrir une foule d’informations intéressantes mais où trouver ces données et comment les interpréter ?



Comment réaliser un audit seo ?

L’audit technique d’un site

Celui-ci joue un rôle essentiel dans le référencement d’un site. Les éléments à prendre en compte lors du choix du ndd sont :
  • Les ndd de format  www. monsite.TLD ou monsite.TLD  (et non les formats des FAI ou blog affectés par défaut comme monsite. FAI .TLD )
  • Les ndd de 1er niveau (ex : .com, .org, .fr, .it, …etc)
  • Il existe 2 sortes de TLD :  les ccTLD pour countrycode Top Level Domain (ex : .fr, .be, .de,  …), les gTLD pour générique Top Level Domain ( ex : .com, .net, .info, .org, …)
  • Pour les sites e-commerce, le TLD devra être en rapport avec la clientèle visée (pour une clientèle française, choisissez .fr, pour une clientèle internationale, optez pour l’extension générale .com)
  • Attention au choix des noms de domaines EMD (Exact Match Domain) et PMD (Partiel Match Domain), à savoir l’utilisation exacte ou partielle d’un ou plusieurs mots-clés dans le ndd. Le choix de ce type de domaine peut avoir des conséquences sur le positionnement d’un site si la stratégie marketing est plutôt axée sur du branding, donc des pages associées à des mots-clés de la marque. Bien évidemment tout dépend aussi du nombre et des mots-clés qui le composent.

Whois
Il permet de vérifier l’ensemble des données relatives à un domaine (propriétaire, adresse, téléphone, nom et adresse de l’hébergeur, type d’hébergement, …etc)
Il est préférable de rendre ces informations publiques plutôt que privées car elles peuvent être mal interprétées par les moteurs de recherche et donner une mauvaise image du site en l’assimilant à du référencement « black hat » ou « grey hat ».

Où trouver l’information ?  

Lieu d’hébergement
Cette information apporte une indication sur le pays dans lequel le site est hébergé et nécessite dans certains cas d’être en cohérence avec le ccTLD (rappelez-vous le country code du pays) du domaine par exemple notamment pour les sites e-commerce et le pays de la clientèle visé, même si l'impact est faible côté référencement. 

Où trouver l’information ?  

Age du domaine
L’ancienneté d’un nom de domaine est un élément très important dans le référencement d’un site. Plus il sera ancien, plus il sera considéré comme étant « de confiance » pour les moteurs de recherche et pourra espérer un bon classement. En revanche s’il est récent, il faudra prouver votre bonne foi (un peu comme aux USA quand vous êtes arrêtez !) avant d’obtenir un bon positionnement. Et à mi-chemin ? Je dirais que çà dépend des pratiques actuelles du site (même si celles-ci sont faites involontairement).
La durée de l’abonnement du nom de domaine est également un facteur essentiel pris en compte par les moteurs pour déterminer la confiance envers un site. (A quand les abonnements pour 50 ans ?)

Où trouver l’information ?  

Type d’hébergement
Le choix de l’hébergement est un élément déterminant. Vous devez raisonner en termes de trafic. Si vous souhaitez que vos visiteurs reviennent vous voir, il faut leur offrir une prestation de qualité et donc il est hors de question de les faire patienter avec de mauvais temps de réponses causés par un hébergement mutualisé partagé avec des milliers de sites. Si le site est un blog ou une vitrine, l’hébergement mutualisé conviendra sans problème, en revanche s’il s’agit d’un site e-commerce à rentabiliser, mieux vaut prévoir dès le départ un serveur dédié, pour ne pas avoir de surprises lors des premières montées de trafic. De plus les programmes sources seront mieux protégés des attaques virales !

Où trouver l’information ?  

Performance du serveur
Ce point rejoint plus ou moins le point précédent car la performance du serveur dépendra fortement du type d’hébergement. Ainsi la puissance de celui-ci sera plus élevée si vous optez pour un serveur dédié. Certaines optimisations peuvent être réalisées on-site afin de limiter les accès serveur et privilégier les accès en local, elles consistent en la mise en cache des requêtes http (pour les webdelopers : ajouter les variables maxage et expires dans les fonctions header au niveau des sources php). Il ne faut pas non plus omettre d’exécuter les requêtes serveur http en mode asynchrone afin de limiter le blocage du chargement des pages.
D’une manière générale, on peut considérer qu’un temps de réponse dépassant les 5 secondes est peu satisfaisant.

Où trouver l’information ?  

D’autres éléments peuvent influer sur la performance générale d’un site. C’est le cas des pages web, qui si elles ne sont pas optimisées au maximum peuvent augmenter considérablement leur temps de chargement. Il suffit pour cela d’apporter quelques améliorations pour réduire ce temps comme l’ajout des dimensions de chaque image dans le code source de chaque page, la réduction au maximum du poids des images ou bien l’ajout de fichiers de compression GZIP permettant de compresser, à hauteur de 85%, les fichiers en provenance du serveur (ajout de commandes supplémentaires au sein du fichier .htaccess). Plus de détails, sur ce site , concernant l’ intégration des fichiers GZIP 
On peut considérer que le poids d’une page est excessif lorsqu’il dépasse 1 MB.
Pour valider ce test, il vous faudra tester un échantillon représentatif de différentes sortes de  page.

Où trouver l’information ?  

Validation W3C
Ce contrôle technique (eh oui comme pour les voitures mais en version gratuit !) n’est ni obligatoire, ni décisif mais il permet tout de même d’obtenir un aperçu de l’état de santé du code source du site. En clair si vous avez une dizaine d’anomalies, pas d’inquiétude, en revanche, si votre score avoisine les 100 erreurs, il vaudrait mieux se pencher sur les problèmes et tenter de régler les plus importants car ils sont peut-être le reflet de certains bugs dans le site, invisibles pour vous, mais pas pour vos visiteurs !

Où trouver l’information ?  

Accessibilité
Cette étape doit permettre de vérifier que le site s’affiche normalement en cas de désactivation Javascript et des styles CSS puisque c’est une situation qui peut très bien se produire dans l’environnement d’un internaute et il est indispensable que le site réagisse bien. Pour cela il convient bien évidemment de désactiver les scripts JS et les feuilles de style CSS soit à partir des options de votre navigateur principal, ou bien des extensions fournies par les navigateurs tels que Chrome et Mozilla Firefox.
Il apparaît évident de tester la compatibilité du site sur les navigateurs les plus utilisés : Mozilla Firefox, Chrome, IE8, IE9, IE10, Safari, Opera. Pour ce test, pas besoin de télécharger tous les navigateurs, des extensions de switch sont disponibles pour Chrome et Mozilla Firefox.

Où trouver l’information ?  


Cette balise permet d’indiquer aux robots des moteurs de recherche s’ils doivent indexer ou non une page, suivre ou non les liens de la page contenant cette balise.
<meta name = « robots »  content = « index, follow »/>  
Dans la plupart des cas, on spécifie les pages en index, follow, d’une part pour faciliter l’indexation de ces pages mais d’autre part pour améliorer le crawl des pages et des liens par les robots.
Dans certains cas, comme des pages à contenu pauvre ( page de contact, de mentions légales, à propos, .. . etc), il conviendra de configurer la balise à noindex. De même si les liens indiqués dans une page ne sont que peu pertinents ou inintéressants, il faudra alors paramétrer la balise avec nofollow.
Une autre solution pour ne pas indexer les pages et ne pas suivre les liens sortants, consiste à utiliser la fonction php de modification des entêtes http :
header(« X-robots-tag : noindex,nofollow » ,true)

Où trouver l’information ?  
screamingfrog   logiciel à télécharger
xenu's link sleuth  logiciel à télécharger

Directement dans le code source grâce aux extensions FF ou CR

Ergonomie
Cette étape est fondamentale car elle a un énorme impact sur l’expérience utilisateur. Si le site est mal construit, mal architecturé, trop complexe, non intuitif, pas pratique, « laid », croyez-vous que les visiteurs reviendront ? Probablement que non. C’est la raison pour laquelle vous devez régler certains aspects :
  • Présence d’une charte graphique
  • Logo cliquable
  • Pertinence des menus - architecture logique
  • Catégories et pages Top facilement accessibles
  • Aisance de navigation – Intuitivité
  • Home irréprochable
Pas d’outils, il suffit de parcourir le site dans son ensemble

Pour rappel, le pagerank n’est jamais divulgué, seul le TBPR (Toolbar PR) affiche une estimation de l’information. Il faut savoir que le PR n’a pas été mis à jour depuis février 2013, donc beaucoup de sites récents se retrouvent avec un PR à 0 (c’est justement le cas pour ce blog !). La majorité des sites web est donc fortement en attente de cette information ultime que Google n’est visiblement pas pressé de mettre à jour ! Et pour cause puisqu’elle est censée apporter une indication sur la popularité d’un site, ce qui induirait un gros travail de netlinking pour les sites à l’issue de cette mise à jour !
Heureusement d’autres indices comme le mozrank, le trustrank, l’alexarank permettent de récupérer des estimations tout aussi intéressantes. Si les indices sont faibles, il faudra alors envisager d’enrichir son netlinking par des liens de qualité.

Où trouver l’information ?  

Type Encodage
Pour faire simple, il existe globalement 2 systèmes d’encodage pour transcrire les données du serveur dans un ou plusieurs systèmes d’écriture :
·        UTF-8 : jeu de caractère international, transcription possible dans plusieurs systèmes d’écriture
·        ISO-8859-1 : jeu de caractère local, transcription dans un seul système d’écriture
La meilleure solution recommandée pour encoder les données est l’UTF-8 car c’est le système le plus adapté permettant de retranscrire une multitude de caractères et de palier ainsi les problèmes d’affichage.

Où trouver l’information ?  

Optimisation du code
La performance d’un site passe inévitablement par l’optimisation de son code source. Quelles sont les points essentiels qui peuvent apporter une nette amélioration ?
·        Placer tous les scripts JS en fin de code source
·        Placer toutes les bibliothèques JS après les fichiers CSS
·        Alléger les fichiers CSS grâce à l’utilisation des sprites CSS 
·        Pas de flash et attention à l’utilisation de JS et Ajax
·        Spécifier les dimensions max des images
·        Uitiliser les balises rel = «next» et rel = «prev» dans le cas de paginations

Où trouver l’information ?  

Erreurs des pages
Chaque page, lorsqu’elle est crawlée par un logiciel de crawl ou un robot, retourne un code retour de la requête http envoyée au serveur. Voici la liste des principaux codes http à retenir :
  • 100 : OK pour continuer
  • 200 : requête effectuée avec succès
  • 300 : le serveur ne peut pas déterminer le code retour
  • 301 : Document déplacé de façon permanente
  • 302 : Document déplacé de façon temporaire
  • 400 : Erreur de syntaxe dans l’adresse du document
  • 404 : la page demandée n’existe pas
  • 410 : cette ressource n'est plus disponible
  • 500 : erreur interne du serveur

Ce crawl des robots peut être simulé grâce à des logiciels gratuits très connus et performants. Si toutes les pages ont un résultat égal à 200 ou à 301, alors tout est pour le mieux dans le meilleur des mondes !
Si des pages comportent des résultats 302, correspondant à des redirections temporaires, elles doivent être rectifiées en 301, des redirections permanentes, donc au niveau du fichier .htaccess.
Pour les pages dont les codes retournés sont 404, si l’erreur vient du site audité, il vous faut corriger l’url directement dans le site. Si, en revanche, l’erreur provient du site source, vous pouvez soit contacter le webmaster pour qu’il rectifie le lien, soit réaliser une simple redirection 301 avec le lien exact au niveau du fichier .htaccess.

Où trouver l’information ?  
screamingfrog   logiciel à télécharger
xenu's link sleuth  logiciel à télécharger

Redirections du site avec www et sans www
Un point souvent oublié lors de la mise en ligne, c’est la nécessité de définir qu’elle sera le nom de domaine point d’entrée de votre site, à savoir avec ou sans www, et mettre en place la redirection adéquate. Si vous ne le faites pas, toutes les pages du site seront indexées en double  et seront donc considérées comme du duplicate content ! Et que se passera-t-il dans ce cas ? Voyons un petit effort … un indice : animal noir et blanc perdu dans les fins fonds de l’Himalaya !

Ce fichier est très important car il permet d’indiquer aux robots des moteurs quelles pages du site  ils sont autorisés à crawler et analyser (et non indexer !), comme par exemple leur interdire l'accès à des pages pauvres en contenu, des pages d’administration, …etc. Les informations contenues dans ce fichier sont capitales et peuvent avoir des conséquences sur le référencement de vos pages, en particulier si vous avez spécifié au robot un chemin à ne pas suivre comme
Disallow : /monsite. fr/ decoration-interieur/  et que la page de la nouvelle promo est justement dans ce répertoire. L’utilisation de ce fichier nécessite une certaine expérience. Sachez que ce fichier n’est pas obligatoire et qu’il n’empêche pas l’indexation des pages qui évidemment auront tendance à ressortir en fin de serp avec des balises title et meta vides puisque les pages n’auront pas été crawlées. Un peu logique non ?
Si le site est configuré avec un CMS, il faudra être plus précis au niveau de ce fichier, par exemple pour assurer correctement la sécurité du site et rendre inaccessible toute la partie back-office.

Où trouver l’information ?  
Saisir dans la barre du navigateur  http : //www. monsite. fr/robots.txt

Fichier Sitemap.xml
Ce fichier n’est pas indispensable pour le référencement d’un site mais il présente tout de même de sérieux avantages :
  • Accélérer le processus d’indexation des robots
  • Faciliter le crawl des robots
  • Etablir un rapprochement entre la liste des pages produites par le logiciel de crawl et celui du sitemap et étudier les différences

Où trouver l’information ?  
Saisir dans la barre du navigateur  http : //www. monsite. fr/sitemap.xml

Responsiv Design 
C’est la solution qui consiste à adapter les dimensions de son site à tous les formats d’écran actuels (PC, tablettes, smarphone) mais avec des codes sources uniques, de manière à ne pas produire de duplicate content et à ne pas être pénalisé par … Panda (voilà çà vient !). Seule la présentation devra s’adapter au type de formats et nécessitera la conception de feuilles de styles propres à chaque média.

 Où trouver l’information ?  

Indexation
Ce point consiste simplement à vérifier que toutes les pages du site sont bien indexées grâce la commande « site : » qu’il suffit de saisir depuis la barre de votre moteur de recherche :
Site: www. monsite. fr
Audit de référencement d'un site - infographie
Audit seo d'un site 

Informations pour intégrer l'infographie sur votre site
Image source à télécharger :  http://www.pinterest.com/pin/381257924675851484/
Lien associé à ajouter :  http://www.pole-position-seo.com/2013/10/audit-de-referencement-d-un-site.html

 

L’audit de contenu d’un site

C’est un élément important de l’algorithme de google, enfin surtout si le site est jeune et pauvre en liens, elle peut se révéler être un réel atout. Elle ne doit pas être négligée, c’est pourquoi son contenu doit être unique, clair, compréhensible par les utilisateurs et les moteurs et doit résumer le contenu de la page. Les informations qui la comprennent aideront les moteurs à déterminer le thème de votre page, c’est donc une réelle occasion pour y intégrer vos mots-clés essentiels. Sa longueur maximum est d’environ 70 caractères car la taille des caractères rentre aussi en compte.

Où trouver l’information ?  
screamingfrog   logiciel à télécharger
xenu's link sleuth  logiciel à télécharger

Balises Meta Description et Meta Keywords
La balise Meta Description n’est plus un critère de référencement, son objectif premier est plutôt marketing et doit donner envie aux utilisateurs de visiter le site. Il est donc préférable de soigner son contenu et de rédiger une vraie présentation pour mettre en valeur votre boutique et vos services. Comme la balise Title, son contenu doit être unique.
C'est un peu la même situation pour la balise Meta Keywords qui a beaucoup perdu de sa valeur mais pour laquelle, il est encore préférable d'y placer des mots-clés essentiels. 

Où trouver l’information ?  
screamingfrog   logiciel à télécharger
xenu's link sleuth  logiciel à télécharger

Balises d’entête H1 … Hn
La structure du contenu d’une page doit permettre d’accroître le poids d’une page sur des mots-clés ciblés et d’améliorer sensiblement le positionnement de celle-ci. La balise H1 est obligatoire et forcément unique. L’utilisation des autres balises dépend de l’importance de votre contenu. S’il s’agit d’une page Conditions de livraison, pas la peine de vous mettre en 4 pour renseigner toutes les entêtes, en revanche s’il s’agit d’une page catégorie, vous devrez avoir un peu plus d’imagination car la structure de votre page devra ressembler à quelque chose pour les utilisateurs et de façon indirecte pour les moteurs. Attention, souvenez-vous bien, qu’une seule balise H1 doit être codée par page !
Mais ne perdez surtout pas de vue que toutes ces balises doivent être uniques et doivent respectées l’ordre d’imbrication prévu :
H1 – H2 – H3 – H2 – H2 – H3 – H4 – H2

Où trouver l’information ?  
screamingfrog   logiciel à télécharger
xenu's link sleuth  logiciel à télécharger

Structure des URL 
Comme nous venons de le voir, les robots sont exigeants, et cela, même avec les urls mal formées comportant des ?, &, =, ID, toute sorte de paramètres le plus souvent générés par des sites dynamiques utilisant des techniques telles que javascript ou ajax. Pour leur faciliter un peu la vie et faire en sorte qu’ils indexent et référencent mieux ce type de page, il est préférable de passer par des réécritures d’url ou bien alors de ne pas du tout indexer la page à l’aide d’une balise meta robots «noindex, nofollow ».

Où trouver l’information ?  
Par analyse détaillée de l’url

Images
Le seul moyen qu’ont les robots d’analyser les images d’un site, c’est de décrypter le contenu des balises ALT et TITLE. Si le site ne leur fournit pas ces informations, il perd une chance de mieux référencer ses images et de ce fait d’optimiser le positionnement de sa page. Ce sera aussi l’occasion d’y inclure quelques mots-clés stratégiques.
Quelques recommandations :
  • Renseigner les balises ALT et TITLE en incluant des mots-clés
  • Réduire le poids de ses images
  • Pas de texte dans les images car celui-ci ne sera pas référencé

Où trouver l’information ?  
Un logiciel de dessin pour réduire les images (Paint suffit amplement)
Code source ou CMS pour alimenter les balises

Contenu de la page d’accueil
Cette étape consiste en l’évaluation de la quantité et de la qualité du contenu textuel de la page d’entrée principale du site. Il ne faut pas perdre de vue que cette page est capitale puisque c’est en quelque sorte la vitrine du site, son contenu devra donc être irréprochable côté utilisateur mais aussi côté robots pour lesquels, elle devra être optimisée en reprenant l’ensemble du vocabulaire sémantique défini. D’une manière générale, les contenus des pages doivent avoir un minimum de 200 mots, l'idéal étant d'arriver à 300 mots, en deçà, la page ne sera pas optimisée et son positionnement n’évoluera guère.

Où trouver l’information ?  
Accéder à la page d’accueil du site dans n’importe quel navigateur
moz toolbar  pour vérifier les répétitions de mot-clés  suropti
ranks  Analyseur de ratios texte/code et occurrence de mots-clés

Contenu des catégories et des produits / articles
Les pages des catégories et des produits / articles sont logées à peu près à la même enseigne que la page d’accueil, à savoir un contenu minimum de 100 mots, de qualité, unique et optimisé pour les moteurs donc reprenant tous les mots-clés essentiels et leur synonymes définis pour l’activité. Il est important que le nombre de pages produits / articles s’accroissent afin que les robots reviennent régulièrement rendre visite au site, contribuant ainsi à l’amélioration du positionnement de ses pages.

Où trouver l’information ?  
Accéder à la page d’accueil du site dans n’importe quel navigateur
ranks  Analyseur de ratios texte/code et occurrence de mots-clés

Contenu dupliqué
Vu par Google, le constat est assez simple, il ne doit pas exister de contenu dupliqué, aussi bien à l’intérieur du site, qu’au niveau du web tout entier car le risque de pénalisation est élevé. Le problème doit cependant être traité différemment suivant le cas :
  • On-site : si une page existe en plusieurs exemplaires, vous devrez, soit envisager de passer les copies en rel = «canonical» soit de ne pas les indexer grâce à une balise meta robots noindex 
Rechercher un contenu on-site dans Google search grâce à la commande :
« mon texte à recherche » site:www.site.fr

  • Off-site : les choses se compliquent un peu, soit vous devrez contacter le webmaster pour supprimer le contenu, s’il n’y a pas d’issue, il faudra alors envisager d’informer Google de l’existence d’un contenu dupliqué 
Rechercher un contenu off-site dans Google search grâce à la commande :
« mon texte à recherche »


Où trouver l’information ?  

Suroptimisation
Il s’agit en l’occurrence, ici, d’essayer de détecter une répétition des requêtes et expressions phares du site au niveau du contenu et des balises title et entête.
  • La « Triplette du bourrin » : un terme très connu chez les référenceurs pour désigner l’égalité entre l’url, la balise Title et l’entête H1. La correction s’effectue très simplement : un contenu unique pour chaque élément (eh oui on n’a jamais dit que ce serait facile !)
  • Le Keyword stuffing : c’est la technique qui consiste à répéter un mot-clé un trop grand nombre de fois dans une page, une technique évidemment réprimée par le géant des mers du web, cela va sans dire. Il n’y a pas vraiment de logiciel pour détecter cette technique, il vous faudra décortiquer manuellement toutes les balises et le contenu textuel de la page. L’effet inverse, le Keyword missing n’est, fort heureusement, pas pénalisable mais est totalement rédhibitoire à un référencement optimum.
  • Le nuage de mots-clés : Cette technique plutôt pratique pour l’utilisateur est en réalité une contrainte pour un site. Effectivement lorsque l’on clique sur un mot-clé, on arrive sur la page correspondante comportant aussi le nuage, puis si l’on reclique une nouvelle fois sur le même mot-clé, vous voyez ce qu’il se produit : on créée une boucle car il s’agit de la même page !

Où trouver l’information ?  
Accéder aux pages du site dans n’importe quel navigateur

Elements cachés - Cloacking
Ce point doit permettre de déterminer si du contenu ou des images ont été dissimulés via les feuilles de style comme par exemple un texte blanc sur un fond blanc. Avec la commande CTRL+A  il est facile d’avoir un rapide aperçu d’éléments texte « fantômes ». Les zones stratégiques sont en général les sitewide.
Le cloakcking est une technique encore plus vicieuse car elle vise à présenter un contenu différent pour les internautes, de celui affiché pour les moteurs.

Où trouver l’information ?  
Accéder au site
Accéder au code source avec les outils de Web developer
Extension Mozilla User Agent Switcher  Logiciel pour simuler le passage des robots en vue de détecter le cloacking

Maillage interne
Les sites sont généralement conçus avec une structure d’arbre généalogique. L’intégration supplémentaire d’une structure en silo doit permettre de renforcer le maillage interne et donc de donner du poids et de la popularité à certaines pages de destination. Cela signifie qu’un petit nombre de pages de niveau inférieur (maximum 5) de même thématique, de la catégorie ou non, vont pointer sur une même page de niveau supérieur de manière à former un silo.
Malheureusement, il n’existe pas actuellement d’outils seo permettant de réaliser un bilan et une analyse détaillée du maillage des liens internes d’un site.

L’audit de popularité d’un site

Backlinks / Pages référentes
Cette démarche consiste à étudier tout le bagage du site en matière de netkinking, donc d’analyser l’évolution de ces données au fil du temps. Cette étude doit faire apparaître un profil naturel avec une progression constante dans l’acquisition de liens en majorité pertinents. Une augmentation anormale de liens renverra plutôt le reflet d’un profil artificiel avec une acquisition par des paid-links ou des soumissions automatiques à une grosse quantité d’annuaires en tout genre. Chaque outil seo de suivi des liens entrants possède ses propres indices d’évaluation, comme par exemple le Trust Flow (indice de confiance) et le Citation Flow (indice de popularité) de Majestic SEO.
Les bonnes pratiques :
  • Les liens ne doivent pas être tous concentrés sur la Home.
  • Les liens devront être choisis avec pertinence
  • Si certains liens sont médiocres, il faudra sans doute les supprimer ou bien les désavouer

Où trouver l’information ?  

Domaines référents
Dans la construction du netlinking, l’élément à privilégier, c’est la quantité et la qualité des domaines référents et non la quantité de liens entrants qui n’est désormais  plus la priorité. Il faut veiller à diversifier et augmenter les domaines qui pointent vers un site, plutôt que d’augmenter le nombre de backlinks des domaines référents déjà existants.  

Où trouver l’information ?  

Dofollow / Nofollow
Il n’y a pas de pourcentage exact à avoir, sur ce type de liens. Mais afin de renvoyer une bonne image aux moteurs, il faudra veiller à conserver un minimum de 20% de liens Nofollow !

Où trouver l’information ?  

Liens Sitewide
Il faut être actuellement très prudent avec les liens Sitewide (liens situés en footer ou bien en marge dans les blogs) car ils peuvent, dans le meilleur des cas, occasionner un simple déclassement de quelques positions mais dans le pire des cas, entraîner une pénalité Penguin. Afin de ne pas prendre de risque inutile, et pour la santé du site, la meilleure solution est, sans doute, de supprimer ces liens.

Où trouver l’information ?  

Optimisation des ancres
Il est très fortement recommandé d’arborer un profil « on ne peut plus » naturel. Le risque de se voir pénalisé étant tellement élevé, il n’est désormais plus possible de procéder « à l’aveuglette » et « au bourrage » de mots-clés comme il y a quelques années.  
Le rapport concernant l’optimisation des ancres doit faire ressortir un taux d‘ancres non optimisées à 80% et un taux d’ancres exactes et optimisées à 20%. Essayez de respecter ces proportions afin de ne pas vous attribuer les foudres du grand Penguin (attention aussi à ne pas faire d’erreur sur l’animal !)

Où trouver l’information ?  

Rich-snippets
Les données enrichies sont utiles pour apporter plus de trafic au site donc plus de visibilité. Elles peuvent être facilement testées sur le compte Google Webmaster Tools, si le site vous appartient. Dans le cas où le site ne vous appartient pas, vous devrez tester cette fonctionnalité directement dans les moteurs de recherche.

Où trouver l’information ?  
Google webmaster tools
Barre des moteurs de recherche

Référencement local
C’est un facteur essentiel pour toutes les sociétés de commerce ou services en ligne qui souhaitent être visibles dans leur zone géographique de proximité. Pour cela il suffit de vérifier que Google Local a bien été intégré à la page Google+ .

Où trouver l’information ?  
En consultant les Serps
En consultant le profil Google+

Google Authorship
Ce système de mise en avant des auteurs par Google doit être intégré, essentiellement pour un site ou un blog détenu par une personne (et non une société). Ce concept permettra ainsi à l’auteur de s’attribuer la propriété de ses pages et contenus et d’obtenir une meilleure visibilité du site dans les résultats de recherche. Dans ce cas, la photo de l’auteur apparaîtra pour la majorité des pages du site.

Où trouver l’information ?  
En consultant les Serps
En consultant le profil Google+

Google Publisher
Cette fonctionnalité doit être intégrée si le site est un site e-commerce ou une société proposant toutes sortes de services.  Attention elle ne permet pas d’afficher le logo actuellement, il faut passer par les micro-données de Schema.org pour le récupérer.
Ce concept permet de vérifier :
  • que la page Google+ entreprise est bien liée au site pour favoriser ainsi la visibilité du site dans les serp  (Attention car actuellement Google bloque les validations, trop de demandes en cours)
  • Que la balise  rel = « publisher » est bien présente au niveau du lien de la page Google+ entreprise, dans le code source de la page d’accueil.
Réseaux sociaux
Définir toutes ses pages pro dans les réseaux sociaux les plus influents (Google+, Twitter, Facebook, Tumblr, Scoopit, …) et y promouvoir ses contenus stratégiques afin d’enrichir et de diversifier son netlinking. 

Où trouver l’information ?  

Google Analytics 
Cette étape doit permettre de mieux appréhender le trafic sur le site, les pages les plus fréquentées, le temps de visite, le taux de rebond… etc.  Un outil indispensable en marketing et en référencement.

Où trouver l’information ?  

Positionnement
Il apparaît indispensable d’avoir une vision globale du classement d’un site dans les résultats de recherche afin de pouvoir anticiper ou réagir au plus vite face à certaines mauvaises stratégies du site ou de la part de la concurrence. La façon la plus simple, c’est de repérer les requêtes phares représentant l’activité du site, puis dans Google Search de vérifier, pour chacune d’elles, le positionnement. Cela vous permettra de vous situer très rapidement par rapport aux concurrents. Il est bon aussi de refaire un petit tour par Google Trends, histoire de s’assurer que les requêtes ont toujours la côte !

Où trouver l’information ?  

Conclusion

Voilà, comme vous pouvez le constater, l'audit d'un site ne peut être réalisé en quelques minutes. Il nécessite beaucoup de recherches et de vérifications, un peu comme un inspecteur mènerait une enquête pour retrouver les traces d'un coupable, évidemment là il s'agit d'un site et il n'est pas forcément coupable ! Fort heureusement, pour nous aider dans ces fouilles et leur interprétation, il existe de nombreux très bons outils seo, mais hélas bien souvent payants.

Et encore merci à @Nicolas_seo !


Licence Creative Commons
Audit de référencement d'un site de Khou est mis à disposition selon les termes de la licence Creative Commons Attribution - Pas d’Utilisation Commerciale - Partage dans les Mêmes Conditions 3.0 non transposé.
Fondé(e) sur une œuvre à www.pole-position-seo.com/2013/10/audit-de-referencement-d-un-site.html.
Les autorisations au-delà du champ de cette licence peuvent être obtenues à www.pole-position-seo.com.