Sommaire
partager l'article sur
SEO
19/4/2022
Pierre-François Viaud
Pierre-François Viaud
No items found.

Audit technique SEO : Les 10 erreurs communes à corriger ?

audit technique seo

Avant de rentrer dans le détail des 10 erreurs techniques SEO les plus communément relevées. Dès lors que vous souhaitez optimiser votre site afin de figurer en tête des résultats de recherche de Google, il est important d’avoir un site sain.

Mais qu’entend-on par un site sain ? 5 fruits et légumes par jour ? Presque… En réalité, l’audit technique SEO analyse la santé de votre site, qui se reflète via des indicateurs comme la vitesse de chargement, la stabilité des éléments de vos pages, l’optimisation du code de vos pages, l’intégration et l’optimisation d’éléments SEO-friendly…

Voyons ensemble les étapes d’une analyse technique SEO ainsi que les erreurs communes à éviter !

Analyse SEO : Définition

Un audit technique SEO est une analyse globale du référencement naturel de votre site. L’objectif est de mettre en évidence les critères à optimiser pour améliorer votre classement sur les moteurs de recherche (Google, Bing, Firefox…).

Comment réaliser un audit SEO ?

Crawler votre site

De la même manière que les bots (robots) des différents moteurs de recherche viennent crawler (explorer) votre site, les outils dédiés vont parcourir et analyser votre site ou ceux de vos concurrents pour connaître les forces et freins au référencement.

Parmi les outils gratuits pour analyser techniquement un site internet figure Screaming Frog (gratuit jusqu’à 500 URL) :

Screenshot screaming frog KLH

Analyser les différents critères du crawl technique

Ce crawl technique de navigation, réalisé à partir de votre outil, mettra en lumière différents points techniques à améliorer, vous n’avez plus qu’à exporter un à un les différents éléments pour identifier les faiblesses puis implémenter les différentes optimisations techniques adaptées afin d’améliorer le référencement de votre site.

La Google Search Console

Google search console - screenshot

Afin de compléter l’analyse de votre crawler, il est essentiel d’inspecter les critères de couverture de l’outil Google Search Console. Pour cela, rendez-vous dans le menu suivant : « Index > Couverture », vous trouverez le détail de l’indexation de vos pages. Cela signifie que vous aurez une vue directe sur les pages que Google classe dans son Index (ses pages de résultats pour faire simple).

Le sitemap.xml

sitemap.xml KLH

Le sitemap est le plan de navigation de votre site, son intérêt est de faciliter la navigation de votre site aux moteurs de recherche. Pourquoi faciliter la navigation au moteur de recherche me direz-vous ? Eh bien tout simplement pour que le robot explore en priorité les pages qui VOUS intéressent et qu’il les positionne rapidement.

C’est pourquoi il est important de s’assurer qu’il est bien présent et correctement paramétré.

Pour s’assurer qu’il est présent et bien configuré vous avez 2 moyens :

  1.       Se rendre dans l’onglet « Sitemap » sur Google Search Console
  2.       Taper l’adresse de votre site suivi de /sitemap.xml

Le paramétrage du Robots.txt

Vérifier que votre robots.txt est bien paramétré est essentiel.

Le fichier robots.txt est un fichier texte, placé à la racine d’un site web. Il permet d’indiquer aux robots des moteurs de recherche les zones à ne pas explorer : pages web ou répertoires complets.

Il y a plusieurs commandes que l’on donne dans un robots.txt, parmi celles-ci :

  •       Allow : Vous indiquez au moteur de recherche qu’il peut parcourir tel répertoire, catégorie…
  •       Disallow : Vous indiquer au moteur de recherche de ne pas explorer telles pages, sections de votre site
  •       User agent : Vous choisissez quels crawler vous autorisez à parcourir votre site

Le but de ce fichier est d’éviter que les bots n’indexent du contenu dupliqué, d’indiquer aux bots un sitemap, de mettre en avant les URL à indexer, d’économiser le « budget de crawl » des bots Google en excluant les pages de mauvaise qualité de votre site, ou simplement celles qui n’ont pas d’intérêt pour le SEO comme les pages privées…

Les 10 Erreurs SEO à éviter 

Dominos SEO

1.      Code erreur 4xx : Les pages ‘Not find” pénalisantes 

Une erreur 404 est un code d’erreur HTTP transmis par un serveur web quand une ressource demandée (l’accès à une page) est indisponible ou que le serveur n’arrive pas à la trouver.

Les causes de ce type d’erreur sont :

  •       Les internautes ont mal saisi l’adresse URL dans la barre d’adresse du navigateur,  
  •       Les fautes d’orthographe dans les liens conduisent les utilisateurs vers des pages qui n’existent pas
  •       Supprimer la page sans définir la redirection 301 ou la redirection 302
  •       Une mauvaise migration lors d’une refonte du site web

2.      Code erreur 5xx : Les erreurs de serveur

En résumé, l’erreur 5xx est un code qui apparaît dans les navigateurs web lorsque le serveur n’est pas parvenu à répondre à une requête. Il faut donc s’assurer de sélectionner un hébergeur fiable.

3.      Code erreur 3xx : Trop de redirections

Tout code qui commence par 3xx fait référence à une redirection de page, en soit les redirections sont positives pour éviter d’avoir des pages introuvables (404, 500…), la chose qu’il faut éviter est d’avoir une chaîne de redirection trop longue car cela peut mener à rallonger le temps de chargement considérablement.

Exemple: « url1.com > url2.com > url3.com > url4.com»

4.      Liens internes et externes cassés

Fréquemment observé ce type d’erreur aussi appelé “liens morts/brisé”. Ils correspondent à des liens qui, une fois cliqués, conduisent les internautes non pas vers ce qu’ils veulent, mais vers une page 404 ou un message d’erreur.

Le crawl d’un site permet de mettre en avant l’ensemble des erreurs 404 qu’ils soient internes ou externes.

5.  Les Balises titres et Meta description manquantes

6.  Les Balises titres et Meta description dupliquées

7.  Les Balises titres et Meta description trop courtes ou longues

Ces 3 points touchent aux mêmes critères qui sont la balise titre et la Meta description.

Dans la capture d’écran ci-dessous, nous voyons :

  1.       Le lien bleu qui indique la balise titre
  2.       Le texte sous la balise titre en gris est la méta description

Les balises titres et Meta description doivent être uniques, d’une longueur idéale  

  •       Pour la balise titre : entre 45 et 60 caractères idéalement
  •       Pour la Meta description : entre 145 et 160 caractères.

8.      Balise titre h1 manquante : une page sans titre principale

Le h1 est une balise HTML qui indique un titre sur un site web, c’est le titre de la page qui vient avant le contenu. C’est l’élément le plus important après la balise titre en termes d’impact SEO généré. Il est essentiel d’intégrer ce titre pour chacune des pages que l’on souhaite bien positionner sur les moteurs de recherche.

Note : Contrairement à la balise titre et à la méta description il n’y a pas de limite de caractères ! 😊

9.      Attribut alt manquant

La balise ALT ou attribut ALT, correspond au texte alternatif d’une image. Il fait partie des champs possibles à remplir en codage HTML et permet de donner une description de l’image ou du visuel si ce dernier n’apparaît pas à l’écran. Il est important de remplir ce champ pour toutes les images de votre site en décrivant le contenu de celle-ci.

Cela aide les moteurs de recherche à comprendre le contenu de l’image et à attirer plus de trafic grâce à l’acquisition via d’autres canaux comme Google image par exemple.

10.  Duplicate content (contenu dupliqué)

Pour finir sur cette liste des 10 erreurs techniques SEO courantes qui sont régulièrement remontées lors d’audit SEO technique, abordons le duplicate content.

C’est quoi ? Le Duplicate content qui se traduit en français par « contenu dupliqué » indique le contenu d’une page web ou d’un site internet qui est reproduit à l’identique (copié-collé) ou presque sur internet.

C’est un problème en matière de référencement car le risque encouru est que les moteurs de recherche traquent et sanctionnent vos pages ou sites concernés par le duplicate content, en les désindexant des pages de résultats.

Les solutions pour éviter d’être impacté et pénalisé par les contenus dupliqués sont :

  •       Créer un contenu unique non dupliqué,
  •       Rediriger le contenu dupliqué vers l’URL canonique (rel= « canonical »),

Petite définition de page canonique : 

Une URL canonique est une balise qui permet d’indiquer aux moteurs de recherche l’URL « principale » à considérer lors de l’indexation lorsqu’un même contenu apparaît sous différentes URL, évitant ainsi de laisser le moteur choisir à votre place.

  •       Ajouter un élément de lien canonique à la page en double.
  •       Ajouter un lien HTML de la page dupliquée vers la page canonique.

La correction de ces faiblesses techniques aidera vos sites à augmenter leur trafic, une stratégie SEO est essentielle pour bien se positionner sur internet, pour aller plus loin vous pouvez faire appel à une agence spécialisée qui pourra vous accompagner et vous aider à atteindre vos objectifs !