Qu’est ce que l’analyse des logs en SEO ? | Ad's up
Fermer

Aidez-nous à préparer notre rendez-vous

    Votre nom*
    Votre prénom
    Votre adresse email*
    Votre numéro de téléphone
    Votre site internet
    Votre société*
    Projet, leviers à développer, ambitions ,objectifs, historique

    Les données saisies ci-dessus seront traitées par Ad’s up Consulting aux fins d’analyser votre demande et d’y répondre. Les champs marqués d’un * sont obligatoires. Vous disposez d’un droit d’accès, de rectification, d’effacement, d’opposition, consultez notre Politique de confidentialité ici pour en savoir plus.

    Ce site est protégé par reCAPTCHA et les Règles de confidentialité (https://policies.google.com/privacy) et les Conditions d'utilisation (https://policies.google.com/terms) de Google s'appliquent.

    Fermer Menu
    ×
    Home / Agence SEO / Guides et astuces pour le SEO

    L’analyse de logs pour améliorer son SEO

    En savoir plus sur notre expertise Agence SEO 01/02/2022 10 min. de lecture mm Sylvain

    Le SEO (Search Engine Optimization, ou optimisation pour les moteurs de recherche) repose sur trois piliers : popularité, contenus, technique. Ce dernier point implique l’analyse des logs. Dans une stratégie SEO, elle se révèle d’une grande utilité. Grâce à elle, vous obtenez des informations importantes pour optimiser votre site web. Vous savez comment les moteurs de recherche le perçoivent. Vous connaissez toutes les erreurs techniques présentes impactant le SEO. Vous pouvez ainsi procéder aux améliorations nécessaires, basées sur des informations objectives. Vous voulez booster votre référencement naturel ? Découvrez l’analyse des logs, en quoi elle consiste, comment l’exploiter.

    Les logs serveur : définition

    Des logs serveur sont des événements survenant sur le serveur. Ils sont stockés sur un fichier, appelé « fichier de logs ». Voici comment cela fonctionne :

    • Un contenu (une page, une image…) est présent sur le serveur du site web ;
    • Un internaute (via un navigateur) ou un user-agent essaie d’y accéder ;
    • Une requête est envoyée au serveur, la ressource recherchée peut ainsi être affichée ;
    • Cet événement, appelé « hit », est inscrit dans le fichier de logs.

    Celui-ci est, dans la plupart des cas, présenté sous la forme « access.log ». Il contient différentes données, parmi lesquelles :

    • Adresse IP à l’origine de la demande ;
    • User-agent utilisé ;
    • Nom de l’hébergeur ;
    • Code de statut HTTP du contenu demandé (redirection 301, erreur 404…) ;
    • Horodatage (date/heure) de la requête faite par l’utilisateur ou le robot…

    Une nouvelle ligne est ajoutée au fichier de logs à chaque hit, à la manière d’un historique. La plupart des solutions d’hébergement les conservent automatiquement pour une durée définie. 

    Comment effectuer une analyse des logs ?

    Un fichier de logs contient un nombre de lignes important. L’analyser sans un outil adapté n’est pas envisageable. Nous vous présentons plusieurs outils pertinents dans la suite de cet article.

    Pour commencer, vous devez avoir accès aux logs serveur du site à analyser. Seuls le webmaster et le propriétaire du site peuvent y accéder. Importez ensuite le fichier de logs à analyser dans l’outil choisi pour l’analyse. Vous obtiendrez alors une vue des crawls faits par les robots des moteurs de recherche. Vous pouvez procéder à l’analyse : pages crawlées par les robots, fréquence d’exploration, erreurs rencontrées… Ces informations sont autant de pistes pour optimiser le site dans un objectif SEO.

    À quoi sert l’analyse des logs en SEO ?

    Une analyse des logs SEO sert à connaître la manière dont les robots des moteurs de recherche crawlent un site. Le fichier montre tous les problèmes pouvant entraver le référencement naturel. Ces derniers sont difficiles, voire impossibles à percevoir sans cette analyse. Par exemple :

    • Vous pourriez constater l’absence de crawl sur des pages pourtant intéressantes pour votre référencement naturel. Elles nécessitent des optimisations pour permettre aux robots de les explorer, puis de les indexer. 
    • Vous savez comment Google estime la qualité de vos contenus. Plus ils sont jugés pertinents, mieux ils sont crawlés par ses bots. Si ces derniers négligent votre site, c’est le signe d’un possible problème de qualité.
    • Vous avez une meilleure idée des performances de votre serveur. Cela détermine la rapidité avec laquelle il répond. Plus il est puissant, plus vite les robots explorent le site. 

    Optimiser le budget de crawl

    L’analyse des logs se révèle tout particulièrement utile pour optimiser le budget crawl. Celui-ci est fixé par les moteurs de recherche. Il s’agit du nombre de pages maximal à explorer sur un site. Les robots ne parcourent donc pas l’intégralité des contenus. Ils peuvent cependant le faire, s’il s’agit, par exemple, d’un simple site vitrine, comprenant une quantité de pages faible. Pour les sites plus importants, Google détermine le budget crawl à partir de deux facteurs : 

    • La popularité des pages ;
    • La fréquence de mise à jour des contenus.

    En résumé, les robots explorent plus fréquemment les pages générant plus de trafic et/ou souvent mises à jour. Un site non optimisé SEO sera moins crawlé. Il perd donc une opportunité de voir ses pages correctement indexées. Cela impacte son référencement naturel. Ce problème peut résulter de plusieurs facteurs, comme :

    • Un contenu non qualitatif ;
    • Un maillage interne mal travaillé ;
    • La présence de contenu dupliqué (duplicate content) ;
    • Un chargement des pages trop lent…

    Grâce à l’analyse des logs, vous identifiez les faiblesses SEO de votre site. Vous pouvez ensuite les corriger pour permettre aux robots de mieux parcourir les contenus. Ils se focalisent sur les pages intéressantes pour vous dans votre stratégie SEO. Ils accordent moins d’importance aux autres, celles présentant un intérêt faible, voire nul, pour votre référencement. Vous optimisez ainsi votre budget crawl.

    Quelles données peut-on extraire grâce aux logs serveur ?

    L’analyse des logs permet d’extraire, puis d’analyser une multitude de données.

    Perte de budget de crawl

    Grâce à l’analyse du fichier log, vous connaissez le taux de crawl. Il s’agit du nombre de pages visitées par Google par rapport à l’ensemble des pages présentes sur le site. Comme dit précédemment, des éléments techniques sur le site peuvent réduire le budget crawl. Des pages susceptibles de générer beaucoup de trafic se retrouvent alors pénalisées. En analysant les logs, vous évaluez la perte de budget. Vous procédez ensuite aux optimisations nécessaires pour rediriger le crawl sur les pages voulues.

    Redirections 3xxx

    Une redirection 302 sert à indiquer aux moteurs de recherche la redirection temporaire d’une page. Elle pose un problème en termes de référencement. Elle n’est pas en mesure de transmettre le jus des liens externes (backlinks) de l’ancienne adresse à la nouvelle. La popularité des pages concernées est atteinte. Pour cette raison, il est recommandé, dans une optique SEO, de ne pas utiliser la redirection 302. Préférez-lui la redirection 301, indiquant un changement d’URL définitif. 

    L’analyse des logs vous permet de constater si des redirections 302 sont présentes sur votre site. S’il s’agit bien d’une erreur, et non d’un choix délibéré, vous pourrez alors la corriger.

    Erreurs de codes réponse

    En explorant un site, les robots des moteurs de recherche sont susceptibles de rencontrer des codes erreur. Par exemple, le code 404 : page introuvable. Ces erreurs gênent le crawl des robots, cela a un impact sur votre référencement. Si les robots ne sont pas capables d’accéder aux contenus concernés, ils ne seront pas référencés. Mais cela peut aussi provoquer une perte de chiffre d’affaires : les internautes ne pourront pas non plus consulter ces pages. 

    Si vous constatez des codes erreur dans le fichier log, vous pourrez effectuer les corrections nécessaires.

    Priorité de crawl

    Cette technique consiste à prioriser les pages à explorer au sein du site via le fichier sitemap. L’analyse de logs vous permet de savoir les pages crawlées en priorité par les robots. Vous savez ainsi s’ils explorent plus fréquemment les pages voulues.

    URL dupliquées

    Un site peut contenir des URL dupliquées. La plupart du temps, leur présence est involontaire. Elles ont pourtant des conséquences sur le référencement : Google, à travers son algorithme Panda, pénalise les pages concernées. Les robots se concentrent arbitrairement sur l’une d’elles, au détriment des autres. 

    Le fichier des logs vous permet de savoir si ce problème existe sur votre site. Pour corriger ce problème, il faut déterminer la page de référence, celle à explorer en priorité. Les autres pourront être supprimées au besoin. Il est aussi possible d’utiliser les balises rel=canonical ou no-index

    Ressources bloquées

    Des blocages techniques sont susceptibles d’entraver les performances SEO du site : ralentissements, erreurs… Le fichier des logs aide à les identifier afin de les corriger. 

    Date et fréquence de crawl

    L’analyse vous permet de connaître la fréquence de crawl des robots. Vous savez combien de fois, sur une période donnée, ces robots ont parcouru une page déterminée. Si celle-ci est jugée intéressante, elle pourra par exemple être crawlée plusieurs fois par jour. S’il s’agit d’un contenu important pour votre SEO, c’est parfait. Mais si cette page vous paraît insignifiante, c’est un problème, plus encore si d’autres contenus à prioriser sont rarement crawlés. Ce problème peut résulter :

    • D’un mauvais maillage interne de la page ;
    • D’un contenu manquant de qualité, de pertinence, considéré comme non unique…

    Une stratégie de maillage interne performante doit permettre de valoriser les contenus les plus importants. Elle permet aussi de transférer la popularité des pages vers celles recevant moins de visites.

    Pourquoi utiliser l’analyse des logs pour votre SEO ?

    L’analyse des logs vous dévoile toute l’activité de votre site.

    Suivre les visites des robots de Google

    Les pages les plus crawlées seront aussi mieux référencées. Si vos pages stratégiques sont ignorées, leur positionnement sera pénalisé.

    Voir son site comme Google

    Vous disposez d’une vision claire de la manière dont les moteurs de recherche perçoivent votre site. Vous connaissez ses forces, ses faiblesses. Vous pouvez l’optimiser pour booster votre référencement.

    Libérer des situations bloquantes pour le SEO

    Connaître un problème est la première étape pour le corriger. L’analyse des logs vous révèle toutes les failles de votre site, celles pouvant faire chuter votre référencement. 

    Réaliser un audit technique SEO complet

    Ce travail, mené par un expert SEO, implique nécessairement une analyse des logs. Il s’appuie sur ces informations clés pour déterminer les optimisations à apporter au site.

    Quelle typologie de sites Internet est concernée par l’analyse des logs ?

    L’analyse des logs est indispensable pour les sites à forte volumétrie de pages. Elle peut être menée de manière régulière, ou plus spécifiquement lors d’un audit technique ou d’une refonte du site. 

    Un site de taille moindre y trouvera aussi un intérêt, notamment lors d’une migration, de changements d’URL…

    Voici deux typologies de sites web concernés par l’analyse des logs.

    Site marchand (pure players, e-commerce)

    L’analyse des logs aide à identifier des problèmes importants, comme la lenteur de chargement des pages. Sur le web, mais plus encore sur mobile, la rapidité de chargement est un élément clé de satisfaction des utilisateurs. Selon une étude Google, 40 % des mobinautes quittent une page si elle nécessite plus de trois secondes de chargement. 1

    Site non marchand

    Les robots n’explorent pas toutes les pages d’un site à la même fréquence. Si vous publiez des contenus d’actualité, par exemple, vous avez besoin de les voir indexés rapidement. L’analyse des logs vous permet de vérifier la présence de points bloquants sur votre site, puis de les corriger. Vous améliorez le crawl des robots, ils indexent vos contenus plus vite.

    Quels sont les outils incontournables pour analyser les logs ?

    Découvrez quatre outils réputés pour analyser les logs d’un site web. 

    ONCRAWL

    Cette solution SaaS payante sans engagement propose une analyse visuelle des logs. Cela en facilite la compréhension, l’interprétation. 

    BOTIFY

    Cette solution payante se révèle très complète, en plus d’être facile à prendre en main. Elle propose elle aussi une analyse visuelle, pour comprendre plus facilement les informations. 

    SCREAMING FROG LOG ANALYSIS

    Cet outil peut s’utiliser gratuitement pour les sites comprenant jusqu’à 500 URL. Il est efficace, simple à installer, puis à utiliser. 

    SEOLYSER

    Cet outil freemium crawl le site comme un robot, puis délivre une analyse des logs. Celle-ci peut être ciblée par groupes de pages. Il permet aussi de suivre les KPI SEO en temps réel. 

    L’analyse des logs est indispensable pour connaître les forces et faiblesses d’un site web pouvant entraver son référencement naturel. Des outils pratiques sont disponibles pour analyser les logs, comme Oncrawl ou Botify. Ils apportent une aide certaine pour déterminer les problèmes, afin de les corriger ensuite. Ils ne remplacent cependant pas l’expertise d’une agence spécialisée en SEO. L’interprétation des résultats, les moyens techniques à déployer pour corriger les erreurs, nécessitent des compétences spécifiques. 

    Les 3 points clés à retenir sur l’analyse de Logs :

    • Un fichier de logs permet de connaître toute l’activité d’un site web ;
    • L’analyse des logs sert à identifier tous les problèmes rencontrés par les robots des moteurs de recherche pendant leur exploration ;
    • Ces problèmes, s’ils ne sont pas corrigés, pénalisent le référencement naturel du site. 

    Source :

    1. https://www.thinkwithgoogle.com/intl/fr-fr/strategies-marketing/mobile-et-apps/de-limportance-de-la-vitesse-de-chargement-despages-sur-mobile/ 

    À propos de l'auteur

    Sylvain
    Sylvain
    Responsable SEO international
    En tant que Team Leader SEO, Sylvain accompagne les entreprises dans l'élaboration et la mise en place de stratégies SEO afin de les rendre visibles aux yeux de Google ainsi que des prospects.