Google Leak - Découvrez les secrets de l’algorithme
Fermer

Aidez-nous à préparer notre rendez-vous

    Votre nom*
    Votre prénom
    Votre adresse email*
    Votre numéro de téléphone
    Votre site internet
    Votre société*
    Projet, leviers à développer, ambitions ,objectifs, historique

    Les données saisies ci-dessus seront traitées par Ad’s up Consulting aux fins d’analyser votre demande et d’y répondre. Les champs marqués d’un * sont obligatoires. Vous disposez d’un droit d’accès, de rectification, d’effacement, d’opposition, consultez notre Politique de confidentialité ici pour en savoir plus.

    Ce site est protégé par reCAPTCHA et les Règles de confidentialité (https://policies.google.com/privacy) et les Conditions d'utilisation (https://policies.google.com/terms) de Google s'appliquent.

    Fermer Menu
    ×
    Home / Publications / SEO

    Google leak : les secrets de l’algorithme dévoilés 

    En savoir plus sur notre expertise Agence SEO 05/06/2024 4 min. de lecture Leslie

    Le 5 mai 2024, Rand Fishkin (fondateur de SparkToro et ex-fondateur de Moz) a reçu un email révélant l’un des secrets les mieux gardés de Google : le fonctionnement de son algorithme. Dévoilés sur la toile, nos experts décryptent les découvertes mises en avant par ce Google leak ? 

    Le système NavBoost et les clics 

    NavBoost est un système de re-ranking basé sur les clics. L’objectif : améliorer la qualité des résultats de recherche grâce aux données de clics. Par exemple, le nombre de clics sur un résultat de recherche, les clics longs et les clics courts (relatifs au temps de consultation des pages), la délimitation géographique des clics, le dispositif utilisé, etc. 

    Ces clics, ainsi que les actions menées a posteriori, en disent long sur le comportement des utilisateurs et leur niveau de satisfaction. C’est pourquoi, NavBoost est l’un des systèmes les plus importants du fonctionnement de l’algorithme Google. 

    Le Google Leak révèle que NavRank a d’abord collecté les données depuis la barre d’outils PageRank, puis Google Chrome par la suite. C’est d’ailleurs ce système (et le besoin de collecter davantage de données) qui a motivé la création de Chrome. 

    Bon à savoir : La première fois que le grand public en a entendu parler, c’est lors du procès anti-trust de Google (et notamment le témoignage de Pandu Nayak, vice-président de la recherche chez Google). À ce titre, tout ce qui a été révélé n’est pas une totale découverte. 

    Google leak : les secrets de l’algorithme dévoilés 

    Le fonctionnement des sitelinks 

    Lorsque l’internaute tape une requête, Google peut proposer une URL principale, et d’autres listes secondaires susceptibles de répondre à l’intention de recherche. 

    Un des documents du Google leak révèle le mode de fonctionnement de ces sitelinks. L’algorithme utilise une liste des “topUrl”. Ce sont les pages qui reçoivent un grand nombre de clics depuis le navigateur Chrome. Elles peuvent alors être définies comme URL principales. 

    La pondération des liens dans les SERP

    L’algorithme classe les liens selon 3 catégories : 

    • qualité faible
    • qualité moyenne
    • qualité élevée. 

    Pour savoir dans quelle catégorie un lien apparaît, ce sont encore les données de clic qui sont utilisées. Plus un lien obtient de clics, plus il a de chance de monter dans le classement. Cela dit, les liens de faible qualité n’impactent pas le classement global du site, ils sont simplement ignorés par Google. 

    D’autres indicateurs sont utilisés pour connaître la qualité des liens, comme l’impact du niveau d’indexation, les signaux de pics de spam de liens, les 20 dernières versions, la pageRank de la page d’accueil, la taille de police, etc. 

    Les autres révélations de la Google leak 

    En plus des données de clics et du système NavBoost, la Google Leak révèle d’autres informations importantes, telles que : 

    • L’existence d’une liste blanche pour les secteurs sensibles : comme les sites de voyage, les autorités locales ou les élections. L’objectif étant de garantir la fiabilité des informations diffusées. 
    • Les quality raters : les scores et données générés par quality raters sont utilisés dans le système de recherche. 
    • L’autorité de domaine : à plusieurs reprises, le géant du web avait nié utiliser l’autorité de domaine comme facteur de classement. Et pourtant, la Google leak révèle le contraire, puisque l’algorithme utiliserait une fonctionnalité appelée “SiteAuthority”.
    • Le sandbox : là encore, la fuite de Google va à l’encontre de ces déclarations publiques. Et pour cause, le document “PerDocData” révèle l’utilisation d’un attribut nommé “hostAge”. Celui-ci s’adresse spécifiquement aux nouveaux domaines. Autrement dit, c’est une sorte de sandbox séparant les sites en fonction de leur âge. 

    Alors faut-il croire à ces révélations ? A priori, oui. Rand Fishkin s’est entretenu avec la source de la Google leak afin de vérifier ses dires. Il a pu constater la présence de 2500 pages de documentation semblant provenant directement de l’entrepôt de données de Google. Et surtout, il a contacté d’anciens membres de Google ayant confirmé la légitimité des documents fuités. 

    Il convient toutefois de les relativiser. Google a affirmé que les documents dévoilés manquent de contexte et qu’ils sont obsolètes. Pour le reste, le géant du web maintient sa politique de non-commentaires concernant les détails de son algorithme. 

    Quoi qu’il en soit, ces informations sont précieuses puisqu’elles peuvent vous aider à augmenter votre positionnement. N’hésitez pas à contacter notre agence SEO pour améliorer votre visibilité sur Google.