Débutez la conversation ~ Licence : Contenu sous licence Creative Commons : attribution - pas d’utilisation commerciale - partage dans les mêmes conditions

Être visible sur Google en 2020 : 73 critères qui comptent.

Vous avez un site web et aimeriez qu’il soit (plus) visible Google, mais vous ne savez pas comment faire ?

Vous êtes perdu·e dans les centaines articles que vous pouvez lire sur le sujet et qui se contredisent ?

Ce dossier est destiné aux propriétaires de sites web qui veulent être visibles sur Google, même s’ils n’ont pas de connaissance en référencement naturel (SEO) ou qui veulent réaliser un audit de visibilité de leur site.

Sommaire
  1. Introduction
  2. Méthodologie
  3. Les critères confirmés par Google
    1. L’âge du domaine
    2. Historique du domaine
    3. L’extension de nom de domaine est liée à un pays
    4. Présence du mot-clef dans la balise title
    5. Présence du mot-clef dans la balise méta description
    6. Le mot clef apparaît dans les titres de niveau 1
    7. Nombres d’occurrences et fréquence d’apparition d’un mot-clef dans la page
    8. Le sujet est traité en profondeur
    9. Contenu de l’ancre du lien
    10. Autorité de la page d’origine du lien
    11. Les liens disposent des bons attributs
    12. Liens présents sur tout le site
    13. Dynamisme de la communauté
    14. Utilisation de métadonnées
    15. Vitesse de chargement du site
    16. Vitesse de chargement avec Google Chrome
    17. Les informations du Whois sont-elles publiques ou privées ?
    18. Utilisation du format AMP
    19. L’optimisation pour l’algorithme Hummingbird
    20. Présence de contenu dupliqué
    21. Usage de l’attribut rel=canonical
    22. Optimisation des images pour le SEO
    23. Fraîcheur du contenu
    24. Structure de l’URL
    25. Utilisation du HTTPS
    26. Longueur de l’URL
    27. Présence de liens d’affiliation
    28. Optimisation de la page et du site pour les supports mobiles
    29. Présence d’un fil d’Ariane
    30. Site piraté
    31. Le poids de la page dans le fichier sitemap.xml
    32. Emplacement du serveur
    33. Présence de contenu supplémentaire utile
    34. Présence d’interstitiels et de pop-ups
  4. Les critères qui font consensus parmi les expert·es
    1. Thématique du domaine
    2. Échange de liens et guest blogging
    3. Nom de domaine « Exact match »
    4. Durée d’enregistrement d’un nom de domaine
    5. Nombre, qualité et âge des domaines référents uniques
    6. La balise title commence par un mot-clef
    7. L’emplacement de la première occurrence du mot-clef cible
    8. La présence de mots-clefs d’analyse sémantique latente dans le contenu
    9. La présence de mots-clefs LSI dans le title et la description
    10. La présence d’un sommaire
    11. Correspondance avec une « entité »
    12. Volume et fréquence des mises à jour de contenu
    13. Qualité et thématique des liens externes
    14. Qualité des liens internes
    15. Respects des règles grammaticales et orthographiques
    16. Présence de contenus sous différentes formes
    17. Utilisation de listes
    18. Arborescence du site
    19. Emplacement de la page dans l’arborescence
    20. Le TrustRank
    21. Historique de recherche
    22. Présence des pages Conditions générales et Mentions légales
  5. Les critères qui font débat parmi les expert·es
    1. Présence du mot-clef dans un sous-domaine
    2. Présence du mot-clef dans le nom de domaine
    3. Liens depuis Wikipédia
    4. Taux de clic dans les pages de résultats
    5. Longueur du contenu
    6. Trafic du site web
  6. Les critères qui relèvent du mythe
    1. Utilisation de Google Analytics et de la Google Search Console
    2. La vitesse à laquelle vous obtenez des liens
    3. Liens depuis des domaines dits officiels
    4. Respect des standards HTML
    5. Comportement des internautes sur la page
  7. Les critères dont je n’ai pas pu vérifier la fiabilité
    1. La présence d’un moyen de contact
    2. Autorité du domaine
    3. Un propriétaire du Whois est pénalisé
    4. Taille du contenu dans lequel se trouve le lien
    5. Occurrence du mot-clef dans les titres de niveau 2 et 3
    6. Position du mot-clef dans le nom de domaine
  8. Conclusion

Introduction

Comme vous le savez, être visible sur les moteurs de recherche (ce que l’on appelle aussi référencement naturel ou SEO) est un facteur clé de la réussite de votre présence numérique.

En France, Google est le moteur de recherche ultra-majoritaire avec plus de 95% de part de marché.

Il est donc important de comprendre comment il fonctionne et ce qui est important pour lui, sans pour autant perdre de vue qu’on s’adresse d’abord à des êtres humains.

S’il est de notoriété publique que Google utilise plus de 200 critères de classement, le nombre exact demeure inconnu, et pour chaque critère, il peut y avoir jusqu’à 50 variations ! Soit plus de 10 000 combinaisons possibles !

Rien qu’en 2019, le moteur de recherche a effectué plus 10 changements par jours de son algorithme.

Difficile de suivre le rythme quand le web n’est pas notre métier (et même quand ça l’est !).

En outre, secret industriel oblige, il n’existe pas de liste officielle des critères pris en compte. Certain·es expert·es se sont toutefois essayé à l’exercice.

Malheureusement, ce type de liste mélange faits avérés et confirmés par Google et suppositions, rumeurs, voire mythes. Certains critères ne sont également là que pour atteindre le chiffre magique de 200 !

Spoiler : cette liste ne comporte pas 200 critères 🙂

Mon objectif avec cet article est double :

  • faire un état des lieux (sans rentrer dans la technique) des critères avérés ou supposés de classement ;
  • déconstruire certains mythes, ou pondérer certains critères.

Petit rappel…

Vous ne lisez donc pas une recette magique pour vous assurer la première position sur Google !

Désolé ^^

N’oubliez pas que malgré tous les efforts que vous pourrez déployer c’est Google et lui seul qui décide du classement de votre site sur une requête donnée.

Méthodologie

Pour la liste des critères, je me suis fortement inspiré du travail réalisé par Brian Dean sur le blog de référence Backlinko : « Google’s 200 Ranking Factors: The Complete List (2020) ».

Ensuite j’ai effectué un travail de recherche sur chacun des critères pour vérifier leur fiabilité et leur réel poids dans le classement d’un site. Pour cela, je me suis principalement basé sur l’énorme travail de veille qu’effectue depuis 20 ans Olivier Andrieu du site Abondance.

Si le titre de l’article de Backlinko est inexact et un peu racoleur, le contenu n’en demeure pas moins intéressant et riche.

Comme souvent, la réalité est plus complexe que le laisse supposer le titre.

Dans ce cas, pourquoi prendre cet article comme base ?

Parce que malgré son titre erroné et l’approche peu scientifique, le contenu de l’article n’en demeure pas moins pertinent.

Il permet également de comprendre ce qui a de l’importance pour Google et ce qui en a moins.

Donc de mieux prioriser les actions à mener lorsqu’on cherche à optimiser la visibilité de son site web sur les moteurs de recherche.

Les critères sont catégorisés de la façon suivante :

À noter que : dans la suite de l’article, l’expression « mot-clef » désigne de manière générale la requête saisie par l’internaute. Cela peut donc être un mot, une suite de mot, voire une phrase entière ou une question.

Les critères confirmés par Google

Il s’agit ici des critères sur lesquels Google a officiellement communiqué. Soit pour confirmer qu’ils étaient bien pris en compte pour déterminer le classement d’un site dans les résultats de recherche, soit pour indiquer qu’ils ne l’étaient pas.

L’âge du domaine

Dans cette vidéo (en anglais – avec sous-titre), l’ancien employé de Google Matt Cutts affirmait que :

La différence entre un domaine vieux de six mois et un autre vieux d’un an n’est pas si importante.

Matt Cutts

En d’autre termes, Google utilise l’ancienneté du domaine. Mais ce n’est pas un critère très important.

Cela a encore été confirmé récemment par Google. Toutefois, plus un site est vieux, plus Google dispose de données sur ce dernier. Mais cela n’est pas lié au nom de domaine seul.

Historique du domaine

Lorsque vous achetez un nom de domaine, il est possible que celui-ci ait déjà été acheté puis revendu ou laissé à l’abandon.

Il est également possible que le domaine ait été pénalisé par Google dans le passé.

La plupart du temps, le transfert de propriété d’un nom de domaine suffit à remettre les compteurs à zéro.

L’extension de nom de domaine est liée à un pays

Google utilise un grand nombre de critères pour personnaliser ses résultats en fonction du pays, voire de la ville.

De ce fait, utiliser une extension liée à un pays (.fr, .ca, .aq, .bw…) permet à Google de relier votre nom de domaine à un pays.

À l’inverse, si vous utilisez une extension géographique pour former un jeu de mot, cela peut envoyer un signal contradictoire à Google.

Exemple : le site américain last.fm utilise l’extension .fm pour indiquer un lien avec la radio, la bande FM. Or, .fm est l’extension géographique de la Micronésie.

L’impact de ce critère — comme tous ceux liés au nom de domaine — est assez faible. L’influence est plus indirecte et va jouer sur comment les internautes vont percevoir votre site.

Présence du mot-clef dans la balise title

La balise title est une balise HTML qui contient du contenu affiché notamment dans l’onglet du navigateur, les réseaux sociaux et outils de messagerie instantanée et dans les résultats des moteurs de recherche.

Compte tenu de sa position dans les moteurs de recherche la balise title constitue la première expérience qu’ont les internautes avec votre site. Il est donc important de bien la soigner.

Google a confirmé en 2016 que ce critère était pris en compte pour déterminer le classement d’un site. Même s’il s’agit d’un critère important, il l’est moins qu’il y a quelques années.

Le moteur de recherche est également vigilant à ce que le contenu ne soit pas bourré de mot-clef car cela représente une mauvaise expérience utilisateur.

Présence du mot-clef dans la balise méta description

Il s’agit ici du court texte qui apparaît en dessous du titre dans les moteurs de recherche et sur les réseaux sociaux.

Dans un article de 2009 (contenu en anglais), Google a indiqué que cette balise n’était pas un critère de classement.

Cette balise a toutefois un impact important sur le taux de clic, qui lui est un critère de classement indirect.

Le mot clef apparaît dans les titres de niveau 1

On entend par titre de niveau 1 (ou titre h1) le titre de la page. Il est à différencier de la balise title car le contenu peut être différent et ce titre apparaît dans le navigateur de l’internaute.

Par exemple, pour ma page « Audit de site web », le contenu de ma balise title est différent de celui de mon titre de niveau 1 :

  • Balise title : Audit de site web ~ Faites un bilan de santé de votre site.
  • Titre de niveau 1 : Audit de site web

Certaines études ont montré que l’usage des titres de niveau 1, avec ou sans mot-clef, n’a qu’une portée limitée sur le classement de votre site dans Google.

Il serait même possible de s’en passer.

Ce qui semble en revanche avoir de l’importance pour Google c’est la hiérarchie des contenus, qu’elle soit visuelle ou technique.

Cela a été confirmé en 2019 par Google :

Your site can do perfectly fine with no H1 tags or with five H1 tags.

Source : John Mueller (Google) – vidéo en anglais, sous titrée en anglais

Ainsi, pour Google, que nous n’ayez aucun titre de niveau 1 ou que vous en ayez 5 par page ne change rien.

En effet, si vous n’utilisez pas de titre, Google va essayer de comprendre par lui-même comment votre contenu est hiérarchisé.

Attention

Si pour Google l’usage ou non des titres de niveau 1 ne change rien, il est tout de même fortement recommandé de les utiliser.

La principale raison, qui devrait être la seule, est que les titres aident à l’accessibilité de votre site. Ils sont en effet lus par les lecteurs d’écran utilisés par les internautes aveugles ou mal-voyants.

Enfin, Google n’est pas le seul moteur de recherche au monde, et d’autres moteurs, comme Bing, utilisent les titres comme critère de classement.

Nombres d’occurrences et fréquence d’apparition d’un mot-clef dans la page

Pendant longtemps, les moteurs de recherche utilisaient la notion de densité de mot-clef pour déterminer sur quelle requête cherchait à se positionner un site web.

Déjà en 2012 l’importance de cette méthode était remise en cause par Google.

Avec le développement de l’intelligence artificielle, Google est capable de comprendre tout seul le sujet d’un site web. Ce qui réduit encore l’importance de ce critère.

Il n’est donc plus nécessaire de bourrer son contenu d’occurrences d’un mot-clef pour espérer se positionner dessus.

Au contraire, il est important de faire preuve de richesse linguistique et d’alterner entre le mot-clef cible, un synonyme, un autre mot du même champ lexical, un antonyme…

Cela renforcera la qualité de votre contenu.

Le sujet est traité en profondeur

Il est prouvé qu’il existe une corrélation entre la façon dont est couvert un sujet et le classement de la page dans Google.

Un article traité en profondeur, en couvrant différents angles sera mieux positionné qu’un contenu qui ne traite que d’un angle en particulier.

Toutefois, une corrélation n’est pas une preuve qu’il s’agit d’un critère utilisé par Google.

En revanche, il est certain que Google accorde beaucoup d’importance à la qualité du contenu et au concept d’E-A-T (Expertise, Authoritativeness (Autorité), Trustworthiness (Confiance)).

Vidéo Abondance sur le concept d’E-A-T – sous-titres activables

Contenu de l’ancre du lien

Le terme d’ancre désigne le texte du lien sur lequel vous allez cliquer.

Ce contenu est essentiel pour Google car il transmet du sens sur la thématique de la page de destination et agit comme un mot-clef déporté.

Par exemple, si un site tiers fait un lien vers ma page Audit de site web, l’ancre « améliorez votre site web grâce à un audit » aura plus de poids que « en savoir plus ».

Découvrez comment donner du sens à vos ancres :

Vidéo Abondance sur l’optimisation des ancres de lien – sous-titres activables

À noter que ces conseils sont également valables pour les liens internes.

En outre, l’emplacement du lien a son importance : un lien présent de manière contextualisée dans le contenu aura plus de poids qu’un lien dans le pied de page par exemple. A fortiori s’il est placé haut dans le contenu.

Autorité de la page d’origine du lien

Dès l’origine de son moteur de recherche, l’autorité de la page d’origine d’un lien constitue un facteur important. C’est toujours le cas en 2020.

Les votes émis par des pages considérées comme « importantes » ont une valeur plus grande et contribuent au classement d’autres pages dans la catégorie des pages « importantes ».

Les liens disposent des bons attributs

Depuis 2005, pour indiquer aux moteurs de recherche s’ils devaient suivre ou non un lien, on pouvait utiliser l’attribut rel=nofollow. Comme son nom l’indique, cet attribut sert à demander aux moteurs de ne pas suivre un lien.

En septembre 2019, Google a proposé une évolution des attributs de liens, afin d’affiner sa compréhension des relations qui lient deux sites entre eux.

Ainsi, le moteur de recherche (rejoint début juillet 2020 par Bing) reconnaît deux nouveaux attributs en plus de l’attribut historique rel=nofollow :

  • rel="sponsored" : pour les liens publicitaires, faisant l’objet d’un sponsoring ou d’un échange, monétaire ou non.
  • rel="ugc" (User Generated Content) : pour les liens créés par les utilisateurs et utilisatrices d’un site web, comme des discussions d’un forum ou les commentaires d’un blog.

Par exemple, depuis WordPress 5.3, tous les liens présents dans les commentaires d’un article ont l’attribut rel=ugc car ce contenu est généré par les internautes.

À noter qu’il est possible d’utiliser deux attributs (ex : rel="ugc nofollow" ou rel="sponsored ugc").

En outre cet attribut est désormais considéré comme un indice et non comme une consigne. Les moteurs de recherche peuvent donc les ignorer.

Liens présents sur tout le site

Les liens dit « sitewide » sont des liens présents sur toutes les pages du site, que ce soit dans le pied de page ou dans la colonne latérale.

Selon la taille du site, cela peut sembler intéressant d’avoir ce type de lien.

Toutefois, Google ne va garder que quelques liens parmi tous ceux créés.

Pour en savoir plus sur cette problématique, je vous invite à consulter cette vidéo du site Abondance (oui encore une ^^) :

Vidéo Abondance sur le concept de lien sitewide – sous-titres activables

Dynamisme de la communauté

Google a confirmé à plusieurs reprises qu’un site avec une communauté riche et active était une bonne chose à ses yeux.

Ainsi, le nombre de commentaires, les réponses des internautes les uns aux autres, vos réponses aux commentaires… sont autant de signaux positifs envoyés à Google.

Les commentaires d’un article de blog ou d’un produit vendu sur un site marchand sont également des moyens de fournir à Google du contenu supplémentaire à analyser et peuvent l’aider à comprendre la thématique de la page.

À noter toutefois que ce n’est pas un critère très important. Ce qui compte, c’est avant tout la qualité de votre contenu.

Utilisation de métadonnées

Une métadonnée est une donnée qui sert à définir ou décrire une autre donnée.

Par exemple : ce dossier constitue la donnée de référence. Les métadonnées associées pourraient être : la date de publication, l’auteur, le nombre de commentaires…

Google est friand de métadonnées car elles l’aident à enrichir sa page de résultats.

Pour cela, il est recommandé d’utiliser le balisage Schema.org, un langage de structuration de données mis au point par Google, Yahoo! et Bing.

Bien que ce soit pas un critère de classement en tant que tel, l’utilisation de ce format vous permettra de bénéficier des résultats enrichis :

Exemples de résultat enrichi grâce aux métadonnées

Vitesse de chargement du site

Google utilise le temps de chargement d’un site comme critère de classement depuis 2010. Bing l’utilise depuis 2012.

En 2018, ce critère a été étendu aux recherches mobiles.

Google a confirmé en avril 2020 que le poids accordé à celui-ci était très faible. Il n’intervient généralement que pour départager deux sites qui seraient « à égalité » sur une recherche donnée.

En revanche, ce facteur est utilisé pour pénaliser certains sites très très lents (et donc indirectement en booster d’autres).

Toutefois, l’immense majorité des sites ne sont pas concernés par ce critère car ils ne sont ni très très rapide, ni trop lent.

Comme le dit John Mueller :

[…] si vous êtes en train de régler des millisecondes, ce n’est probablement pas la meilleure utilisation de votre temps si vous ne vous souciez que du référencement. (…) Certains sites très très rapides peuvent cependant recevoir un « boost » en termes de classement, car si on « pénalise » certains, d’autres en profitent.

Source : Abondance

En revanche le temps de chargement du site est très important pour l’internaute.

Voici quelques outils qui vont vous aider à améliorer le temps de chargement d’un site ou d’une page spécifique :

Vitesse de chargement avec Google Chrome

Depuis 2018, Google utilise les données issues de visites de « vrais » internautes pour déterminer le temps de chargement d’une page.

C’est ce que Google appelle le « Chrome User Experience Report » est qui est intégré dans l’outil Google Page Speed Insight mentionné précédemment.

Si ces données permettent au moteur de recherche d’avoir une meilleure compréhension de la vitesse de chargement de la page, ce n’est pas un critère de classement.

Les informations du Whois sont-elles publiques ou privées ?

Le Whois, est un service qui permet de connaître un certain nombre d’informations relatives à un nom de domaine. Des informations comme : le nom du/de la propriétaire, auprès de quel service il a été acheté, à quelle date, pour combien de temps…

Le/la propriétaire du nom de domaine a alors la possibilité de rendre ces données publiques ou privées.

Cette technique étant utilisée à la fois par des personnes qui veulent protéger leur vie privée et par des spammeurs, Google peut la percevoir comme un signal négatif, montrant qu’il y a quelque chose à cacher. Surtout si vous possédez un grand nombre de sites, tous avec les informations du Whois masquées.

De manière isolée, l’impact de ce critère est quasi nul. Si votre site est de bonne qualité, et que le nombre de signaux positifs excède le nombre de signaux négatifs, vous n’avez rien à craindre.

Utilisation du format AMP

AMP (pour Accelerated Mobile Page) est une technologie lancée en 2016 par Google. Elle se matérialise par la création de deux nouveaux formats : AMP HTML et AMP JavaScript.

Elle a pour objectif d’accélérer l’affichage d’une page web lorsqu’elle est consultée sur un smartphone ou une tablette.

Pour cela, la page est réduite à son strict minimum (le contenu) et convertie en un format statique.

En mars 2020, Google a confirmé que l’usage ou non d’AMP n’était pas un critère de classement (source : Abondance).

L’optimisation pour l’algorithme Hummingbird

Il s’agit du nom donné à un algorithme de pertinence lancé en 2013 par Google.

Son objectif est d’améliorer la pertinence des résultats fournis par le moteur de recherche notamment lorsque la recherche est demandée en langage naturel (sous forme de question par exemple).

C’est avec cet algorithme que Google a commencé à favoriser la qualité à la quantité et à introduire la recherche sémantique.

Il a aussi posé les bases de la recherche vocale et amélioré grandement la recherche locale.

Si votre site est postérieur à 2013, il est fort probable que vous respectiez déjà les recommandations liées à cet algorithme.

Présence de contenu dupliqué

Est considéré comme contenu dupliqué tout contenu identique (ou modifié légèrement) qui est accessible depuis sur Internet depuis deux URLs différentes (issues du même site ou non).

Exemple :

  • Vous vendez les mêmes produits, avec la même description sur différentes places de marché ;
  • Un site reprend une partie d’un de vos articles pour en faire la promotion (ou pour plagier le contenu) et l’article n’est pas suffisamment long pour que Google comprenne qu’il s’agisse d’un extrait ;
  • Vous publiez vos articles en intégralité dans vos flux RSS ;
  • Vous publiez les mêmes contenus sur les versions française et belge francophone de votre site ;
  • Il n’y a pas de redirection entre les versions avec et sans « www » de votre site et/ou avec et sans « https »

Il peut donc être volontaire ou subit.

Officiellement, Google n’applique pas de pénalité en cas de contenu dupliqué. Toutefois, le moteur de recherche applique un filtre qui exclus les doublons, ce qui peut laisser penser que certains contenus sont pénalisés.

Pour voir la différence, il vous suffit de rajouter le paramètre &filter=0 à l’URL.

L’exemple ci-dessous montre les premiers résultats pour la requête « brassage amateur » en désactivant le filtrage des doublons. On constate que le nombre de résultats augmente de 6 000 et que certains sites sont présents deux fois.

Usage de l’attribut rel=canonical

En 2009, Yahoo!, Google et Bing se sont mis d’accord sur la création de l’attribut HTML rel=canonical – qui s’applique sur la balise HTML link — qui vise à lutter contre le contenu dupliqué.

L’objectif est d’indiquer aux moteurs de recherche quelle est la page d’origine. Ainsi, en cas de contenu dupliqué, ils ont un indice sur l’origine du contenu initial.

Cette information est généralement placée sur les pages de contenu dupliqué interne au site et renvoie vers la page originale.

Pour mieux comprendre le fonctionnement de cette attribut, je vous conseille cette vidéo du site Abondance :

Vidéo Abondance sur l’attribut canonical – sous-titres activables

À noter qu’il ne s’agit pas d’un critère en tant que tel, mais cette technique peut vous éviter d’être impacté par le filtre mentionné précédemment.

Optimisation des images pour le SEO

S’il ne s’agit pas à proprement parler d’un critère de classement du site, les images sont un excellent moyen de générer du trafic et leur optimisation ne doit pas être négligée.

Parmi les principales optimisations à appliquer, on peut citer :

  • Travaillez le nom du fichier (préférez spectacle-jeremy-ferrari-lille.jpg à IMG4014-2016.jpg)
  • Si l’image est porteuse de sens, indiquez un texte alternatif
  • Renseignez une description ou une légende

Ces quelques éléments donnent des indications aux moteurs de recherche sur le contenu de l’image.

Fraîcheur du contenu

Officiellement, Google ne favorise pas le contenu « frais », c’est-à-dire qu’il ne classe pas les pages en fonction de leur date de publication.

C’est probablement vrai pour la plupart des requêtes, mais il y a des exceptions :

  • Les contenus liés à l’actualité (ex : convention climat),
  • Les requêtes contenant une date (ex : concert yodelice 2020),
  • Les événements récurrents (ex : la finale de la Ligue des Champions de football),
  • Lorsque le filtrage temporel des résultats est activé.

En outre, le moteur de recherche affiche la date à côté de certaines requêtes.

S’il est avéré que Google prend en compte la date de publication ou de mise à jour d’un contenu, son réel impact sur le classement d’un site semble surtout dépendre du type de requête.

Structure de l’URL

L’URL est bien souvent la première chose que voient les moteurs de recherche de votre site.

Même si ce n’est pas un critère de classement très important, ce n’est pas quelque chose à négliger.

Bien qu’il n’y ait pas de formule magique, il existe quelques règles à respecter pour optimiser la structure à la fois pour les internautes et les moteurs de recherche. Ainsi, vos URLs devront être :

  1. Humainement lisible : d’après-vous, entre https://www.laurent-naudier.fr/audit-site-web et https://www.laurent-naudier.fr/?p=27441 quelle URL est la plus optimisée ?
  2. Représentative de votre arborescence : si votre page est située dans une rubrique puis une sous-rubrique, votre URL doit représenter cette structure.
  3. Sans mots superflus : les mots comme le, la, du… n’apporte aucun sens et génèrent du bruit. Il est donc recommandé de les supprimer de l’URL. Séparez également les mots avec un tiret « - » et non un underscore « _ ».
  4. Favorisez le protocole https au protocole http : Google favorise les URL sécurisées, mais le gain est très faible (voir ci-après).

Utilisation du HTTPS

Depuis quelques années, Google pousse à l’utilisation du protocole sécurisé HTTPS à la place du protocole HTTP, moins sécurisé.

Le poids de ce facteur est toutefois assez faible et sert essentiellement à départager deux sites qui seraient à égalité sur l’ensemble des autres critères.

Longueur de l’URL

Des études menées par des acteurs de l’industrie du SEO ont montré que les URLs longues étaient moins bien classées que les URLs courtes.

L’impact de ce critère a toutefois été démenti (en anglais) par John Mueller en février dernier.

Présence de liens d’affiliation

Si votre site contient un grand nombre de liens d’affiliation, cela envoie un signal négatif à Google.

De l’aveu même de Google, il est peu probable que de tels sites soient bien classés dans les pages de résultats.

Il est également recommandé d’utiliser l’attribut rel = sponsored (voir plus bas) pour de tels liens.

Optimisation de la page et du site pour les supports mobiles

En octobre 2017 Google a déployé l’Index Mobile First (IMF) qui marque un changement dans la façon dont Google explore un site web : avant l’IMF, le site était exploré uniquement dans sa version « bureau », avec l’IMF, Google explore le site uniquement dans sa version « mobile ».

Depuis 2017 et jusque septembre 2020 mars 2021, Google bascule petit à petit sur ce nouvel index l’ensemble des sites qui figure déjà dans ses résultats de recherche.

À partir de septembre 2020 mars 2021, c’est l’index mobile qui sera utilisé par défaut.

En savoir plus sur l’Index Mobile First :

Vidéo Abondance sur l’IMF – sous-titres activables

Présence d’un fil d’Ariane

Comme dans la légende grecque, sur un site web le fil d’Ariane vous aide à retrouver votre chemin dans l’arborescence.

Il est donc très utile aux internautes et est particulièrement apprécié des moteurs de recherche car il permet de catégoriser l’information de la page dans les résultats de recherche.

Site piraté

Si votre site a été piraté, il est possible qu’il soit désindexé de Google le temps que vous corrigiez le problème.

À noter qu’il peut arriver que votre site soit désindexé par erreur. C’est ce qui est arrivé en 2018 au site spécialisé dans les moteurs de recherche Search Engine Land (contenu en anglais) qui s’est vu disparaître de Google pendant une journée, à la suite d’une erreur.

Le poids de la page dans le fichier sitemap.xml

Ce fichier, optionnel si votre arborescence est claire, liste l’ensemble des URLs ainsi qu’un certain nombre d’informations (date de dernière modification, fréquence de mise à jour…). Il facilite ainsi le parcours du site par les moteurs de recherche.

Il est possible de donner à chaque page un poids, afin d’aider les moteurs à comprendre quelle sont les pages les plus importantes du site, surtout si vous avez plusieurs pages sur le même thème.

De l’avis du Googler (salarié de Google) Gary Illyes, cette information n’est pas prise en compte par Google.

Emplacement du serveur

L’emplacement géographique du serveur qui héberge votre site a longtemps été utilisé par Google pour influencer les résultats des recherches locales.

En 2017, Google, via John Mueller, a indiqué que ce critère n’était plus pris en compte. Le moteur se base avant tout sur l’extension utilisée ou sur l’indication de ciblage renseignée dans l’outil Google Search Console.

Présence de contenu supplémentaire utile

En mai 2019, Google publiait une nouvelle version de son guide destiné aux « Quality Raters ».

Parmi les différents critères, on retrouve le recours à des contenus utilitaires (ex : un calculateur, un convertisseur, un simulateur…).

Pour Google, la présence d’un tel outil est un gage de qualité, mais ce n’est pas un critère de classement en tant que tel.

Présence d’interstitiels et de pop-ups

Cela concerne essentiellement la version mobile de votre site.

Si celle-ci présente des interstitiels ou des pop-ups publicitaires, votre site sera pénalisé par Google. A fortiori si la pop-up couvre tout l’écran.

Ne sont pas concernés les pop-ups et interstitiels liés à des obligations légales (gestion des cookies, sites interdits aux mineurs…)

Voici quelques exemples de pratique pénalisées :

Source : Google

Les critères qui font consensus parmi les expert·es

Thématique du domaine

Un lien provenant d’un site de la même thématique, ou d’une thématique proche aura plus de poids qu’un lien provenant d’un site qui n’a aucun rapport.

Par exemple, d’un point de vue strictement SEO, il n’est pas pertinent pour une agence de faire un lien vers son site depuis le site d’un·e client·e.

Échange de liens et guest blogging

Comme son nom l’indique, l’échange de lien consiste à faire en sorte qu’un site A fasse un lien vers votre site web et en retour votre site propose un lien vers le site A.

Il existe quelques règles à respecter pour que cette technique soit efficace:

  • Les deux sites doivent être dans la même thématique ;
  • Le lien doit être fait vers une page à forte popularité ;
  • Les ancres de lien doivent être travaillées ;
  • Le lien devra contenir l’attribut rel=sponsored pour signaler aux moteurs de recherche qu’il s’agit d’un échange, monétaire ou non.

Le guest blogging est une technique qui consiste pour l’éditeur ou éditrice d’un site à inviter des auteurs ou autrices à contribuer sur son blog. Elle permet de bénéficier de contenu gratuit et d’augmenter sa visibilité et sa notoriété.

Voici les règles à suivre pour un guest blogging efficace en termes de SEO, cette technique étant fortement combattue par Google :

  • Les textes ne doivent pas être publiés sur des sites de faible qualité ;
  • Le contenu ne doit pas être sémantiquement trop riches et sur-optimisés ;
  • L’article ne doit pas être rédigé qu’à des fins de SEO. Il doit apporter une réelle valeur ajoutée pour les internautes ;
  • Les liens éventuels doivent comporter l’attribut rel=sponsored ou rel=nofollow (voir ci-après).

Nom de domaine « Exact match »

Les noms de domaine dits « exact match » sont des noms de domaine qui contiennent exactement les expressions tapées par les internautes dans le moteur de recherche.

Exemple : le nom de domaine paysagiste-chamonix.fr vise à positionner le site sur la requête « paysagiste chamonix ».

Cette technique peut, dans certains cas, vous donner un léger avantage. Mais elle peut aussi vous pénaliser. Vous risquez en effet la sur-optimisation de vos pages et il vous sera compliqué de bâtir une stratégie de netlinking (création de liens entrant) efficace.

Durée d’enregistrement d’un nom de domaine

Un brevet déposé par Google en 2005 (dont la version en ligne a été supprimée, pouvant laisser supposer qu’il a été abandonné) stipule que :

Les domaines de valeur (légitimes) sont souvent achetés pour plusieurs années alors que les domaines jetables (illégitimes) sont rarement utilisé pendant plus d’un an. Ainsi, la date à laquelle expire un nom de domaine peu être utilisée comme facteur de prédiction de la légitimité d’un domaine.

Comme nous l’avons vu avec les critères précédents, le nom de domaine et son âge ne sont pas les éléments les plus importants, mais peuvent avoir un impact minime (pour différencier deux sites de qualité égale par exemple).

Il est important de noter que le dépôt d’un brevet n’est pas une preuve de son utilisation par Google.
De plus, un domaine peut être enregistré pendant plusieurs années sans être utilisé, alors qu’un nom de domaine peut être utilisé pour une courte durée par une société ayant pignon sur rue.

Nombre, qualité et âge des domaines référents uniques

Le domaine référent désigne le nom de domaine d’un site qui effectue un lien entrant vers votre site.

Et ce, quel que soit le nombre de liens effectués depuis ce site. En effet, un même site peut faire plusieurs liens vers votre site (par exemple, rien que cet article présente plusieurs liens vers le site Abondance).

Il semble y avoir une corrélation claire entre le nombre de liens entrants, la qualité du domaine référent et son ancienneté et le classement d’un site dans Google. Encore une fois, une corrélation n’est pas une preuve.

La balise title commence par un mot-clef

Ce point est lié au précédent, mais ici le mot-clef cible est placé plus spécifiquement au début.

D’après une étude des expert·es de Moz (contenu en anglais), les sites qui utilisent cette technique tendent à être mieux classés.

L’étude montre également que les utilisateurs ont tendance à uniquement scanner uniquement les deux premiers mots de la balise title.

Il semble y avoir une corrélation entre le fait de placer une occurrence du mot-clef cible dans les 100 premiers mots et un bon classement dans Google.

Toutefois, une corrélation n’est pas une preuve…

L’emplacement de la première occurrence du mot-clef cible

Il semble y avoir une corrélation entre le fait de placer une occurrence du mot-clef cible dans les 100 premiers mots et un bon classement dans Google.

Toutefois, une corrélation n’est pas une preuve…

La présence de mots-clefs d’analyse sémantique latente dans le contenu

(Aussi appelé LSI pour Latent Semantic Indexing en anglais)

Comme nous l’avons vu précédemment, Google est capable de comprendre la thématique d’une page web.

Pour cela, il se base notamment sur l’analyse sémantique latente.

C’est une technologie utilisée par les moteurs de recherche visant à résoudre le problla suivant : les requêtes des internautes ne correspondent pas toujours à la façon dont l’information recherchée a été indexée.

Par exemple, vous souhaitez en savoir plus sur les vers en poésie. Voici un extrait de la page de résultat quand on tape le mot « vers » dans Google (cliquez sur l’image pour la voir en taille réelle) :

Google est complètement perdu sur notre intention de recherche et propose des réponses en lien avec l’animal, la poésie ou avec la préposition.

À l’inverse, imaginons que vous rédigez un contenu qui traite des vers en poésie. Vous allez donc devoir utiliser un vocabulaire en lien avec la poésie afin que Google comprenne de quels types de vers vous parlez.

Pour en savoir plus sur le fonctionnement du LSI, je vous conseille la lecture du site ahrefs (en anglais) qui explique cette technologie de façon claire et pédagogue.

À noter qu’il ne s’agit pas à proprement parler d’un critère de classement, mais plus d’une manière pour Google pour déterminer la thématique de votre page.

L’impact sur le positionnement d’un site qui utilise cette méthode est plus indirect.

La présence de mots-clefs LSI dans le title et la description

Ce point est complémentaire au précédent.

Comme pour la présence de mots-clefs LSI dans le contenu, il s’agit plus ici d’un moyen pour Google de comprendre de quoi parle le contenu qu’un véritable critère de classement.

La présence d’un sommaire

Si vous ouvrez un livre, que voyez-vous dans les premières pages ? Un sommaire.

Le sommaire vous permet d’avoir une vision globale de l’organisation du livre.

Sur le web, c’est la même chose, à la différence qu’il est interactif et permet d’accéder rapidement à une section donnée.

Le sommaire va être utile à la fois pour l’internaute, mais aussi pour Google, car il lui donne une compréhension rapide de la structure de votre page.

Il semblerait aussi que dans certains cas le sommaire permette d’obtenir des liens de site (sitelinks) :

Exemple de liens de site pour le site Patagonia.com

Correspondance avec une « entité »

Google définit une entité comme étant quelque chose :

  • de singulier
  • d’unique
  • de définit
  • qu’on peut distinguer

Cela peut être un objet, mais aussi une idée, un concept, un modèle, un article de blog, une date et bien d’autres choses.

Ce dossier est déjà long je ne vais donc pas rentrer plus dans le détail de ce que sont les entités et comment Google les utilise, pour cela je vous conseille la lecture de ces articles : Entité et Balisage sémantique et What Are Entities & Why They Matter for SEO (plus complet mais en anglais)

Ce sujet est considéré par un grand nombre d’expert·es comme étant un élément clé du futur du SEO et serait un critère utilisé par Google pour déterminer le classement d’un site.

Volume et fréquence des mises à jour de contenu

La date de publication n’est pas le seul critère analysé par Google pour déterminer la fraîcheur d’un contenu.

Le moteur de recherche prend également en compte les mises à jour effectuées sur vos contenus, surtout sur des vieux contenus.

Ainsi, à qualité équivalente, un vieux contenu mis à jour régulièrement pourra être mieux classé qu’un nouveau contenu.

Attention toutefois : changer une phrase ou inverser deux paragraphes n’aura pas un effet très important. En revanche, si vous supprimez et/ou ajoutez des sections entières de contenu, l’impact peut être important.

La fréquence de mise à jour est également pris en compte par Google (positivement ou négativement).

En effet, le moteur va donner moins de poids aux liens qui proviennent d’une page mise à jour quotidiennement (ex : les liens issus de la page d’accueil d’un journal).

Qualité et thématique des liens externes

Les liens externes (aussi appelés liens sortants) sont les liens que vous faites depuis votre site vers d’autres sites.

Les expert·es s’accordent à dire qu’ils sont très importants en SEO a fortiori s’ils renvoient vers des sites de référence.

Ils permettent de montrer que le contenu a été travaillé (ce qui est un signe de qualité), contribuent à la compréhension de la thématique traitée et permettent de relier les sites entre eux.

Pour être vraiment efficaces, ils doivent renvoyer vers des ressources de qualité et de référence en lien avec le thème abordé. Il ne doit pas y en avoir trop, sous peine d’être considéré comme du spam.

Comme le signale la société Yoast dans son article sur le sujet, la présence de lien sortant ne va pas nécessairement améliorer votre SEO, mais le SEO en général :

Outbound links most definitely matter for SEO. Not per se for your SEO, but for SEO in general. Your link helps your neighbor, your supplier, your customer, and of course, your visitor.

Source : Yoast

Qualité des liens internes

Les liens internes sont des liens qui mènent d’une page A à une page B au sein du même site.

Google va traiter ces liens différemment des liens externes, à qui il donne plus d’importance.

Plus une page reçoit de liens internes, plus elle va être considérée comme étant importante. Attention toutefois à ne pas trop en faire !

Cela s’appelle le maillage interne. Pour être efficace, cette technique doit être utilisée avec intelligence et pertinence.

Attention également au texte de l’ancre (qui doit être optimisé), aux liens cassés ou aux éventuelles boucles de redirection.

Respects des règles grammaticales et orthographiques

Un texte présentant peu de fautes de grammaire, de syntaxe ou d’orthographe est un signe de qualité important, mais ne semble pas constituer un critère de positionnement en tant que tel.

L’impact est indirect : un texte pauvrement écrit sera probablement mal structuré, renverra une image négative et ne fidélisera pas les internautes.

Présence de contenus sous différentes formes

Images, infographies, vidéos, fichiers audios… tous ces formats multimédia sont des signes forts de qualité d’un contenu.

Les expert·es semblent être d’accord sur le fait que le recours à ces contenus a un impact sur le classement d’une page.

Utilisation de listes

Qu’il s’agisse de listes à puces ou de listes ordonnées, les listes permettent à l’internaute de scanner rapidement votre contenu et d’en comprendre les éléments importants.

En ce sens, ce n’est pas un critère de positionnement, mais plus un critère de lisibilité du contenu.

Elles peuvent toutefois vous aider à apparaître dans les featured snippet.

Exemples de featured snippet

Arborescence du site

L’arborescence est un élément clé à la fois pour vos internautes et les moteurs de recherche car elle sert un objectif essentiel : faciliter l’accès aux contenus.

Si votre arborescence est correctement structurée, les moteurs vont pouvoir naviguer facilement de page en page et ainsi indexer vos contenus de manière exhaustive.

En outre, une bonne arborescence peut déclencher l’apparition des liens de site (sitelink) :

Exemples de liens de site déclenchés par une aborescence claire

Emplacement de la page dans l’arborescence

Une page proche de la page d’accueil aura un léger avantage par rapport à une page plus « profonde » dans l’arborescence.

En effet, au-delà de 3 ou 4 clics (le plus souvent) depuis la page d’accueil, l’indexation des pages est aléatoire.

Cela concerne essentiellement les sites de plusieurs milliers voire dizaines de milliers de page.

Dans ce cas, le fichier sitemap.xml peut être une solution, mais qui n’est pas idéale car ce listing n’est pas « naturel ».

Une solution alternative, assez peu mise en place, est la création d’une page Plan du site qui reprend, de manière structurée et thématique l’ensemble des pages d’un site (voir l’exemple de CDiscount).

Ce type de page est également utile aux internautes, car elles fournissent un accès rapide à des contenus plus profonds.

Le TrustRank

Le TrustRank est le nom d’un algorithme imaginé en 2004 pour lutter contre le spam.

C’est également le nom donné à l’indice de confiance (de 0 à 10) généré par cet algorithme.

Si Google dispose d’un brevet intitulé « Search result ranking based on trust », l’entreprise n’a jamais officiellement indiqué s’il était utilisé ou non et quelle importance avait la notion de confiance dans le classement d’un site.

En revanche, il semble établi qu’un contenu publié sur un site jugé digne de confiance sera favorisé par rapport à un contenu similaire publié sur un site plus douteux.

Historique de recherche

Vous avez déjà probablement remarqué que pour une même requête, vous n’avez pas la même page de résultat que votre voisin.

C’est normal car Google personnalise ses pages de résultats pour qu’elles répondent à vos besoins.

Pour cela, le moteur de recherche va se baser, entre autres, sur votre historique de recherche, surtout si vous êtes connecté·e à votre compte Google.

(À noter que pour une question évidente de vie privée, vous pouvez désactiver l’analyse de votre historique en vous connectant au site https://myaccount.google.com, rubrique « Commandes relatives à l’activité »).

Présence des pages Conditions générales et Mentions légales

La présence de ces pages n’est pas un critère de classement en soit, il s’agit plus d’un indicateur de la crédibilité et du professionnalisme de votre site.

En outre, cela répond également à une obligation légale.

Les critères qui font débat parmi les expert·es

Présence du mot-clef dans un sous-domaine

D’après certain·es expert·es en SEO (optimisation pour le référencement), la présence d’un mot-clef dans un sous-domaine (ex : arts-graphiques.louvre.fr) a un impact positif sur le référencement.

Cela était vrai à la fin des années 2000, mais ne l’est plus actuellement. Il semble en effet plus difficile de positionner un site et son sous-domaine sur une même requête.

Cette question semble toutefois faire débat parmi les expert·es.

À noter que si l’URL de votre site est de la forme www.nomdedomaine.fr, vous utilisez déjà un sous-domaine !

Présence du mot-clef dans le nom de domaine

Disposer d’un mot-clef dans votre nom de domaine n’a plus autant de valeur qu’autrefois. Il semble qu’il s’agisse plutôt d’un critère de pertinence que de classement.

Cela permet notamment d’éviter de donner trop de poids aux noms de domaines composés uniquement de mots-clefs (ex : audit-de-site-web.fr ou herboristerie-pas-cher.fr)

Liens depuis Wikipédia

Bien que les liens sortants de Wikipédia soient en nofollow, de nombreux expert·es pensent qu’avoir un lien vers son site depuis Wikipédia vous confère plus de confiance et d’autorité.

Ce qui est sûr c’est que ce n’est pas un critère de classement pris en compte par Google.

Au-delà du fait qu’il est très compliqué pour une petite ou moyenne entreprise d’obtenir un lien sur Wikipédia, l’impact réel et direct de cette technique n’a jamais vraiment été prouvé.

Taux de clic dans les pages de résultats

Le taux de clic désigne le ratio nombre de clic / nombre d’impression qu’enregistre un site dans les pages de résultats de recherche.

Il est influencé :

  • par la position du lien dans la page : plus il apparaît haut, plus il a de chance d’être cliqué, les internautes allant rarement au-delà des 5 premiers résultats ;
  • par le contenu des balises title et meta description.

Un taux de clic élevé est le signe d’un contenu qui attire les internautes. Ce n’est toutefois pas nécessairement un gage de qualité, le titre de la page pouvant être attractif (pour ne pas dire racoleur), mais le contenu décevant.

S’il est clair que Google utilise ces données pour améliorer son algorithme, sa prise en compte ou non pour déterminer le classement d’un site n’est pas claire et les informations se contredisent.

Longueur du contenu

La question de la longueur idéale du contenu fait débat depuis des années parmi les expert·es.

La plupart des études semblent montrer que la taille « idéale » pour un contenu textuel est de 1 500 à 3 000 mots.

Cela ne signifie pas qu’un contenu de 300 mots sera mal positionné dans Google. Entre un article de blog et une fiche produit sur un site marchand, le volume ne sera pas le même. Pourtant les deux pourront être bien positionnés dans Google.

Comme le démontre cette vidéo, la qualité est également plus importante que la quantité.

Ce qui compte, c’est d’être le/la meilleur·e. Pas d’être celui ou celle qui écrit le plus.

Vidéo Abondance sur la taille idéale d’un contenu en SEO – sous-titres activables

Trafic du site web

Ce point suscite de nombreuses discussions, mais je n’ai trouvé aucune preuve concrète de l’impact du trafic d’un site sur son positionnement.

À mon sens, il est impossible que ce facteur ait un impact direct, pour deux raisons :

  • Si le trafic sur un site était un critère de classement, il serait impossible pour un nouveau site de se positionner ;
  • Google n’a aucun moyen de connaître le trafic total d’un site. Il peut avoir une idée du trafic issus depuis son moteur, mais selon la stratégie de communication du site, cette part peut être insignifiante.

En revanche, il est fort probable que l’effet soit indirect : plus un site attire de visiteurs et visiteuses, plus grande est sa notoriété. Il aura donc plus de chances de générer des backlinks, et donc de gagner des positions dans les pages de résultat de recherche.

Les critères qui relèvent du mythe

Utilisation de Google Analytics et de la Google Search Console

Il s’agit encore une fois d’un mythe.

L’utilisation de ces deux outils n’a strictement aucun impact sur le classement de votre site dans les pages de résultat de recherche.

(Même si l’utilisation de la Search Console peut aider le moteur de recherche à mieux comprendre comment est structuré votre site.)

La vitesse à laquelle vous obtenez des liens

En anglais, on parle de link velocity.

Ce terme, créée par les expert·es en SEO, désigne la vitesse à laquelle vous obtenez (ou perdez) des liens.

Lors d’un entretien en octobre 2019, le Googler John Mueller a affirmé que ce qui compte ce n’est pas la vitesse à laquelle les liens sont créés, mais le naturel du lien (source : Google’s John Mueller On Link Velocity and Penalties).

Par exemple, Google va donner plus de poids à un lien présent sur un « vrai » site plutôt que sur un blog factice.

La vélocité n’est donc pas un critère de classement.

Liens depuis des domaines dits officiels

Selon une vieille croyance en SEO, les liens issus de sites gouvernementaux ou universitaires ont plus de poids. Cela a pu être vrai au tout début de Google, mais ça ne l’est plus depuis longtemps. Cela a été confirmé par Google à maintes reprises.

Respect des standards HTML

Il s’agit ici d’un des vieux mythes du SEO : une page ne doit comporter aucune erreur HTML pour être bien classée. Google l’a encore rappelé en mars 2020 : cela n’a aucun impact, positif ou négatif.

En revanche, un code qui respecte les standards aura d’autres impacts notamment en matière d’accessibilité et de structuration de l’information.

Comportement des internautes sur la page

Il s’agit ici d’un mythe qui a la vie dure en SEO, bien que régulièrement démonté par Google.

Parmi les comportements qui sont souvent cités comme ayant un impact sur le positionnement de votre site dans Google, on peut citer :

  • Le taux de rebond (le fait de quitter le site après n’avoir consulté qu’une seule page) ;
  • Le pogosticking : le fait de cliquer sur un résultat, puis revenir sur la page de résultat, cliquer sur un autre lien et ainsi de suite jusqu’à trouver le résultat qui nous convient ;
  • Le dwell time : il s’agit du laps de temps entre le moment où un internaute clique sur un résultat et celui où il revient sur la page de résultat de recherche (en d’autres mots : le temps passé sur le site).

Ces indicateurs relèvent plutôt de règles d’ergonomie que d’optimisations SEO et n’ont donc aucun impact sur la position du site dans Google.

Attention : comme l’indique le site Abondance, cela ne signifie pas que ces critères ne sont pas du tout utilisés par Google. Ils le sont par les équipes en charge de l’amélioration de l’algorithme, mais ne le sont pas pour déterminer la position d’un site.

Les critères dont je n’ai pas pu vérifier la fiabilité

La présence d’un moyen de contact

Le fait que votre site propose une page Contact avec vos coordonnées semble être apprécié par Google.

Cela lui permet de géolocaliser votre structure et constitue à ses yeux (et à ceux des internautes !) un indice de crédibilité et de sérieux.

En revanche, il n’est pas clair si ce critère est pris en compte ou non dans le classement du site.

Autorité du domaine

Chaque site et chaque page web se voit attribuer une note par Google, qui détermine son classement dans les résultats de recherche. Cette note (qu’on appelle le Pagerank) détermine l’autorité du site dans sa thématique, et donc le niveau de confiance que lui accorde Google.

Plus un site est considéré comme étant une référence dans son domaine, plus il semble avoir de chance d’être bien positionné dans Google.

Toutefois, cette note étant inconnue du grand public, l’impact réel de ce critère n’est pas prouvé.

Un propriétaire du Whois est pénalisé

Une fois que Google identifie grâce au Whois qu’une personne possède un site considéré comme du spam, elle va être pénalisée. Le moteur de recherche va alors chercher si elle possède d’autres sites web et les surveiller de près.

Ce critère est utilisé pour lutter empêcher les spammeurs de créer de nouveaux sites après avoir été pénalisés.

Taille du contenu dans lequel se trouve le lien

D’après Brian Dean de Backlinko, sans donner de source, un lien provenant d’un article de 1 000 mots a habituellement plus de valeur qu’un lien provenant d’un extrait de 25 mots.

Je n’ai toutefois pas trouvé d’autres sources qui confirme ou infirme cette déclaration.

Cela ne me semble pas illogique, surtout si le lien est contextualisé et que l’ancre est travaillée, mais ces deux derniers facteurs ont probablement beaucoup plus de poids.

Occurrence du mot-clef dans les titres de niveau 2 et 3

Si est avéré que Google et Bing utilisent les titres et les sous-titres pour comprendre la structure d’un contenu, leur impact réel sur le SEO n’est pas clair.

La plupart des expert·es semblent toutefois s’accorder sur le fait qu’il s’agit d’un signal assez faible.

Position du mot-clef dans le nom de domaine

D’après Brian Dean, un domaine qui commence par une occurrence du mot-clef cible a un avantage sur les sites qui n’ont pas le mot-clef dans leur nom de domaine, ou qui l’ont au milieu ou à la fin.

Pour aller plus loin, voici les conseils d’Olivier Andrieu, un des principaux experts français du SEO :

Vidéo Abondance sur le nom de domaine – sous-titres activables

Encore une fois, c’est une histoire de bon sens !

Conclusion

Ce dossier est terminé. Bravo et merci si vous êtes allé jusqu’au bout 🙂

Pour résumer, les principaux critères en 2020 sont :

  • La qualité et la richesse lexicale de votre contenu ;
  • La qualité et la variété des liens entrant ;
  • L’optimisation de votre site pour les supports mobiles ;
  • L’ergonomie générale de votre site.

Enfin, n’oubliez pas que le SEO n’est qu’un moyen parmi d’autres d’acquérir du trafic. Ce n’est pas une fin en soit, et vous devez toujours penser d’abord à vos internautes PUIS aux moteurs de recherche.

Maintenant, dites moi :

Quels sont les critères que vous avez déjà mis en place sur votre site ?
Quels sont ceux que vous allez mettre en place suite à la lecture de cet article ?

Dites-moi tout en commentaire !

PS : si vous ne savez pas quels sont les critères à mettre en place pour optimiser votre site, l’audit de celui-ci va vous aider à les déterminer et surtout à les prioriser. Me contacter pour en savoir plus.

Débutez la conversation

Lancez ou participez à la discussion en laissant un commentaire

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Consulter la politique de confidentialité (ouverture dans un nouvel onglet).

Retour en haut de page