Licence Contenu sous licence Creative Commons : attribution - pas d’utilisation commerciale - partage dans les mêmes conditions

SEO : les changements que nous réserve Google en 2021.

Chaque année, Google effectue plus de 3 000 changements dans ses algorithmes. Si la plupart sont mineurs, d’autres sont plus importants et nécessitent de préparer son site en amont de leur application, sous peine de le voir pénalisé.

C’est ce qu’il va se passer en 2021 avec l’avènement de l’utilisation de l’intelligence artificielle par Google, aboutissant à l’apparition d’une nouvelle fonctionnalité et la prise en compte de nouveaux critères de classement.

Cette année, le moteur de recherche met notamment l’accent sur la convivialité. Pas celle de ses pages de résultats, mais celle de vos pages web. En effet, à partir de mai 2021, le moteur de recherche va intégrer la prise en compte de signaux de convivialité comme critères de classement. Il va aussi déployer une nouvelle fonctionnalité annoncée fin 2020 : l’indexation de passages de contenus.

Dans cet article, je vous explique en détail ces changements : leur objectif, le poids qu’ils vont avoir et comment préparer votre site web.

Sommaire

Les signaux web essentiels : la petite (r)évolution

Ce n’est pas un secret, depuis plusieurs années, Google prend en compte des indices liés à l’expérience utilisateur dans ses critères de classement. On peut citer :

En 2021, le moteur de recherche va plus loin. Annoncés en mai 2020, les signaux web essentiels (aussi appelés core web vitals en anglais) vont devenir un critère officiel de classement à partir de mai 2021.

Mise à jour du 04/05/2021 : fin avril dernier, Google a annoncé décaler à mi-juin la prise en compte de ces signaux.
Mise à jour du 19/09/2021 : la mise a jour de l’algorithme intégrant ces informations est terminée depuis fin août. C’est donc officiellement devenu un critère de classement.

L’objectif ? S’assurer que les internautes bénéficient de l’expérience la plus utile et la plus agréable possible sur le web. Officiellement, Google cherche donc à œuvrer pour la qualité web. Officieusement : en favorisant les contenus de qualité, Google s’assure que les internautes continuent à utiliser son moteur de recherche.

Que sont les signaux web essentiels ?

Au nombre de 3, ces critères sont malheureusement un peu techniques. Je vais donc essayer de les expliquer de la manière la plus accessible possible.

À noter qu’il n’existe pas – à ma connaissance – de traduction en français des noms des critères. C’est pourquoi je garde le nom anglais. Il n’est toutefois pas indispensable de le retenir, l’important est de comprendre en quoi il consiste et l’impact qu’il peut avoir sur votre site.

L’indice « Largest Contentful Paint (LCP) » : la performance du chargement

Il s’agit du délai entre le moment où l’internaute clique sur un lien et l’affichage dans le navigateur du plus grand élément visible de la page. Cela peut être une image ou une vidéo, ou un bloc de contenu complexe.

Cette donnée se concentre sur ce qui compte vraiment pour l’internaute : la possibilité de voir le contenu et d’interagir avec votre site.

Selon les objectifs fixés par Google, le temps de chargement idéal est inférieur à 2,5 secondes. Entre 2,5 et 4 secondes, votre site devra être amélioré, alors qu’au-delà de 4 secondes, votre indice LCP est considéré comme étant mauvais.

Par exemple, au moment de la rédaction de cet article, l’indice LPC de ma page d’accueil est de 0,7 secondes (visuel de droite) sur ordinateur et de 2,5 secondes sur mobile (visuel de gauche) :

La différence peut s’expliquer par le fait que les navigateurs mobiles sont moins puissants, que la connexion est plus lente ou encore que des scripts spécifiques s’applique aux versions mobiles de mon site.

Votre indice LCP est notamment affecté par :

  • le temps de réponse de votre serveur web (d’où l’importance d’avoir un bon hébergement),
  • le temps de chargement des différentes ressources (images, fichiers externes, polices…),
  • le temps nécessaire au navigateur pour effectuer le rendu.

L’indice « First Input Delay (FID) » : le temps de réaction

Je préfère vous prévenir tout de suite, ce n’est pas la notation la plus simple à comprendre, car elle peut être assez abstraite.

Si l’indice LCP permettait de déterminer la performance du chargement de votre page, le FID intervient à tout moment : que la page soit chargée complètement ou non. Google va ici chercher à savoir si l’internaute peut interagir avec votre page et ce qu’il se passe quand c’est le cas.

Le moteur de recherche ne va pas chercher à analyser au bout de combien de temps l’internaute interagit avec votre site. Cela n’aurait aucun sens. Il va plutôt étudier le temps de réaction de votre site à une interaction de l’internaute (clic sur un lien ou un bouton par exemple). Ce qu’on appelle aussi le temps de latence.

Attention, le scroll (défilement) dans la page ou le zoom sur mobile ne sont pas pris en compte.

À noter que, contrairement aux autres critères de cet article, l’indice FID mesure une interaction humaine. Il n’est donc pas automatisable. Comment est-il calculé alors ?

Sachez que Google récolte ses données de deux façons :

  • de manière automatique, grâce à ses innombrables robots qui parcourent le web en permanence,
  • de manière « manuelle », en analysant l’historique de navigation des internautes utilisant le navigateur Google Chrome et n’ayant pas interdit la collecte des données de navigation. C’est ce qu’il appelle le Chrome User Experience Report (contenu en anglais).

L’indice FID fait partie de ce second type de données. Pour le connaître, il faut donc que votre site soit suffisamment populaire, notamment parmi les utilisateurs et utilisatrices de Google Chrome… (ce qui n’est pas le cas de mon site, par exemple).

Sans compter que toutes les pages ne donnent pas forcément lieu à une interaction.

Si c’est le cas, Google recommande que le délai de latence soit inférieur à 100 ms (millisecondes). Entre 100 et 300 ms, votre site devra être amélioré et au-dessus de 300 ms, votre indice FID est très mauvais.

Si votre site est essentiellement éditorial, vous n’avez pas trop à vous en soucier. Par contre, sur un site e-commerce ou un site qui nécessite une connexion (par exemple), c’est un critère important.

Prenons l’exemple de cette page de connexion :

Source : YouNeedABudget (lien de parrainage)

Pour une telle page, le temps de chargement du contenu n’est pas le plus important. Ce qui l’est plus, c’est le temps de réaction après avoir cliqué sur Login. Imaginez que l’internaute doive attendre plusieurs secondes avant qu’il ne se passe quelque chose ? Il y a de grandes chances qu’il ou elle aille voir ailleurs, pensant que le site ne fonctionne pas.

Votre indice LCP peut être pénalisé par :

  • une mauvaise utilisation du cache de votre navigateur,
  • le recours à des scripts hébergés sur un serveur tiers,
  • une mauvaise optimisation du code, et notamment du code JavaScript (utilisé notamment pour animer un site web).

Le score « Cumulative Layout Shift (CLS) » : la stabilité visuelle

Le score CLS mesure la somme totale des décalages de la mise en page pendant le chargement de la page.

Vous savez, quand vous lisez un contenu et soudainement la mise en page change, sans que nous n’ayez rien demandé. Bien souvent, cela arrive quand une publicité vient interrompre votre lecture.

Regardez cet exemple de la page d’accueil du site lemonde.fr :

Source : Dareboost

Si vous avez une bonne connexion, les changements sont assez rapides et discrets, mais pas suffisamment pour être invisibles, entraînant – à minima – une gêne visuelle. Cela peut être plus pénalisant dans le cas d’un formulaire, où l’emplacement des boutons bouge de manière impromptue, ou quand l’internaute cherche à naviguer sur le site.

Dans l’exemple ci-dessous, l’encart promotionnel vient décaler le contenu vers le bas au moment où l’internaute cherche à cliquer sur un élément, l’obligeant ainsi à cliquer sur un lien qui n’est pas le bon :

Source : Dareboost

Votre score CLS sera d’autant plus important que les décalages concernent de grandes zones et que la distance du décalage est importante.

À noter que le calcul de ce score exclut les décalages qui succèdent directement à une interaction de l’utilisateur car ils sont considérés comme volontaires et souhaitables.

Par exemple, dans cette FAQ, les contenus sont initialement masqués et apparaissent au clic, créant ainsi des décalages dans la mise en page. Cela est toutefois attendu, et ne pose donc pas de problème.

Source : Atelier Naudier

D’après les objectifs de Google, l’indice CLS doit être compris entre 0 et 0,1 (il n’y a pas d’unité).

En quoi est-ce important ?

Vous vous demandez probablement pourquoi je vous embête avec ces termes barbares.

À partir de mai mi-juin 2021, Google va prendre en compte ces scores comme critères pour déterminer le classement des sites dans ses pages de résultats.

Cela signifie que la note que vous obtiendrez à ces 3 indicateurs va influer sur la position de votre site dans Google sur une requête donnée.

Leur importance est toutefois à relativiser. D’une part, parce que Google utilise plusieurs centaines de critères pour déterminer le classement d’une page. D’autre part, comme expliqué dans la documentation officielle :

Bien que la convivialité d’une page soit un critère essentiel, Google classe toujours les pages en fonction de la pertinence globale des informations qu’elles fournissent, même si leur convivialité laisse à désirer.

En effet, une page ne peut pas être conviviale si son contenu est hors de propos. Toutefois, lorsque plusieurs pages proposent un contenu similaire, leur convivialité peut avoir un impact beaucoup plus important sur leur visibilité dans la recherche Google.

Il s’agira donc, dans un premier temps d’un simple critère de différenciation entre deux pages de pertinence égale. Comme il en existe tant d’autre. À ce sujet, l’employé de Google John Mueller a déclaré le 29 janvier 2021 qu’il faudrait que les 3 critères soient au vert pour qu’une page soit favorisée. Cela ne devrait donc ne concerner que peu de site web (du moins au début).

En outre, Google explique aussi que :

[…] nous prévoyons d’intégrer davantage de signaux liés à la convivialité des pages et de les mettre à jour chaque année.

Source : Documentation officielle de Google

Il est donc probable que les critères liés à l’expérience utilisateur prennent de plus en plus de poids au fil des ans. Autant donc préparer votre site le plus rapidement possible !

Comment préparer son site ?

La première étape consiste à analyser les performances de son site vis à vis de ces critères.

Pour cela, il existe différents outils, plus ou moins complexe à utiliser :

Google Search Console

Cet outil de Google permet aux webmasters de disposer gratuitement d’un grand nombre d’informations sur la façon dont Google perçoit leur site web (pages indexées, liens entrants, état de santé…).

Si votre site est relié à cet outil, vous pouvez consulter les rapports Signaux web essentiels et Expérience sur la page.

Les avantages :

  • ce sont les données de Google, elles sont donc, a priori, fiables,
  • la présentation permet de voir en un coup d’œil les éventuels problèmes.

Les inconvénients :

  • nécessite que cet outil soit lié à votre site,
  • n’explique pas comment résoudre les problèmes rencontrés,
  • les données sont basées sur le Rapport d’expérience utilisateur Chrome dont nous avons parlé précédemment. Votre site doit donc avoir un certain volume de trafic issu du navigateur Chrome pour que Google ait suffisamment de données,
  • l’outil peut afficher des erreurs qu’il a remarquées à un instant T, mais qui ne semblent plus être présentes quelques jours plus tard.

Google Page Speed Insight.

Cet outil permet de faire gratuitement une analyse automatisée de n’importe quelle URL, que ce soit votre site ou celui d’un de vos concurrents. Parmi les nombreuses informations présentes, figurent les données liées aux signaux web essentiels.

Exemple avec ma page d’accueil :

Les avantages :

  • ce sont les données de Google, elles sont donc, a priori, fiables,
  • donne des indications en français pour vous aider à résoudre les problèmes identifiés.
  • les données sont fiables

Les inconvénients :

  • si cet outil vous permet d’avoir une idée des performances de l’URL analysée au regard des core web vitals, la bonne compréhension des recommandations nécessite des compétences techniques.

GTmetrix

Depuis de nombreuses années, GTmetrix est le site de référence pour tester les performances d’un site web. Avec l’arrivée des Core Web Vitals, ils ont refondu leur référentiel pour les intégrer et vous permettre d’identifier en un coup d’œil vos éventuels axes d’amélioration.

Exemple avec ce site :

Les avantages :

  • L’interface est lisible
  • Un effort est fait sur la pédagogie et l’outil vous explique en détail comment résoudre vos éventuels problèmes

Les inconvénients :

  • Le site n’est pas traduit en français

Me confier l’audit de votre site

L’analyse des signaux web essentiels fait partie des nombreux critères (+ de 100) que j’étudie lorsque je réalise l’audit de votre site web.

Le bonus : mes recommandations sont personnalisées et adaptées à votre site web. En outre, je peux vous guider dans la mise en place de ces dernières.

Quelle que soit la solution utilisée, l’amélioration de vos performances pour ces indicateurs nécessite de solides connaissances techniques. Compte tenu de leur faible poids actuel dans les critères de positionnement de Google, il peut être utile de grouper ces interventions avec d’autres interventions plus importantes, afin d’optimiser vos dépenses. L’audit peut vous y aider.

Google Passage : la future révolution

Lors de son événement Search On 2020 (vidéo en anglais, sous-titrée en français) en Octobre dernier, Google a dévoilé certaines avancées importantes dans l’utilisation de l’intelligence artificielle par le moteur de recherche.

Parmi ces annonces, on peut retenir :

  • un nouvel algorithme de compréhension et de correction des requêtes mal orthographiées,
  • la continuité du déploiement de l’algorithme qui vise à mieux comprendre le contexte, notamment en cas d’utilisation de mots polysémiques (BERT, de son petit nom),
  • une technologie qui reconnaît une chanson rien qu’avec une mélodie,
  • la possibilité pour Google de trouver une aiguille dans une botte de foin.

C’est cette dernière annonce qui nous intéresse aujourd’hui.

Le postulat de départ de Google est le suivant : lorsqu’une requête est particulièrement précise, il peut être difficile de trouver la réponse la plus adaptée car elle peut être noyée parmi d’autres informations, au sein de la même page.

Grâce à une avancée technologique, le moteur de recherche est désormais capable d’indexer des passages spécifiques d’une page, en plus de la page entière. Ainsi, il est désormais capable de comprendre le contexte spécifique d’un passage et non plus uniquement de la page dans sa globalité. Donc de trouver une aiguille dans une botte de foin, c’est-à-dire une information pertinente pour une requête spécifique dans une page qui ne traite pas nécessairement de ce sujet.

C’est ce que Google appelle le « Passage indexing », ou « indexation de passage » en français.

Prenons un exemple :
Vous avez une page qui présente différents types de bières. Google va comprendre que la page, dans sa globalité, parle de bières, mais que telle section parle de Pils, telle autre de NEIPA et telle autre de Russian Imperial Stout.

À noter que l’usage du terme indexing est trompeur car il laisse supposer que le moteur de recherche n’indexe que certains passages d’une page. Ce qui n’est pas le cas.

En réalité, les changements vont se situer dans la page de résultat de Google. Celle-ci va désormais faire apparaître des résultats issus de cet algorithme. Pour éviter toute erreur d’interprétation, il est tout simplement appelé Passage.

Initialement prévu pour fin 2020, son déploiement a pris du retard. Au moment de la rédaction de cet article, aucune date n’a été communiquée par Google. D’ailleurs, le moteur de recherche prévoit un déploiement par étape, afin de laisser du temps à la machine d’apprendre et de s’améliorer.

Quel est l’impact de Passage sur votre site ?

Dans les faits, il semblerait que ce soit surtout un changement interne à Google, qui ne devrait pas nécessiter que vous fassiez évoluer votre site web.

Toutefois, pour faciliter le passage des robots, il devient plus que jamais nécessaire de bien structurer son contenu en utilisant des titres, des sous-titres, des paragraphes, des listes…

En outre, cela risque d’augmenter la concurrence dans les pages de résultats. Surtout pour les requêtes très précises. D’ailleurs, dans sa communication officielle, Google indique que l’objectif est d’aider les sites mal classés à être mieux positionnés.

Dans une interview accordée au site spécialisé Search Engine Journal (contenu en anglais), l’employé de Google Martin Splitt a annoncé que l’algorithme était essentiellement destiné aux contenus les plus longs et

[…] permet juste aux pages qui ne sont pas bien classées et n’ont pas un bon contenu structuré de potentiellement se positionner sur des requêtes.

Cela semble assez contradictoire avec les engagements envers la qualité web mentionné précédemment. Il y a donc fort à parier que cela évolue avec le temps.

Chaque année, Google a de plus en plus recours à l’intelligence artificielle pour améliorer ses pages de résultats. L’objectif est d’être toujours plus fin dans la pertinence des réponses, surtout pour des requêtes complexes. Tout en valorisant les sites de bonne qualité.

Comme nous l’avons vu, 2021 ne fera pas exception. Si certains changements ne nécessitent aucune action de votre part, d’autres – comme les signaux web essentiels (ou core web vitals) – demandent une préparation en amont plus ou moins importante selon votre site.

Comment allez-vous préparer votre site à tous ces changements ?

À lire ensuite :

Retour en haut de page