Web Vitals de base : et ensuite ?

Ophélia Pol Blog
21/03/2022

Les opinions de l’auteur sont entièrement les siennes (à l’exclusion de l’événement improbable de l’hypnose) ...

Les opinions de l’auteur sont entièrement les siennes (à l’exclusion de l’événement improbable de l’hypnose) et peuvent ne pas toujours refléter les opinions de Moz.

Les mises à jour de l’expérience de page promises par Google qui ont provoqué un tel émoi l’année dernière sont loin d’être terminées, alors Tom examine où nous en sommes maintenant et ce qui se passera ensuite pour les tristement célèbres Core Web Vitals de l’algorithme.

tableau blanc avec diagrammes Core Web Vitals

Cliquez sur l’image du tableau blanc ci-dessus pour ouvrir une version haute résolution dans un nouvel onglet !

Transcription vidéo

Joyeux vendredi, fans de Moz, et bienvenue dans un autre vendredi du tableau blanc. La vidéo de cette semaine concerne Core Web Vitals. Avant de tirer immédiatement dessus ou de mettre la vidéo en pause, appuyez sur Retour, quelque chose comme ça, non, nous ne sommes pas coincés dans le temps. Ce n’est pas une vidéo de 2020. C’est tourné vers l’avenir. Je ne vais pas couvrir ce que sont les métriques de base ou comment elles fonctionnent, ce genre de choses dans cette vidéo. Il y a environ un an, il y a un très bon tableau blanc de Cyrus sur toutes ces choses, qui, espérons-le, sera lié ci-dessous. Ce que cette vidéo va examiner, c’est où nous en sommes maintenant et ce qui se passera ensuite, car les mises à jour de l’expérience de la page de Google ne sont pratiquement pas terminées. Ils arrivent toujours. Ceci est toujours en cours. Cela va probablement devenir plus important avec le temps, pas moins, même si le battage médiatique s’est un peu calmé.

Contexte historique

Donc, premièrement, je veux examiner une partie du contexte historique en termes de comment nous sommes arrivés là où nous en sommes. J’ai donc cette chronologie de ce côté du tableau. Vous pouvez voir qu’en mai 2020, il y a près de deux ans maintenant, Google l’a annoncé pour la première fois. C’est vraiment une période extraordinairement longue en termes de référencement et de mise à jour de Google. Mais ils l’ont annoncé, puis nous avons eu ces deux retards et j’ai eu l’impression que cela prenait une éternité. Je pense qu’il y a des implications importantes ici parce que ma théorie est que – j’ai écrit à ce sujet auparavant et encore, j’espère que cela sera également lié ci-dessous – mais ma théorie est que la raison des retards était que trop peu de pages auraient ont reçu un coup de pouce s’ils avaient été déployés au moment prévu, en partie parce que trop peu de sites avaient réellement amélioré leurs performances et en partie parce que Google obtient des données de Chrome, de l’expérience utilisateur Chrome ou des données CrUX. Il s’agit d’utilisateurs réels utilisant Chrome.

Pour beaucoup de pages pendant longtemps, y compris maintenant vraiment, ils n’avaient pas vraiment une taille d’échantillon suffisante pour tirer des conclusions. La couverture n’est pas incroyable. Donc, à cause de cela, au départ, quand ils avaient encore moins de données, ils étaient dans une position encore pire pour déployer quelque chose. Ils ne veulent pas modifier leur algorithme qui récompense un petit nombre de pages de manière disproportionnée, car cela ne ferait que fausser leurs résultats. Cela aggravera leurs résultats pour les utilisateurs, ce qui n’est pas ce qu’ils visent avec leurs propres mesures.

Donc, à cause de ces retards, nous avons été en quelque sorte retenus jusqu’en juin de l’année dernière. Mais ce que je viens d’expliquer, ce système consistant à n’avoir qu’une taille d’échantillon suffisante pour les pages les plus visitées, c’est important pour les webmasters, pas seulement pour Google. Nous y reviendrons plus tard lorsque nous parlerons de ce qui va se passer ensuite, je pense, mais c’est pourquoi chaque fois que nous affichons des données Core Web Vitals dans Moz Pro et chaque fois que nous en parlons publiquement, nous vous encourageons à regarder votre plus haut le trafic ou les pages les plus importantes ou vos pages les mieux classées, ce genre de chose, plutôt que de simplement regarder vos pages les plus lentes ou quelque chose comme ça. Vous devez prioriser et trier. Nous vous encourageons donc à trier par trafic et à regarder cela parallèlement aux performances ou quelque chose comme ça.

Donc de toute façon, en juin 2021, nous avons commencé à avoir ce déploiement, et tout a été déployé en deux ou trois mois. Mais ce n’était pas tout à fait ce à quoi nous nous attendions ou ce à quoi on nous avait dit de nous attendre.

Que s’est-il passé après le déploiement ?

Dans la FAQ initiale et la documentation initiale de Google, ils parlaient des sites qui obtiendraient un coup de pouce s’ils dépassaient un certain seuil pour les trois nouvelles mesures qu’ils introduisaient. Bien qu’ils aient commencé à devenir plus ambigus à ce sujet au fil du temps, ce n’est certainement pas ce qui s’est passé avec le déploiement.

Nous suivons donc cela avec les données MozCast. Ainsi, entre le début et la fin du moment où Google a annoncé qu’il le déployait, nous avons examiné les pages classées dans le top 20 de MozCast qui avaient des passes pour zéro, un, deux ou trois des mesures par rapport aux seuils publiés par Google.

Dessin à la main du classement moyen sur les sites qui sont passés entre 0 et les 3 métriques essentielles du Web.

Maintenant, une chose qui mérite d’être remarquée à propos de ce graphique, avant même de le regarder de plus près, c’est que toutes ces lignes ont tendance à la baisse, et c’est à cause de ce dont je parlais avec l’augmentation de la taille des échantillons, avec Google obtenant des données sur plus de pages heures supplémentaires. Ainsi, au fur et à mesure qu’ils obtenaient plus de pages, ils ont commencé à incorporer plus de pages à faible trafic ou, en d’autres termes, de pages de faible classement dans les données CrUX, ce qui signifiait que le classement moyen d’une page contenant des données CrUX diminuerait, car lorsque nous avons commencé à regarder ceci, même s’il s’agit du top 20 des classements pour les mots-clés compétitifs, seulement 30% d’entre eux environ avaient même des données CrUX en premier lieu lorsque nous avons examiné cela pour la première fois. Il a beaucoup augmenté depuis. Il inclut donc désormais davantage de pages de classement inférieur. C’est pourquoi il y a ce genre de mouvement général vers le bas.

Donc, la chose à remarquer ici, ce sont les pages dépassant les trois seuils, ce sont celles qui, selon Google, allaient obtenir un gros coup de pouce, et celles-ci ont diminué de 0,2, ce qui est à peu près la même chose que les pages qui dépassaient un ou deux seuils. Je vais donc prendre des risques et dire que c’était juste l’ajustement général causé par l’incorporation de plus de pages dans les données CrUX.

La chose vraiment notable était les pages qui passaient à zéro. Les pages qui ont dépassé les seuils zéro, elles ont baissé de 1,1. Ils ont perdu 1,1 position. Donc, au lieu de passer les trois et d’obtenir un coup de pouce, c’est plutôt passer zéro et obtenir une pénalité. Ou vous pouvez reformuler cela positivement et dire exactement la même chose, comme en passer un et obtenir un coup de pouce par rapport à ceux qui tombent de la falaise et chutent d’une position dans le classement.

Il y a donc eu un gros impact semble-t-il du déploiement, mais pas forcément celui qu’on nous avait dit d’attendre, ce qui est intéressant. Je suppose que c’est parce que Google était peut-être plus confiant quant aux données sur les sites qui fonctionnaient très mal qu’aux données sur les sites qui fonctionnaient très bien.

Que se passe-t-il ensuite ?

Déploiement de bureau

Maintenant, en ce qui concerne ce qui se passera ensuite, je pense que c’est pertinent car en février et mars, probablement pendant que vous regardez cette vidéo, Google a annoncé qu’il allait déployer cette même mise à jour de l’expérience de la page d’attente sur le bureau. Nous supposons donc que cela fonctionnera de la même manière. Donc, ce que vous avez vu ici sur un smartphone uniquement, cela sera reproduit sur le bureau au début de cette année. Vous verrez donc probablement quelque chose de très similaire avec des sites très peu performants. Si vous regardez déjà cette vidéo, vous avez probablement peu ou pas de temps pour régler ce problème ou ils verront une baisse de classement, ce qui pourrait être une bonne nouvelle si c’est peut-être l’un de vos concurrents.

Mais je ne pense pas que ça va s’arrêter là. Il y a deux autres choses auxquelles je m’attends.

Impact accru

Vous vous souviendrez donc peut-être qu’avec les mises à jour HTTPS et en particulier avec Mobilegeddon, nous nous attendions à ce très grand changement sismique. Mais ce qui s’est réellement passé, c’est que lorsque la mise à jour a été déployée, elle était très atténuée. Pas beaucoup de décalage notable. Mais ensuite, au fil du temps, Google a en quelque sorte remonté la mèche. De nos jours, nous nous attendrions tous à ce qu’un site très peu adapté aux mobiles fonctionne très mal dans la recherche, même si l’impact initial de cette mise à jour de l’algorithme était très mineur. Je pense que quelque chose de similaire va se passer ici. Les sites les plus lents ressentiront progressivement une pénalité de plus en plus importante. Je ne veux pas dire comme une pénalité manuelle, mais un désavantage plus important qui s’accumule progressivement au fil du temps, jusqu’à ce que dans quelques années, nous comprenions tous intuitivement qu’un site qui ne dépasse pas trois seuils ou quelque chose va fonctionner horriblement.

Nouvelles métriques

Le dernier changement que je m’attends à voir, auquel Google a fait allusion initialement, est de nouvelles mesures. Ils ont donc initialement dit qu’ils mettraient probablement à jour cela chaque année. Vous pouvez déjà voir sur web.dev que Google parle de quelques nouvelles mesures. Ce sont la douceur et la réactivité. La fluidité est donc liée au type d’images par seconde d’animations sur la page. Ainsi, lorsque vous faites défiler la page de haut en bas, s’agit-il plutôt d’un diaporama ou d’une sorte de vidéo fluide ? Ensuite, la réactivité est la rapidité avec laquelle la page interagit ou répond à vos interactions. Nous avons donc déjà l’une des métriques actuelles est le premier délai d’entrée, mais, comme son nom l’indique, ce n’est que la première entrée. Je m’attends donc à ce que cela se soucie davantage des choses qui se produisent plus loin dans votre expérience de navigation sur cette page.

Ce sont donc des choses auxquelles je pense que vous devez penser pour aller de l’avant jusqu’en 2022 et au-delà pour Core Web Vitals. Je pense que la principale leçon à retenir est que vous ne voulez pas trop vous concentrer sur les trois métriques que nous avons maintenant, parce que si vous quittez simplement votre page qui a actuellement une expérience utilisateur terrible mais en quelque sorte se fraye un chemin à travers ces trois métriques, cela ne fera que vous punir à long terme. Ce sera comme les constructeurs de liens de la vieille école qui sont constamment pénalisés alors qu’ils trouvent leur chemin dans chaque nouvelle mise à jour plutôt que de trouver une technique plus durable. Je pense que tu dois faire pareil. Vous devez viser une expérience utilisateur vraiment bonne ou cela ne fonctionnera pas pour vous.

Quoi qu’il en soit, c’est tout pour aujourd’hui. J’espère que le reste de votre vendredi est agréable. À la prochaine.

Transcription vidéo par Speechpad.com

Source

close

Téléchargez notre guide gratuit : De 0 à 1000 visiteurs par jour en 3 étapes seulement !

Vous voulez en savoir plus sur le SEO ?

Recevez gratuitement nos actus hebdomadaires sur le référencement naturel.

Ophélia Pol

Passionnée depuis des années par le SEO et le marketing de contenu en général, je partage sur ce blog mes réflexions sur le référencement naturel et les derniers articles et actus du marketing digital.

Vous pourriez aussi aimer

Bénéficiez de -20% dès aujourd'hui avec le code : G2HQ7ESCJe découvre