Cinq spécialistes du marketing de recherche ont contribué à la mise à jour de base de Google de décembre 2020. Les observations offrent un retour intéressant sur ce qui a pu arriver.
À mon avis, Mises à jour de Google ont été de moins en moins sur facteurs de classement et plus sur l’amélioration de la compréhension des requêtes et des pages Web.
Certains ont émis l’opinion que Google randomise les résultats de recherche afin de tromper ceux qui essaient de faire de l’ingénierie inverse de l’algorithme de Google.
Je ne partage pas cette opinion.
Certaines fonctionnalités de l’algorithme sont difficiles à détecter dans les résultats de recherche. Il n’est pas facile de pointer sur un résultat de recherche et de dire qu’il est classé en raison du Algorithme BERT ou Neural Matching.
Mais ça est facile à pointer vers les backlinks, MANGER ou expérience utilisateur comme raisons pour expliquer pourquoi un site se classe ou ne se classe pas si c’est ce qui ressort, même si la raison réelle pourrait être plus liée à BERT.
Ainsi, les pages de résultats du moteur de recherche (SERPs) peut sembler déroutant et aléatoire pour ceux qui examinent les SERPs à la recherche de facteurs de classement traditionnels de la vieille école pour expliquer pourquoi les pages sont classées ou pourquoi elles ont perdu leur classement dans une mise à jour.
Publicité
Continuer la lecture ci-dessous
Bien sûr, les mises à jour de Google peuvent sembler impénétrables. Les raisons pour lesquelles le classement des pages Web a considérablement changé au cours des dernières années en raison de technologies telles que le traitement du langage naturel.
Et si les mises à jour de Google et personne ne voit ce qui a changé?
Il est arrivé dans le passé que Google a changé quelque chose et la communauté SEO ne l’a pas remarqué.
Par exemple, lorsque Google a ajouté un algorithme comme BERT, beaucoup n’ont pas pu détecter ce qui avait changé.
Et si Google ajoutait quelque chose comme l’algorithme SMITH? Comment la communauté SEO pourrait-elle détecter cela?
SMITH est décrit dans un Document de recherche Google publié en avril 2020 et révisé en octobre 2020. SMITH facilite la compréhension d’une longue page de contenu, surpassant le BERT.
Voici ce qu’il dit:
«Ces dernières années, des modèles basés sur l’auto-attention comme Transformers et BERT ont réalisé des performances de pointe dans la tâche de correspondance de texte.
Ces modèles, cependant, sont encore limités à un texte court comme quelques phrases ou un paragraphe en raison de la complexité quadratique de calcul de l’attention personnelle par rapport à la longueur du texte d’entrée.
Dans cet article, nous abordons le problème en proposant l’encodeur SMITH (Siamese Multi-depth Transformer-based Hierarchical) pour la mise en correspondance de documents longs.
Nos résultats expérimentaux sur plusieurs ensembles de données de référence pour la correspondance de documents de longue durée montrent que notre modèle SMITH proposé surpasse les modèles de pointe précédents, y compris l’attention hiérarchique, le réseau neuronal récurrent hiérarchique basé sur l’attention multi-profondeur et le BERT.
Par rapport aux lignes de base basées sur BERT, notre modèle est capable d’augmenter la longueur maximale du texte d’entrée de 512 à 2048. »
Publicité
Continuer la lecture ci-dessous
Je ne dis pas que Google a introduit l’algorithme SMITH (PDF) ou qu’il est lié au Algorithme de passages.
Ce que je souligne, c’est que la mise à jour de base de décembre 2020 contient la qualité des changements apparemment non observables.
Si Google ajoutait une nouvelle fonctionnalité basée sur l’IA ou mettait à jour une fonctionnalité existante telle que BERT, la communauté du marketing de recherche serait-elle en mesure de la détecter? Probablement pas.
Et c’est cette qualité des changements non observables qui peut indiquer que ce qui a changé peut avoir quelque chose à voir avec la façon dont Google comprend les requêtes et les pages Web.
Si tel est le cas, cela peut signifier qu’au lieu de faire tourner les roues sur les facteurs de classement habituels qui sont facilement observables (liens des sites de grattoir, vitesse du site, etc.), il peut être utile de prendre du recul et de considérer que cela peut être quelque chose de plus profond que les facteurs de classement habituels qui ont changé.
Aperçu de la mise à jour principale de Google de décembre 2020
Je remercie ceux qui ont eu le temps de donner leur avis, ils ont fourni d’excellentes informations qui peuvent vous aider à mettre le mois de décembre de Google Mise à jour de l’algorithme de base en perspective.
Dave Davies (@oohloo)
Marketing Internet Beanstalk
Dave place cette mise à jour dans le contexte de ce que Google a dit bientôt à l’algorithme et comment cela pourrait jouer un rôle dans les fluctuations.
Dave a offert:
«La mise à jour de base de décembre 2020 était unique à surveiller. De nombreux sites avec lesquels nous travaillons ont commencé par des pertes et se sont terminés par des victoires, et vice-versa.
Il est donc clair que cela avait quelque chose à voir avec un signal ou des signaux en cascade. Autrement dit, là où le changement a causé un résultat, mais une fois que ce nouveau calcul a fait son chemin dans le système, il en a produit un autre. Comme le recalcul du PageRank, bien que celui-ci n’ait probablement rien à voir avec le PageRank.
Alternativement, Google a peut-être effectué des ajustements à la volée ou apporté d’autres modifications pendant le déploiement, mais je trouve cela moins probable.
Si nous pensons au moment choisi et à son lien avec le déploiement de l’indexation des passages et qu’il s’agit d’une mise à jour de base, je soupçonne que cela est lié aux systèmes d’interprétation de contenu et non aux liens ou aux signaux le long de ces lignes.
Nous savons également que Core Web Vitals entrera dans l’algorithme en mai 2021, il peut donc y avoir des éléments pour le soutenir dans la mise à jour, mais ceux-ci ne produiraient pas l’impact que nous voyons tous actuellement, étant donné que Web Vitals devrait techniquement être inerte. comme signal à ce stade donc à tout le moins, il y aurait plus à mettre à jour que cela.
En ce qui concerne la réaction générale de la communauté, celle-ci a été difficile à évaluer au-delà de «c’était grand». Comme on peut s’y attendre dans tout scénario à somme nulle, lorsqu’une personne se plaint d’une perte, une autre sourit tout le long des SERPs.
Je soupçonne qu’avant la fin du mois de janvier, il deviendra clair exactement ce qu’ils étaient en train de déployer et pourquoi. Je pense que cela a à voir avec les fonctionnalités et capacités futures, mais je suis là depuis assez longtemps pour savoir que je peux me tromper, et je dois surveiller de près. »
Publicité
Continuer la lecture ci-dessous
Steven Kang (@SEOSignalsLab)
Steven Kang, fondateur du populaire groupe Facebook SEO Signals Lab, note que rien ne semble se démarquer en termes de points communs ou de symptômes entre les gagnants et les perdants.
«Celui-ci semble compliqué. Je trouve des gains et des pertes. J’aurais besoin d’attendre plus pour celui-ci.
Daniel K Cheung (@danielkcheung)
Chef d’équipe, Prosperity Media
Daniel pense qu’il est utile de prendre du recul et d’afficher les mises à jour de Google à partir d’une vue d’ensemble de la forêt plutôt que de l’arborescence de la dernière mise à jour, et de replacer ces mises à jour dans le contexte de ce que nous savons qui se passe dans la recherche.
Un exemple est la baisse apparente des rapports d’actions manuelles Google Search Console. Cela signifie-t-il que Google est meilleur pour classer les sites auxquels ils appartiennent, sans avoir à recourir à des actions manuelles punitives?
Voici comment Daniel voit la dernière mise à jour de l’algorithme de base de Google:
«Je pense que nous, en tant que personnes chargées de la recherche et de la découverte, devons cesser de penser aux mises à jour de base comme des événements individuels et plutôt considérer les mises à jour de base comme un continuum de tests en cours et d ‘« améliorations »de ce que nous voyons dans les SERPs.
Ainsi, lorsque je parle de la mise à jour principale de décembre, je tiens à souligner qu’il ne s’agit que d’un événement parmi tant d’autres.
Par exemple, certains spécialistes du marketing affilié et analystes ont trouvé que des sites qui étaient auparavant « touchés » par la mise à jour de mai 2020 s’étaient rétablis lors du déploiement de décembre. Cependant, cela n’a pas été cohérent.
Et encore une fois, voici le problème, nous ne pouvons pas parler de sites qui ont gagné ou perdu car il s’agit d’URL individuelles.
Donc, regarder la visibilité pure sur un site Web entier ne nous donne pas vraiment d’indices.
Il y a des murmures de redirections 301, des PBN, des backlinks de mauvaise qualité et un contenu médiocre qui expliquent pourquoi certains sites ont été poussés de la page 1 à la page 6-10 des SERPs (pratiquement invisibles).
Mais ces pratiques ont toujours été sensibles aux fluctuations quotidiennes de l’algorithme.
Ce qui a été vraiment intéressant tout au long de 2020, c’est qu’il y a eu très peu de rapports de sanctions manuelles au sein du GSC.
Cela a été étrangement remplacé par des graphiques d’impression et de clic sautant d’une falaise sans que le site ne soit désindexé.
À mon humble avis, les mises à jour de base visent de moins en moins à cibler une sélection spécifique de pratiques, mais plutôt à offrir une opportunité supplémentaire pour l’algorithme de mûrir.
Maintenant, je ne dis pas que Google réussit 100% du temps – l’algorithme ne le fait clairement pas et je ne pense pas qu’il le fera jamais (en raison de la curiosité de l’humanité). «
Publicité
Continuer la lecture ci-dessous
Cristoph Cemper (@cempre)
PDG LinkResearchOutils
Cristoph Cemper considère que la dernière mise à jour a un impact sur un large éventail de facteurs.
Voici ce qu’il a partagé:
«De haut niveau, Google ajuste les éléments qui ont un impact mondial dans les mises à jour principales.
C’est:
a) Rapports de poids pour différents types de liaisons et leurs signaux
Je pense que le déploiement de NoFollow 2.0 à partir de septembre 2019 n’est pas terminé, mais a été modifié. Ie combien de puissance pour quel NoFollow dans quel contexte.
b) Des boîtes de réponse, beaucoup plus. Google accroît ses propres biens immobiliers
c) Dévaluation massive des réseaux de liaison PBN et empreintes tout à fait évidentes de «renforcement des liens de proximité».
Le simple fait que quelqu’un ait envoyé un e-mail de sensibilisation ne rend pas un lien payant plus naturel, même s’il a été payé avec du «contenu» ou un «échange de services».
Michael Martinez (@seo_theory)
Fondateur de SEOTheory
Michael Martinez a offert ces idées:
«D’après ce que j’ai vu dans les discussions en ligne, les gens sont confus et frustrés. Ils ne savent pas vraiment ce qui s’est passé et peu semblent avoir des théories sur les raisons pour lesquelles les choses ont changé.
Dans un sens général, j’ai l’impression que Google a réécrit un certain nombre de ses algorithmes d’application de la politique de qualité.
Rien de précis en tête, mais les sites d’autres personnes que j’ai consultés m’ont semblé correct, pas génial. Certains des sites de notre portefeuille ont augmenté, d’autres ont baissé.
Encore une fois, cela m’a simplement frappé comme étant une application ou une interprétation algorithmique des signaux mappés à leurs lignes directrices.
Pas pour punir quoi que ce soit, mais peut-être pour essayer différentes approches pour résoudre les requêtes. «
Publicité
Continuer la lecture ci-dessous
Que s’est-il passé dans la mise à jour principale de Google de décembre 2020?
Les perspectives sur ce qui s’est passé dans la mise à jour de l’algorithme de base de Google varient. Ce que la plupart des observateurs semblent d’accord, c’est qu’aucun facteur ou changement évident ne semble ressortir.
Et c’est une observation intéressante car cela pourrait signifier que quelque chose lié à l’IA ou Traitement du langage naturel a été raffiné ou introduit. Mais ce n’est que de la spéculation jusqu’à ce que Google l’exclue explicitement.