Google peut réduire la fréquence d’exploration des pages Web à mesure qu’il devient plus conscient de la durabilité de l’exploration et de l’indexation.

Ce sujet est abordé par l’équipe Search Relations de Google, composée de John Mueller, Martin Splitt et Gary Illyes.

Ensemble, dans le dernier épisode du podcast Search Off the Record, ils discutent de ce à quoi s’attendre de Google en 2022 et au-delà.

Parmi les sujets qu’ils abordent figurent l’exploration et l’indexation, que les professionnels du référencement et les propriétaires de sites Web disent avoir moins vus au cours de l’année écoulée.

Cela va être un objectif clé pour Google cette année car il vise à rendre l’exploration plus durable en préservant les ressources informatiques.

Publicité

Voici ce que cela signifiera pour votre site Web et ses performances dans les résultats de recherche.

Durabilité de l’exploration et de l’indexation

Étant donné que l’exploration et l’indexation de Googlebot se font virtuellement, ce n’est pas quelque chose que vous pourriez penser avoir un impact sur l’environnement.

Illyes attire l’attention sur ce problème lorsqu’il dit que l’informatique n’est pas durable en général :

« … ce que je veux dire, c’est que l’informatique, en général, n’est pas vraiment durable. Et si vous pensez à Bitcoin, par exemple, l’exploitation minière de Bitcoin a un impact réel sur l’environnement que vous pouvez réellement mesurer, surtout si l’électricité provient de centrales au charbon ou d’autres centrales moins durables.

Nous sommes sans carbone, puisque je ne sais même pas, 2007 ou quelque chose comme ça, 2009, mais cela ne veut pas dire que nous ne pouvons pas réduire encore plus notre empreinte sur l’environnement. Et ramper est l’une de ces choses qui, au début, nous pouvions couper des fruits à portée de main.

Les fruits à portée de main, dans ce cas, font référence à une exploration Web inutile. Comme l’exploration de pages Web qui n’ont pas eu de mises à jour récentes.

Comment Google rendra-t-il le crawl plus durable ?

Illyes poursuit en expliquant que l’exploration du Web peut être rendue plus durable en réduisant rafraîchir rampe.

Il existe deux types d’exploration Googlebot : l’exploration pour découvrir de nouveaux contenus et l’exploration pour actualiser le contenu existant.

Google envisage de réduire l’exploration pour actualiser le contenu.

Illyes continue :

« … une chose que nous faisons, et nous n’avons peut-être pas besoin de faire autant, est l’actualisation des analyses. Ce qui signifie qu’une fois que nous avons découvert un document, une URL, nous y allons, nous l’explorons, puis, éventuellement, nous allons revenir en arrière et revoir cette URL. C’est une analyse de rafraîchissement.

Et puis, chaque fois que nous revenons à cette URL, ce sera toujours une analyse de rafraîchissement. Maintenant, à quelle fréquence devons-nous revenir à cette URL ? »

Il poursuit en donnant un exemple de certains sites Web qui justifient un nombre important d’analyses d’actualisation pour certaines parties du site mais pas pour d’autres.

Un site Web comme le Wall Street Journal met constamment à jour sa page d’accueil avec de nouveaux contenus, il mérite donc beaucoup de rafraîchissements.

Cependant, WSJ ne met probablement pas à jour sa page À propos aussi fréquemment, de sorte que Google n’a pas besoin de continuer à effectuer des analyses d’actualisation sur ces types de pages.

« Donc, vous n’avez pas besoin d’y retourner tant que ça. Et souvent, nous ne pouvons pas bien estimer cela, et nous avons certainement une marge d’amélioration sur les rafraîchissements. Parce que parfois, il semble tout simplement inutile que nous frappions la même URL encore et encore.

Parfois, nous atteignons 404 pages, par exemple, sans raison valable ou sans raison apparente. Et toutes ces choses sont essentiellement des choses que nous pourrions améliorer et ensuite réduire encore plus notre empreinte. »

Si Google devait réduire les explorations d’actualisation, ce qui n’est pas confirmé à 100 %, voici l’impact que cela pourrait avoir sur votre site Web.

Que signifie une réduction du taux de crawl pour votre site Web ?

Il existe une croyance selon laquelle un taux d’exploration élevé est un signal SEO positif, même si vous ne mettez pas à jour votre contenu aussi souvent que Google l’explore.

C’est une idée fausse, dit Illyes, car le contenu ne sera pas nécessairement mieux classé car il sera davantage exploré.

Muller :

« Donc, je suppose que c’est aussi une sorte d’idée fausse que les gens ont en ce sens qu’ils pensent que si une page est davantage explorée, elle sera mieux classée. Est-ce exact que c’est une idée fausse, ou est-ce vraiment vrai ? »

Illyes :

« C’est une idée fausse. »

Muller :

« OK, donc pas besoin d’essayer de forcer quelque chose à être réexploré s’il ne change pas réellement. Ça ne va pas mieux se classer.

Encore une fois, il n’est pas confirmé que Google réduira les explorations d’actualisation, mais c’est une idée que l’équipe envisage activement.

Si Google donne suite à cette idée, ce ne sera pas une mauvaise chose pour votre site Web. Plus de crawling ne signifie pas de meilleurs classements.

De plus, l’idée est d’apprendre quelles pages avoir besoin actualiser les explorations et quelles pages ne le font pas. Cela signifie que les pages que vous modifiez le plus souvent continueront d’être actualisées et mises à jour dans les résultats de recherche.

Pour plus de détails sur la façon dont Google prévoit de réaliser cela, écoutez la discussion complète dans le podcast ci-dessous (à partir de 2:40):


Image en vedette : Alena Veasey/Shutterstock

!function(f,b,e,v,n,t,s) {if(f.fbq)return;n=f.fbq=function(){n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments)}; if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version='2.0'; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)}(window,document,'script', 'https://connect.facebook.net/en_US/fbevents.js');

if( typeof sopp !== "undefined" && sopp === 'yes' ){ fbq('dataProcessingOptions', ['LDU'], 1, 1000); }else{ fbq('dataProcessingOptions', []); }

fbq('init', '1321385257908563');

fbq('track', 'PageView');

fbq('trackSingle', '1321385257908563', 'ViewContent', { content_name: 'google-crawl-rate', content_category: 'news seo ' });


Rate this post
Publicité
Article précédentHuit Altcoins à petite capitalisation bénéficient d’un support de garde de la part de Coinbase, le meilleur échange de crypto américain
Article suivantActiver ou désactiver le menu contextuel du clic droit dans Internet Explorer
Avatar De Violette Laurent
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici