Aujourd’hui, on aimerait vous parler d’un outil parmi les outils pour les web masters pour améliorer l’optimisation SEO de votre site vraiment très facile à lire, et pourtant souvent sous-estimé par les SEOs et les web masters en général.

On parle de l’outil de statistiques de crawl, dont le but est de vous fournir des données sur la façon dont un site Web est crawlé par Googlebot. Vous y trouverez des informations sur ce qu’est l’exploration des pages Web et sur la manière d’interpréter les graphiques que Google nous fournit dans son outil.

Qu’est-ce que le balayage de pages Web ?

Chaque document web est « lu » par les robots des moteurs de recherche, qui parcourent périodiquement votre site en long et en large. Le contenu numérisé est ensuite absorbé dans les index de Google. Lorsque ce processus est accompli, on a l’indexation d’un document Web.

La fréquence de balayage dépend de trois facteurs, qui sont :

Un journal en ligne, c’est-à-dire un site qui, par nature, est souvent mis à jour, aura tendance à avoir un balayage très fréquent de ses articles, mais s’il n’est pas très populaire et visité, ce balayage ne sera pas aussi rapide que pour le site de la Repubblica, dont la page d’accueil est réabsorbée environ toutes les 3 / 4 heures dans les index de Google. Vous pouvez le vérifier en utilisant l’opérateur de recherche « cache : ».

Dans le même temps, le site d’Apple, qui n’est pas mis à jour aussi souvent que celui d’un journal en ligne, présente toujours des temps de lecture très rapides en raison de son énorme popularité.

Dans ce raisonnement, entre en jeu le serveur qui héberge le site web, dont les ressources doivent être suffisantes pour garantir un balayage naturel du site. Grâce aux statistiques de balayage de l’outil, vous pouvez facilement voir comment un changement de serveur peut affecter les mécanismes de balayage d’un site web. Voyons en détail.

Lecture de l’outil

Le premier des trois graphiques montre le nombre de pages scannées quotidiennement, le second indique de manière numérique les kilo-octets téléchargés, tandis que le troisième concerne le serveur et est lié au temps que met le robot à télécharger une page web.

Le graphique qui vient d’être présenté indique clairement une relation inversement proportionnelle entre le nombre de kilo-octets/pages analysés et le temps nécessaire au robot pour télécharger une page web.

Plus précisément, le site en question a été transféré d’un serveur partagé à un VPS sur Flamenetworks. Toutefois, il ne s’agit pas d’un article promotionnel, car en réalité, ce n’est pas l’hébergeur qui fait la différence, mais le service d’hébergement choisi. Il s’agit essentiellement de comprendre quels sont les besoins en termes de ressources pour un projet web et de les obtenir, quel est le mainteneur qui offre de tels services.

Conclusions

Plus le temps d’ouverture des pages est rapide et plus l’architecture du site verticalise les liens internes vers le contenu de l’entreprise, plus le processus d’exploration sera fréquent et, par conséquent, plus Google sera susceptible d’attribuer une valeur aux pages Web les plus pertinentes du site.

Il va sans dire que pour l’optimisation SEO, la vitesse seule ne suffit pas, car les facteurs liés à la popularité et à la signification sont de plus en plus développés et lourds, mais dans une vision holistique, le référencement doit prendre en compte la qualité du contenu ainsi que la vitesse du serveur.