SEO : comment optimiser le passage des crawls de Google sur votre site ?
L’un des facteurs clés du référencement est la capacité des moteurs de recherches à indexer les pages de votre site web et pour se faire, ils doivent pouvoir...
L’un des facteurs clés du référencement est la capacité des moteurs de recherches à indexer les pages de votre site web et pour se faire, ils doivent pouvoir...
Pour augmenter l’expérience utilisateur (UX) de votre site, avez-vous pensé à améliorer vos micro-interactions ? Comment ça, quelles...
Tik Tok est un réseau social qui a su séduire très rapidement les internautes. Il a parvenu à devenir la troisième plateforme la plus utilisée dans le monde,...
La seule chose dont les entreprises d’aujourd’hui peuvent s’appuyer, c’est le changement. Les tendances évoluent de plus en plus rapidement, et il devient plus...
Parmi les pays où le fait de remettre une carte de visite est un vrai cérémonial, la Chine est, avec le Japon, le pays d’Asie où il vaut mieux s’être renseigné...
B2B : le brand content peut-il être un levier marketing important ? On aurait a priori tendance à réserver le brand content aux stratégies marketing...
Fidéliser votre clientèle est une méthode encore plus efficace que de convertir de nouveaux clients. Pour optimiser la gestion d’un programme de fidélité et...
Créer de superbes modèles 3D et ne pas pouvoir les convertir dans le format souhaité, c’est frustrant ! Bien sûr, vous pourriez investir dans des...
Ajouter des médias audios ou vidéos à vos publications sur les réseaux sociaux ? Une stratégie gagnante ! Les publications contenant une vidéo...
Qui d’Adobe XD ou d’UX Sketch est le plus performant ? Le débat subsiste parmi les concepteurs qui ne parviennent pas à tomber d’accord sur la question....
L’un des facteurs clés du référencement est la capacité des moteurs de recherches à indexer les pages de votre site web et pour se faire, ils doivent pouvoir explorer votre...
L’un des facteurs clés du référencement est la capacité des moteurs de recherches à indexer les pages de votre site web et pour se faire, ils doivent pouvoir explorer votre site : c’est le crawl.
Seulement, chaque site internet bénéficie d’un quota de crawl, il faut donc veiller à ce que ce quota soit utilisé le plus efficacement possible.
Vous avez construit un site Web de qualité, créé un contenu merveilleux, utilisé une stratégie SEO de toute beauté et obtenu de précieux backlinks grâce à la bonne entente que vous avez avec les meilleurs blogueurs. Cependant, vous avez toujours du mal à vous classer dans Google. Vous vous demandez peut-être si votre site est correctement exploré ?
Voyons comment rendre votre site plus lisible par les moteurs de recherche.
La crawlabilité c’est la capacité qu’a Google pour explorer le contenu de votre site Web, d’en découvrir tous les liens internes sans rencontrer d’impasse.
Il y a assez peu de chance que tous vos liens mènent à leurs destinations et que votre site soit facilement explorable. Et si le robot a du mal à explorer votre site, vous risquez d’être mal classé.
La facilité d’exploration est influencée par les aspects techniques et structurels de votre site Web.
Google peut interrompre l’exploration s’il découvre des liens brisés, des problèmes techniques ou une présentation inefficace du site.
L’amélioration de la capacité de crawl commence par l’établissement de bons liens internes, la structure du site et l’absence d’erreurs d’exploration.
Différentes erreurs peuvent survenir pendant l’exploration d’un site web, et le responsable est ce que l’on nomme « SEO Technique ». Les erreurs d’exploration apparaissent dans la Search Console de Google. Si vous en trouvez, vous devez les corriger.
Assurez-vous que la navigation et l’architecture de l’information du site sont lisibles par les moteurs de recherche. Cela devrait aller de soi, mais de nombreux sites ne respectent toujours pas les principes de base du référencement : évitez les menus flash et l’utilisation de JavaScript compliqué (ou pas du tout si vous le pouvez) dans la navigation. Évitez également d’utiliser la navigation AJAX. Enfin, si vous utilisez des menus déroulants, veillez à ce qu’ils soient conçus en CSS.
Ne vous tirez pas une balle dans le pied avec une navigation de mauvaise qualité qui ne serait pas lisible par les moteurs de recherche : sans navigation lisible par les moteurs de recherche, vos sous-pages profondes ne seront pas explorées ni indexées et ne recevront donc aucun trafic organique.
Si le robot crawler suit un lien mais ne peut pas accéder à la page pendant l’exploration, il n’aura rien à indexer. Votre serveur peut renvoyer l’une des erreurs HTTP suivantes : 500, 502, 503, 404, etc.
Les liens brisés se produisent lorsqu’on déplace ou renomme des pages. Si vous n’effectuez pas un « recherche et remplace » sur l’ensemble du site, vous risquez de créer involontairement un lien sans issue. Le robot d’exploration ne peut pas accéder aux pages à partir d’un lien brisé. En général, vous verrez apparaître une erreur « 404 – page non trouvée ».
À l’instar d’un lien brisé, la boucle de redirection peut se produire lors du déplacement du contenu ou du renommage d’une URL. Le robot d’exploration ne peut accéder ni à la page A ni à la page B.
Assurez-vous d’avoir un bon plan de site, mis à jour de façon dynamique, et soumettez-le à la fois à Google et à Bing. Incluez un lien vers le sitemap dans votre fichier robots.txt. Cette approche consiste à indiquer aux moteurs de recherche l’architecture de votre site et à montrer aux robots comment accéder aux pages les plus importantes de votre site.
Créez des liens vers les pages les plus importantes à partir de la navigation du site depuis la page d’accueil. Toutes les pages importantes de votre site doivent être accessibles depuis la page d’accueil. Incluez les pages de services ou de produits, le blog et les pages de second niveau de grande importance.
Vous pouvez également créer des liens vers des sous-pages supplémentaires dans le pied de page ou la barre latérale si vous n’êtes pas en mesure de tout condenser dans le menu d’en-tête principal.
Le but est de faire passer le robot par la page d’accueil puis de le faire « descendre » vers les sous-pages les plus importantes de votre site.
Vous devez également relier les pages les plus importantes les unes aux autres, afin répartir le jus de lien entre les pages les plus importantes du site et maintenir une puissance de lien cohérente entre ces pages. Les bonnes opportunités de liens internes sont les suivantes :
Afin d’optimiser le passage des crawls de Google, soumettez-lui des contenus de qualité. Commandez dès maintenant la rédaction de vos contenus web sur Redacteur.com.
Abonnez-vous pour recevoir notre sélection des meilleurs articles directement dans votre boîte mail.
Nous ne partagerons pas votre adresse e-mail.