Analyse du comportement de GoogleBot suite à une optimisation de crawl
Lors de sa phase de crawl, le robot Googlebot doit prendre en compte de nombreuses données et...
Lire la suiteLors de sa phase de crawl, le robot Googlebot doit prendre en compte de nombreuses données et...
Lire la suiteQuand on parle de référencement naturel, on aborde de très nombreux sujets : optimisation du code,...
Lire la suiteLe concept du PageRank de Google est, depuis le départ, fortement induit par celui du "surfeur aléatoire", cliquant sur des liens ou se trouvant téléporté sur une autre page du Web. Au fil des ans, ce surfeur est devenu...
Lire la suiteL’outil d’audit SEO français OnCrawl vient récemment de sortir une nouvelle version proposant de nouvelles fonctionnalités. Une bonne occasion donc pour jeter un regard sur les principales possibilités de cet outil, allant du...
Lire la suiteRM Tech est un outil d’audit SEO de la plateforme My Ranking Metrics ayant pour vocation d'optimiser le référencement naturel de son site (ou de ceux de ses clients). Le crawl et les algorithmes utilisés (combinés à Analytics et...
Lire la suiteCréé en 2012, Botify est un outil en mode SAAS qui a pour vocation d’accompagner au quotidien les SEO managers dans leurs chantiers d’analyse et d’optimisation. Botify permet d’analyser un site web, d’identifier des possibilités...
Lire la suiteGoogle utilise des robots pour explorer un site web de la façon la plus efficace possible. Mais il limite ses ressources de façon différente pour chaque site web. Il est donc important d'affiner ce travail, en montrant à...
Lire la suitePar défaut, les outils de WebAnalytics permettent d’analyser en temps réel et sur le long terme le trafic des visiteurs sur un site web : on y analyse par exemple le canal d’acquisition, leur comportement ou encore les URL...
Lire la suiteDe plus en plus de sites web sont réalisés en utilisant des technologies comme Javascript ou l'Ajax. Pour les explorer, les moteurs de recherche doivent s'adapter quotidiennement à cette nouvelle donne. Mais arrivent-ils...
Lire la suiteDe plus en plus de sites web sont réalisés en utilisant des technologies comme Javascript ou l'Ajax. Pour les explorer, les moteurs de recherche doivent s'adapter quotidiennement à cette nouvelle donne. Mais arrivent-ils...
Lire la suiteOn connait tous les robots Googlebot et Bingbot, utilisés par leur moteur de recherche respectif pour explorer des milliards de sites web chaque jour. Mais il existe également des outils qui simulent ces robots et vous donnent...
Lire la suiteOn connait tous les robots Googlebot et Bingbot, utilisés leur moteur de recherche respectif pour explorer des milliards de sites web chaque jour. Mais il existe également des outils qui simulent ces robots et vous donnent de...
Lire la suiteA l'occasion du SEO Campus, nous avons rencontré Eric Leandri, Directeur général de Qwant. Un an et quelques semaines aprè sson lancement, il était intéressant de faire un point sur ce moteur de recherche et ses nombreux...
Lire la suiteDe nombreux sites web proposent des contenus paginés, notamment pour des raisons de taille de listes ou de performances. Mais les moteurs de recherche peuvent plus ou moins bien prendre en compte ces contenus, aussi faut-il...
Lire la suiteLe fichier robots.txt est un grand classique du Web et du SEO. Pourtant, êtes-vous sûr de l'utiliser à bon escient et de bien comprendre son fonctionnement ? Nous avons présenté le mois dernier un état de l'art de la meilleure...
Lire la suiteLe fichier robots.txt est un grand classique du Web et du SEO. Pourtant, êtes-vous sûr de l'utiliser à bon escient et de bien comprendre son fonctionnement ? En effet, une utilisation erronée de ce fichier peut amener des soucis...
Lire la suiteDepuis que les moteurs de recherche existent, le référencement existe. Mais les moteurs ont grandement évolué depuis près de 20 ans. D'un système "simple" d'indexation de mots clés isolés, ils sont passés à la détection de...
Lire la suiteDepuis que les moteurs de recherche existent, le référencement existe. Mais les moteurs ont grandement évolué depuis près de 20 ans. D'un système "simple" d'indexation de mots clés isolés, ils sont passés à la détection de...
Lire la suiteL'optimisation d'un site web pour les moteurs de recherche se doit de prendre en considération un bon nombre de critères importants. Cependant, parmi ceux-ci, il est crucial que les moteurs puissent explorer avec la plus grande...
Lire la suite