Résumé de l'article :
Il est souvent intéressant de se mettre à la place d'un moteur de recherche pour mieux comprendre ses contraintes et pouvoir adapter ses méthodes de travail afin d'obtenir une optimisation de son site qui corresponde aux recommandations de ces outils. Antoine Mussard, de la société VRDCI, explore dans cet article les différentes formes de spamdexing (fraude aux moteurs) utilisées à l'heure actuelle par certains webmasters, avec un focus sur le cloaking, et explique comment les moteurs les combattent et pourquoi il peut être très dangereux de cotoyer ces rivages peu hospitaliers...
Début de l'article :
Une attitude intéressante à avoir, lorsqu'on désire améliorer son propre référencement, est parfois de se mettre à la place des moteurs de recherche afin de comprendre leur fonctionnement, ce qui permet de plus facilement s'adapter à leurs contraintes. Cela est certainement tout à fait vrai en ce qui concerne la détection du spam (ou spamdexing : fraude sur l'index des moteurs).
En effet, les moteurs de recherche font actuellement face à des centaines de milliers de webmasters de par le monde qui optimisent, voire sur-optimisent leurs pages de façon plus ou moins « border-line ». Sachant qu'en fait toute optimisation peut être assimilable à du spam, selon le degré d'optimisation mis en place au regard des règles internes de chaque moteur, parfois bien difficiles à appréhender, il faut bien le dire...
Quelques pistes de réflexion
Voici donc quelques pistes que les moteurs de recherche pourraient explorer, ou explorent déjà, afin de détecter les sites sur-optimisés et d'améliorer la qualité de leurs données. Il est important de noter que, bien entendu, tous les moteurs font face sans exceptions à ce "fléau" du spamdexing.
Fichier PDF téléchargeable ici (la lettre Réacteur n'était à cette époque-là disponible que sous cette forme).