Duplicate content et Spamindex
Comme je l’ai déjà expliqué, je ne crois pas qu’un jour un moteur arrive à dissuader le spamindex, tout simplement parce que toute technique de dissuasion peut être utilisé contre l’intérêt global du système.
Car même si les nouveaux algorithmes permettent indéniablement de limiter les techniques abusives, elles ne pourront jamais les éviter.
En effet, du fait qu’il existe des nombreux « webmasters » dont ce n’est pas leur métier, Google ne peut pas se permettre de blacklister ces sites non professionnels, parce qu’ils ont un une redirection javascript ou un peu de contenu dupliqué.
Le contenu dupliqué est par exemple tellement vite arrivé, comme la liste Webrankinfo le rappelle (Liste d’erreurs classiques de duplicate content).
Mais surtout si le moindre Duplicate Content risquait de nous faire Blacklister, il existerait une sauvage piraterie, des blacks hats qui s’amuseraient à faire blacklister, tout est n’importe quoi, déjà BVWG, nous explique quelques techniques utilisables à cet effet (Eliminer vos concurrents).
Google le justicier est là pour équilibrer les choses, mais ne fera pas de miracle.