Le monde du référencement aime à discuter sans fin de PageRank, de TrustRank, de Latent Semantic Indexing (LSI), et autres Sandbox... L'étude de ces algorithmes est en effet passionnante pour qui s'intéresse à la recherche d'information.

Mais là où elle devient contre-productive, c'est quand on oublie que ces algorithmes visent avant tout à évaluer la pertinence de contenus destinés aux utilisateurs, en s'inspirant de la façon dont des humains évalueraient eux-même ces ressources. Spéculer sur les subtilités des algorithmes en négligeant les règles élémentaires de production de contenus web de qualité revient donc à regarder le doigt qui pointe la Lune, au lieu de la Lune elle-même !

En fait, si l'on regarde de plus près les éléments techniques qui comptent pour le référencement, on s'aperçoit qu'il n'y a rien de fondamentalement nouveau depuis plusieurs années : La première version de HTML comportait dès 1992 toutes les balises sémantiques que l'on connaît, et qui sont si importantes pour les moteurs. Le PageRank a été décrit pour la première fois par Sergey Brin and Lawrence Page en 1998. Et les WCAG en 1999 donnaient déjà toutes les pistes pour créer des contenus à la fois bien structurés, correctement écrits et accessibles aux moteurs, même si ce n'étaient pas leur objectif principal.

Il y a des changements bien sûr, et les algorithmes des moteurs sont en perpétuelle évolution. Mais les étudier et les exploiter n'a de sens que si les règles de bases sont respectées. Je dirais même qu'un site accessible, bien écrit, avec un contenu d'une qualité telle qu'il génère naturellement des liens n'aura probablement jamais à ce soucier de tous ces algorithmes, ni des caprices de ces derniers... Et si c'était ça la technologie ultime : BonSens® ?