Google Chrome, le navigateur développé par Google, est donc sur le point d'être rendu public. Les fonctionnalités d'un navigateur concernent à priori l'expérience utilisateur, et le lien avec le référencement n'est pas évident à première vue. Néanmoins il me semble que certaines technologies développées pour Chrome pourraient éventuellement être utilisée par le moteur pour améliorer la pertinence de ses pages de résultats. Je dis bien "éventuellement" : les idées que j'émets ici ne sont que pure spéculation. Je m'explique :

Les tests de navigation ont utilisé l'infrastructure informatique Google, et on porté sur sur des dizaines de milliers de pages : nous savons donc désormais que Google est capable de simuler à grande échelle l'utilisation d'un navigateur ordinaire par des utilisateurs humains.

Les tests de rendu ont été effectués non pas à l'aide de captures d'écrans, mais grâce à une analyse de l'apparence des pages : Google serait donc capable de "voir" comme un utilisateur, ce qui lui permettrait de distinguer les zones de contenu des zones à faible rapport signal / bruit comme les pieds de page, et de débusquer les contenus cachés.

Une machine virtuelle javascript à haute performance a été développée : Google est donc potentiellement capable d'interpréter javascript plus efficacement et en toute sécurité. Cela pourrait améliorer sa capacité à détecter les javascripts employés à des fins de spam (redirections sournoises, cloaking javascript etc.) ainsi que sa capacité à indexer des sites utilisant des navigations reposant sur javascript.

On peut cependant penser que si ces technologies sont bien mises en oeuvre au niveau moteur, elles ne le seront pas systématiquement, mais seulement sur un petit nombre de sites (à l'échelle du web) préalablement selectionnés soit parce qu'ils sont essentiels à l'index, soit au contraire parce qu'ils sont suspects.

Qu'en pensez-vous ?