Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à Référencement Design et Cie 2.0

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

28/04/2006

Accessibilité et référencement sur le Journal du Net

Le Journal du Net publiait aujourd'hui un article sur l'accessibilité et le référencement. Il est heureux qu'un média d'envergure tel que le JDN aborde le sujet, en particulier en l'abordant sous l'angle du référencement. L'accessibilité est en effet souvent perçue comme une contrainte et non un bénéfice : elle n'est pas sexy.

Cependant, à la différence de l'article, je ne pense pas que "l'objectif de l'accessibilité pour le référenceur soit donc de limiter au maximum tous les obstacles pouvant bloquer l’indexation par les moteurs" : limiter les obstacles techniques à l'indexation est seulement le préalable. Le travail du référenceur va plus loin, en rejoignant celui de l'ergonome et du concepteur-rédacteur : au delà de l'accessibilité technique, il faut en effet prendre en compte l'accessibilité "cognitive" et la lisibilité des contenus, en s'efforçant de proposer des contenus clairs, compréhensibles par tous (point 14.1 de WCAG).

25/04/2006

Comprendre le "crawl caching proxy" de Google

Pour ceux que l'anglais rebute, une petite explication du "proxy de mise en cache du crawl" (crawl caching proxy) évoqué par Matt Cutts sur son blog :

Les serveur proxy sont fréquemment utilisés par les FAI et les réseaux d'entreprise pour réduire leur bande passante. Concrètement, un serveur proxy agit comme un cache mutualisé : quand un utilisateur se rend sur une page web, celle-ci est mise en cache dans le proxy. Les autres utilisateurs souhaitant acceder à cette page se verront servir non pas la page originale, mais celle enregistrée dans le cache. La bande passante est ainsi économisée, puisque le nombre d'accès à la page originale est réduit.

Ce que Google a fait, c'est appliquer ce système de cache à l'indexation : au lieu d'indexer une page de multiples fois via ses différents robots (Googlebot, Mediapartners, Newsearch, Blogsearch etc...), Google a mis en place un proxy utilisé par ceux-ci. Une page indexée une première fois par l'un des robots et mise dans le cache pourra donc être y récupérée par les autres robots, réduisant le nombre d'accès à la page originale.

Ce qu'il faut comprendre, c'est que le fait de participer à Adsense ou d'être indexé dans Google News n'influe en rien sur l'indexation dans les pages de résultats web du moteur. Le système ne fait que mettre en cache les pages pour les servir aux robots qui en font la demande. Ainsi, une page indexée par Mediapartners (le robot Adsense) ne se retrouvera dans l'index web que si Googlebot demande cette page et y accède.

24/04/2006

Matt Cutts à propos de la Googlebar

La prise en compte des données collectées par la barre d'outils Google dans l'algorithme du moteur est une question qui fait débat sur le forums consacrés au référencement. Interrogé par Lee Odden à propos de l'utilisation de ces données, Matt Cutts répond :

"Quand quelqu'un me pose la question de l'utilisation de tel ou tel signal dans l'algorithme, la réponse la plus correcte à la question est en général de dire qu'il est sage de ne pas rejeter catégoriquement un signal.

Prenons un exemple, bien qu'issu d'un contexte différent : les balises meta ont acquis une mauvaise réputation auprès des moteurs il y a quelques années, à cause des abus de certains. En conséquence, ces balises ne sont pratiquement plus prises en compte dans notre algorithme. Mais je m'abstiens cependant de dire que nous ne les utiliserons jamais, parce qu'il n'est pas intelligent de rejetter ce qui peut constituer un signal. Dans le futur, quelqu'un pourrait très bien trouver un moyen d'exploiter ce signal.

Je ne vais donc pas dire que Google n'utilise pas, ou n'utilisera jamais les données de la barre d'outils, ou tout autre signal (...)

Concernant les objections à l'usage des données issues de la barre d'outils, la principale serait que des webmasters pourraient les manipuler afin de faire croire qu'un site web est plus visité qu'il ne l'est en réalité. Par exemple, aux Search Engine Strategies de New-York, j'avais évoqué le fait qu'Alexa fournissait une fonctionnalité de "liens similaires", et que ce système avaient été spammé par des sites de poker, des sites d'emploi, etc (...)

Je ne dirai donc pas Google utilise tel ou tel signal. Je voulais juste évoquer les problèmes potentiels liés à l'utilisation de ces données."

Moralité : il est peu productif de spéculer sur l'utilisation de ces données. Si elles sont ignorées, s'en soucier n'aura servi à rien. Et si elles sont prises en compte, le temps passé à s'en soucier aura été mieux employé à développer son contenu pour les utilisateurs, dont une partie utilise la Googlebar...

19/04/2006

Mediapartners utilisé pour l'indexation ?

A en croire Matt Cutts qui s'est exprimé à ce sujet au Pubcon de Boston, Mediapartners, le robot d'indexation utilisé normalement pour cibler les liens sponsorisés du programme Google Adsense serait aussi utilisé par Google pour enrichir son index web. Le système permettrait ainsi d'économiser de la bande passante, et faciliterait la détection des sites faisant du cloaking.

13/04/2006

L'utilisateur et les moteurs : nouvelles statistiques

Une étude (pdf) menée par Iprospect en janvier 2006 nous éclaire un peu plus sur le comportement des utilisateurs face aux moteurs de recherche :

La première page de résultats comptabiliserait ainsi 62% des clics et les trois premières pages 90%, ce qui confirme (on s'en doutait) l'importance d'être positionné le plus haut possible dans les pages de résultats. Cette tendance semble d'ailleurs se renforcer avec les années.

En cas d'echec dans leur recherche, 41% des utilisateurs ont déclaré modifier leur requête ou changer de moteur s'ils ne trouvaient pas de résultats satisfaisants en première page. Ce chiffre monte à 88% si l'on considère les trois premières pages de résultats. Les utilisateurs semblent fidèles (ou paresseux), car 82% déclarent changer de mots-clés plutôt que d'essayer un autre moteur.

10/04/2006

Les moteurs aiment l'accessibilité !

A lire sur Pompage.net, une traduction d'un article de Andy Hagans, contributeur au magazine A List Apart : "Vous aimez l’accessibilité ? Les moteurs de recherche aussi !".

J'avais déjà abordé cette question début 2005, mais une piqûre de rappel ne saurait faire de mal. Cet article rejoint également mon billet précédent : les standards et l'accessibilité bénéficient à tous les agents utilisateurs, y compris les moteurs de recherche !

1/04/2006

Surveiller ses liens entrants

Il est parfois nécessaire de surveiller la qualité des liens pointants sur son site : dans ce monde sans pitié qu'est le référencement, les webmasters ont fréquemment recours à des artifices pour s'accaparer toujours plus de PageRank. C'est dans cette optique que Deepindex et Webmaster-Hub ont développé la technologie Backlink Crawler, permettant de contrôler ces liens. Performant, l'outil permet même de classer les liens de façon thématique.

Edit : il s'agissait bien évidement d'un canular, 1er avril oblige ;)

Google se lance dans l'imagerie médicale

Des sources bien informées font état d'un lancement imminent de Google dans l'imagerie médicale. Des prototypes de machines de type IRM seraient déjà operationnels.

Adam Kipper, initiateur du projet en interne, explique : "Les réseaux que forment les neurones ou les systèmes vasculaires ont une structure très proche de celle des réseaux de liens que l'on observe sur le web. Nous sommes persuadés que nos algorithmes -comme le PageRank- mais aussi nos autres algorithmes moins connus dédiés à l'analyse des liens peuvent peuvent participer aux progrès de la recherche et de la médecine".

Larry Page ajoute : "Nous étudions la possibilité de faire bénéficier les hopitaux des pays émergents de machines Google dans le cadre de notre fondation google.org".

Etant donnée la quantité énorme de données à traiter pour ces examens, les machines feraient appel à la puissance de calcul des datacenters Google, en faisant transiter les données par fibre optique (la fameuse "dark fiber").

Cette annonce fait suite à la nomination le mois dernier de Adam Bosworth au titre de "Google Health Architect".

A quand un équivalent de Google Earth dédié à l'exploration du corps humain ?

Edit : Il s'agissait bien sur d'un poisson d'avril, comme le nom de "kipper" (hareng en anglais) le suggérait ;)