Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à Référencement Design et Cie 2.0

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

20/01/2011

Le web bien avant le web : le Memex

Travaillant à actualiser mes cours de référencement, je ne résiste pas à l'envie de partager avec vous quelques passages-clés de l'article visionnaire de Vannevar Bush intitulé "As we may think" (comme nous pourrions penser). Vannevar y décrit ce que sera le web. C'était en... 1945. Soit 18 ans avant la création du terme "hypertexte" par Ted Nelson, et 45 ans avant l'avènement du premier serveur web.

"Imaginons un appareil de l’avenir à usage individuel, une sorte de classeur et de bibliothèque personnels et mécaniques (...) Un memex, c’est un appareil dans lequel une personne stocke tous ses livres, ses archives et sa correspondance, et qui est mécanisé de façon à permettre la consultation à une vitesse énorme et avec une grande souplesse. Il s’agit d’un supplément agrandi et intime de sa mémoire (...)"

"Une étape s’avère indispensable au classement par association, dont le principe reposerait sur un système permettant à tout article d’en sélectionner immédiatement et automatiquement un autre. C’est ce processus reliant deux articles l’un à l’autre qui caractérise le memex (...) Ainsi, à tout moment, quand l’un de ces documents est visible, l’autre peut être rappelé instantanément."

"Des formes entièrement nouvelles d’encyclopédies vont apparaître, prêtes à l’emploi avec un réseau de pistes fonctionnant par association les traversant, prêtes à être insérées et amplifiées dans le memex (...)"

"Le memex sous la forme d'un bureau serait capable de mettre à portée de main de l'operateur les fichiers et documents relatifs à n'importe quel sujet".

(Traduction partielle plus complète ici)

Ces technologies que Google indexe un peu mieux mais qui ne changent pas grand-chose...

Régulièrement, des déclarations effectuées par Google ou d'autres moteurs (si si, il en existe d'autres) laissent à penser que des technologies auparavant bloquantes pour les robots d'indexation deviennent tout à coup accessibles. Bien entendu, ces annonces font beaucoup de bruit et peuvent laisser penser aux concepteurs de sites que les vieilles limitations sont abolies. Le fait est que jusque ici, aucune révolution, ni même un changement sensible n'ont pu être observés dans les pages de résultats. Tout au plus peut-on noter quelques cas isolés, mais rien qui ne remette en cause les bonnes pratiques traditionnelles d'accessibilité.

Flash

La première annonce d'une meilleure prise en charge de Flash, en partenariat avec Adobe, date de juin 2008. Selon Google, "les designers web pouvaient s'attendre à une meilleure visibilité de leur contenus Flash". En novembre 2010, Google a annoncé de nouvelles améliorations, notamment en ce qui concerne Flash 10 et les vidéos. Reste qu'à ce jour les pages Flash se positionnant dans les SERPS doivent se compter sur les doigts d'une main... de manchot.

Si Google est capable aujourd'hui d'extraire des documents Flash du texte et des liens, le fait que l'information dans les fichiers Flash soit souvent pauvre et mal structurée interdit à ce type de sites de se positionner correctement. Il s'agit surtout pour Google de ne pas être bloqué dans le parcours d'un site et d'afficher des snippets un peu plus pertinents.

Ma recommandation : n'utilisez pas Flash pour faire des sites et si vous devez l'utiliser, mettez en place une architecture avec une URL par "page" (au lieu d'un swf unique), avec insertion d'un contenu alternatif HTML correctement balisé sur chaque page.

Javascript

Google a annoncé officiellement en mai 2009 être capable d'executer le code javascript associé à l'évenement onclick pour suivre des liens. En 2007 le moteur avait déjà déclaré pouvoir extraire quelques liens inclus dans du code javascript (sans executer le code proprement dit). Tous ces liens ont la capacité de transmettre du PageRank, et des ancres leur sont associées, ce qui est un progrès. Toutefois il est dfficile de connaître toutes les formes de codes acceptées par le moteur.

Ma recommandation : Tenez-vous en aux bonnes vieilles directives d'accessibilité et de dégradation élégante en permettant la navigation dans le site lorsque javascript est désactivé. C'est d'ailleurs ce que Google lui-même recommande.

Formulaires

Le crawl des pages accessibles via un formulaire (et utilisant la méthode GET) est confirmé depuis avril 2008. Il reste toutefois expérimental pour Google, et officiellement réservé à certains sites sélectionnés sur des critères qualitatifs. Les mots-clés utilisés dans les formulaires sont déterminés par Google à partir du contenu du site. Des observations récentes sembleraient suggérer que le contenu de la balise meta keywords pourrait également être utilisé comme mots-clés dans les formulaires. Reste que cette forme de crawl est éminement arbitraire.

Ma recommandation : si la navigation dans votre site doit dépendre d'un formulaire (ce que je ne conseille pas), utilisez la méthode GET et mettez en place une navigation alternative fournissant des liens href vers des pages de résultats du formulaire sur des mots-clés pertinents. La profondeur de cette navigation sera fonction de la richesse de votre contenu.

6/01/2011

Bonne année 2011 !

Chers lecteurs et lectrices, permettez moi de vous adresser mes meilleurs voeux pour cette nouvelle année.

De mon coté, il sera surtout question de prendre quelques bonnes résolutions, comme poster plus souvent (sans jamais cependant rogner sur la qualité ni tomber dans la course aux billets) et répondre aux commentaires :)