Régulièrement, des déclarations effectuées par Google ou d'autres moteurs (si si, il en existe d'autres) laissent à penser que des technologies auparavant bloquantes pour les robots d'indexation deviennent tout à coup accessibles. Bien entendu, ces annonces font beaucoup de bruit et peuvent laisser penser aux concepteurs de sites que les vieilles limitations sont abolies. Le fait est que jusque ici, aucune révolution, ni même un changement sensible n'ont pu être observés dans les pages de résultats. Tout au plus peut-on noter quelques cas isolés, mais rien qui ne remette en cause les bonnes pratiques traditionnelles d'accessibilité.

Flash

La première annonce d'une meilleure prise en charge de Flash, en partenariat avec Adobe, date de juin 2008. Selon Google, "les designers web pouvaient s'attendre à une meilleure visibilité de leur contenus Flash". En novembre 2010, Google a annoncé de nouvelles améliorations, notamment en ce qui concerne Flash 10 et les vidéos. Reste qu'à ce jour les pages Flash se positionnant dans les SERPS doivent se compter sur les doigts d'une main... de manchot.

Si Google est capable aujourd'hui d'extraire des documents Flash du texte et des liens, le fait que l'information dans les fichiers Flash soit souvent pauvre et mal structurée interdit à ce type de sites de se positionner correctement. Il s'agit surtout pour Google de ne pas être bloqué dans le parcours d'un site et d'afficher des snippets un peu plus pertinents.

Ma recommandation : n'utilisez pas Flash pour faire des sites et si vous devez l'utiliser, mettez en place une architecture avec une URL par "page" (au lieu d'un swf unique), avec insertion d'un contenu alternatif HTML correctement balisé sur chaque page.

Javascript

Google a annoncé officiellement en mai 2009 être capable d'executer le code javascript associé à l'évenement onclick pour suivre des liens. En 2007 le moteur avait déjà déclaré pouvoir extraire quelques liens inclus dans du code javascript (sans executer le code proprement dit). Tous ces liens ont la capacité de transmettre du PageRank, et des ancres leur sont associées, ce qui est un progrès. Toutefois il est dfficile de connaître toutes les formes de codes acceptées par le moteur.

Ma recommandation : Tenez-vous en aux bonnes vieilles directives d'accessibilité et de dégradation élégante en permettant la navigation dans le site lorsque javascript est désactivé. C'est d'ailleurs ce que Google lui-même recommande.

Formulaires

Le crawl des pages accessibles via un formulaire (et utilisant la méthode GET) est confirmé depuis avril 2008. Il reste toutefois expérimental pour Google, et officiellement réservé à certains sites sélectionnés sur des critères qualitatifs. Les mots-clés utilisés dans les formulaires sont déterminés par Google à partir du contenu du site. Des observations récentes sembleraient suggérer que le contenu de la balise meta keywords pourrait également être utilisé comme mots-clés dans les formulaires. Reste que cette forme de crawl est éminement arbitraire.

Ma recommandation : si la navigation dans votre site doit dépendre d'un formulaire (ce que je ne conseille pas), utilisez la méthode GET et mettez en place une navigation alternative fournissant des liens href vers des pages de résultats du formulaire sur des mots-clés pertinents. La profondeur de cette navigation sera fonction de la richesse de votre contenu.