Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à Référencement Design et Cie 2.0

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

28/04/2006

Accessibilité et référencement sur le Journal du Net

Le Journal du Net publiait aujourd'hui un article sur l'accessibilité et le référencement. Il est heureux qu'un média d'envergure tel que le JDN aborde le sujet, en particulier en l'abordant sous l'angle du référencement. L'accessibilité est en effet souvent perçue comme une contrainte et non un bénéfice : elle n'est pas sexy.

Cependant, à la différence de l'article, je ne pense pas que "l'objectif de l'accessibilité pour le référenceur soit donc de limiter au maximum tous les obstacles pouvant bloquer l’indexation par les moteurs" : limiter les obstacles techniques à l'indexation est seulement le préalable. Le travail du référenceur va plus loin, en rejoignant celui de l'ergonome et du concepteur-rédacteur : au delà de l'accessibilité technique, il faut en effet prendre en compte l'accessibilité "cognitive" et la lisibilité des contenus, en s'efforçant de proposer des contenus clairs, compréhensibles par tous (point 14.1 de WCAG).

25/04/2006

Comprendre le "crawl caching proxy" de Google

Pour ceux que l'anglais rebute, une petite explication du "proxy de mise en cache du crawl" (crawl caching proxy) évoqué par Matt Cutts sur son blog :

Les serveur proxy sont fréquemment utilisés par les FAI et les réseaux d'entreprise pour réduire leur bande passante. Concrètement, un serveur proxy agit comme un cache mutualisé : quand un utilisateur se rend sur une page web, celle-ci est mise en cache dans le proxy. Les autres utilisateurs souhaitant acceder à cette page se verront servir non pas la page originale, mais celle enregistrée dans le cache. La bande passante est ainsi économisée, puisque le nombre d'accès à la page originale est réduit.

Ce que Google a fait, c'est appliquer ce système de cache à l'indexation : au lieu d'indexer une page de multiples fois via ses différents robots (Googlebot, Mediapartners, Newsearch, Blogsearch etc...), Google a mis en place un proxy utilisé par ceux-ci. Une page indexée une première fois par l'un des robots et mise dans le cache pourra donc être y récupérée par les autres robots, réduisant le nombre d'accès à la page originale.

Ce qu'il faut comprendre, c'est que le fait de participer à Adsense ou d'être indexé dans Google News n'influe en rien sur l'indexation dans les pages de résultats web du moteur. Le système ne fait que mettre en cache les pages pour les servir aux robots qui en font la demande. Ainsi, une page indexée par Mediapartners (le robot Adsense) ne se retrouvera dans l'index web que si Googlebot demande cette page et y accède.

24/04/2006

Net Recherche : un guide pour mieux chercher sur le web

"Un guide pratique pour mieux trouver l'information utile" : Après lecture, je peux vous dire que le livre co-écrit par Véronique Mesguich et Armelle Thomas tient sa promesse.

Le guide aborde dans un premier temps les bases de la recherche pour ensuite passer en revue les différents mode de recherche d'information : moteurs généralistes et spécialisés, meta-moteurs, annuaires, bases de données documentaires, RSS et recherche "sociale", logiciels de veille... L'information donnée y est avant tout pratique : les différentes syntaxes d'interrogation sont exposées et illustrées par des exemples, et de nombreux liens vers les outils de recherche et ressources sont fournis.

Plusieurs publics peuvent je pense bénéficier d'un tel ouvrage :

L'étudiant, peu importe sa spécialité, y trouvera de quoi mener et approfondir ses recherches. Le dirigeant, le cadre, ou l'assistante de direction y trouveront des pistes pour rechercher l'information et mener une veille active. Les journalistes y trouveront des outils efficaces. Les professionnels de l'information y trouveront bien sûr un ensemble de ressources utiles à leur pratique professionnelle.

La fiche du livre sur le site de l'éditeur

Commander le livre sur Amazon

Matt Cutts à propos de la Googlebar

La prise en compte des données collectées par la barre d'outils Google dans l'algorithme du moteur est une question qui fait débat sur le forums consacrés au référencement. Interrogé par Lee Odden à propos de l'utilisation de ces données, Matt Cutts répond :

"Quand quelqu'un me pose la question de l'utilisation de tel ou tel signal dans l'algorithme, la réponse la plus correcte à la question est en général de dire qu'il est sage de ne pas rejeter catégoriquement un signal.

Prenons un exemple, bien qu'issu d'un contexte différent : les balises meta ont acquis une mauvaise réputation auprès des moteurs il y a quelques années, à cause des abus de certains. En conséquence, ces balises ne sont pratiquement plus prises en compte dans notre algorithme. Mais je m'abstiens cependant de dire que nous ne les utiliserons jamais, parce qu'il n'est pas intelligent de rejetter ce qui peut constituer un signal. Dans le futur, quelqu'un pourrait très bien trouver un moyen d'exploiter ce signal.

Je ne vais donc pas dire que Google n'utilise pas, ou n'utilisera jamais les données de la barre d'outils, ou tout autre signal (...)

Concernant les objections à l'usage des données issues de la barre d'outils, la principale serait que des webmasters pourraient les manipuler afin de faire croire qu'un site web est plus visité qu'il ne l'est en réalité. Par exemple, aux Search Engine Strategies de New-York, j'avais évoqué le fait qu'Alexa fournissait une fonctionnalité de "liens similaires", et que ce système avaient été spammé par des sites de poker, des sites d'emploi, etc (...)

Je ne dirai donc pas Google utilise tel ou tel signal. Je voulais juste évoquer les problèmes potentiels liés à l'utilisation de ces données."

Moralité : il est peu productif de spéculer sur l'utilisation de ces données. Si elles sont ignorées, s'en soucier n'aura servi à rien. Et si elles sont prises en compte, le temps passé à s'en soucier aura été mieux employé à développer son contenu pour les utilisateurs, dont une partie utilise la Googlebar...

21/04/2006

Marques, blogs et influence

Selon Julian Smith, analyste chez Jupiter Research, les bloggers, gourous, et producteurs actifs de contenu web en général exerceraient une influence "disproportionnée" sur l'opinion en Europe.

Bien que constituant une infime partie de la population connectée, et n'étant pas du tout représentatifs, ces leaders d'opinion (ou dealers ?), profitant du relais des médias traditionnels, domineraient de plus en plus le débat public, allant même jusqu'à créer la tendance.

Les entreprises et institutions ne peuvent donc se passer de mener une veille active sur ces nouveaux médias. Mieux : elles devraient elles-mêmes produire du contenu et entrer dans ces conversations.

On en revient au Cluetrain Manifesto : "Markets are conversations, Talk is cheap, Silence is fatal" (Soit en français : "Les marchés sont des conversations, converser ne coûte rien, le silence est fatal").

Edit : Le Journal du Net aborde aussi le sujet

20/04/2006

L'usabilité en pratique

La théorie c'est bien, la pratique, c'est mieux ! A lire sur le blog de Damien Anfroy, un excellent billet sur l'audit ergonomique puis la refonte d'une fiche produit Fnac, validée ensuite par des tests utilisateurs. Les résultats obtenus sont étonnants.

19/04/2006

Mediapartners utilisé pour l'indexation ?

A en croire Matt Cutts qui s'est exprimé à ce sujet au Pubcon de Boston, Mediapartners, le robot d'indexation utilisé normalement pour cibler les liens sponsorisés du programme Google Adsense serait aussi utilisé par Google pour enrichir son index web. Le système permettrait ainsi d'économiser de la bande passante, et faciliterait la détection des sites faisant du cloaking.

13/04/2006

L'utilisateur et les moteurs : nouvelles statistiques

Une étude (pdf) menée par Iprospect en janvier 2006 nous éclaire un peu plus sur le comportement des utilisateurs face aux moteurs de recherche :

La première page de résultats comptabiliserait ainsi 62% des clics et les trois premières pages 90%, ce qui confirme (on s'en doutait) l'importance d'être positionné le plus haut possible dans les pages de résultats. Cette tendance semble d'ailleurs se renforcer avec les années.

En cas d'echec dans leur recherche, 41% des utilisateurs ont déclaré modifier leur requête ou changer de moteur s'ils ne trouvaient pas de résultats satisfaisants en première page. Ce chiffre monte à 88% si l'on considère les trois premières pages de résultats. Les utilisateurs semblent fidèles (ou paresseux), car 82% déclarent changer de mots-clés plutôt que d'essayer un autre moteur.

10/04/2006

Les moteurs aiment l'accessibilité !

A lire sur Pompage.net, une traduction d'un article de Andy Hagans, contributeur au magazine A List Apart : "Vous aimez l’accessibilité ? Les moteurs de recherche aussi !".

J'avais déjà abordé cette question début 2005, mais une piqûre de rappel ne saurait faire de mal. Cet article rejoint également mon billet précédent : les standards et l'accessibilité bénéficient à tous les agents utilisateurs, y compris les moteurs de recherche !

9/04/2006

Standards et accessibilité : bénéfices concrets

Plutôt que de parler dans l'abstrait des bénéfices d'un code HTML à la fois conforme, structuré, et accessible, et plutôt que de mettre mon site à nu, je vous propose d'expérimenter le rendu de celui-ci sur divers configurations materielles et logicielles :

D'abord sur Lynx, un navigateur en mode texte, puis sur Firefox, doté d'une feuille de style personnalisée pour malvoyants, sur Blazer, un navigateur pour PDA sous Palm OS, sur Symbian OS, un système d'exploitation pour smartphones, sur Openwave, un OS compatible Wap et XHTML-MP, sur Internet Explorer pour Windows Mobile, et enfin sur Jaws (Mp3, 935 ko), un navigateur vocal fréquemment utilisé par les non-voyants.

Les experiences de navigation peuvent varier selon les plateformes. L'apparence graphique du site peut changer. Mais dans tous les cas, le contenu reste accessible, chose qui n'aurait pas été forcément possible si le site avait été construit un dépit des bonnes pratiques.

L'accessibilité est souvent abordée sous l'angle du handicap et des configurations obsolètes. Mais le test des terminaux mobiles montre que les recommandations du W3C gardent tout leur valeur dans ce contexte : tous les systèmes n'interprètent en effet pas javascript, tandis que les liens d'évitement facilitent la navigation même pour les utilisateurs valides, du fait de la faible résolution des écrans.

6/04/2006

Alors, l'exhibitionnisme ça marche ?

Hier avait donc lieu le premier "Naked Day". Sceptique à propos de l'opération, je n'y ai pas participé. Mais j'étais cependant curieux des réactions des utilisateurs, et j'ai parcouru l'ensemble des commentaires sur les sites y participant grâce à la liste de Monique.

Franchement, je me demande si l'accessibilité n'est pas juste une mode pour certains : je me suis ainsi vu refuser l'accès à un site d'un participant sous pretexte que "'Internet Explorer c'est de la merde" (sic). Moi qui croyait naivement que l'accessibilité, c'était un accès pour tous, indépendament de sa configuration materielle, logicielle ou de ses handicaps...

Mais revenons aux commentaires des utilisateurs. Après avoir écrémé l'orgie de trackbacks, les commentaires "j'y participe aussi", et les plaisanteries, que reste-t-il ? Finalement pas grand chose. Quelques commentaires que j'ai pu relever sur les divers sites participants :

  • "Problème avec le css de ton theme ?"
  • "Pas con... mais un peu déroutant quand même... ;-)"
  • "Outch le choc! :)"
  • "Est-ce dû au dépouillement du jour, est-ce moi qui ne voit plus clair à force de regarder des sites tout nus... je ne trouve pas le lien pour faire un trackback :-["
  • "J'adore ! Ça me rappelle ma jeunesse, l'époque où le web était plus rapide que le Minitel. J'attends avec impatience la journée Gopher."
  • "Je savais pas que ça existait, une journée où on déshabille nos sites de leurs CSS. C’est drôle. Beau petit concept."
  • "Conseil : dans le code HTML, positionner le titre et le corps en haut, et la sidebar en bas, parce que ça dérange la navigation (oui oui le Naked Day sert à ça)."
  • "Si je peux me permettre je trouve cette action totalement ridicule, imposer ca à un site on est plus en démocratie, c'est une dictature la."
  • "Et ben il est pas mal du tout ton blog tout nu ! Tes colonnes restent bien en place c'est cool ca" (Nda : Quoi ! une mise en page par tableaux !)
  • "Ah oui d'accord bah ca fait peur quand même, je le préfère quand même dans son état normal"

Finalement, le Naked Day c'est comme les flashmobs : on en parle beaucoup sur l'instant mais ça ne laisse pas de traces dans la durée...

5/04/2006

Hakia, un moteur sémantique

Découvert grâce à Influx, Hakia est un nouveau moteur de recherche qui se décrit comme "basé sur le sens". Pour ce faire, le moteur conjugue analyse sémantique, ontologies, logique floue et intelligence artificielle : Hakia est ainsi capable d'apprendre de lui-même, grâce aux interactions avec les utilisateurs et avec le web.

Ses concepteurs ont placé la barre haut : "Notre vision est de tenir la promesse faite par les moteurs de recherche de nouvelle génération, et de faire un bond décisif en matière de performance et d'interaction en langage naturel. Nous voulons participer à faire de l'internet le cerveau central de la civilisation humaine".

Si l'équipe est ambitieuse, elle n'en est pas moins humble : "Notre but est de créer un monstre informatique, qui connaît tout (...) Mais quand le marketing mène la danse à la place de l'innovation, c'est la culture "hype" qui prend le dessus. C'est ce que nous voulons éviter. (...) Nous vous promettons une expérience étonnante, mais ce n'est pas pour tout de suite."

Le moteur, en version beta, affiche d'ailleurs qu'il n'en est qu'à 18% de son évolution. Les résultats sont néanmoins déjà très pertinents, et je pense qu'Hakia est un moteur à surveiller de près.

4/04/2006

Jamais sans mon style

Demain 5 avril aura lieu la première édition du Annual Naked Day, initié par Dustin Diaz dans le but de promouvoir les bénéfices d'un balisage sémantique et d'une bonne structuration HTML. Les webmasters sont donc invités à déshabiller leur site en désactivant leur feuille de style.

L'intention est louable, mais je reste sceptique sur l'interêt pédagogique d'imposer à l'utilisateur un site sans styles. Concernant ce blog par exemple, le style participe à son usabilité, tout en étant désactivable pour l'utilisateur qui en aurait besoin :

Le choix des largeurs des blocs permet d'avoir des lignes de texte de longueur réduite, améliorant la lisibilité. Sans style, les blocs de texte occuperaient toute la largeur de l'écran, rendant la lecture plus difficile.

La mise en page en 2 colonnes facilite la navigation, puisque les éléments de navigation sont plus proches du contenu et donc plus accessibles. L'utilisateur moyen semble d'ailleurs s'attendre à ce que la navigation interne soit sur le coté, pas en bas de page.

Le choix d'une police sans serification (Verdana) participe également à la lisibilité. Or les polices par défaut des navigateurs sont le plus souvent des polices avec serification, comme le Times, qui sont généralement considérées comme moins adaptées à la lecture sur écran.

Enfin, le choix des couleurs (saturation, contrastes) outre l'apport esthétique (qui améliore l'usabilité perçue) apporte un plus grand confort de lecture, le contraste maximal n'étant pas toujours préférable.

L'absence de style contribuerait donc à mon humble avis à dégrader l'usabilité pour la majorité des utilisateurs, allant à l'encontre des objectifs de l'opération.

Et vous, qu'en pensez-vous ?

1/04/2006

Surveiller ses liens entrants

Il est parfois nécessaire de surveiller la qualité des liens pointants sur son site : dans ce monde sans pitié qu'est le référencement, les webmasters ont fréquemment recours à des artifices pour s'accaparer toujours plus de PageRank. C'est dans cette optique que Deepindex et Webmaster-Hub ont développé la technologie Backlink Crawler, permettant de contrôler ces liens. Performant, l'outil permet même de classer les liens de façon thématique.

Edit : il s'agissait bien évidement d'un canular, 1er avril oblige ;)

Google se lance dans l'imagerie médicale

Des sources bien informées font état d'un lancement imminent de Google dans l'imagerie médicale. Des prototypes de machines de type IRM seraient déjà operationnels.

Adam Kipper, initiateur du projet en interne, explique : "Les réseaux que forment les neurones ou les systèmes vasculaires ont une structure très proche de celle des réseaux de liens que l'on observe sur le web. Nous sommes persuadés que nos algorithmes -comme le PageRank- mais aussi nos autres algorithmes moins connus dédiés à l'analyse des liens peuvent peuvent participer aux progrès de la recherche et de la médecine".

Larry Page ajoute : "Nous étudions la possibilité de faire bénéficier les hopitaux des pays émergents de machines Google dans le cadre de notre fondation google.org".

Etant donnée la quantité énorme de données à traiter pour ces examens, les machines feraient appel à la puissance de calcul des datacenters Google, en faisant transiter les données par fibre optique (la fameuse "dark fiber").

Cette annonce fait suite à la nomination le mois dernier de Adam Bosworth au titre de "Google Health Architect".

A quand un équivalent de Google Earth dédié à l'exploration du corps humain ?

Edit : Il s'agissait bien sur d'un poisson d'avril, comme le nom de "kipper" (hareng en anglais) le suggérait ;)