Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à Référencement Design et Cie 2.0

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

31/07/2007

10 preuves que Google est bien Dieu

Alors que certains s'interrogent encore, ces dix arguments imparables vous prouveront que Google est véritablement Dieu :

30/07/2007

Résultats complémentaires Google : nouvelle syntaxe

La disparition début juillet de la syntaxe "site:www.exemple.com *** -khjd" qui permettait jusqu'ici d'identifier les pages d'un site considérées comme résultats complémentaires avait ému la communauté des référenceurs, qui considéraient cette fonctionnalité utile pour évaluer la bonne santé d'un site.

Qu'importe, une nouvelle syntaxe a été découverte sur Webmaster World : désormais, la syntaxe a utiliser est "site:www.exemple.com/&".

20/07/2007

Où trouver des statistiques sur les moteurs de recherche et le référencement ?

La recherche de statistiques sur le marché des moteurs et le search marketing en général est un sujet qui revient plus ou moins régulièrement sur les forums traitant de référencement. Voici une revue rapide des principales sources d'information...

En France, le baromètre S2M, fruit de la collaboration entre 1ère Position et Xiti, fait référence en ce qui concerne les parts de marché des moteurs et leurs évolutions. Le site Xiti Monitor quant à lui fournit des données plus globales sur les usages du web. Ad'oc propose également son baromètre, basé sur l'analyse du trafic des clients de la société. La part de trafic issu des moteurs y est analysée, ainsi que la typologie des requêtes utilisateurs (nombre de mots, influence de la marque). Enfin, la lettre d'information INSEE Première est également une source de qualité sur les usages d'internet en France. Les données (PDF) issues de l'enquête "Technologies de l'information et de la communication" sont particulièrement intéressantes.

A l'international, Comscore est une des sources les plus connues, et ne se limite pas aux seuls moteurs de recherche. Hitwise publie également un "top" des outils de recherche US, ainsi que des analyses régulières via les blogs de ses experts. Le site Market Share se base lui sur un panel mondial et permet de personnaliser les graphiques.

Si l'on cherche des "papiers" plutôt que des tendances, OneStat et iProspect sont de bonnes sources. OneStat, service de mesure d'audience, fournit régulièrement des données sur l'utilisation des moteurs. iProspect a lui une approche plus marketing.

18/07/2007

Google : aussitôt publié, aussitôt indexé

Décidément il semble que l'indexation dans Google approche de plus en plus le temps réel... Olivier Andrieu s'en faisait d'ailleurs l'écho récemment. Le contenu de mon précédent billet sur l'offre Custom Search Business Edition, affiché en page d'accueil, s'est ainsi vu indexé en moins de 3 heures ! Impressionnant...

PS : Ce présent post vient de se faire indexer en moins de 30 minutes...

PS 2 : A lire également sur le sujet, le billet de 1ère Position.

Google Custom Search Business Edition, un moteur de recherche en mode ASP

Annoncée hier sur le blog officiel de la société, l'offre Custom Search Business Edition (CSBE) de Google permet aux entreprises de créer leurs propres moteurs et d'offrir ainsi une recherche de qualité à leurs visiteurs.

Le produit n'a rien de révolutionnaire : Les CSBE ne sont en fait que la version premium des Custom Search Engine (CSE), et fonctionnent de la même façon. Le paiement d'une somme annuelle forfaitaire (à partir de 100$ jusque 5000 pages) permet d'accéder à un support technique par email et par téléphone, à des possibilité de personnalisation plus poussées via une API XML et à des pages de résultats dénuées de publicité.

Utilisant l'index web de Google, les CSBE (tout comme les CSE) n'indexent cependant pas les pages à la demande : pour ce type d'application, mieux vaut se tourner vers Google Mini (1995€) ou Search Appliance.

17/07/2007

Google plus physionomiste qu'Exalead

Etant donné que Google (via la recherche avancée) comme Exalead (via la "zapette") proposent dans leurs moteurs de recherche d'images de restreindre la recherche au seuls visages, je me suis livré à un petit test pour tester les capacités de physionomiste des deux moteurs.

J'ai donc interrogé chaque moteur sur 30 mots-clés de tous genres en comptant les faux positifs, c'est-à-dire les images considérées comme contenant un visage mais n'en représentant aucun. J'ai considéré qu'était un "visage" une image figurant au moins un visage humain, peu importe le type de représentation : il pouvait s'agir de photos, mais aussi de dessins, d'objets ou de sculptures. Chaque moteur affichant par défaut 20 résultats, ce sont donc 600 images qui ont été testées pour chaque, assez je pense pour que le test soit fiable (les experts en statistiques me corrigeront au besoin).

Lors de ce test, Google a retourné 16 faux positifs, soit un taux d'echec moyen d'environ 2.7%. Exalead s'est avéré nettement moins performant, avec 60 faux positifs, soit un taux d'echec de 10%. Google semble donc 2.7 fois plus efficace qu'Exalead quand il s'agit de reconnaître un visage.

16/07/2007

Une interview où l'on reparle de contenu web

A lire sur Mots & Co, une interview très intéressante et pleine de bons mots de Frédéric Rauss, conseiller en communication et rédaction web à l'Ecole Polytechnique de Lausanne, et auteur d'un mini-guide sur l'écriture web (PDF) : "(...) que de ressources mobilisées, humaines, techniques, financières ! Que d'heures de réunions passées à discuter pour élaborer une vision du site (...) Mais lorsqu'on en arrive à l'écriture des textes ou aux choix ergonomiques, le travail s'affaiblit. La pointe de l'iceberg est effritée. Comme si, l'élaboration technique du site avait épuisé les énergies et qu'au moment de faire les derniers mètres, on abdique".

Il est vrai que le rédactionnel reste malheureusement le parent pauvre de nombreux projets web : pour le graphiste il est cette chose barbare et morne comme un Lorem Ipsum, qui échappe à son contrôle, puisque non manipulable par une courbe de bezier. Pour le programmeur, le contenu n'est jamais qu'une matière première à stocker dans une base de données. Stocker des chiffres ou des mots, ça ne fait pas grande difference. Pour le client, souvent seul en charge de son contenu, celui-ci est parfois vu comme important. Mais n'ayant aucune expérience en la matière, nourri au parler moche et au langage zombie, obsédé par l'aspect visuel de son site et étant persuadé que l'aura de sa marque suffira à convaincre le visiteur, il est souvent désarmé pour créer du contenu de qualité...

13/07/2007

Mon Kawa Yaka

Eh oui, encore un stupide chaine (merci Aymeric), celle-ci visant à présenter les projets personnels que nous avons tous à coeur, mais qui n'avancent jamais faute de temps...

Pour ma part mon projet n'a rien à voir avec le web, même si tout est interdépendant : il s'agit de poursuivre la traduction de l'anglais vers le français de "Abhidhamma in daily life" un ouvrage d'introduction à l'Abhidhamma theravadin. Trois chapitres sont déjà disponibles ici, au format PDF.

Je fais passer à Muriel, Jean-Marie, et Tizel ;)

11/07/2007

Rédigez des articles, pas des billets !

... Voila en substance le propos de la dernière alerte de Jakob Nielsen. Si la vision qu'a Jakob Nielsen du blogging est assez caricaturale (les blogs ne sont que controverses, commentaires et génèrent du trafic sur le court terme), l'article contient néanmoins quelques reflexions intéressantes.

Parce que la qualité des billets d'un auteur varie fortement, selon Jakob Nielsen, il est difficile d'être toujours au top, et l'on se retrouve aors en compétition avec la masse des auteurs certes moins qualifiés, mais tellement nombreux qu'il s'en trouve toujours quelques-uns pour produire occasionnellement de meilleurs billets que les vôtres. Au contraire, en investissant son temps à produire des articles de qualité, on s'affranchit de la compétition puisque l'on joue sur un terrain qui est hors de portée de la masse.

Personnellement, il ne me paraît pas judicieux d'opposer blogging et création d'articles, ne serait-ce que parce que le blog n'est qu'une forme de publication, qui n'a rien à voir avec la qualité du contenu : La forme des alertes de Jakob Nielsen est par exemple très proches de celle d'un blog, puisque leur contenu est relativement court et qu'elles sont classées par ordre chronologique... Mais cet article a quand même le mérite de rappeler quelques questions essentielles pour les experts, quelquesoit leur discipline : ce que je publie apporte-t-il au lecteur une valeur ajouté ? Sert-il ma réputation ? Est-ce que je ne contribue pas à la pollution informationnelle ?

6/07/2007

Jouer avec le clustering des résultats Google

A lire sur Search Engine Land, un article très intéressant de Stephan Spencer proposant une méthode pour manipuler les doubles liens parfois affichés par Google.

L'affichage de ces doubles liens, appelé "clustering", se produit lorsque deux pages d'un site apparaissent dans une même page de résultats. Au lieu de faire apparaître les deux liens à deux endroits différents, par exemple en 4ème et 10ème position, Google les regroupe et les place en 4ème et 5ème position, en indentant le second résultat (exemple pour ce blog).

Pour retrouver la "vraie" position du second lien, il suffit de demander à Google d'afficher un nombre de résultats inférieur au nombre affiché par défaut (10), en ajoutant à l'URL de la page de résultats le paramètre "&num=9". Si cela ne marche pas, il faut essayer les paramètres "&num=8", "&num=7" etc. On voit bien que pour la requête "blog référencement", le lien "L'ex DG de Google France a son blog" est en réalité positionné en 10ème position, puisque en deuxième page, chaque page affichant 9 liens.

Le fonctionnement du clustering expliqué, que peut-on faire pour affecter celui d'un concurrent ? Ce que Stephan Spencer propose, c'est de faire en sorte que les deux liens du concurrent ne soient plus sur la même page : si on parvient à faire passer le second lien du concurrent de la 10ème position à la 11ème, il n'y aura alors plus de clustering. Cela est possible par exemple en aidant la 11ème page à passer en 10ème position. On peut également essayer de faire en sorte que deux de ses propres pages figurent dans la même page pour bénéficier du clustering...

5/07/2007

Web 2.0 et qualité du trafic

Dans mon précédent billet, je constatais que comparé aux moteurs de recherche traditionnels et au reste du Web 1.0, les sites 2.0 n'apportaient finalement que très peu de trafic . Mais la quantité n'est pas tout. Ce que l'on n'obtient pas en quantité, peut-être l'obtient-on en qualité ?

J'ai me suis donc interessé aux différents indicateurs susceptibles de refléter l'interêt des visiteurs et donc la qualité du trafic : le nombre moyen de pages vues par visite, le temps moyen passé sur le site, et le pourcentage de visites à une page. L'échantillon est le même que lors du billet précédent.

Qu'observe-t-on ? Les visiteurs en provenance des sites 2.0, signalés en rouge sur les graphes, ont tendance à consulter un plus grand nombre de pages, et passent en général plus de temps sur le site (ce qui est logique puisqu'il visitent plus de pages). Le taux de rebond est également inférieur pour ces visiteurs. On peut donc légitimement penser que ce trafic est un peu plus qualifié que la moyenne, même si l'écart n'est pas gigantesque.

4/07/2007

Le Web 2.0 c'est énorme (mais pas tant que ça en fait)

Lors du dernier apéro Blog en Nord, nous évoquions avec Aymeric l'intérêt du Web 2.0 en matière de génération de trafic et nous en étions arrivés à la même conclusion : le Web 2.0 ne représente finalement pas grand-chose.

Décidé à aller plus loin, je me suis livré à une rapide étude des referers de ce blog, sur une période d'un an, soit un peu plus de 132000 visites. J'ai considéré comme étant "2.0" les sites généralement qualifiés comme tels et ayant une dimension communautaire. Les simples agrégateurs comme Netvibes ont donc été ignorés.

Le constat est sans appel : le Web 2.0 représente moins de 0.4% du trafic, contre 68,5% de visites issues des moteurs de recherche web (Google, Yahoo, MSN, Voila, Exalead, Ask). En ce qui concerne les sites 2.0, Wikio, Blogmark, Fuzz, Del.icio.us, et Technorati sont ceux qui s'en sortent le mieux.

Il ne faudrait pas bien sûr généraliser ces données à l'ensemble du web. Mais cela laisse à réfléchir : alors que ce blog est relativement populaire, qu'il appartient à une thématique geek/high-tech et que son contenu est indexé automatique par Wikio et Fuzz, il y a clairement un décalage entre la hype autour du Web 2.0 et sa capacité à générer du trafic (sauf cas d'écoles peu représentatifs).

Dans un prochain billet : le trafic issu des sites 2.0 est-il de meilleure qualité ?

3/07/2007

Améliorer l'accessibilité d'un site pour les handicapés moteurs

Les handicaps affectant la vision sont très souvent évoqués en matière d'accessibilité web. Les handicaps moteurs le sont moins. Pourtant, de multiples pathologies sont à l'origine de ce type de handicaps : attaques cérébrales, maladie de Parkinson, sclérose en plaques, tétraplegies, hémiplégies... On estime que les handicapés moteurs représentent environ 60% (PDF) de la population handicapée en France. Webcredible publie ce mois-ci un article sur l'amélioration de l'accessibilité pour ces utilisateurs.

Bref résumé des recommandations :

  • Maximisez la taille de la zone cliquable des liens.
  • Indiquez visuellement le focus sur les liens, afin que l'utilisateur puisse identifier le lien sur le point d'être visité.
  • Proposez une lien d'évitement visible, pour permettre l'accès direct au contenu.
  • Evitez de jouer automatiquement des fichiers audio, qui peuvent interférer avec les commandes vocales de certains utilisateurs
  • Evitez en général d'utiliser l'attribut tabindex. Conservez l'ordre de tabulation par défaut.
  • N'utilisez pas les access keys.