Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à mon nouveau blog SEO

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

30/04/2010

Résultats Twitter en temps réel dans Google : oui et alors ?

Dans "Twitter pour être mieux référencé ?" , j'expliquais hier sur le blog Relevant Traffic qu'il était hasardeux de compter sur Twitter pour se créer de la visibilité dans le cadre de la recherche en temps réel. En effet, à supposer qu'un twit soit affiché, sa visibilité sera de toute façon très fugace.

En faisant du ménage dans mes bookmarks cet après-midi, je suis tombé sur une étude d'eye tracking menée par Oneupweb Digital qui semble suggérer que coté utilisateur, l'insertion de résultats temps-réel dans les pages de résultats des moteurs serait loin d'être un bouleversement. Ainsi, seul 55% des utilisateurs connaissant l'existence des résultats temps réel seraient capables de les identifier facilement dans une page de résultats (73% ignoraient d'ailleurs carrément leur existence avant de participer à l'étude). Et en moyenne, ce ne serait qu'au bout de 9 à 14 secondes qu'aurait lieu la première fixation des résultats temps-réel, ce temps variant selon les tâches à effectuer... Bref, voila de quoi douter de l'utilité de l'intégration des résultats Twitter en temps réel, du moins dans leur implémentation actuelle. Pour des requêtes vraiment chaudes, une mise en évidence graphique serait peut être indiquée pour susciter l'attention des internautes.

16/04/2010

SMO et SEO sont dans un bateau. SMO tombe à l'eau. Qui est-ce qui reste ?

Intéressante étude que celle menée par Scanblog et OpenedMind sur la relation qu'entretiennent les français (les vrais, pas les blogueurs et les SEO) avec les médias sociaux.

A en croire les résultats de l'enquête, si le web en tant que media a su gagner les faveurs des internautes, toutes les sources d'informations qui s'y trouvent ne jouissent pas du même degré de confiance, au moins en ce qui concerne les achats. Les moteurs de recherche apparaissent aux yeux des français comme des sources d'une fiablilité comparable à celle des utilisateurs de produits ou des experts. Le web social par contre est perçu comme étant moins digne de confiance. Même les sites de marques sont vus comme étant plus crédibles que les forums, les réseaux sociaux et les blogs.

Je rejoins donc tout à fait la conclusion de l'étude : "la suprématie des moteurs de recherche incite plus à un bon SEO qu'à un buzz". Facebook n'est pas prêt de remplacer Google en tant que porte d'entrée dans le web (celà dit, un peu de SMO en complément de votre SEO ne peut pas faire de mal, et il faut envisager les réseaux sociaux comme un prolongement de votre communication).

Mise à jour de Google Webmaster Tools

La section de l'interface Webmaster Tools consacrée aux requêtes les plus fréquentes vient d'être refondue. Jusque ici, Google affichait essentiellement la position moyenne pour les 100 premiers mots-clés. S'il était intéressant de voir sur quelles requêtes un site se positionnait, l'intérêt en termes operationnels était finalement assez limité. Désormais, Google propose des données bien plus complètes. L'outil s'est également enrichi de nouvelles fonctionnalités.

La vue par défaut affiche les requêtes ayant généré le plus d'affichages dans les pages de résultats, avec pour chacune le nombre d'impressions, le nombre de clics et le taux de clic correspondant. Notez qu'il est maintenant possible de spécifier la période à considérer, tout comme dans Google Analytics.

Cliquer sur les mots-clés permet d'accéder à informations suplémentaires : les différentes positions obtenues par le site sont affichées, avec pour chacune les impressions, clics et CTRs correspondant (ce qui me permet de vous confirmer au passage qu'il est plus intéressant d'être 1er que 2ème - si si !). Les pages ressortant dans les SERPs pour la requête sont également mentionnées. Enfin un graphique affiche l'évolution dans le temps des impressions et des clics.

Le grand intérêt de l'outil réside selon moi dans le fait qu'il permet de s'intéresser à l'optimisation du taux de clic : avec cette mise à jour, il est en effet devenu très facile d'identifier les termes sur lesquels un site se positionne bien mais ne parvient pas à motiver le clic. Il faut alors se poser les bonnes questions : la requête est-elle ambigue et le site visiblement hors-sujet ? Le snippet ou la balises <title> sont-ils imprécis ? Pas assez attractifs ? Bref il devient possible de travailler son attractivité dans les SERPs en plus de son positionnement. Le SERPO (Search Engine Results Page Optimization) est né ;)

Reste la question de la fiabilité des données. Un rapide examen montre en effet que si on retrouve bien les même tendances dans Google Analytics et Webmaster Tools, des différences parfois sensibles apparaissent au niveau du nombre de clics (GIF). D'autres webmasters semblent d'ailleurs avoir fait la même observation.