Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à Référencement Design et Cie 2.0

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

30/10/2009

Le comble de l'humilité

Parmi toutes les pages du web, les pages 404 sont les plus humbles :
Alors même qu'elles s'offrent à votre regard,
Elles soutiendront par leurs entêtes qu'elles n'existent pas.

29/10/2009

Le Pagerank est bien vivant (si si)

Annoncer la mort du PageRank est de bon ton actuellement dans le milieu du référencement. Il est vrai que la suppression de l'affichage de la répartition du PR dans l'interface Webmaster Tools semble aller dans ce sens.

Mais il n'en est rien. La vérité est qu'aucun moteur ne peut faire l'économie de mesurer la popularité des pages web. Abandonner le PageRank signifierait un retour à l'époque d'Altavista, où seuls les critères on-page étaient pris en compte (et joyeusement abusés). Si Google avait effectivement abandonné le PageRank, croyez-bien que les pages de résultats du moteur eussent été chamboulées. Le fait est que la popularité mesurée en termes de liens est bien un indicateur de pertinence. Cet indicateur n'est pas le seul à considérer, et il ne l'a jamais été. Le PageRank n'est pas non plus fiable à 100% et peut être manipulé. Mais entre deux pages à la pertinence similaire, la popularité continuera de faire la différence. C'est cela qui explique que les sites populaires soient avantagés dans les secteurs concurrentiels. Croire que le PageRank est mort parce qu'il n'est plus visible revient à croire que le petit lapin blanc disparaît quand le prestidigitateur le fait passer derrière le foulard.

Google dans un billet du 16 octobre a d'ailleurs réaffirmé l'importance des liens entrants : "S'il est vrai que le linking est un facteur significatif dans l'algorithme Google, ce n'est qu'un facteur parmi d'autres". Le PageRank demeure donc ce qu'il a toujours été : un élément potentiellement determinant de la visibilité d'une page mais non exclusif, la pertinence du contenu étant la première prise en compte.

Edit : La dernière étude SEOmoz abonde d'ailleurs dans ce sens. En résumé : les liens pousseront votre site vers le haut, de même que des balises <title> correctement optimisées. Les metas ne servent à rien (ce n'est pas un scoop, mais au moins c'est prouvé). Aucun facteur considéré isolément ne peut par contre servir à prédire un positionnement.

23/10/2009

Le moment de nostalgie SEO du vendredi

En me baladant dans les archives du groupe Yahoo "référencement" (liste de discussion très active et incontournable en son temps, les anciens se rappeleront) j'ai pu retrouver ce que je pense être ma première intervention sur le thème du référencement. C'était le 24 octobre 2000. J'y posais la question suivante : "Ya-t-il une limite au nombre de meta-keywords pris en compte par les moteurs de recherche?". On a tous débuté un jour ;)

Et vous, vous souvenez-vous de votre première question sur le SEO ?

Twitter s'invite dans les moteurs de recherche

Souriez, le petit oiseau (bleu) va sortir (dans les SERPs) ! En fait c'était déjà le cas, puisqu'à chaque twitt correspond une URL, qui est indexable. Ce qui change, c'est l'indexation directement à la source, grâce à des partenariats avec Twitter.

Bing a opté pour un moteur dédié. Suite à une recherche, la page de résultats affiche les 4 derniers tweets contenant les mots-clés recherchés, ainsi que les liens les plus twittés relatifs à la recherche. Les résultats sont apparament censés s'afficher en temps réel, et un bouton "pause" a même été prévu. Si le décompte des minutes depuis la publication est bien rafraichi, le rafraichissement effectif des twitts eux-mêmes lui se fait attendre (indéfiniment semble-t-il), et il est en fait plus aisé de relancer la recherche ou de faire un F5. Pas génial donc pour suivre un évènement, et le moteur Twitter s'avère tout aussi pratique.

En ce qui concerne Google, peu de détails sur ce que sera l'intégration de Twitter dans les résultats, puisque seul le partenariat a été annoncé, Par Marissa Mayer. On peut probablement s'attendre à une apparition de twitts dans la Onebox pour certaines requêtes considérées comme étant "chaudes". Ou alors en bas de page comme les résultats blogs (ce dont je doute, l'instantaneité ayant plus sa place en haut de page). Ou alors une intégration façon recherche universelle, si un moteur vertical est mis en place. La question reste ouverte :)

13/10/2009

Google Webmaster Tools : nouvelles fonctionnalités

Google vient d'ajouter deux nouvelles fonctionnalités à son interface Webmaster Tools. La première "Analyser comme Googlebot" propose de voir une page de votre site comme la verrait Googlebot. En fait, il n'y a pas d'analyse à proprement parler : Google affiche simplement la réponse HTTP suivie du code HTML de la page auditée. Le même résultat pouvait tout aussi bien être obtenu avec Webbug ou l'extension Firefox Live HTTP Headers. La seule différence est qu'ici "l'analyse" est faite à partir d'une adresse IP Google. Eventuellement utile pour vérifier votre cloaking, mais rien de révolutionnaire.

La seconde nouveauté est plus intéressante, et concerne les "informations détaillées relatives au logiciel malveillant" (au passage l'usage du pluriel serait le bienvenu, à moins qu'il n'existe qu'un seul logiciel malveillant, ce dont je doute). Cet outil permet de déterminer quelles portions de code font qu'une page est considérée comme potentiellement dangereuse par Google.

12/10/2009

Ni "Sébastien Billiard", ni "Stéphane Billard" :)

Je vois fréquement mon nom écorché sur le web (ici par exemple) ou sur papier, d'où ce micro-billet : mon nom est Sébastien Billard. "Billard" comme le jeu, et écrit à la française (pas le billiard anglais). "Sébastien" comme euh... Sébastien. Pas Stéphane (j'ignore pourquoi on m'appelle fréquemment Stéphane d'ailleurs).

Voila qui devrait suffire à être référencé sur ces coquilles :D

8/10/2009

Google propose une méthode pour le référencement des sites AJAX

Lors du séminaire SMX qui a eu lieu à New York du 5 au 7 octobre, Google a proposé une méthode pour indexer les sites utilisant la technologie AJAX. Jusque ici, cette technologie produisait des pages inindexables par les moteurs de recherche, du fait de l'obligation d'exécuter du code javascript, non-supporté par les moteurs. La méthode proposée par Google permet de contourner cette limitation, en déportant l'exécution du code javascript et le rendu de la page coté serveur. Notez que la méthode ne fonctionne que pour les pages AJAX utilisant des états dans leurs URLs.

Voici le principe de la méthode :

  • Insertion d'un token pour distinguer les pages AJAX des simples URLs à ancres internes (les ancres internes étant ignorées par les moteurs). Google propose le point d'exclamation. l'URL http://example.com/stocks.html#GOOG deviendrait donc http://example.com/stocks.html#!GOOG
  • Utilisation d'un navigateur coté serveur qui va produire un instantané HTML de la page AJAX. C'est cet instantané HTML qui sera indexé par les moteurs.
  • Utilisation d'un schema d'URL spécifique pour accéder à l'instantané. Google propose d'échapper l'état et de l'inclure dans l'URL via le token "_escaped_fragment_". Google accédera donc à l'instantané via l'URL http://example.com/stocks.html?_escaped_fragment_=GOOG. Par contre, c'est l'URL originelle http://example.com/stocks.html#!GOOG qui sera affichée aux utilisateurs dans les pages de résultats.

Notez bien qu'il ne s'agit encore d'une proposition, qui sera formalisée par la suite. Il est possible de discuter avec les équipes Google de cette méthode sur ce topic du forum Webmaster Central.