Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à Référencement Design et Cie 2.0

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

20/11/2009

Nouveau livre sur le SEO : "Les 60 maximes du référencement"

Le livre de Maxime Grandchamp intitulé "Les 60 maximes du référencement" (et préfacé par votre serviteur) est désormais en vente sur le site de l'éditeur, ainsi que sur Amazon avec un petit rabais ;)

La forme de l'ouvrage est très... informelle. Pas de sections, sous-sections et autres alineas dans cet ouvrage. Non. Maxime a au contraire opté pour des causeries, introduites par des citations d'auteurs aussi divers qu'Albert Camus, Francis Blanche, Guy Bedos ou Woody Allen. Le résultat est un livre sur le référencement à la fois original, accessible et agréable à lire.

17/11/2009

Surveillez votre réputation dans Google Sidewiki via RSS

Le site SEOmofo donne une astuce intéressante pour surveiller les commentaires Sidewiki relatifs à votre site web, en utilisant les API dédiées. Pour cela, abonnez-vous simplement à ce flux RSS, en remplaçant "www.YOURDOMAIN.com" par votre domaine :

http://www.google.com/sidewiki/feeds/entries/domainpath/www.YOURDOMAIN.com%2F/default?sortorder=updated&includeLessUseful=true

Il est important de conserver le "%2F" après le domaine. Notez qu'en l'absence de spécification du "www" ce seront tous les résultats pour le domaine qui remonteront, y compris ceux relatifs aux sous-domaines.

Le paramètre "includeLessUseful=true" sert à inclure les commentaires considérés comme étant de mauvaise qualité (ce sont souvent les plus dommageables). Le paramètre "sortorder=updated" sert lui à trier les éléments du flux par ordre de fraîcheur. Vous pouvez également ajouter le paramètre "max-results=150", 150 étant le nombre maximal de résultats autorisé par Google (le nombre de résultats affiché par défaut est de 10).

16/11/2009

Quand une rédactrice et un référenceur se rencontrent...

...Cela donne naissance à "bien / pas bien" une série de billets où des pages web sont soumises aux regards croisés d'une ergonome éditoriale et d'un consultant SEO. Première analyse ici. Bonne lecture !

PS : si vous avez des exemples de pages que vous souhaiteriez voir commentées, n'hésitez pas à les mentionner sur le blog d'Eve ou ici-même :)

30/10/2009

Le comble de l'humilité

Parmi toutes les pages du web, les pages 404 sont les plus humbles :
Alors même qu'elles s'offrent à votre regard,
Elles soutiendront par leurs entêtes qu'elles n'existent pas.

29/10/2009

Le Pagerank est bien vivant (si si)

Annoncer la mort du PageRank est de bon ton actuellement dans le milieu du référencement. Il est vrai que la suppression de l'affichage de la répartition du PR dans l'interface Webmaster Tools semble aller dans ce sens.

Mais il n'en est rien. La vérité est qu'aucun moteur ne peut faire l'économie de mesurer la popularité des pages web. Abandonner le PageRank signifierait un retour à l'époque d'Altavista, où seuls les critères on-page étaient pris en compte (et joyeusement abusés). Si Google avait effectivement abandonné le PageRank, croyez-bien que les pages de résultats du moteur eussent été chamboulées. Le fait est que la popularité mesurée en termes de liens est bien un indicateur de pertinence. Cet indicateur n'est pas le seul à considérer, et il ne l'a jamais été. Le PageRank n'est pas non plus fiable à 100% et peut être manipulé. Mais entre deux pages à la pertinence similaire, la popularité continuera de faire la différence. C'est cela qui explique que les sites populaires soient avantagés dans les secteurs concurrentiels. Croire que le PageRank est mort parce qu'il n'est plus visible revient à croire que le petit lapin blanc disparaît quand le prestidigitateur le fait passer derrière le foulard.

Google dans un billet du 16 octobre a d'ailleurs réaffirmé l'importance des liens entrants : "S'il est vrai que le linking est un facteur significatif dans l'algorithme Google, ce n'est qu'un facteur parmi d'autres". Le PageRank demeure donc ce qu'il a toujours été : un élément potentiellement determinant de la visibilité d'une page mais non exclusif, la pertinence du contenu étant la première prise en compte.

Edit : La dernière étude SEOmoz abonde d'ailleurs dans ce sens. En résumé : les liens pousseront votre site vers le haut, de même que des balises <title> correctement optimisées. Les metas ne servent à rien (ce n'est pas un scoop, mais au moins c'est prouvé). Aucun facteur considéré isolément ne peut par contre servir à prédire un positionnement.

23/10/2009

Le moment de nostalgie SEO du vendredi

En me baladant dans les archives du groupe Yahoo "référencement" (liste de discussion très active et incontournable en son temps, les anciens se rappeleront) j'ai pu retrouver ce que je pense être ma première intervention sur le thème du référencement. C'était le 24 octobre 2000. J'y posais la question suivante : "Ya-t-il une limite au nombre de meta-keywords pris en compte par les moteurs de recherche?". On a tous débuté un jour ;)

Et vous, vous souvenez-vous de votre première question sur le SEO ?

Twitter s'invite dans les moteurs de recherche

Souriez, le petit oiseau (bleu) va sortir (dans les SERPs) ! En fait c'était déjà le cas, puisqu'à chaque twitt correspond une URL, qui est indexable. Ce qui change, c'est l'indexation directement à la source, grâce à des partenariats avec Twitter.

Bing a opté pour un moteur dédié. Suite à une recherche, la page de résultats affiche les 4 derniers tweets contenant les mots-clés recherchés, ainsi que les liens les plus twittés relatifs à la recherche. Les résultats sont apparament censés s'afficher en temps réel, et un bouton "pause" a même été prévu. Si le décompte des minutes depuis la publication est bien rafraichi, le rafraichissement effectif des twitts eux-mêmes lui se fait attendre (indéfiniment semble-t-il), et il est en fait plus aisé de relancer la recherche ou de faire un F5. Pas génial donc pour suivre un évènement, et le moteur Twitter s'avère tout aussi pratique.

En ce qui concerne Google, peu de détails sur ce que sera l'intégration de Twitter dans les résultats, puisque seul le partenariat a été annoncé, Par Marissa Mayer. On peut probablement s'attendre à une apparition de twitts dans la Onebox pour certaines requêtes considérées comme étant "chaudes". Ou alors en bas de page comme les résultats blogs (ce dont je doute, l'instantaneité ayant plus sa place en haut de page). Ou alors une intégration façon recherche universelle, si un moteur vertical est mis en place. La question reste ouverte :)

13/10/2009

Google Webmaster Tools : nouvelles fonctionnalités

Google vient d'ajouter deux nouvelles fonctionnalités à son interface Webmaster Tools. La première "Analyser comme Googlebot" propose de voir une page de votre site comme la verrait Googlebot. En fait, il n'y a pas d'analyse à proprement parler : Google affiche simplement la réponse HTTP suivie du code HTML de la page auditée. Le même résultat pouvait tout aussi bien être obtenu avec Webbug ou l'extension Firefox Live HTTP Headers. La seule différence est qu'ici "l'analyse" est faite à partir d'une adresse IP Google. Eventuellement utile pour vérifier votre cloaking, mais rien de révolutionnaire.

La seconde nouveauté est plus intéressante, et concerne les "informations détaillées relatives au logiciel malveillant" (au passage l'usage du pluriel serait le bienvenu, à moins qu'il n'existe qu'un seul logiciel malveillant, ce dont je doute). Cet outil permet de déterminer quelles portions de code font qu'une page est considérée comme potentiellement dangereuse par Google.

12/10/2009

Ni "Sébastien Billiard", ni "Stéphane Billard" :)

Je vois fréquement mon nom écorché sur le web (ici par exemple) ou sur papier, d'où ce micro-billet : mon nom est Sébastien Billard. "Billard" comme le jeu, et écrit à la française (pas le billiard anglais). "Sébastien" comme euh... Sébastien. Pas Stéphane (j'ignore pourquoi on m'appelle fréquemment Stéphane d'ailleurs).

Voila qui devrait suffire à être référencé sur ces coquilles :D

8/10/2009

Google propose une méthode pour le référencement des sites AJAX

Lors du séminaire SMX qui a eu lieu à New York du 5 au 7 octobre, Google a proposé une méthode pour indexer les sites utilisant la technologie AJAX. Jusque ici, cette technologie produisait des pages inindexables par les moteurs de recherche, du fait de l'obligation d'exécuter du code javascript, non-supporté par les moteurs. La méthode proposée par Google permet de contourner cette limitation, en déportant l'exécution du code javascript et le rendu de la page coté serveur. Notez que la méthode ne fonctionne que pour les pages AJAX utilisant des états dans leurs URLs.

Voici le principe de la méthode :

  • Insertion d'un token pour distinguer les pages AJAX des simples URLs à ancres internes (les ancres internes étant ignorées par les moteurs). Google propose le point d'exclamation. l'URL http://example.com/stocks.html#GOOG deviendrait donc http://example.com/stocks.html#!GOOG
  • Utilisation d'un navigateur coté serveur qui va produire un instantané HTML de la page AJAX. C'est cet instantané HTML qui sera indexé par les moteurs.
  • Utilisation d'un schema d'URL spécifique pour accéder à l'instantané. Google propose d'échapper l'état et de l'inclure dans l'URL via le token "_escaped_fragment_". Google accédera donc à l'instantané via l'URL http://example.com/stocks.html?_escaped_fragment_=GOOG. Par contre, c'est l'URL originelle http://example.com/stocks.html#!GOOG qui sera affichée aux utilisateurs dans les pages de résultats.

Notez bien qu'il ne s'agit encore d'une proposition, qui sera formalisée par la suite. Il est possible de discuter avec les équipes Google de cette méthode sur ce topic du forum Webmaster Central.

25/09/2009

Rencontre SEO Camp le 15 octobre à Lille

La première rencontre SEO Camp de la Métropole aura lieu le 15 octobre à La Bonnetterie, 31 place du Théâtre à Lille, à partir de 19h30. Pour vous y inscrire, rendez-vous sur la page contact de l'association, en précisant "Inscription Lille" dans le sujet de votre message. L'inscription préalable est obligatoire.

Je ne pourrais malheureusement pas être présent, devant abandonner le soleil nordiste pour participer à un obscur séminaire à Majorque ;)

24/09/2009

Le scraping rarement un problème selon Matt Cutts

Dans une vidéo diffusée sur la chaine Google Webmaster Central, Matt Cutts s'exprime sur le fait de voir son contenu "scrapé", c'est-à-dire reproduit par des sites tiers. Selon lui, tant que le scraper fait un lien vers la source, ou que le contenu scrapé contient des liens vers le site original, cette duplication de contenu est plutôt bénéfique et ne devrait pas poser de problèmes en termes de visibilité dans les pages de résultats. Si c'était le cas cependant, Matt Cutts suggère de lancer une procédure de DMCA, ou d'effectuer un spam report.

Personnellement je serai plus nuancé. Il n'est pas si rare que des sites republiant du contenu (avec autorisation ou de façon sauvage) se positionnent mieux que le site source, alors même qu'un lien est fait vers ce dernier. C'est le cas typiquement des agrégateurs bénéficiant d'une forte notoriété qui arrivent à se positionner devant les sites sources souffrant d'un déficit de popularité. Heureusement le plus souvent le problème peut se régler en travaillant à développer les liens entrants du site original. De plus si le scraping existe c'est que cela crée du trafic. Où irait ce trafic sans scraping ? Là dessus je n'ai pas de réponse définitive. Dans mon cas par exemple, plusieurs sites font du trafic avec mon contenu (S2M, Wikio, Paperblog...). On peut penser que je perds des visites, mais en même temps je gagne quelques liens, des referers, et de l'exposition. Difficile donc de savoir si je suis gagnant ou perdant au final, d'autant plus que mon souci premier n'est pas de faire de la page vue (même si je dois bien confesser une petite poussée d'égo quand mes courbes de fréquentation grimpent).

Quelques conseils en complément de ceux de Matt Cutts pour limiter les dégats du scraping, et pourquoi pas en bénéficier :

  • Surveillez régulièrement qui republie votre contenu, en faisant des recherches sur vos titres ou sur des extraits courts de votre contenu (en utilisant des guillemets)
  • Travaillez votre popularité. Les liens ont une grande importance dans la détermination par Google de la version originale d'un contenu
  • Quand vous faites référence à vos pages, utilisez des liens absolus, et non pas des liens relatifs.
  • Ne publiez pas en flux intégral (ne marche que pour le scrap des flux RSS)
  • Faites en sorte qu'un lien vers votre site automatiquement ajouté à chaque billet dans vos flux RSS (des plugins existent pour Wordpress, celui-ci par exemple)
  • Contactez les scrapers pour négocier soit l'arrêt du scrap, soit un scraping partiel suivi d'un lien vers l'URL source. Il y a des scrapers de bonne foi, qui se montrent compréhensifs.
  • Rappelez-leur la loi. En particulier les articles L111-1 et L122-4 du Code de la Propriété Intellectuelle.
  • S'ils utilisent Adsense, signalez à Google le fait qu'ils scrapent votre contenu en cliquant sur le lien "Annonces Google" d'un de leurs blocs d'annonces, puis sur "Signalez un cas de non-respect du règlement concernant le site ou les annonces que vous venez de voir". Le scrap est moins motivant une fois banni d'Adsense ;)

11/09/2009

Google infiltré par les francs-maçons ! (ou la conspiration du vendredi)

Après des années de recherche, je suis désormais en mesure de démontrer cette incroyable vérité : Google est en réalité une vaste entreprise maçonnique. Quelques preuves irrefutables :

Troublant non ? Vendredi prochain je vous montrerai que Google n'est en fait qu'un des volets d'une conspiration mondiale impliquant l'ensemble des gouvernements, la NSA ainsi que des entités biologiques extra-terrestres :p

9/09/2009

2 synthèses sur la répartition des clics dans les pages de résultats des moteurs

A l'occasion de ma veille quotidienne, deux billets ont dernièrement retenu mon attention : celui de Branko Rihtman et celui de Mike Baxter. Tous deux tentent de faire la synthèse des données disponibles sur la distribution des clics dans les 10 premiers résultats naturels des moteurs de recherche.

Une des premières chose que l'on peut observer est d'abord la remarquable homogénité des résultats : alors que les échantillons, les méthodes de mesure (fichiers log et eye-tracking) ainsi que les dates des expérimentations varient, la forme de la courbe de distribution reste globalement la même (avec quelques légères variations ). Mike Baxter a d'ailleurs pu modéliser à partir de ces données une fonction donnant le pourcentage moyen de clic (CTR) en fonction de la position dans les SERPs : ce pourcentage est donné par la formule 0.59*Position^-1.94. Ainsi statistiquement 59% des utilisateurs tendront à cliquer sur le premier résultat, alors que ce chiffre sera de moins de 0.7% pour le 10ème résultat. Précisions qu'il ne s'agit que d'une tendance et que le comportement de l'utilisateur en tant qu'individu n'est pas si mécanique. De plus son comportement pourra varier selon le type de recherche effectué (requête navigationnelle, informative ou transactionnelle)

Autre chose notable : les données les plus récentes tendent à montrer un report des clics vers les toutes premières positions, là précisément ou l'on retrouve le plus souvent les résultats de type "recherche universelle". Une autre explication serait que la qualité des résultats allant en s'améliorant, les meilleurs résultats sont mieux positionnés qu'avant.

7/09/2009

Statistiques : le e-commerce toujours en progression

Les données publiées aujourd'hui par Comscore semblent montrer que la fréquentation des sites e-commerce se porte bien malgré la crise (ou grâce à elle ?) : ainsi, la fréquentation des sites marchands audités a augmenté de 21% par rapport à l'année dernière, alors que la progression habituelle est plutôt de l'ordre de 5%. Le secteur de l'habillement est le grand gagnant du shopping virtuel.

< 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 >