Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à Référencement Design et Cie 2.0

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

23/10/2009

Le moment de nostalgie SEO du vendredi

En me baladant dans les archives du groupe Yahoo "référencement" (liste de discussion très active et incontournable en son temps, les anciens se rappeleront) j'ai pu retrouver ce que je pense être ma première intervention sur le thème du référencement. C'était le 24 octobre 2000. J'y posais la question suivante : "Ya-t-il une limite au nombre de meta-keywords pris en compte par les moteurs de recherche?". On a tous débuté un jour ;)

Et vous, vous souvenez-vous de votre première question sur le SEO ?

Twitter s'invite dans les moteurs de recherche

Souriez, le petit oiseau (bleu) va sortir (dans les SERPs) ! En fait c'était déjà le cas, puisqu'à chaque twitt correspond une URL, qui est indexable. Ce qui change, c'est l'indexation directement à la source, grâce à des partenariats avec Twitter.

Bing a opté pour un moteur dédié. Suite à une recherche, la page de résultats affiche les 4 derniers tweets contenant les mots-clés recherchés, ainsi que les liens les plus twittés relatifs à la recherche. Les résultats sont apparament censés s'afficher en temps réel, et un bouton "pause" a même été prévu. Si le décompte des minutes depuis la publication est bien rafraichi, le rafraichissement effectif des twitts eux-mêmes lui se fait attendre (indéfiniment semble-t-il), et il est en fait plus aisé de relancer la recherche ou de faire un F5. Pas génial donc pour suivre un évènement, et le moteur Twitter s'avère tout aussi pratique.

En ce qui concerne Google, peu de détails sur ce que sera l'intégration de Twitter dans les résultats, puisque seul le partenariat a été annoncé, Par Marissa Mayer. On peut probablement s'attendre à une apparition de twitts dans la Onebox pour certaines requêtes considérées comme étant "chaudes". Ou alors en bas de page comme les résultats blogs (ce dont je doute, l'instantaneité ayant plus sa place en haut de page). Ou alors une intégration façon recherche universelle, si un moteur vertical est mis en place. La question reste ouverte :)

13/10/2009

Google Webmaster Tools : nouvelles fonctionnalités

Google vient d'ajouter deux nouvelles fonctionnalités à son interface Webmaster Tools. La première "Analyser comme Googlebot" propose de voir une page de votre site comme la verrait Googlebot. En fait, il n'y a pas d'analyse à proprement parler : Google affiche simplement la réponse HTTP suivie du code HTML de la page auditée. Le même résultat pouvait tout aussi bien être obtenu avec Webbug ou l'extension Firefox Live HTTP Headers. La seule différence est qu'ici "l'analyse" est faite à partir d'une adresse IP Google. Eventuellement utile pour vérifier votre cloaking, mais rien de révolutionnaire.

La seconde nouveauté est plus intéressante, et concerne les "informations détaillées relatives au logiciel malveillant" (au passage l'usage du pluriel serait le bienvenu, à moins qu'il n'existe qu'un seul logiciel malveillant, ce dont je doute). Cet outil permet de déterminer quelles portions de code font qu'une page est considérée comme potentiellement dangereuse par Google.

8/10/2009

Google propose une méthode pour le référencement des sites AJAX

Lors du séminaire SMX qui a eu lieu à New York du 5 au 7 octobre, Google a proposé une méthode pour indexer les sites utilisant la technologie AJAX. Jusque ici, cette technologie produisait des pages inindexables par les moteurs de recherche, du fait de l'obligation d'exécuter du code javascript, non-supporté par les moteurs. La méthode proposée par Google permet de contourner cette limitation, en déportant l'exécution du code javascript et le rendu de la page coté serveur. Notez que la méthode ne fonctionne que pour les pages AJAX utilisant des états dans leurs URLs.

Voici le principe de la méthode :

  • Insertion d'un token pour distinguer les pages AJAX des simples URLs à ancres internes (les ancres internes étant ignorées par les moteurs). Google propose le point d'exclamation. l'URL http://example.com/stocks.html#GOOG deviendrait donc http://example.com/stocks.html#!GOOG
  • Utilisation d'un navigateur coté serveur qui va produire un instantané HTML de la page AJAX. C'est cet instantané HTML qui sera indexé par les moteurs.
  • Utilisation d'un schema d'URL spécifique pour accéder à l'instantané. Google propose d'échapper l'état et de l'inclure dans l'URL via le token "_escaped_fragment_". Google accédera donc à l'instantané via l'URL http://example.com/stocks.html?_escaped_fragment_=GOOG. Par contre, c'est l'URL originelle http://example.com/stocks.html#!GOOG qui sera affichée aux utilisateurs dans les pages de résultats.

Notez bien qu'il ne s'agit encore d'une proposition, qui sera formalisée par la suite. Il est possible de discuter avec les équipes Google de cette méthode sur ce topic du forum Webmaster Central.

25/09/2009

Rencontre SEO Camp le 15 octobre à Lille

La première rencontre SEO Camp de la Métropole aura lieu le 15 octobre à La Bonnetterie, 31 place du Théâtre à Lille, à partir de 19h30. Pour vous y inscrire, rendez-vous sur la page contact de l'association, en précisant "Inscription Lille" dans le sujet de votre message. L'inscription préalable est obligatoire.

Je ne pourrais malheureusement pas être présent, devant abandonner le soleil nordiste pour participer à un obscur séminaire à Majorque ;)

24/09/2009

Le scraping rarement un problème selon Matt Cutts

Dans une vidéo diffusée sur la chaine Google Webmaster Central, Matt Cutts s'exprime sur le fait de voir son contenu "scrapé", c'est-à-dire reproduit par des sites tiers. Selon lui, tant que le scraper fait un lien vers la source, ou que le contenu scrapé contient des liens vers le site original, cette duplication de contenu est plutôt bénéfique et ne devrait pas poser de problèmes en termes de visibilité dans les pages de résultats. Si c'était le cas cependant, Matt Cutts suggère de lancer une procédure de DMCA, ou d'effectuer un spam report.

Personnellement je serai plus nuancé. Il n'est pas si rare que des sites republiant du contenu (avec autorisation ou de façon sauvage) se positionnent mieux que le site source, alors même qu'un lien est fait vers ce dernier. C'est le cas typiquement des agrégateurs bénéficiant d'une forte notoriété qui arrivent à se positionner devant les sites sources souffrant d'un déficit de popularité. Heureusement le plus souvent le problème peut se régler en travaillant à développer les liens entrants du site original. De plus si le scraping existe c'est que cela crée du trafic. Où irait ce trafic sans scraping ? Là dessus je n'ai pas de réponse définitive. Dans mon cas par exemple, plusieurs sites font du trafic avec mon contenu (S2M, Wikio, Paperblog...). On peut penser que je perds des visites, mais en même temps je gagne quelques liens, des referers, et de l'exposition. Difficile donc de savoir si je suis gagnant ou perdant au final, d'autant plus que mon souci premier n'est pas de faire de la page vue (même si je dois bien confesser une petite poussée d'égo quand mes courbes de fréquentation grimpent).

Quelques conseils en complément de ceux de Matt Cutts pour limiter les dégats du scraping, et pourquoi pas en bénéficier :

  • Surveillez régulièrement qui republie votre contenu, en faisant des recherches sur vos titres ou sur des extraits courts de votre contenu (en utilisant des guillemets)
  • Travaillez votre popularité. Les liens ont une grande importance dans la détermination par Google de la version originale d'un contenu
  • Quand vous faites référence à vos pages, utilisez des liens absolus, et non pas des liens relatifs.
  • Ne publiez pas en flux intégral (ne marche que pour le scrap des flux RSS)
  • Faites en sorte qu'un lien vers votre site automatiquement ajouté à chaque billet dans vos flux RSS (des plugins existent pour Wordpress, celui-ci par exemple)
  • Contactez les scrapers pour négocier soit l'arrêt du scrap, soit un scraping partiel suivi d'un lien vers l'URL source. Il y a des scrapers de bonne foi, qui se montrent compréhensifs.
  • Rappelez-leur la loi. En particulier les articles L111-1 et L122-4 du Code de la Propriété Intellectuelle.
  • S'ils utilisent Adsense, signalez à Google le fait qu'ils scrapent votre contenu en cliquant sur le lien "Annonces Google" d'un de leurs blocs d'annonces, puis sur "Signalez un cas de non-respect du règlement concernant le site ou les annonces que vous venez de voir". Le scrap est moins motivant une fois banni d'Adsense ;)

11/09/2009

Google infiltré par les francs-maçons ! (ou la conspiration du vendredi)

Après des années de recherche, je suis désormais en mesure de démontrer cette incroyable vérité : Google est en réalité une vaste entreprise maçonnique. Quelques preuves irrefutables :

Troublant non ? Vendredi prochain je vous montrerai que Google n'est en fait qu'un des volets d'une conspiration mondiale impliquant l'ensemble des gouvernements, la NSA ainsi que des entités biologiques extra-terrestres :p

9/09/2009

2 synthèses sur la répartition des clics dans les pages de résultats des moteurs

A l'occasion de ma veille quotidienne, deux billets ont dernièrement retenu mon attention : celui de Branko Rihtman et celui de Mike Baxter. Tous deux tentent de faire la synthèse des données disponibles sur la distribution des clics dans les 10 premiers résultats naturels des moteurs de recherche.

Une des premières chose que l'on peut observer est d'abord la remarquable homogénité des résultats : alors que les échantillons, les méthodes de mesure (fichiers log et eye-tracking) ainsi que les dates des expérimentations varient, la forme de la courbe de distribution reste globalement la même (avec quelques légères variations ). Mike Baxter a d'ailleurs pu modéliser à partir de ces données une fonction donnant le pourcentage moyen de clic (CTR) en fonction de la position dans les SERPs : ce pourcentage est donné par la formule 0.59*Position^-1.94. Ainsi statistiquement 59% des utilisateurs tendront à cliquer sur le premier résultat, alors que ce chiffre sera de moins de 0.7% pour le 10ème résultat. Précisions qu'il ne s'agit que d'une tendance et que le comportement de l'utilisateur en tant qu'individu n'est pas si mécanique. De plus son comportement pourra varier selon le type de recherche effectué (requête navigationnelle, informative ou transactionnelle)

Autre chose notable : les données les plus récentes tendent à montrer un report des clics vers les toutes premières positions, là précisément ou l'on retrouve le plus souvent les résultats de type "recherche universelle". Une autre explication serait que la qualité des résultats allant en s'améliorant, les meilleurs résultats sont mieux positionnés qu'avant.

26/08/2009

Bon le SEO, c'est du contenu ou des liens finalement ?

S'il y a un débat récurent dans le monde du référencement, c'est bien celui opposant les évangélistes du contenu et les apôtres du linking (ah ces histoires de chapelles...). Les premiers avancent généralement que le contenu étant ce qui est recherché par les utilisateurs, les moteurs se basent avant tout sur celui pour évaluer les sites. Le contenu est donc le moteur du référencement. Les seconds font remarquer que de nombreuses pages avec peu de contenu ou un contenu médiocre performent bien dans les pages de résultats des moteurs de recherche du fait de leur popularité. Les liens sont donc le moteur du référencement.

Mais alors, qui a raison ? Eh bien tout le monde ! Vouloir trancher pour l'un ou pour l'autre c'est comme chercher à déterminer qui du combustible ou de l'oxygène est essentiel à la combustion. Pas de feu sans ces deux éléments : Un combustible médiocre pourra flamber grâce à un apport en oxygène efficace, de même qu'un très bon combustible pourra flamber avec un apport en oxygène faible (mais existant). Du point de vue d'un moteur, liens et contenus ne s'additionnent pas, ils se multiplient. Que l'un soit égal à zéro et ce sera la visibilité qui sera nulle.

Cela dit, il est vrai que les liens ont ceci de particulier que leur marge d'évolution est quasi infinie, alors que l'optimum d'un contenu est vite atteint. C'est pourquoi dans un environnement concurrentiel, ce sont les liens qui auront tendance à départager les compétiteurs.

13/08/2009

Google Caffeine : mise à jour de l'architecture d'indexation Google

Google a annoncé le 10 août procéder à un évolution de son architecture, en invitant les utilisateurs à tester cette nouvelle infrastucture. Cette mis à jour, si elle s'inscrit dans une effort global pour améliorer l'exhaustivité, la pertinence et la rapidité du moteurde recherche, concerne essentiellement la partie index du moteur. Il ne s'agit donc pas d'une mise à jour de l'algorithme à proprement parler.

Google a d'ailleurs bien précisé que l'utilisateur lambda ne verrait probablement aucune différence dans les résultats du moteur. Quelques mouvements dans les SERP pourront être observés, mais il s'agira surtout d'effets de bords liés à l'index, et non pas d'un changement délibéré dans la façon d'évaluer la pertinence des pages. Ce que précise bien Matt Cutts sur son blog : "L'update Caffeine ne vise pas à faire évoluer l'interface du moteur (...) Le gros des évolutions concerne surtout le système d'indexation, aussi il ne faut pas s'attendre à du changement au niveau des positions (...) Nous ne cherchons pas à bouleverser les pages de résultats avec cette nouvelle infrastructure. Quelques positions évolueront, mais ce n'est l'objectif de l'infrastructure".

A l'heure où j'écris ces lignes, le sous-domaine www2.sandbox.google.com est inaccessible pour cause de mise à jour. Inutile donc de spéculer sur les résultats d'un update pas encore achevé qui n'est de toute façon pas censé révolutionner les résultats de recherche ;)

A voir également sur le sujet, l'interview de Matt Cutts par Mike McDonald.

16/07/2009

Quand "annuaire" rime avec "galère"...

La soumission aux annuaires de recherche reste un des "basics" de toute campagne de link building, même s'il existe bien d'autres techniques aujourd'hui pour créer du lien.

J'avais eu l'occasion de râler il y a un peu plus d'un an contre les annuaires exigeant un lien retour. Ayant eu récemment à faire de la soumission, j'ai pu découvrir que la nouvelle lubie de certains annuairistes est désormais d'exiger une description unique, sous peine de voir son site refusé. Cela par peur du duplicate content. Pire encore, la description du site doit fréquemment satisfaire à des exigences de longueur qui dépassent allègrement les limites du ridicule.

Soyons sérieux : un annuairiste qui n'est pas fichu d'écrire, ou à la rigueur d'adapter une description n'envoie-t-il pas implicitement un signal que son but est uniquement d'afficher de l'Adsense sans se fatiguer, et non pas d'effectuer une sélection éditoriale ? Un point de vue qui semble rejoindre celui du blog annuaire-info.

PS : L.Jee poursuit le débat sur Webrankinfo

26/06/2009

Les techniques de référencement "avancées" : quel intérêt ?

L'ébullition qui a suivi l'annonce par Matt Cutts de la perte d'efficacité de l'attribut nofollow pour sculpter le PageRank d'un site a été une bonne démonstration de la tendance du microcosme du référencement à spéculer et à inventer régulièrement des techniques de référencement dites "avancées". Mais ces techniques, si elles sont parfois techniquement et conceptuellement avancées, n'avancent pas forcément à grand chose.

En effet, il y a bien eu changement de prise en compte de l'attribut nofollow. Mais celui-ci est intervenu il y déjà... un an ! Très curieusement, les apôtres de la technique, qui avaient pourtant clamé haut et fort son efficacité, n'ont pas remarqué de tendances à la baisse dans leurs positions. Preuve s'il en est de l'avantage décisif que leur procurait cet attribut désormais obsolète...

Ne me faites pas dire ce que je n'ai pas dit : tenter de comprendre les algorithmes des moteurs comme le fait par exemple Bill Slawski, tester certaines techniques et ajustements "pointus", voir si certains éléments sont bien pris en compte ont tout leur intérêt. Réfléchir à la façon dont se propage le PageRank d'un site est tout à fait recommandé (et cela passe surtout par une bonne architecture). Mais j'ai parfois l'impression que l'industrie du référencement a constamment besoin de "hype" et de nouveautés pour se faire valoir et se justifier. On parle aujourd'hui beaucoup de sculpter son PageRank, mais auparavant il y avait eu le TrustRank, LSI... Tout cela crée beaucoup de billets, de discussions et de twitts, donne une crédibilité pseudo-scientifique mais qu'en reste-t-il ?

Je vais vous donner ma technique de référencement avancée : c'est l'empathie. En me mettant dans la peau d'un ingénieur de chez Google, je m'évite bien des spéculations inutiles, en me concentrant uniquement sur ce qui fait sens en terme d'information et de marketing. Cela peut sembler terriblement basique, mais sur la durée, c'est ce qui compte le plus. Je doute que Matt Cutts annonce un jour que le contenu n'est plus pris en compte par l'algorithme, que ce contenu n'ait plus besoin d'être accessible et structuré, ou que la qualité et la quantité des liens soient désormais indifférents. Adopter une démarche holistique incite à viser la Lune, là où on serait parfois tenter de viser le doigt...

12/06/2009

Matt Cutts sur le changement de prise en compte de l'attribut nofollow

A l'occasion de la conférence SMX Advanced 2009 qui s'est déroulée les 8 et 9 juin à Seattle, Matt Cutts a annoncé lors d'une session de questions-réponses animée par Danny Sullivan des changements importants dans la prise en compte des attributs nofollow. Traduction des passages les plus intéressants :

Danny : "Jusque ici, vous souteniez le PR sculpting. Désormais, il semble que le PR sculpting ne soit plus encouragé. Est-il devenu un facteur négatif ?"

Matt : "Non, pas du tout. En fait, peu importe la façon dont vous faites vos liens, cela nous va. Vous pouvez utiliser l'attribut nofollow sur des formulaires si vous voulez, mais vous utiliserez bien mieux votre temps en travaillant sur l'architecture du site. Quand sur une page vous aviez 10 liens et que 5 étaient en nofollow, une idée répandue voulait que les 5 autres pages héritent de tout le PageRank. Cela a pu être vrai à un moment donné, mais c'est moins le cas aujourd'hui. Vous n'allez pas être pénalisé en faisant cela, c'est juste qu'il y a des façon plus judicieuses d'employer votre temps. Utiliser l'attribut nofollow pour canaliser le PageRank sur votre site n'est qu'une rustine. Attachez-vous plutôt à sculpter votre PageRank en travaillant sur la structure même du site".

Auditeur : "Nous avons 10 liens sur une page, et 5 liens sont en nofollow. Ou s'en va le PageRank alors ?"

Matt : "Vous pouvez considérer qu'il s'évapore".

Auditeur : "Le site est bien affecté donc ?"

Matt : "Utilisez cet attribut avec modération. Utilisez-le sur liens pour lesquels vous ne pouvez vous porter garant. Si vous êtes un utilisateur avancé, et qu'il y a une page que vous ne souhaitez pas promouvoir, comme une page de connexion, c'est aussi un bon usage de l'attribut nofollow. Le seul lien en nofollow sur mon blog est un lien vers une page d'abonnement, qui à peu d'intérêt pour l'index web".

Ma conclusion : travaillez sur l'architecture logique de vos liens, en pensant en priorité à l'utilisateur, tout en ayant à l'esprit de favoriser la transmission de PageRank vers les pages les plus importantes pour vous. Evitez les artifices de type nofollow, dont la prise en compte peut varier du jour au lendemain. Tiens, tout ça me rappelle un billet que j'avais écrit il y a un peu plus d'un an ;)

29/05/2009

49 facteurs qui influenceraient le référencement local

Près de 20% des requêtes seraient géographiquement ciblées à en croire certaines études, du moins au USA. La recherche locale est donc devenue un enjeu de taille, tant pour les moteurs de recherche que pour les webmasters.

Il reste qu'à l'exception de quelques facteurs évidents, les ressorts du référencement local sont encore mal connus. Afin d'y voir plus clair, David Mihm a interrogé 27 spécialistes du search marketing pour tenter de dégager un consensus sur le sujet. Son étude constitue une lecture très intéressante. Je vous livre ici la liste traduite des facteurs, classés par ordre décroissant d'importance. J'ai respecté l'ordre de l'étude : il ne s'agit pas forcément de ma propre opinion. De même certains critères sont un peu flous. Mais globalement l'ensemble fait plutôt sens.

Les facteurs perçus comme positifs pour un bon référencement local

  • Localisation du Local Business Listing dans la ville recherchée (facteur le plus important)
  • Indexation dans les annuaires géographiques (Pages Jaunes, Kompass, infobel...)
  • Choix judicieux des catégories associées au Local Business Listing
  • Création d'un Local Business Listing (ou de plusieurs)
  • Présence de mots-clés (produits ou services) dans le titre du Local Business Listing
  • Importance générale des critères "off-page" (citations, liens...)
  • Volume des avis des utilisateurs
  • Importance générale des avis d'utilisateurs
  • Importance générale des critères "on-page"
  • Présence de l'adresse complète sur la page de contact
  • Proximité par rapport au centre-ville
  • Qualité des liens entrants
  • Citations et liens provenant de sites locaux
  • Présence de mots-clés dans la description du Local Business Listing
  • Présence de mots-clés relatifs à la localisation dans les liens entrants
  • Avis des utilisateurs déposés sur le moteur lui-même
  • Présence de mots-clés relatifs à la localisation dans le titre du Local Business Listing
  • Présence de mots-clés relatifs aux produits et services dans les liens entrants
  • Présence de mots-clés relatifs à la localisation dans la balise <title> des pages
  • Avis d'utilisateurs sur des sites tiers
  • Présence de mots-clés relatifs à la localisation dans la description du local business listing
  • Nombre de liens entrants
  • Présence de la ville et de la région dans la balise <title> de la page contact
  • Présence de mots-clés relatifs aux produits et services dans l'URL
  • Présence de mots-clés relatifs aux produits et services dans les champs personnalisés du Local Business Listing
  • Association du Local Business Listing à des catégories personnalisées
  • Présence de mots-clés relatifs à la localisation dans l'URL
  • Utilisation d'un numéro de téléphone local dans le Local Business Listing
  • Association de vidéos au Local Business Listing
  • Présence d'un numéro de télépone local sur la page contact
  • Citations au sein de cartes personnalisées ou de contenus générés par les utilisateurs
  • PageRank de la page d'accueil
  • Associations de photos au Local Business Listing
  • Utilisation de fichiers KML
  • Appréciations positives de la part des utilisateurs
  • Présence de mots-clés relatifs à la localisation dans les champs personnalisés du local business listing
  • Utilisation du micro-format hCard sur le site
  • Age du Local Business Listing
  • Association de coupons de réduction au Local Business Listing
  • Utilisation de campagnes PPC locales (facteur le moins important)

Les facteurs pouvant affecter négativement le référencement local

  • Utilisation de numéros de téléphones nationaux dans le Local Business Listing (le plus bénin)
  • Présence de plusieurs adresses sur la page contact
  • Appréciations négatives de la part des utilisateurs
  • Usage exclusif de numéros de téléphones nationaux sur la page contact
  • Publication de plusieurs Local Business Listings avec le même titre
  • Usage exclusif de boites postales
  • Publication de plusieurs Local Business Listings avec le même numéro de téléphone
  • Publication de plusieurs Local Business Listings avec la même adresse (le pire)

30/04/2009

Les moteurs de recherche aussi sur Twitter

Eh oui, les moteurs de recherchent twittent également ! Voici les flux Twitter officiels que j'ai pu recenser jusque ici. N'hésitez pas à compléter en commentaire.

Google est le plus présent sur Twitter, avec presque un flux par ligne de produits. Parmi ceux (plus ou moins) liés à la recherche, on peut citer : Googlenews, GoogleAtWork, GoogleWebmaster, GoogleTalk, Googleprofiles, Googlemaps, GoogleWebspam, Googleresearch et Google. Il est à noter que plusieurs employés Google ont également leurs propres flux, comme John Mueller et bien sûr Matt Cutts.

Ask publie quant à lui deux flux, Askjeevesdotcom et AskDotCom.

D'autres moteurs on fait le choix du flux unique, comme Yahoo, et Live_Search.

Exalead à ma connaissance ne propose pas de flux pour son moteur web, mais maintient un flux pour son moteur de recherche Tweepz.

Notez bien que le rapport signal/bruit de tous ces flux peut être très variable ;)

(PS : pour plus de flux Google, voir cet article de Zorgloob)

< 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 >