Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à mon nouveau blog SEO

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

31/05/2010

Présent aux SMX Paris

Les conférences SMX débarquent à Paris les 15 et 16 juin ! J'aurais le plaisir d'y intervenir lors de deux sessions : le 15 juin en compagnie de David Degrelle, Paul Sanches (aka Tiger) et Alexandre Villeneuve à l'occasion de la session SEO Camp, et le 16 juin avec Anders Hjorth et Virginie Clève, pour échanger sur le référencement des sites de grande envergure.

Pour s'y inscrire, c'est par ici (15% de réduction avec le code BILLARDSMX010 - je ne suis pas commissionné).

26/05/2010

Retour sur la venue de Matt Cutts à Paris

Ce matin avait donc lieu la première Search Conférence de Matt Cutts à Paris, dans les locaux de La Cantine. Dans la salle était présente la fine fleur du référencement francophone ainsi que plusieurs googlers français dont Nathalie Peret de l'équipe qualité de la recherche. Matt a d'abord rappelé les grands principes de fonctionnement du moteur (crawling, pertinence, popularité...) puis, constatant que l'audience possédait un niveau avancé, a accéléré pour arriver plus vite aux questions réponses.

Quelques infos et confirmations en vrac :

  • Google n'effectuerait pas de "zoning" des pages, c'est-à-dire que le contenu central ne se verrait pas reconnaître un poids plus fort que les contenus placés en colonne de droite, de gauche ou en footer, même si des brevets ont été déposés décrivant ce type de méthodes. Par contre, Matt a indiqué que le "boilerplate" (les contenus génériques tels que les mentions légales etc.) était détecté par Google.
  • Sur la question de l'emplacement des termes clés dans un bloc de contenu (en tout début ou à la fin), Matt a indiqué que cela n'avait pas d'importance. Par contre il a confirmé que la proximité des termes, leur ordre étaient bien pris en compte par le moteur. Il a également réaffirmé que les titres <hn> étaient considérés comme "un peu plus importants".
  • L'objectif de la mise à jour "Mayday" de l'algorithme était d'améliorer les résultats du moteur pour les requête de longue traîne, en tenant mieux compte de la réputation des sites.
  • Les tendances du search pour Matt sont le local, le social, et le mobile.
  • Le "fresh spam" est un challenge pour les équipes Google, car sur des thématiques émergentes (ex : le volcan Eyjafjöll) il n'est pas aisé de déterminer la réputation des sites et de distinguer les vrais sites d'information des MFA opportunistes.
  • Google interprêterait partiellement javascript. Des fausses conditions (ex: "si 4+1=5") pour maquiller des redirections pernicieuses peuvent être détectées par le moteur.
  • Des liens en javascript peuvent transmettre du PageRank.
  • La recherche en HTTPS ne deviendra pas la recherche par défaut de Google. L'impact de la mise en place de la recherche sécurisée sur les referers devrait donc être négligeable.
  • Si on syndique du contenu, pour éviter de se voir phagocyté par de gros sites, Matt conseille aux éditeurs de publier avant la syndication effective (quelques jours ou semaines avant la reprise du contenu) et d'exiger un lien vers la source sur les contenus syndiqués. Ce lien peut être en nofollow, il sera quand même utilisé comme un signal dans ce contexte.

Voilà donc pour cette matinée sympatique, pas de révélations fracassante, mais j'ai apprécié les capacités d'animateur de Matt, son accessibilité (merci Nathalie de m'avoir introduit), le fait de retrouver les confrères et de mettre des visages sur des avatars :)

20/05/2010

Perle d'apprenti(e) SEO

En pleine correction de mes copies, je ne peux m'empêcher de vous livrer cette petit perle. L'examen, sous forme de QCM comprenait notamment cette question : "Citez 2 façons de créer des liens entrants vers votre site".

Réponse d'un(e) étudiant(e) : "utiliser la balise linkjuice".

Je m'en vais donc de ce pas ajouter <meta name="linkjuice" /> dans mon <header>. C'est en effet bien moins fatiguant que d'aller à la chasse aux liens :)

7/05/2010

SEO : ces optimisations qui ne servent à rien (ou presque)

Je sais bien que les webmasters sont friands de conseils pour optimiser le référencement de leur sites web. Mais aujourd'hui j'aimerais vous parler de ces optimisations que vous pouvez laisser tomber parce qu'elle ne servent à rien pour votre référencement, ou ont un effet négligeable. Vous pourrez ainsi passer plus de temps à l'optimisation d'éléments qui eux ont une importance :)

Les balises meta

Cela fait longtemps qu'elles ne servent à rien me direz-vous. Il n'empêche que les balises meta restent encore aujourd'hui un sujet de préoccupation pour beaucoup, y compris chez nombre de mesclients. Que cela soit donc bien clair : aucune balise meta n'est plus prise en compte pour le positionnement des pages web dans les moteurs majeurs.

Seul le contenu de la balise meta description peut éventuellement être affiché dans les pages de résultats. Personnellement, dans la plupart des cas, je suis partisan de ne pas l'utiliser : le snippet créé dynamiquement par les moteurs me semble préférable car contextuel (construit en fonction des mot-clés recherché, et donc personnalisé). Cela dit l'utilisation de la balise meta description peut se concevoir pour des pages ayant un contenu extrêmement limité, ne permettant pas la génération de snippets satisfaisants.

Les attributs title

Attention : il est question ici de l'attribut title et non de la balise <title>, qui elle est essentielle pour un bon référencement. De mémoire de référenceur aucun test n'a jamais pu montrer que cet attribut était pris en compte par les moteurs de recherche (le test le plus récent étant celui mené par Sylvain d'Axenet). Inutile donc d'utiliser cet attribut sur chaque lien de votre site pour faire du bourrage de mots-clés. Efforcez-vous plutôt de rédiger des intitulés de liens explicites, qui seront un plus à la fois pour votre référencement et pour vos visiteurs. Nul besoin non plus de doubler chaque attribut alt de vos images d'un attribut title : la seule chose à laquelle vous arriverez avec cette technique sera d'altérer la navigation des utilisateurs utilisant des synthèses vocales...

Les attributs lang

L'attribut lang, utilisable sur n'importe quel élément HTML, mais souvent utilisé sur la balise <html> permet de spécifier la langue de l'élement. Inutile cependant de l'utiliser pour indiquer aux moteurs de recherche que votre contenu est en français (ou la langue de votre choix) : il est en effet ignoré des moteurs majeurs, qui se basent sur l'analyse du contenu textuel des pages pour déterminer leur langue. Notez qu'il n'y a pas non plus de contre-indication à utiliser l'attribut.

L'URL rewriting

La question de l'URL rewriting continue d'inquiéter nombre de webmasters. La réécriture des URLs, c'est un peu la nouvelle balise meta : beaucoup s'en inquiètent la considérant à tort comme la condition sine qua non pour un bon référencement. En fait, l'impact de la réécriture des URLs en terme de positionnement n'est pas si évident. En tout état de cause, à supposer que les moteurs tiennent bien compte des mots-clés dans les noms de répertoires et de fichiers, le poids de ces derniers dans l'évaluation de la pertinence d'une page reste très marginal comparé aux autres facteurs.

L'URL rewriting a pu présenter un intérêt pour le référencement à l'époque où les moteurs peinaient à indexer les sites dynamiques. Mais il y a bien longtemps que ce n'est plus le cas. Aujourd'hui avoir 3, 4, 5 paramètres dans ses URLs n'est aucunement un frein à l'indexation. Google a d'ailleurs mis les choses au clair en septembre 2008.

Cela dit, l'URL rewriting peut être intéressant pour améliorer la lisibilité des URLs, leur manipulation par les utilisateurs et (éventuellement, car là encore c'est très peu sensible) le taux de clic dans les pages de résultats des moteurs.

Ma recommandation serait donc de mettre en place la réécriture des URLs uniquement lors du lancement d'un site (ou d'une refonte en profondeur necessitant de toute façon des changements dans les URLs). Pour un site bien établi, l'intérêt de la mise en place de l'URL rewriting pour le référencement me semble douteux, les coûts et les risques associés à cette mise en place étant supérieurs aux bénéfices hypothétiques.

Les sitemaps XML

Les fichiers XML sitemaps permettent dixxit Google de signaler des pages qui ne pourraient pas être détectée autrement. Et c'est bien là ce qui fait leur inutilité, du moins en ce qui concerne le positionnement des pages.

Si votre site est bien conçu, facilement crawlable, alors un fichier sitemap n'apportera rien de plus. Le sitemap est donc inutile. Si votre site est mal conçu, ou manque de popularité, le fichier sitemap ne réglera pas vos problèmes : vos pages profondes seront éventuellement indexées, mais peineront à se positionner. Le sitemap sera là encore inutile. Les sitemaps XML sont donc loin d'être la panacée en matière de référencement.

Reste que le protocole sitemap présente quelques intérêts notamment en ce qu'il permet de réguler les visites des moteurs. Mais on est là dans l'optimisation de la charge des serveurs, et pas dans le SEO.

Le PR sculpting

L'idée derrière le concept de PR sculpting est séduisante, et pas forcément dénuée de rationalité : il s'agit de diriger de concentrer la popularité du site vers les pages les plus stratégiques. Le problème est d'une part que les webmasters n'ont pas accès au vraies valeurs du Pagerank, et d'autre part que l'on ne connait pas exactement la façon dont le PageRank fonctionne actuellement même si ses fondements théoriques sont connus depuis longtemps. Sculpter du PageRank revient donc à sculpter une matière aux propriétés inconnues avec les yeux bandés. Autant sculpter du vent... Ajoutez à cela que les techniques pour sculpter se révèler parfois vite obsolètes et vous comprendrez mieux vaut travailler à une architecture de site logique pour distribuer de façon pertinente votre Pagerank.

4/05/2010

Les moteurs de recherche représenteraient 10% des pages vues sur le web

Décidemment, Yahoo nous gâte : dans mon précédent billet, j'évoquais les résultats de l'enquête Search Academy, montrant l'importance des moteurs de recherche pour les internautes. D'autres chiffres, présentés par Ravi Kumar et Andrew Tomkins lors de conférence WWW2010 et tirés de l'étude "A Characterization of Online Search Behavior" (PDF) confirment encore le poids des moteurs de recherche dans notre vie électronique. L'expression "moteur de recherche" est ici à entendre au sens large : les auteurs englobent sous ce terme les moteurs de recherche web, les moteurs de recherche multimedia et les moteurs de recherche d'items type Ebay, Amazon etc.

Selon les auteurs de cette étude, 10% des pages vues sur le web seraient des pages de moteurs de recherche, toutes catégories confondues. Les pages de moteurs de recherche web représenteraient 6.2% de l'ensemble des pages vues, les pages de moteurs de recherche multimedia 1.4% et les pages de moteurs de recherche d'items 1.4% également.

Au total, les moteurs seraient directement et indirectement à l'origine de 21% des pages vues sur le web. 8.9% des pages vues auraient pour referer direct un moteur de recherche, auquel s'ajoute 3.5% de pages vues ayant pour referer indirect un moteur.

Autre donnée intéressante pour les e-commerçants : 20.1% des affichages de pages "panier" auraient pour origine directe ou indirecte un moteur de recherche.

Yahoo Search Academy : des statistiques sur l'usage des moteurs de recherche

L'enquête Yahoo Search Academy menée en février dernier apporte des données intéressantes sur les usages et la perception des moteurs de recherche par les internautes.

Un moteur, ça sert à quoi tout d'abord ? Selon les utilisateurs, les moteurs servent à rechercher des informations pratiques (94%), à trouver des sites de marques (93%), à accéder à des sites déjà connus (92%), à rechercher des contenus multimédias (91%). Viennent ensuite la préparation d'achats (87%), la recherche d'informations sur des films et jeux (86%), la préparation de voyages et évènements (85%), la recherche de documents spécifiques dans un cadre professionnel ou universitaire (82%), la recherche d'information sur des personnes (81%).

L'enquête confirme d'autre part (si cela était encore nécessaire) la place centrale des moteurs de recherche dans l'utilisation d'internet. 74% des internautes estimeraient ainsi ne pas pouvoir bénéficier du meilleur d'internet sans moteurs de recherche. Ces internautes sont globalement satisfaits des moteurs, mais à 69%, ce qui montre qu'il y a encore de la place pour des améliorations.