Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à mon nouveau blog SEO

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

16/05/2007

RGAA : un nouveau référentiel d'accessibilité pour les administrations

L'article 47 de la loi du 11 février 2005 a fait de l'accessibilité une obligation légale pour les sites publics. Un decrêt d'application devait en préciser les modalités d'application, "par référence aux recommandations établies par l'ADAE" (Agence pour le Développement de l'Administration Electronique), devenue entre-temps DGME (Direction Générale de la Modernisation de l'Etat).

Si l'on n'a toujours pas de nouvelles du decrêt, les recommandations de la DGME se sont elles materialisées sous la forme d'un nouveau Référentiel Général d'Accessibilité pour les Administrations, réalisé par les sociétés Tektonika et Temesis, avec la collaboration de nombreux experts du domaine. Ce référentiel est en phase d'appel à commentaires. Mais Elie Sloïm vous en parlera bien mieux que moi ;)

11/05/2007

Wikio propose un classement des blogs francophones

Wikio publie désormais lui aussi un classement des blogs. Deux catégories thématiques sont actuellement proposées (politique et high-tech), mais leur nombre devrait s'étoffer par la suite.

On peut être sceptique sur la notion d'influence souvent évoquée à l'occasion de tels classements (je le suis), mais la méthode de classement proposée par Wikio est intéressante à deux titres : seuls les liens des billets sont comptés et non pas les blogrolls, ce qui limite les effets de réseaux ; et tous les liens n'ont pas le même poids dans l'algorithme : une citation d'un blog populaire comptera plus qu'une citation d'un blog peu connu. L'algorithme Wikio est donc en cela très proche du PageRank utilisée par Google pour la recherche web.

Pour les amateurs de classements, rappelons qu'Alianzo propose également un classement national et régional de la blogosphère française.

Exalead enchaîne les nouveautés

Le moteur de recherche français Exalead est en forme : en un peu plus d'un mois, ce ne sont pas moins de 3 nouveaux services de recherche qui ont été lancés, ainsi que plusieurs améliorations des services existants, comme la restriction de la recherche aux blogs et forums, et l'affichage de liens d'actualités pour certaines recherches.

Premier de cette série, le service de recherche sur Wikipedia se positionne comme une alternative intéressante au moteur de recherche standard de Wikipedia, plutôt spartiate et peu efficace. Exalead permet une recherche exploratoire, en proposant des termes associés à la requêtes, et en affichant les categories d'appartenance et noms de personnalités relatives aux articles affichés.

La nouvelle version du moteur de recherche d'images s'avère à mon avis moins convainquante : Si selon Exalead environ 2 milliards d'images ont été indexées, les moteurs de recherche d'images Google ou Yahoo affichent systématiquement un plus grand nombre de résultats, ce qui réduit l'interêt de la solution Exalead. Le filtre "visage" me paraît anecdotique : quand on recherche une personnalité, il y a en général peu d'ambiguité sur les mots-clés. Mais pourquoi pas. Reste que le moteur de recherche d'images Exalead propose toujours des filtres intéressants comme la recherche en fonction de la résolution ou de l'orientation, et des opérateurs avancés de recherche.

Le moteur de recherche vidéo, dernier service en date, est lui plutôt une réussite. Exalead indexe les meta-donnée des vidéos hébergées par Youtube, Dailymotion, Metacafe, Kewego, iFilm et par la plateforme de téléchargement payant Vodeo (Exalead étant semble-t-il affilié, les liens Vodeo affichant dans leur URL un "partid=7611"). Un nuage de tags permet là encore de préciser la recherche, et il est également possible de chercher en fonction de la durée des vidéos.

3/05/2007

La classe "robots-nocontent" est-elle pertinente ?

Décidemment, il semble que les moteurs de recherche demandent une participationde plus en plus active des webmasters dans l'amélioration de leurs pages de résultats : alors que Google demande déjà aux webmasters de juger de la valeur des liens sur leurs sites via l'attribut "nofollow" (contredisant au passage sa devise "make pages for users, not for search engines"), Yahoo propose désormais d'empêcher l'indexation de certaines parties du contenu grâce à la classe "robots-nocontent".

Je trouve l'initiative plutôt maladroite : d'abord, on ne sait pas quelles seront les conséquences d'une balise mal fermée : l'intégralité du contenu sera-t-elle alors considérée comme étant à ne pas indexer?

D'autre part, c'est le travail des moteurs que de décider quel contenu est intéressant, et lequel ne l'est pas. Ce qui est intéressant pour les utilisateurs l'est à priori pour les moteurs, alors pourquoi limiter l'indexation de contenus pourtant visibles par les utilisateurs ?

Enfin, c'est potentiellement une occasion suplémentaire de manipuler les résultats et de tromper les utilisateurs. En voici un exemple (non testé cependant) :

<p>Winnie l'ourson est <span class="robots-nocontent">un pervers lubrique</span><span style="display: none">un petit ours jaune</span> qui aime se faire <spanclass="robots-nocontent">donner la fessée par maitresse Miranda</span><span style="display: none">des tartines de miel</span>.</p>

Le contenu se lequel Yahoo basera sa recherche et fondera sa description sera "Winnie l'ourson est un petit ours jaune qui aime se faire des tartines de miel", tandis que l'utilisateur innocent verra en réalité "Winnie l'ourson est un pervers lubrique qui aime se faire donner la fessée par maitresse Miranda"...

30/04/2007

Observez le comportement de vos visiteurs avec RobotReplay

Des applications telles que Crazy Egg ou ClickHeat permettaient déjà de cartographier les clics des utilisateurs sur un site. RobotReplay va encore plus loin, en enregistrant les actions de la souris et les défilements d'écran, et en permettant de suivre l'utilisateur à travers le site. Tout se passe donc comme si l'on suivait la session de l'utilisateur par dessus son épaule !

L'outil s'avère très intéressant. En observant les différentes sessions, on remarque par exemple plusieurs types de comportements très différents : certaines consultations sont très linéaires, le curseur de la souris étant parfois même utilisé comme un stylet pour suivre les lignes. Au contraire, certaines consultations sont très destructurées en apparence, l'utilisateur scrollant tantôt vers le bas, tantôt vers le haut, sautant sur une page pour revenir très rapidement à la précedente...

Quelques demos de l'outil visibles sur YouTube

27/04/2007

Une émission spécial référencement sur Witamine

Bien qu'utilisant peu les podcasts, j'ai apprécié l'interview de David Degrelle, PDG de 1ère Position sur Witamine, l'emission radio dédiée aux webmasters. David y parle de référencement, de longue traîne, des différents types de prestations, de l'échec des associations de référenceurs...

Cliquez ici pour télécharger l'émission au format MP3 (50Mo)

24/04/2007

Comprendre et optimiser les Sitelinks Google

Apparus pour la première fois sur Google en juillet 2005, les Sitelinks sont des liens additionnels affichés en dessous de la description de certains sites lorsqu'ils apparaissent en première position, pour certaines requêtes (ex : recherche sur "Webmaster Hub").

Ces liens permettant au site de se distinguer, il m'a semblé intéressant de tenter de comprendre leur fonctionnement, et éventuellement de proposer des pistes pour les faire apparaître et les optimiser.

Ce qu'en dit Google

"Ces liens sont appelés Sitelinks. Si par exemple vous effectuez une recherche sur Stanford, le premier résultat contient des liens vers d'autres pages du même site, sous le résultat de recherche habituel. Cette fonctionnalité Sitelinks propose des liens vers les pages intérieures des sites qui sont susceptibles d'intéresser les utilisateurs. Les liens étant générés automatiquement, nous ne sommes pas en mesure de les ajouter manuellement pour des sites spécifiques de notre index ou de modifier les liens qui apparaissent".

Quand les Sitelinks s'affichent-ils ?

La rumeur veut que l'affichage des Sitelinks soit la marque du Trustrank. Cette hypothèse n'a cependant pas de fondement valable, puisque l'on ne dispose d'aucun moyen pour connaître le Trustrank d'un site. Et le fait que certains sites X affichent des Sitelinks fait fortement douter de l'influence du "trust" en ce qui concerne les Sitelinks...

Ce que l'on observe, c'est que les Sitelinks s'affichent uniquement quand le site est premier sur la requête, et quand celui-ci est considéré de façon quasi certaine par Google comme le site recherché pour cette requête. Les recherches sur les noms de marques sont donc celles qui affichent le plus fréquemment des Sitelinks, sauf lorsque le nom de la marque est ambigu, par exemple "Apple". Dans de rares cas, certains sites affichent de Sitelinks sur des requêtes génériques lorsqu'ils bénéficient de nombreux liens ayant pour intitulé la requête (ex : glaces.org pour la requête "sorbet").

Une observation attentive des Sitelinks et l'étude du brevet décrivant le système laissent à penser que l'affichage des Sitelinks est lié au comportement des utilisateurs, à la fois sur les pages de résultats Google, et sur le site. Un trafic suffisant est donc nécessaire pour obtenir les Sitelinks. Par contre, le PageRank ne semble pas intervenir.

Le nombre de Sitelinks affiché n'est pas fixe : le nombre de liens affichés peut varier entre 3 et 4 (on a plus rarement parfois observé 2 liens).

Quelles URLs sont choisies ?

Google affirme afficher les URLs "les plus susceptibles d'intéresser l'utilisateur". Comme dit plus haut, cet intérêt de l'utilisateur est estimé en fonction de l'interaction de celui-ci avec le site et avec les pages de résultats Google. Il en découle que les Sitelinks affichés sont ceux qui reçoivent un grand nombre de visites : ce peuvent être les pages les plus fréquemment accédées sur le site, comme celles les plus cliquées à partir des pages de résultats, car très bien référencées (ex : Darty). On observe également que les clics sur les Sitelinks sont systématiquement trackés : il est donc probable que ceux-ci s'affinent avec le temps.

Les liens retenus n'ont pas forcément à être accessibles directement à partir de la page d'accueil des sites, il peut s'agir de pages profondes, mais populaires (ex : le Sitelink "Noms de domaine et hébergement" de Webmaster Hub). Il peut également s'agir de sous-domaines du domaine principal (ex : Sitelinks du Parti Socialiste).

Quels intitulés pour les Sitelinks ?

L'intitulé des Sitelinks reprend le plus souvent le texte des liens, la balise <title> de la page, parfois l'attribut alt des liens image (ex : Sitelink "Le FN" du site du Front National). Dans tous les cas, le texte des Sitelinks ne dépasse jamais les 35 caractères. La reprise des intitulés des liens et des <title> n'est pas forcément intégrale : il semblerait que Google filtre parfois les noms de marques des intitulés et les textes génériques, peut-être par un système de reconnaissance des entités nommées (ex : Speedy avec le Sitelink "Pneu").

Le choix de Google de reprendre soit le texte des liens, soit la balise <title> n'est pas bien clair : peut-être Google estime-t-il que l'un des deux est plus descriptif, en se basant sur le contenu. Une autre hypothèse est que Google se base sur l'origine des clics pour déterminer quel titre adopter : un plus grand nombre de clics via les pages de résultats pourrait favoriser la reprise de la balise <title> puisque c'est cette balise qui est utilisée comme lien dans les pages de résultats, et qui motive généralement les clics des utilisateurs. Ceci n'est qu'une hypothèse.

Quelles pistes pour l'optimisation des Sitelinks ?

Le principe de fonctionnement des Sitelinks, fortement basé sur le comportement des utilisateurs, fait qu'il est difficilement envisageable de les contrôler. Mais il est possible de les favoriser, et de les influencer :

  • Arrangez-vous pour être premier sur votre marque et générer un trafic suffisant pour votre site.
  • Utilisez des intitulés de liens courts et explicites. Vous éviterez ainsi les Sitelinks du type "cliquez-ici" ou "valider".
  • Si vous voulez contrôler de façon sûre le texte du Sitelink, utilisez le même texte pour les ancres des liens et pour la balise <title> de la page.
  • Faites en sorte que vos liens stratégiques se démarquent visuellement, afin d'augmenter leur taux de clics et de les transformer en Sitelinks. Optez pour un design persuasif.
  • Si vous faites de l'emailing, utilisez des liens directs vers les pages à promouvoir au lieu de renvoyer sur la page d'accueil, toujours dans le but de créer du trafic sur ces pages.
  • Evitez d'utiliser des technologies qui font obstacle aux moteurs : liens javascript, Flash, etc.

A lire également (en anglais) :

Google's Listings of Internal Site Links for Top Search Results
Traffic Determines Google UI Snippet Links
How Does Google Create Multi Link Listings?

19/04/2007

Le Web 2.0 pas si différent du Web 1.0

Le Web 2.0 n'est pas aussi participatif qu'on pourrait le croire : Bill Tancer explique ainsi lors du Web 2.0 Expo que seulement 0.16% des visiteurs de Youtube y déposent des vidéos. Les chiffres sont comparables pour Flickr, avec 0.2% de visiteurs y déposant des photos.

Voila qui réjoint l'étude menée par Jakob Nielsen en octobre 2006, selon laquelle dans une communauté en ligne, 90% des utilisateurs en moyenne sont passifs, 9% contribuent occasionnellement, et 1% sont à l'origine de l'essentiel de l'activité.

Il semble finalement que ce qui différencie le Web 2.0, du Web 1.0, ce soit surtout le numéro de version...

17/04/2007

Moteurs de re-recherche

Point de coquille dans le titre de ce billet : selon une étude (PDF) menée conjointement par Jaime Teevan (MIT), Eytan Adar (Université de Washington), Rosie Jones et Michael Potts (Yahoo Research), une part non-négligeable des recherches sur les moteurs serait en fait des "re-recherches".

Dans cette étude portant sur le comportement de 114 utilisateurs sur une période d'un an, les chercheurs ont ainsi mis en évidence que 40% des requêtes ont aboutit à un clic sur un lien déjà accédé auparavant par le même utilisateur, et que 28% de l'ensemble total des clics l'étaient sur des liens déjà cliqués au moins une fois par l'utilisateur. Tous ces indicateurs montrent donc une forte tendance à rechercher de l'information déjà accédée auparavant.

A voir également, ce poster complémentaire à l'étude.

16/04/2007

Google : l'achat de liens définitivement vu comme du spam

Matt Cutts s'était déjà exprimé à plusieurs reprises sur le fait que l'achat et la vente de liens pouvaient être considérés par Google comme du spam. Désormais, il est possible de dénoncer de tels liens directement via le système de spam report, en incluant le mot-clé "paidlink" dans le sujet et le corps du message.

J'avoue être assez perplexe face à cette annonce : le simple fait qu'un lien soit acheté déjà n'en fait pas un lien non pertinent, et je ne vois pas pourquoi il faudrait renoncer aux bénéfices d'un lien en terme de référencement (en se soumettant à l'attribut nofollow), sous pretexte qu'on a payé pour l'obtenir. Tout dépend du contexte.

Le spam report se comprend parfaitement dans le cas où un utilisateur tombe sur une page non pertinente, ou "offensante". Mais concernant les liens payés ? L'utilisateur lambda les ignorera probablement, ne sachant pas qu'ils sont payés. Qui dénoncera alors les liens payés ? Probalement les concurrents, et les zelotes anti-spam. Avant de demander à la communauté un effort pour résoudre une situation qu'il a lui-même créé, il serait peut-être bon que Google regarde (et réduise) sa propre contribution à la prolifération du spam...

10/04/2007

7 raisons pour lesquelles le meta-monde est une utopie

Découvert via le blog de Tom Foremski, "Metacrap" est un essai critique de Cory Doctorow sur les meta-données. Pour l'auteur, "un monde de meta-données à la fois exhaustif et fiable est une utopie. C'est une chimère, basée sur l'aveuglement, la prétention démesurée de quelques geeks et l'opportunisme commercial". L'article date de 2001 et concernait surtout les balises meta, qui ont connu le destin que l'on sait. Mais la reflexion est tout aussi pertinente concernant les systèmes de tags (surtout concernant les points 1, 2, 3 et 7 évoqués plus bas).

7 raisons pourquoi le meta-monde est une utopie :

  • Les gens mentent.
  • Les gens sont paresseux.
  • Les gens sont stupides.
  • Il est difficile de se décrire soi-même.
  • Les classifications ne sont pas neutres.
  • L'unité de mesure retenue influence les résultats.
  • Il y a plusieurs façons de décrire une même chose.

6/04/2007

Identifier et corriger ce qui bloque un référencement

De retour de l'édition 2007 de W3 Campus, voici une version adaptée de la session "Identifier et corriger ce qui bloque un référencement" que j'ai eu le plaisir de présenter. Pour les lecteurs intéressés par la conférence "Ultimate SEO" à laquelle j'ai également participé, je vous invite à lire ce billet sur l'identification des expressions-clés employées par les utilisateurs. Je profite de ce billet pour remercier à nouveau les organisateurs du séminaire qui ont su faire de celui-ci un évenement à la fois convivial et (très) riche en information, ainsi que le public pour sa sympathie ;)

Introduction

"Identifier et corriger ce qui bloque un référencement" est le lot quotidien du référenceur : on regarde l'existant, on identifie les points bloquants, et on recherche ensuite des solutions et des améliorations.

En matière de référencement naturel, i faut savoir qu'il y a 3 grands leviers que l'on peut activer :

  • Le contenu (le texte).
  • Le contenant (la structure du site, le code).
  • La popularité (l'environnement du site, les liens).

Pour qu'un référencement fonctionne correctement, il faut que tous ces leviers soient activés. Ainsi, un site populaire, riche en contenu mais inaccessible aux moteurs aura un référencement médiocre. Un site accessible, populaire, mais sans contenu texte pertinent aura lui aussi un référencement médiocre. Et un site pourtant accessible, avec un contenu pertinent, mais sans aucun lien pointant vers lui aura une référencement médiocre (spécialement pour les thèmes concurentiels).

Il faut donc toujours avoir à l'esprit ces trois axes : contenu, contenant, et popularité. Et pour identifier ce qui bloque un référencement, il faut s'intéresser encore à ces trois axes : un site pourra souffrir d'un contenu mal optimisé, d'une structure rendant son contenu inaccessible ou le mettant mal en valeur, ou bien souffrir d'un déficit de popularité.

Noms de domaine et redirections

La première chose qui peut bloquer un référencement est d'abord la structure. Il arrive qu'un même site possède plusieurs noms de domaines, par exemple pour se proteger du cyber-squatting ou rester accessibles aux utilisateurs qui font des coquilles. Le problème est que des noms de domaines différents sont censés correspondre à des sites différents du point de vue des moteurs. Deux cas de figure se présentent alors :

  • Soit les différents domaines sont considérés comme des doublons (duplicate content), et sont tous ignorés.
  • Soit plusieurs domaines sont effectivement indexés, et la popularité du site est alors diluée.

Il se peut également que sur certains moteurs, ce soit tantôt un domaine qui ressorte, tantôt l'autre. Dans tous les cas, cela nuit à la visibilité du site...

Comment détecter une mauvaise gestion des domaines ? La commande allintitle:"title_de_la_homepage" de Google permet parfois de repérer les pages indexées par le moteur ayant pour balise <title> le contenu spécifié. Le symptôme d'une mauvaise gestion des domaines se manifeste alors comme plusieurs de vos noms de domaines affichant le même <title> : version avec et sans tirets, avec différents TLD, adresse IP...

Comment corriger ce problème ? Si vous réservez plusieurs noms de domaines pour un site :

  • Ne faites la promotion que d'un seul, ce qui limitera l'indexation des autres.
  • Redirigez les autres domaines vers le domaine principal, via une redirection serveur, de type 301.

N'utilisez que des redirections serveur : ce sont les seule suivies par les moteurs (les redirection à bases de frames 100%, de javascript, ou de balises meta refresh ne sont pas valables). N'utilisez pas de redirections serveurs de type 302, car le risque est que le contenu de la page de destination soit indexées sous l'URL (et donc le domaine) de la page redirigée, puisque la redirection est considérée temporaire.

Fichiers Robots.txt

Le protocole robots.txt sert a restreindre le parcours des sites web par les robots. Il s'agit d'un simple fichier txt, situé à la racine du site ou du sous-domaine. On peut y définir des répertoires ou fichiers à ne pas indexer pour tous les robots, ou désactiver l'accès seulement à des robots spécifiques.

Si ce fichier n'est en général par défaut pas présent sur un site web , il se peut qu'il ait été placé là par un précédent webmaster, où que vous l'ayiez oublié. Si un ou plusieurs moteurs refusent absolument de vous indexer pensez donc à regarder au cas où si ce fichier est présent, et s'il contient ce type de lignes :

User-agent: * Disallow: /

L'exemple ci-dessus interdit par exemple à tous les robots l'indexation du site.

Javascript, AJAX, Flash et images

Aujourd'hui encore, les moteurs de recherche ne sont pas capables d'interpréter correctement ni Javascript, ni les éléments Flash (même si Google commence timidement à extraire de l'information des fichiers Flash). Ils ne lisent pas non plus le contenu des images.

Ces technologies doivent donc être considérées comme bloquantes pour les moteurs, au moins en ce qui concerne le Flash. Javascript, lui, s'il n'est pas interprété par les moteurs peut dans certains cas être utilisé de façon à conserver l'accessibilité du site, tandis que les images significatives peuvent être dotées de l'attribut "alt".

Comment savoir ce que voient (ou pas) les moteurs ? Plusieurs façons :

  • Une 1ère méthode est tout simplement de faire un copié-collé de l'intégralité de la page dans le notepad (sous Windows) à partir du navigateur : On ne verra ainsi que le contenu compréhensible par les moteurs à savoir le contenu texte, et les attributs des images. L'inconvénient de cette méthode est que le texte affiché via javascript sera aussi copié, et que l'on ne voit pas si les liens sont accessibles... Cette méthode, si elle est rapide est donc peu fiable.
  • Seconde méthode : naviguer sur le site avec Firefox et l'extension Webdeveloper, en ayant désactivé Javascript, l'affichage des images, et CSS : On a alors une meilleure idée de l'accessibilité du site, puisque les liens restent cliquables. Mais les éléments Flash reste cependant visibles...
  • Troisième méthode moins simple mais vraiment efficace : naviguer sur le site avec un navigateur texte comme Lynx. Lynx est un navigateur préhistorique, qui ne connait ni les images, ni Javascript, ni Flash, ni CSS, pas même les tableaux. C'est donc le meilleur simulateur de robot qui soit.

Une fois diagnostiqué les points bloquants, que faire ? Il faut mettre en place des alternatives accessibles. Si votre site est 100% Flash, faites une version HTML. Si votre menu est en Flash, faites des liens href alternatifs, éventuellement en pied de page, ou dans le contenu. Si un clip Flash mène vers d'autres pages, doublez-le de liens href vers ces pages. Si vous faites de popups, rendez-les accessibles en utilisant un lien href doté d'un attribut "onclick".

Veillez aussi à utiliser de façon pertinente ces technologies : ce qui est bon pour les moteurs l'est souvent pour les utilisateurs, et inversement. La simplicité est souvent payante, tant en matière de référencement que d'ergonomie.

Formulaires

Les moteurs de recherche ne savent que suivre les liens pour passer d'une page à une autre, et sont incapables de remplir un formulaire. Si l'affichage du contenu dépend d'un formulaire, cela pose donc problème : le contenu du site aura beau être immensément riche, les moteurs seront incapables d'y accéder. C'est d'ailleurs ce qui constitue le fameux "web invisible" : des milliards de pages de qualité, mais cachées derrières des formulaires.

Identifier le problème est plutôt simple : tout contenu accessible uniquement via un formulaire est inaccessible pour les robots.

Comment le résoudre ? Il faut s'assurer que le contenu de la base de données soit accessible également via des liens HTML, qui auront pour URL les pages de résultats du formulaire (ce qui implique d'utiliser la méthode GET pour interroger la base, avec les paramètres dans l'URL).

On peut par exemple faire une arborescence qui soit fonction des éléments du formulaire : pour un site de recherche de biens immobiliers ce sera par exemple une arborescence par nature du bien puis par localisation géographique.

Balisage sémantique

Qu'est-ce que le balisage sémantique ? Les spécifications du HTML comprennent un certain nombre de balises qui ont une fonction "sémantique", càd qu'elle donnent des indications quand au "sens", ou plutôt quand à la fonction des éléments balisés.

  • Les titres et sous-titres devraient ainsi utiliser les balises <h1> à <h6>.
  • Les paragraphes la balise <p>.
  • Les listes et menus les balises <ul> et <ol>.
  • Les emphases la balise <strong> ou <em>.

Ces balises sont prises en compte par les moteurs : un contenu balisé comme un titre se verra donc reconnaître un poids plus fort, parce qu'un titre est censé résumer le contenu qui le suit. Le problème est que les logiciels WYSIWYG, souvent utilisés, ne vont pas insérer ces balises automatiquement. Dreamweaver ne sait pas qu'un titre est un titre... C'est donc à vous de baliser correctement votre contenu.

Comment identifier les éventuels problèmes de balisage ? Naviguez sur le site, toujours avec l'extension Webdeveloper, en ayant activé l'option "display element information", et assurez-vous que les élements sont bien balisés conformément à leur signification au sein du contenu.

Balise Title

Intéressons nous maintenant à ce qui fait réellement le contenu : le premier élément de contenu de votre site est la balise <title>. Cette balise, qui est obligatoire, est importante pour votre référencement, puisque elle est décrit normalement ce dont parle votre page. Les moteurs lui accordent donc une grande importance. Il ne faut pas oublier non plus que la balise <title> est le premier contact qu'a l'internaute avec votre site, puisque c'est son intitulé qui est généralement repris comme lien dans les pages de résultats des moteurs de recherche. C'est donc un élement qu'il faut rédiger avec soin.

Comment identifier les éventuels problèmes de <title> ? Dressez une carte du site avec le logiciel Xenu, et assurez-vous que chaque page possède un <title> pertinent par rapport à son contenu. "Pertinent" signifie ici que chaque page du site possède un title explicite, engageant et riche en mots-clés (sans pour autant devenir une liste). Cette balise devrait comporter idéalement entre 50 et 80 caractères.

Teneur du contenu

Les moteurs de recherche sont avant tout des machines à indexer du texte. Si vous souhaitez être visible sur certaines expressions, vous devez absolument employer ces expressions dans votre contenu (des exceptions existent, mais elles sont marginales). Si vous n'avez pas de contenu texte, ou si celui-ci est insuffisant, vous ne serez pas visible. Et si vous avez du contenu, mais que celui-ci n'est pas en adequation avec les mots-clés tapés par les utilisateurs, vous ne serez pas visible non plus.

Comme identifier si votre contenu bloque votre référencement ?

  • Assurez-vous que vous avez déjà du contenu
  • Assurez-vous que vous parlez le langage de vos utilisateurs. Soyez directs, explicites, favoriser un langage simple et naturel, évitez les jargons.
  • Assurez-vous d'avoir le plus possible de pages mono-thématiques, c'est à dire des pages consacrée à un nombre limité d'expressions-clés gravitant autour d'un thème donné.
  • Vérifiez que vos expressions-clés soient présentes dans vos pages, en particulier dans les zones "chaudes" des pages : la balise <title>, les titres et sous-titres, les paragraphes (le corps du texte), les menus et liens. Ces zones chaudes constituent le contenu primaire, qui doit être optimisé en priorité. A coté de ce contenu primaire, vous pouvez optimiser le contenu secondaire de la page : les balises meta description et meta keywords, les attributs alt, les noms de fichiers et de répertoires.

Popularité

La popularité est un concept imaginé par les moteurs pour départager des pages avec un contenu plus ou moins équivalent au niveau de la pertinence. Concrètement, il s'agit de mesurer la quantité, mais aussi la qualité des liens qui pointent vers une page. L'algorithme PageRank est le plus connu, mais chaque moteur possède en fait son propre indice de mesure de la popularité.

Comment déceler un manque de popularité ? On peut se faire une 1ère idée avec le PageRank affiché par la Googlebar et les operateurs de Google (exemple pour ce site). Pour des résultats plus détaillés, on peut également utiliser les services Google Webmaster Tools et Yahoo Site Explorer.

Si votre site affiche très peu de résultats, ou si votre popularité est nettement inférieure à celle de vos concurrents, alors vous manquez probablement de liens entrants. On peut considérer qu'un site avec un PR<3 (sur sa page d'accueil) est peu populaire, et qu'un site avec un PR de 4 ou 5 est moyennement populaire. Au dela, de 6 à 10, le site commence à vraiment être populaire. Attention cependant : l'échelle du PR étant logarithmique, un site PR4 n'est pas deux fois plus populaire qu'un site PR2.

Comment augmenter sa popularité ? L'idée générale est d'augmenter le nombre de liens (pertinents) pointant vers son site : soumettez donc votre site aux annuaires généralistes, aux annuaires spécialisés, aux sites thématiques, échangez des liens avec des sites proches, mettez votre site en signature sur les forums, mettez votre URL sur vos communiqués de presse, syndiquez votre contenu... Tout lien est bon à prendre tant qu'il fait sens pour l'utilisateur.

Distribuer sa popularité

On parle souvent de la "popularité d'un site", c'est en fait un abus de langage : la popularité est toujours relative à une page, et non à un site. Quand on dit qu'un site est populaire, on parle en fait de la popularité de sa page d'accueil, page qui est en général la plus populaire du site car la plus liée.

Mais cette page d'accueil est par définition une page généraliste : sa popularité ne lui sert donc pas à grand chose. Par contre des pages plus ciblées auront tout à gagner à devenir populaires. Il est donc important pour une visibilité maximale de redistribuer le PageRank pour faire en sorte que toutes les pages du site soient populaires.

Comment détecter et corriger une mauvaise répartition de la popularité ?

  • Assurez-vous que le PR ne décroit pas trop rapidement au fur et à mesure qu'on s'enfonce dans le site.
  • Redistribuez la popularité en mettant en place un réseau dense de liens à l'intérieur du site. L'idée est de réduire le nombre de clics pour accéder aux pages profondes, et de favoriser la remontée vers l'accueil à partir des pages profondes. Plusieurs méthodes sont possibles : chemins de fers, liens dans le contenu, multiplication des liens dans les menus.
  • Essayez d'établir des liens profonds venant de l'extérieur : c'est à dire des liens pointant non pas vers votre domaine ou votre page d'accueil, mais vers les pages profondes de votre site : pages d'accueil de second niveau, pages produits...

5/04/2007

Référencement Design et Cie dans l'Officiel du Net

Frédéric m'a aimablement signalé que Référencement Design et Cie était cité (Jpg, 93 Ko) dans l'édition d'avril / mai de l'Officiel du Net, à la rubrique Objectif Blogs : "ce blog vous apportera de nombreuses explications concernant le référencement et les différentes manières pour que votre blog soit mieux visible, par exemple chez Google". Merci à lui, et merci à eux ;)

4/04/2007

Echanges sur l'écriture web en MP3

Ils étaient attendus depuis longtemps : Eric Delcroix vient juste de mettre en ligne les enregistrements de la table ronde sur l'écriture web organisée en février dernier par Blog en Nord. Vous y entendrez donc les voix de Gilles Klein (beaucoup), Jean Marc Hardy, Sébastien Bailly, Eric Delcroix ainsi que celle de votre serviteur (un peu).

La qualité audio est plutôt médiocre, mais je ne peux que vous encourager à les écouter, tant les échanges y étaient riches.

2/04/2007

MSN Live désactive certains de ses opérateurs de recherche

On pourrait croire à un poisson d'avil, mais ce n'est pas le cas... MSN a décidé de désactiver certains des opérateurs de son moteur de recherche :

"Si vous êtes un utilisateur régulier de nos opérateurs avancées de recherche tels que link:, linkdomain: et inurl, vous aurez probablement remarqué récemment que ces opérateurs ont été désactivés. Nous avons en effet constaté que ces opérateurs, s'ils étaient largement utilisés par des utilisateurs légitimes, l'étaient aussi malheureusement par ce qui s'est révélé être des automates, à des fins de data mining. Aussi, nous avons pris la décision de bloquer toutes les requêtes basées sur ces opérateurs (...) Nous faisons de notre mieux pour rendre ces opérateurs à nouveau disponibles (...) Merci de votre patience."

< 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 >