Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à Référencement Design et Cie 2.0

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

26/05/2010

Retour sur la venue de Matt Cutts à Paris

Ce matin avait donc lieu la première Search Conférence de Matt Cutts à Paris, dans les locaux de La Cantine. Dans la salle était présente la fine fleur du référencement francophone ainsi que plusieurs googlers français dont Nathalie Peret de l'équipe qualité de la recherche. Matt a d'abord rappelé les grands principes de fonctionnement du moteur (crawling, pertinence, popularité...) puis, constatant que l'audience possédait un niveau avancé, a accéléré pour arriver plus vite aux questions réponses.

Quelques infos et confirmations en vrac :

  • Google n'effectuerait pas de "zoning" des pages, c'est-à-dire que le contenu central ne se verrait pas reconnaître un poids plus fort que les contenus placés en colonne de droite, de gauche ou en footer, même si des brevets ont été déposés décrivant ce type de méthodes. Par contre, Matt a indiqué que le "boilerplate" (les contenus génériques tels que les mentions légales etc.) était détecté par Google.
  • Sur la question de l'emplacement des termes clés dans un bloc de contenu (en tout début ou à la fin), Matt a indiqué que cela n'avait pas d'importance. Par contre il a confirmé que la proximité des termes, leur ordre étaient bien pris en compte par le moteur. Il a également réaffirmé que les titres <hn> étaient considérés comme "un peu plus importants".
  • L'objectif de la mise à jour "Mayday" de l'algorithme était d'améliorer les résultats du moteur pour les requête de longue traîne, en tenant mieux compte de la réputation des sites.
  • Les tendances du search pour Matt sont le local, le social, et le mobile.
  • Le "fresh spam" est un challenge pour les équipes Google, car sur des thématiques émergentes (ex : le volcan Eyjafjöll) il n'est pas aisé de déterminer la réputation des sites et de distinguer les vrais sites d'information des MFA opportunistes.
  • Google interprêterait partiellement javascript. Des fausses conditions (ex: "si 4+1=5") pour maquiller des redirections pernicieuses peuvent être détectées par le moteur.
  • Des liens en javascript peuvent transmettre du PageRank.
  • La recherche en HTTPS ne deviendra pas la recherche par défaut de Google. L'impact de la mise en place de la recherche sécurisée sur les referers devrait donc être négligeable.
  • Si on syndique du contenu, pour éviter de se voir phagocyté par de gros sites, Matt conseille aux éditeurs de publier avant la syndication effective (quelques jours ou semaines avant la reprise du contenu) et d'exiger un lien vers la source sur les contenus syndiqués. Ce lien peut être en nofollow, il sera quand même utilisé comme un signal dans ce contexte.

Voilà donc pour cette matinée sympatique, pas de révélations fracassante, mais j'ai apprécié les capacités d'animateur de Matt, son accessibilité (merci Nathalie de m'avoir introduit), le fait de retrouver les confrères et de mettre des visages sur des avatars :)

20/05/2010

Perle d'apprenti(e) SEO

En pleine correction de mes copies, je ne peux m'empêcher de vous livrer cette petit perle. L'examen, sous forme de QCM comprenait notamment cette question : "Citez 2 façons de créer des liens entrants vers votre site".

Réponse d'un(e) étudiant(e) : "utiliser la balise linkjuice".

Je m'en vais donc de ce pas ajouter <meta name="linkjuice" /> dans mon <header>. C'est en effet bien moins fatiguant que d'aller à la chasse aux liens :)

7/05/2010

SEO : ces optimisations qui ne servent à rien (ou presque)

Je sais bien que les webmasters sont friands de conseils pour optimiser le référencement de leur sites web. Mais aujourd'hui j'aimerais vous parler de ces optimisations que vous pouvez laisser tomber parce qu'elle ne servent à rien pour votre référencement, ou ont un effet négligeable. Vous pourrez ainsi passer plus de temps à l'optimisation d'éléments qui eux ont une importance :)

Les balises meta

Cela fait longtemps qu'elles ne servent à rien me direz-vous. Il n'empêche que les balises meta restent encore aujourd'hui un sujet de préoccupation pour beaucoup, y compris chez nombre de mesclients. Que cela soit donc bien clair : aucune balise meta n'est plus prise en compte pour le positionnement des pages web dans les moteurs majeurs.

Seul le contenu de la balise meta description peut éventuellement être affiché dans les pages de résultats. Personnellement, dans la plupart des cas, je suis partisan de ne pas l'utiliser : le snippet créé dynamiquement par les moteurs me semble préférable car contextuel (construit en fonction des mot-clés recherché, et donc personnalisé). Cela dit l'utilisation de la balise meta description peut se concevoir pour des pages ayant un contenu extrêmement limité, ne permettant pas la génération de snippets satisfaisants.

Les attributs title

Attention : il est question ici de l'attribut title et non de la balise <title>, qui elle est essentielle pour un bon référencement. De mémoire de référenceur aucun test n'a jamais pu montrer que cet attribut était pris en compte par les moteurs de recherche (le test le plus récent étant celui mené par Sylvain d'Axenet). Inutile donc d'utiliser cet attribut sur chaque lien de votre site pour faire du bourrage de mots-clés. Efforcez-vous plutôt de rédiger des intitulés de liens explicites, qui seront un plus à la fois pour votre référencement et pour vos visiteurs. Nul besoin non plus de doubler chaque attribut alt de vos images d'un attribut title : la seule chose à laquelle vous arriverez avec cette technique sera d'altérer la navigation des utilisateurs utilisant des synthèses vocales...

Les attributs lang

L'attribut lang, utilisable sur n'importe quel élément HTML, mais souvent utilisé sur la balise <html> permet de spécifier la langue de l'élement. Inutile cependant de l'utiliser pour indiquer aux moteurs de recherche que votre contenu est en français (ou la langue de votre choix) : il est en effet ignoré des moteurs majeurs, qui se basent sur l'analyse du contenu textuel des pages pour déterminer leur langue. Notez qu'il n'y a pas non plus de contre-indication à utiliser l'attribut.

L'URL rewriting

La question de l'URL rewriting continue d'inquiéter nombre de webmasters. La réécriture des URLs, c'est un peu la nouvelle balise meta : beaucoup s'en inquiètent la considérant à tort comme la condition sine qua non pour un bon référencement. En fait, l'impact de la réécriture des URLs en terme de positionnement n'est pas si évident. En tout état de cause, à supposer que les moteurs tiennent bien compte des mots-clés dans les noms de répertoires et de fichiers, le poids de ces derniers dans l'évaluation de la pertinence d'une page reste très marginal comparé aux autres facteurs.

L'URL rewriting a pu présenter un intérêt pour le référencement à l'époque où les moteurs peinaient à indexer les sites dynamiques. Mais il y a bien longtemps que ce n'est plus le cas. Aujourd'hui avoir 3, 4, 5 paramètres dans ses URLs n'est aucunement un frein à l'indexation. Google a d'ailleurs mis les choses au clair en septembre 2008.

Cela dit, l'URL rewriting peut être intéressant pour améliorer la lisibilité des URLs, leur manipulation par les utilisateurs et (éventuellement, car là encore c'est très peu sensible) le taux de clic dans les pages de résultats des moteurs.

Ma recommandation serait donc de mettre en place la réécriture des URLs uniquement lors du lancement d'un site (ou d'une refonte en profondeur necessitant de toute façon des changements dans les URLs). Pour un site bien établi, l'intérêt de la mise en place de l'URL rewriting pour le référencement me semble douteux, les coûts et les risques associés à cette mise en place étant supérieurs aux bénéfices hypothétiques.

Les sitemaps XML

Les fichiers XML sitemaps permettent dixxit Google de signaler des pages qui ne pourraient pas être détectée autrement. Et c'est bien là ce qui fait leur inutilité, du moins en ce qui concerne le positionnement des pages.

Si votre site est bien conçu, facilement crawlable, alors un fichier sitemap n'apportera rien de plus. Le sitemap est donc inutile. Si votre site est mal conçu, ou manque de popularité, le fichier sitemap ne réglera pas vos problèmes : vos pages profondes seront éventuellement indexées, mais peineront à se positionner. Le sitemap sera là encore inutile. Les sitemaps XML sont donc loin d'être la panacée en matière de référencement.

Reste que le protocole sitemap présente quelques intérêts notamment en ce qu'il permet de réguler les visites des moteurs. Mais on est là dans l'optimisation de la charge des serveurs, et pas dans le SEO.

Le PR sculpting

L'idée derrière le concept de PR sculpting est séduisante, et pas forcément dénuée de rationalité : il s'agit de diriger de concentrer la popularité du site vers les pages les plus stratégiques. Le problème est d'une part que les webmasters n'ont pas accès au vraies valeurs du Pagerank, et d'autre part que l'on ne connait pas exactement la façon dont le PageRank fonctionne actuellement même si ses fondements théoriques sont connus depuis longtemps. Sculpter du PageRank revient donc à sculpter une matière aux propriétés inconnues avec les yeux bandés. Autant sculpter du vent... Ajoutez à cela que les techniques pour sculpter se révèler parfois vite obsolètes et vous comprendrez mieux vaut travailler à une architecture de site logique pour distribuer de façon pertinente votre Pagerank.

4/05/2010

Les moteurs de recherche représenteraient 10% des pages vues sur le web

Décidemment, Yahoo nous gâte : dans mon précédent billet, j'évoquais les résultats de l'enquête Search Academy, montrant l'importance des moteurs de recherche pour les internautes. D'autres chiffres, présentés par Ravi Kumar et Andrew Tomkins lors de conférence WWW2010 et tirés de l'étude "A Characterization of Online Search Behavior" (PDF) confirment encore le poids des moteurs de recherche dans notre vie électronique. L'expression "moteur de recherche" est ici à entendre au sens large : les auteurs englobent sous ce terme les moteurs de recherche web, les moteurs de recherche multimedia et les moteurs de recherche d'items type Ebay, Amazon etc.

Selon les auteurs de cette étude, 10% des pages vues sur le web seraient des pages de moteurs de recherche, toutes catégories confondues. Les pages de moteurs de recherche web représenteraient 6.2% de l'ensemble des pages vues, les pages de moteurs de recherche multimedia 1.4% et les pages de moteurs de recherche d'items 1.4% également.

Au total, les moteurs seraient directement et indirectement à l'origine de 21% des pages vues sur le web. 8.9% des pages vues auraient pour referer direct un moteur de recherche, auquel s'ajoute 3.5% de pages vues ayant pour referer indirect un moteur.

Autre donnée intéressante pour les e-commerçants : 20.1% des affichages de pages "panier" auraient pour origine directe ou indirecte un moteur de recherche.

Yahoo Search Academy : des statistiques sur l'usage des moteurs de recherche

L'enquête Yahoo Search Academy menée en février dernier apporte des données intéressantes sur les usages et la perception des moteurs de recherche par les internautes.

Un moteur, ça sert à quoi tout d'abord ? Selon les utilisateurs, les moteurs servent à rechercher des informations pratiques (94%), à trouver des sites de marques (93%), à accéder à des sites déjà connus (92%), à rechercher des contenus multimédias (91%). Viennent ensuite la préparation d'achats (87%), la recherche d'informations sur des films et jeux (86%), la préparation de voyages et évènements (85%), la recherche de documents spécifiques dans un cadre professionnel ou universitaire (82%), la recherche d'information sur des personnes (81%).

L'enquête confirme d'autre part (si cela était encore nécessaire) la place centrale des moteurs de recherche dans l'utilisation d'internet. 74% des internautes estimeraient ainsi ne pas pouvoir bénéficier du meilleur d'internet sans moteurs de recherche. Ces internautes sont globalement satisfaits des moteurs, mais à 69%, ce qui montre qu'il y a encore de la place pour des améliorations.

30/04/2010

Résultats Twitter en temps réel dans Google : oui et alors ?

Dans "Twitter pour être mieux référencé ?" , j'expliquais hier sur le blog Relevant Traffic qu'il était hasardeux de compter sur Twitter pour se créer de la visibilité dans le cadre de la recherche en temps réel. En effet, à supposer qu'un twit soit affiché, sa visibilité sera de toute façon très fugace.

En faisant du ménage dans mes bookmarks cet après-midi, je suis tombé sur une étude d'eye tracking menée par Oneupweb Digital qui semble suggérer que coté utilisateur, l'insertion de résultats temps-réel dans les pages de résultats des moteurs serait loin d'être un bouleversement. Ainsi, seul 55% des utilisateurs connaissant l'existence des résultats temps réel seraient capables de les identifier facilement dans une page de résultats (73% ignoraient d'ailleurs carrément leur existence avant de participer à l'étude). Et en moyenne, ce ne serait qu'au bout de 9 à 14 secondes qu'aurait lieu la première fixation des résultats temps-réel, ce temps variant selon les tâches à effectuer... Bref, voila de quoi douter de l'utilité de l'intégration des résultats Twitter en temps réel, du moins dans leur implémentation actuelle. Pour des requêtes vraiment chaudes, une mise en évidence graphique serait peut être indiquée pour susciter l'attention des internautes.

16/04/2010

SMO et SEO sont dans un bateau. SMO tombe à l'eau. Qui est-ce qui reste ?

Intéressante étude que celle menée par Scanblog et OpenedMind sur la relation qu'entretiennent les français (les vrais, pas les blogueurs et les SEO) avec les médias sociaux.

A en croire les résultats de l'enquête, si le web en tant que media a su gagner les faveurs des internautes, toutes les sources d'informations qui s'y trouvent ne jouissent pas du même degré de confiance, au moins en ce qui concerne les achats. Les moteurs de recherche apparaissent aux yeux des français comme des sources d'une fiablilité comparable à celle des utilisateurs de produits ou des experts. Le web social par contre est perçu comme étant moins digne de confiance. Même les sites de marques sont vus comme étant plus crédibles que les forums, les réseaux sociaux et les blogs.

Je rejoins donc tout à fait la conclusion de l'étude : "la suprématie des moteurs de recherche incite plus à un bon SEO qu'à un buzz". Facebook n'est pas prêt de remplacer Google en tant que porte d'entrée dans le web (celà dit, un peu de SMO en complément de votre SEO ne peut pas faire de mal, et il faut envisager les réseaux sociaux comme un prolongement de votre communication).

Mise à jour de Google Webmaster Tools

La section de l'interface Webmaster Tools consacrée aux requêtes les plus fréquentes vient d'être refondue. Jusque ici, Google affichait essentiellement la position moyenne pour les 100 premiers mots-clés. S'il était intéressant de voir sur quelles requêtes un site se positionnait, l'intérêt en termes operationnels était finalement assez limité. Désormais, Google propose des données bien plus complètes. L'outil s'est également enrichi de nouvelles fonctionnalités.

La vue par défaut affiche les requêtes ayant généré le plus d'affichages dans les pages de résultats, avec pour chacune le nombre d'impressions, le nombre de clics et le taux de clic correspondant. Notez qu'il est maintenant possible de spécifier la période à considérer, tout comme dans Google Analytics.

Cliquer sur les mots-clés permet d'accéder à informations suplémentaires : les différentes positions obtenues par le site sont affichées, avec pour chacune les impressions, clics et CTRs correspondant (ce qui me permet de vous confirmer au passage qu'il est plus intéressant d'être 1er que 2ème - si si !). Les pages ressortant dans les SERPs pour la requête sont également mentionnées. Enfin un graphique affiche l'évolution dans le temps des impressions et des clics.

Le grand intérêt de l'outil réside selon moi dans le fait qu'il permet de s'intéresser à l'optimisation du taux de clic : avec cette mise à jour, il est en effet devenu très facile d'identifier les termes sur lesquels un site se positionne bien mais ne parvient pas à motiver le clic. Il faut alors se poser les bonnes questions : la requête est-elle ambigue et le site visiblement hors-sujet ? Le snippet ou la balises <title> sont-ils imprécis ? Pas assez attractifs ? Bref il devient possible de travailler son attractivité dans les SERPs en plus de son positionnement. Le SERPO (Search Engine Results Page Optimization) est né ;)

Reste la question de la fiabilité des données. Un rapide examen montre en effet que si on retrouve bien les même tendances dans Google Analytics et Webmaster Tools, des différences parfois sensibles apparaissent au niveau du nombre de clics (GIF). D'autres webmasters semblent d'ailleurs avoir fait la même observation.

23/03/2010

Cours sur le référencement n°9 : les liens sponsorisés

Pour ce neuvième cours, j'ai laissé la place à mon collègue Julien Marsaud, spécialiste en matière de liens sponsorisés. Julien nous a expliqué ce que sont les liens sponsorisés, leur fonctionnement, et comment créer une campagne efficace.

Ce cours clôt le module référencement qu'il ma été donné d'animer cette année auprès des étudiants du Master IDEMM. Ce fût une expérience sympatique, particulièrement du fait que certains étudiants ont montré un réel intérêt pour le référencement. J'espère que le plaisir fût partagé :)

4/03/2010

Cours sur le référencement n°8 : référencements spécifiques

La recherche universelle, en faisant remonter dans les SERPs des contenus issus des moteurs verticaux offre de nouvelles opportunités d'être visible. Dans ce cours, j'aborde ces formes de référencement spécifiques que sont le référencement local, le référencement dans Google Actualités, l'optimisation des images et vidéos, et le référencement des blogs.


Il s'agit de mon dernier cours, le dernier (sur les liens sponsorisés) devant être assuré par mon collègue Julien Marsaud, expert Adwords et Analytics. Vous pouvez retrouver l'intégralité des cours donnés cette année aux étudiant du Master Idemm sur mon compte Slideshare.

25/02/2010

Cours sur le référencement n°7 : évaluer son référencement

Les cours précédent ont abordé successivement l'optimisation de la structure des sites, de leur contenu et de leur popularité. Une fois ce travail effectué, il faut en mesurer le fruit. C'est l'objet de cette présentation, où je propose plusieurs moyens d'évaluer la qualité de son référencement.


22/02/2010

Présentation : la boite à outils du référenceur (SEO Campus 2010)

Ci-dessous, les slides de la présentation que j'ai donné vendredi dernier lors du SEO Campus :


J'en profite pour remercier l'association pour la qualité de l'évènement et l'accueil extrêmement sympatique, comme toujours :)

Autres présentations et retours sur cette édition (liste non exhaustive, n'hésitez pas à en signaler d'autres en commentaire) :

18/02/2010

Présent à SEO Campus Paris et aux journée du contenu web à Lille

J'interviendrai demain à 14h à l'occasion du SEO Campus lors de la conférence "La boite à outils du référenceur" (on me dit dans l'oreillette qu'il resterait encore quelques places disponibles...)

Je serai également présent le vendredi 5 mars à l'occasion des journées du contenu web organisées par Blog en Nord, pour participer en bonne compagnie aux tables rondes sur le référencement. La partie référencement de l'évenement est animée par SEO Camp. Pour la liste complète des intervenants, surveiller le site de l'association ;)

Au plaisir de vous y croiser :)

17/02/2010

Une interview ou l'on parle... de SEO (forcément)

Simon Tripnaux m'a fait l'honneur de me convier à une interview sur son blog Tribords. On y parle de référencement, de blogs, de réseaux sociaux... Un grand merci à Simon pour ces questions qui sortent de l'ordinaire SEO ;)

10/02/2010

Cours sur le référencement n°6 : travailler sa popularité

Dans ce cours, j'explique l'importance des liens pour un bon référencement, en abordant les notions de popularité et de "linkjuice". J'expose ensuite quelques bonnes pratiques pour la création de liens entrants. Les SEO avancés et autres ninjas n'y découvriront rien, il s'agit surtout de donner de bonnes bases à un public de non-spécialistes ;)


< 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 >