Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à Référencement Design et Cie 2.0

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

18/06/2010

Retour sur la 1ère édition des SMX à Paris

La première édition parisienne des conférences Search Marketing Expo s'est donc achevée mercredi soir.

Coté positif j'ai pu assister à de très bonnes conférences. J'ai particulièrement apprécié d'entendre Olivier de Segonzac sur le nettoyage de réputation, Philippe Yonnet sur les critères pris en compte par les moteurs et sur la recherche en temps-réel, Paul Sanchez sur les techniques black-hat, Virginie Clève sur le référencement des sites de grande envergure et Susan Moskwa de Google sur le duplicate content (en français qui plus est, ce qui est appréciable). Susan s'est également montrée très disponible pour répondre aux questions. J'ai aussi été impressionné par les capacités de "showman" de Marcus Tandler.

Parmi les point négatifs, une audience très réduite et quelques conférences trop basiques. Les organisateurs sont cela dit conscients de ces problèmes, et réfléchissent déjà aux améliorations à apporter lors des prochaines éditions. Pour d'autres retours sur cette conférence, je vous invite à aller lire les compte-rendus de Céline Simon sur Oseox, celui de Virginie Clève, celui de Seoplayer, ainsi que celui d'Eko

Ma présentation sur le référencement des sites de grande envergure :


3/06/2010

Parrain de la promotion 2010-2011 de la licence pro "Référencement et rédaction web"

En septembre prochain aura lieu à l'IUT de Mulhouse la troisième rentrée de la licence professionelle "Référenceur et rédacteur web". J'ai accepté d'en être le parrain cette année, et profite de ce billet pour remercier les responsables de la formation pour cet honneur. J'essaierai de me montrer à la hauteur de mes illustres prédécesseurs, Olivier Andrieu et Isabelle Canivet :)

Rendez-vous le 13 septembre pour un cours inaugural !

2/06/2010

Examen blanc CESEO : peut mieux faire ?

SEO Camp vient de mettre en ligne un questionnaire permettant de s'essayer à l'examen CESEO. Ayant participé à la rédaction des questions, mais n'ayant aucune idée des questions proposées par les autres contributeurs, je me suis aussitôt prété à l'exercice. Je dois avouer que j'ai été plutôt déçu, et ne semble pas le seul d'ailleurs à en juger les commentaires postés sur le blog officiel et dans certains forums.

De nombreuses questions selon moi n'ont aucun intérêt concrêt pour le référencement, et semblent faites plutôt pour tester les compétences (voire la culture générale) de développeurs. D'autres sont bien dans la thématique, mais n'apportent rien au niveau opérationnel. Certaines sont imprécises, ou sujettes à interprétation. Au final, j'ai plus eu l'impression de participer à un Trivial Pursuit webien qu'à un examen de validation de compétences spécifiquement SEO.

Afin d'illustrer mon propos, quelques exemples de questions, et mes réponses :

"Un champ MySQL de type longtext peut contenir plus de 4 milliards de caractères ?" On s'en fiche ! La Bible à titre de comparaison contient de 3,5 à 4 millions de caractères alors de là à mettre 4 millards de caractères dans un champ... Si vous en arrivez à vous poser cette question c'est que la structure de vos contenus a besoin d'être travaillée de toute évidence.

"ActionScript 3 est-il conforme à 100% avec la norme ECMA-262" : Qu'en sais-je ? Je suis SEO, pas développeur. Les quelques normes qui ont un intérêt pour moi sont HTTP, (X)HTML, divers protocoles comme robots.txt et sitemaps, eventuellement ISO 3166 pour ce qui a trait à la localisation. Et les référentiels relatifs à l'accessibilité si on les considère comme étant des normes.

"Rédaction de contenu, l'aspect formel est indispensable pour maintenir l'aspect sérieux et reste préférable à une certaine connivence ?" : Pour être honnête je n'ai compris que les 3 premiers mots de la question (rédaction de contenu). Le reste est d'un hermétisme certain. A moins qu'il ne s'agisse de quelques doctrine ésotérique accessible aux seuls initiés ? Si cela vous intéresse je peux vous envoyer quelques liens sur la "langue claire".

"Combien existe-t-il de types de oneboxes sur le moteur Google (USA compris) ?" : Un certain nombre, et qui est amené à varier, indiscutablement. Nous voila bien avancés hein ?

"Classez par ordre chronologique les mises à jour du moteur de recherche Google suivantes" : Avouez qu'il y a plus passionnant que l'histoire des mises à jour d'algorithmes, surtout que les mises à jour intéressantes sont évidemment les plus récentes...

Bref, quelques ajustements me semblent nécessaires pour un examen répondant aux attente des professionnels du domaine. mais je ne doute pas que ce sera le cas :)

PS : Si vous aimez les QCM SEO, je vous propose l'examen auquel j'ai soumis mes étudiants du Master IDEMM (PDF), ainsi que le très bon quizz Resoneo.

31/05/2010

Présent aux SMX Paris

Les conférences SMX débarquent à Paris les 15 et 16 juin ! J'aurais le plaisir d'y intervenir lors de deux sessions : le 15 juin en compagnie de David Degrelle, Paul Sanches (aka Tiger) et Alexandre Villeneuve à l'occasion de la session SEO Camp, et le 16 juin avec Anders Hjorth et Virginie Clève, pour échanger sur le référencement des sites de grande envergure.

Pour s'y inscrire, c'est par ici (15% de réduction avec le code BILLARDSMX010 - je ne suis pas commissionné).

26/05/2010

Retour sur la venue de Matt Cutts à Paris

Ce matin avait donc lieu la première Search Conférence de Matt Cutts à Paris, dans les locaux de La Cantine. Dans la salle était présente la fine fleur du référencement francophone ainsi que plusieurs googlers français dont Nathalie Peret de l'équipe qualité de la recherche. Matt a d'abord rappelé les grands principes de fonctionnement du moteur (crawling, pertinence, popularité...) puis, constatant que l'audience possédait un niveau avancé, a accéléré pour arriver plus vite aux questions réponses.

Quelques infos et confirmations en vrac :

  • Google n'effectuerait pas de "zoning" des pages, c'est-à-dire que le contenu central ne se verrait pas reconnaître un poids plus fort que les contenus placés en colonne de droite, de gauche ou en footer, même si des brevets ont été déposés décrivant ce type de méthodes. Par contre, Matt a indiqué que le "boilerplate" (les contenus génériques tels que les mentions légales etc.) était détecté par Google.
  • Sur la question de l'emplacement des termes clés dans un bloc de contenu (en tout début ou à la fin), Matt a indiqué que cela n'avait pas d'importance. Par contre il a confirmé que la proximité des termes, leur ordre étaient bien pris en compte par le moteur. Il a également réaffirmé que les titres <hn> étaient considérés comme "un peu plus importants".
  • L'objectif de la mise à jour "Mayday" de l'algorithme était d'améliorer les résultats du moteur pour les requête de longue traîne, en tenant mieux compte de la réputation des sites.
  • Les tendances du search pour Matt sont le local, le social, et le mobile.
  • Le "fresh spam" est un challenge pour les équipes Google, car sur des thématiques émergentes (ex : le volcan Eyjafjöll) il n'est pas aisé de déterminer la réputation des sites et de distinguer les vrais sites d'information des MFA opportunistes.
  • Google interprêterait partiellement javascript. Des fausses conditions (ex: "si 4+1=5") pour maquiller des redirections pernicieuses peuvent être détectées par le moteur.
  • Des liens en javascript peuvent transmettre du PageRank.
  • La recherche en HTTPS ne deviendra pas la recherche par défaut de Google. L'impact de la mise en place de la recherche sécurisée sur les referers devrait donc être négligeable.
  • Si on syndique du contenu, pour éviter de se voir phagocyté par de gros sites, Matt conseille aux éditeurs de publier avant la syndication effective (quelques jours ou semaines avant la reprise du contenu) et d'exiger un lien vers la source sur les contenus syndiqués. Ce lien peut être en nofollow, il sera quand même utilisé comme un signal dans ce contexte.

Voilà donc pour cette matinée sympatique, pas de révélations fracassante, mais j'ai apprécié les capacités d'animateur de Matt, son accessibilité (merci Nathalie de m'avoir introduit), le fait de retrouver les confrères et de mettre des visages sur des avatars :)

20/05/2010

Perle d'apprenti(e) SEO

En pleine correction de mes copies, je ne peux m'empêcher de vous livrer cette petit perle. L'examen, sous forme de QCM comprenait notamment cette question : "Citez 2 façons de créer des liens entrants vers votre site".

Réponse d'un(e) étudiant(e) : "utiliser la balise linkjuice".

Je m'en vais donc de ce pas ajouter <meta name="linkjuice" /> dans mon <header>. C'est en effet bien moins fatiguant que d'aller à la chasse aux liens :)

7/05/2010

SEO : ces optimisations qui ne servent à rien (ou presque)

Je sais bien que les webmasters sont friands de conseils pour optimiser le référencement de leur sites web. Mais aujourd'hui j'aimerais vous parler de ces optimisations que vous pouvez laisser tomber parce qu'elle ne servent à rien pour votre référencement, ou ont un effet négligeable. Vous pourrez ainsi passer plus de temps à l'optimisation d'éléments qui eux ont une importance :)

Les balises meta

Cela fait longtemps qu'elles ne servent à rien me direz-vous. Il n'empêche que les balises meta restent encore aujourd'hui un sujet de préoccupation pour beaucoup, y compris chez nombre de mesclients. Que cela soit donc bien clair : aucune balise meta n'est plus prise en compte pour le positionnement des pages web dans les moteurs majeurs.

Seul le contenu de la balise meta description peut éventuellement être affiché dans les pages de résultats. Personnellement, dans la plupart des cas, je suis partisan de ne pas l'utiliser : le snippet créé dynamiquement par les moteurs me semble préférable car contextuel (construit en fonction des mot-clés recherché, et donc personnalisé). Cela dit l'utilisation de la balise meta description peut se concevoir pour des pages ayant un contenu extrêmement limité, ne permettant pas la génération de snippets satisfaisants.

Les attributs title

Attention : il est question ici de l'attribut title et non de la balise <title>, qui elle est essentielle pour un bon référencement. De mémoire de référenceur aucun test n'a jamais pu montrer que cet attribut était pris en compte par les moteurs de recherche (le test le plus récent étant celui mené par Sylvain d'Axenet). Inutile donc d'utiliser cet attribut sur chaque lien de votre site pour faire du bourrage de mots-clés. Efforcez-vous plutôt de rédiger des intitulés de liens explicites, qui seront un plus à la fois pour votre référencement et pour vos visiteurs. Nul besoin non plus de doubler chaque attribut alt de vos images d'un attribut title : la seule chose à laquelle vous arriverez avec cette technique sera d'altérer la navigation des utilisateurs utilisant des synthèses vocales...

Les attributs lang

L'attribut lang, utilisable sur n'importe quel élément HTML, mais souvent utilisé sur la balise <html> permet de spécifier la langue de l'élement. Inutile cependant de l'utiliser pour indiquer aux moteurs de recherche que votre contenu est en français (ou la langue de votre choix) : il est en effet ignoré des moteurs majeurs, qui se basent sur l'analyse du contenu textuel des pages pour déterminer leur langue. Notez qu'il n'y a pas non plus de contre-indication à utiliser l'attribut.

L'URL rewriting

La question de l'URL rewriting continue d'inquiéter nombre de webmasters. La réécriture des URLs, c'est un peu la nouvelle balise meta : beaucoup s'en inquiètent la considérant à tort comme la condition sine qua non pour un bon référencement. En fait, l'impact de la réécriture des URLs en terme de positionnement n'est pas si évident. En tout état de cause, à supposer que les moteurs tiennent bien compte des mots-clés dans les noms de répertoires et de fichiers, le poids de ces derniers dans l'évaluation de la pertinence d'une page reste très marginal comparé aux autres facteurs.

L'URL rewriting a pu présenter un intérêt pour le référencement à l'époque où les moteurs peinaient à indexer les sites dynamiques. Mais il y a bien longtemps que ce n'est plus le cas. Aujourd'hui avoir 3, 4, 5 paramètres dans ses URLs n'est aucunement un frein à l'indexation. Google a d'ailleurs mis les choses au clair en septembre 2008.

Cela dit, l'URL rewriting peut être intéressant pour améliorer la lisibilité des URLs, leur manipulation par les utilisateurs et (éventuellement, car là encore c'est très peu sensible) le taux de clic dans les pages de résultats des moteurs.

Ma recommandation serait donc de mettre en place la réécriture des URLs uniquement lors du lancement d'un site (ou d'une refonte en profondeur necessitant de toute façon des changements dans les URLs). Pour un site bien établi, l'intérêt de la mise en place de l'URL rewriting pour le référencement me semble douteux, les coûts et les risques associés à cette mise en place étant supérieurs aux bénéfices hypothétiques.

Les sitemaps XML

Les fichiers XML sitemaps permettent dixxit Google de signaler des pages qui ne pourraient pas être détectée autrement. Et c'est bien là ce qui fait leur inutilité, du moins en ce qui concerne le positionnement des pages.

Si votre site est bien conçu, facilement crawlable, alors un fichier sitemap n'apportera rien de plus. Le sitemap est donc inutile. Si votre site est mal conçu, ou manque de popularité, le fichier sitemap ne réglera pas vos problèmes : vos pages profondes seront éventuellement indexées, mais peineront à se positionner. Le sitemap sera là encore inutile. Les sitemaps XML sont donc loin d'être la panacée en matière de référencement.

Reste que le protocole sitemap présente quelques intérêts notamment en ce qu'il permet de réguler les visites des moteurs. Mais on est là dans l'optimisation de la charge des serveurs, et pas dans le SEO.

Le PR sculpting

L'idée derrière le concept de PR sculpting est séduisante, et pas forcément dénuée de rationalité : il s'agit de diriger de concentrer la popularité du site vers les pages les plus stratégiques. Le problème est d'une part que les webmasters n'ont pas accès au vraies valeurs du Pagerank, et d'autre part que l'on ne connait pas exactement la façon dont le PageRank fonctionne actuellement même si ses fondements théoriques sont connus depuis longtemps. Sculpter du PageRank revient donc à sculpter une matière aux propriétés inconnues avec les yeux bandés. Autant sculpter du vent... Ajoutez à cela que les techniques pour sculpter se révèler parfois vite obsolètes et vous comprendrez mieux vaut travailler à une architecture de site logique pour distribuer de façon pertinente votre Pagerank.

4/05/2010

Yahoo Search Academy : des statistiques sur l'usage des moteurs de recherche

L'enquête Yahoo Search Academy menée en février dernier apporte des données intéressantes sur les usages et la perception des moteurs de recherche par les internautes.

Un moteur, ça sert à quoi tout d'abord ? Selon les utilisateurs, les moteurs servent à rechercher des informations pratiques (94%), à trouver des sites de marques (93%), à accéder à des sites déjà connus (92%), à rechercher des contenus multimédias (91%). Viennent ensuite la préparation d'achats (87%), la recherche d'informations sur des films et jeux (86%), la préparation de voyages et évènements (85%), la recherche de documents spécifiques dans un cadre professionnel ou universitaire (82%), la recherche d'information sur des personnes (81%).

L'enquête confirme d'autre part (si cela était encore nécessaire) la place centrale des moteurs de recherche dans l'utilisation d'internet. 74% des internautes estimeraient ainsi ne pas pouvoir bénéficier du meilleur d'internet sans moteurs de recherche. Ces internautes sont globalement satisfaits des moteurs, mais à 69%, ce qui montre qu'il y a encore de la place pour des améliorations.

30/04/2010

Résultats Twitter en temps réel dans Google : oui et alors ?

Dans "Twitter pour être mieux référencé ?" , j'expliquais hier sur le blog Relevant Traffic qu'il était hasardeux de compter sur Twitter pour se créer de la visibilité dans le cadre de la recherche en temps réel. En effet, à supposer qu'un twit soit affiché, sa visibilité sera de toute façon très fugace.

En faisant du ménage dans mes bookmarks cet après-midi, je suis tombé sur une étude d'eye tracking menée par Oneupweb Digital qui semble suggérer que coté utilisateur, l'insertion de résultats temps-réel dans les pages de résultats des moteurs serait loin d'être un bouleversement. Ainsi, seul 55% des utilisateurs connaissant l'existence des résultats temps réel seraient capables de les identifier facilement dans une page de résultats (73% ignoraient d'ailleurs carrément leur existence avant de participer à l'étude). Et en moyenne, ce ne serait qu'au bout de 9 à 14 secondes qu'aurait lieu la première fixation des résultats temps-réel, ce temps variant selon les tâches à effectuer... Bref, voila de quoi douter de l'utilité de l'intégration des résultats Twitter en temps réel, du moins dans leur implémentation actuelle. Pour des requêtes vraiment chaudes, une mise en évidence graphique serait peut être indiquée pour susciter l'attention des internautes.

16/04/2010

Mise à jour de Google Webmaster Tools

La section de l'interface Webmaster Tools consacrée aux requêtes les plus fréquentes vient d'être refondue. Jusque ici, Google affichait essentiellement la position moyenne pour les 100 premiers mots-clés. S'il était intéressant de voir sur quelles requêtes un site se positionnait, l'intérêt en termes operationnels était finalement assez limité. Désormais, Google propose des données bien plus complètes. L'outil s'est également enrichi de nouvelles fonctionnalités.

La vue par défaut affiche les requêtes ayant généré le plus d'affichages dans les pages de résultats, avec pour chacune le nombre d'impressions, le nombre de clics et le taux de clic correspondant. Notez qu'il est maintenant possible de spécifier la période à considérer, tout comme dans Google Analytics.

Cliquer sur les mots-clés permet d'accéder à informations suplémentaires : les différentes positions obtenues par le site sont affichées, avec pour chacune les impressions, clics et CTRs correspondant (ce qui me permet de vous confirmer au passage qu'il est plus intéressant d'être 1er que 2ème - si si !). Les pages ressortant dans les SERPs pour la requête sont également mentionnées. Enfin un graphique affiche l'évolution dans le temps des impressions et des clics.

Le grand intérêt de l'outil réside selon moi dans le fait qu'il permet de s'intéresser à l'optimisation du taux de clic : avec cette mise à jour, il est en effet devenu très facile d'identifier les termes sur lesquels un site se positionne bien mais ne parvient pas à motiver le clic. Il faut alors se poser les bonnes questions : la requête est-elle ambigue et le site visiblement hors-sujet ? Le snippet ou la balises <title> sont-ils imprécis ? Pas assez attractifs ? Bref il devient possible de travailler son attractivité dans les SERPs en plus de son positionnement. Le SERPO (Search Engine Results Page Optimization) est né ;)

Reste la question de la fiabilité des données. Un rapide examen montre en effet que si on retrouve bien les même tendances dans Google Analytics et Webmaster Tools, des différences parfois sensibles apparaissent au niveau du nombre de clics (GIF). D'autres webmasters semblent d'ailleurs avoir fait la même observation.

23/03/2010

Cours sur le référencement n°9 : les liens sponsorisés

Pour ce neuvième cours, j'ai laissé la place à mon collègue Julien Marsaud, spécialiste en matière de liens sponsorisés. Julien nous a expliqué ce que sont les liens sponsorisés, leur fonctionnement, et comment créer une campagne efficace.

Ce cours clôt le module référencement qu'il ma été donné d'animer cette année auprès des étudiants du Master IDEMM. Ce fût une expérience sympatique, particulièrement du fait que certains étudiants ont montré un réel intérêt pour le référencement. J'espère que le plaisir fût partagé :)

4/03/2010

Cours sur le référencement n°8 : référencements spécifiques

La recherche universelle, en faisant remonter dans les SERPs des contenus issus des moteurs verticaux offre de nouvelles opportunités d'être visible. Dans ce cours, j'aborde ces formes de référencement spécifiques que sont le référencement local, le référencement dans Google Actualités, l'optimisation des images et vidéos, et le référencement des blogs.


Il s'agit de mon dernier cours, le dernier (sur les liens sponsorisés) devant être assuré par mon collègue Julien Marsaud, expert Adwords et Analytics. Vous pouvez retrouver l'intégralité des cours donnés cette année aux étudiant du Master Idemm sur mon compte Slideshare.

25/02/2010

Cours sur le référencement n°7 : évaluer son référencement

Les cours précédent ont abordé successivement l'optimisation de la structure des sites, de leur contenu et de leur popularité. Une fois ce travail effectué, il faut en mesurer le fruit. C'est l'objet de cette présentation, où je propose plusieurs moyens d'évaluer la qualité de son référencement.


22/02/2010

Présentation : la boite à outils du référenceur (SEO Campus 2010)

Ci-dessous, les slides de la présentation que j'ai donné vendredi dernier lors du SEO Campus :


J'en profite pour remercier l'association pour la qualité de l'évènement et l'accueil extrêmement sympatique, comme toujours :)

Autres présentations et retours sur cette édition (liste non exhaustive, n'hésitez pas à en signaler d'autres en commentaire) :

17/02/2010

Une interview ou l'on parle... de SEO (forcément)

Simon Tripnaux m'a fait l'honneur de me convier à une interview sur son blog Tribords. On y parle de référencement, de blogs, de réseaux sociaux... Un grand merci à Simon pour ces questions qui sortent de l'ordinaire SEO ;)

< 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 >