Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à Référencement Design et Cie 2.0

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

20/01/2011

Ces technologies que Google indexe un peu mieux mais qui ne changent pas grand-chose...

Régulièrement, des déclarations effectuées par Google ou d'autres moteurs (si si, il en existe d'autres) laissent à penser que des technologies auparavant bloquantes pour les robots d'indexation deviennent tout à coup accessibles. Bien entendu, ces annonces font beaucoup de bruit et peuvent laisser penser aux concepteurs de sites que les vieilles limitations sont abolies. Le fait est que jusque ici, aucune révolution, ni même un changement sensible n'ont pu être observés dans les pages de résultats. Tout au plus peut-on noter quelques cas isolés, mais rien qui ne remette en cause les bonnes pratiques traditionnelles d'accessibilité.

Flash

La première annonce d'une meilleure prise en charge de Flash, en partenariat avec Adobe, date de juin 2008. Selon Google, "les designers web pouvaient s'attendre à une meilleure visibilité de leur contenus Flash". En novembre 2010, Google a annoncé de nouvelles améliorations, notamment en ce qui concerne Flash 10 et les vidéos. Reste qu'à ce jour les pages Flash se positionnant dans les SERPS doivent se compter sur les doigts d'une main... de manchot.

Si Google est capable aujourd'hui d'extraire des documents Flash du texte et des liens, le fait que l'information dans les fichiers Flash soit souvent pauvre et mal structurée interdit à ce type de sites de se positionner correctement. Il s'agit surtout pour Google de ne pas être bloqué dans le parcours d'un site et d'afficher des snippets un peu plus pertinents.

Ma recommandation : n'utilisez pas Flash pour faire des sites et si vous devez l'utiliser, mettez en place une architecture avec une URL par "page" (au lieu d'un swf unique), avec insertion d'un contenu alternatif HTML correctement balisé sur chaque page.

Javascript

Google a annoncé officiellement en mai 2009 être capable d'executer le code javascript associé à l'évenement onclick pour suivre des liens. En 2007 le moteur avait déjà déclaré pouvoir extraire quelques liens inclus dans du code javascript (sans executer le code proprement dit). Tous ces liens ont la capacité de transmettre du PageRank, et des ancres leur sont associées, ce qui est un progrès. Toutefois il est dfficile de connaître toutes les formes de codes acceptées par le moteur.

Ma recommandation : Tenez-vous en aux bonnes vieilles directives d'accessibilité et de dégradation élégante en permettant la navigation dans le site lorsque javascript est désactivé. C'est d'ailleurs ce que Google lui-même recommande.

Formulaires

Le crawl des pages accessibles via un formulaire (et utilisant la méthode GET) est confirmé depuis avril 2008. Il reste toutefois expérimental pour Google, et officiellement réservé à certains sites sélectionnés sur des critères qualitatifs. Les mots-clés utilisés dans les formulaires sont déterminés par Google à partir du contenu du site. Des observations récentes sembleraient suggérer que le contenu de la balise meta keywords pourrait également être utilisé comme mots-clés dans les formulaires. Reste que cette forme de crawl est éminement arbitraire.

Ma recommandation : si la navigation dans votre site doit dépendre d'un formulaire (ce que je ne conseille pas), utilisez la méthode GET et mettez en place une navigation alternative fournissant des liens href vers des pages de résultats du formulaire sur des mots-clés pertinents. La profondeur de cette navigation sera fonction de la richesse de votre contenu.

6/01/2011

Bonne année 2011 !

Chers lecteurs et lectrices, permettez moi de vous adresser mes meilleurs voeux pour cette nouvelle année.

De mon coté, il sera surtout question de prendre quelques bonnes résolutions, comme poster plus souvent (sans jamais cependant rogner sur la qualité ni tomber dans la course aux billets) et répondre aux commentaires :)

10/11/2010

Le SEO pour les développeurs

Invité au forum PHP organisé par l'AFUP, j'ai donné ce matin à la Villette une conférence sur le thème du référencement pour les développeurs. Pour les présents comme les absents, voici mon support de présentation :



Au passage, je prie les lecteurs réguliers de bien vouloir m'excuser du calme actuel de ce blog : c'est juste que le temps me manque. J'espère redynamiser tout ça dès que possible :)

19/10/2010

Accessibilité et référencement : ma présentation à Paris Web 2010

Samedi dernier avaient donc lieu les ateliers Paris Web 2010. Voici ma présentation. Celle-ci ayant été filmée je suppose qu'elle sera mise en ligne plus ou moins prochainement.



Cette présentation met en valeur la convergence entre les critères des WCAG (version 1) et les bonnes pratiques en matière de référencement. Pour ceux et celles intéréssés par le sujet, je vous invite à relire la série de billets que j'avais publiée en 2006, basée elle sur les critères Accessiweb (qui n'est qu'une méthode d'application des WCAG).

Je tiens à remercier les organisateurs et le staff Paris Web pour leur invitation, et l'organisation très pro de l'évenement :) Par manque de temps je n'ai pu assister aux conférences mais tout le monde s'accorde à dire que la qualité était au rendez-vous. Personnellement cette intervention m'a permis de réaliser que ce que je considérais comme acquis en matière du culture SEO ne l'était pas forcément dans tous les secteurs du web. Il est parfois bon de sortir de sa bulle ;)

24/09/2010

Rentrée des classes pour la licence "Référenceur et Rédacteur web"

Aaaah l'Alsace, pays des cigognes, des bretzels, du kougloff, de la choucroute et du vin... mais l'Alsace c'est aussi le berceau de la première licence consacrée au référencement et à l'écriture web. Invité le 13 septembre dernier en tant que parrain de la troisième promotion, j'ai découvert outre une équipe sympathique une volonté très forte de former des professionnels polyvalents, capables de gérer tout aussi bien les aspects techniques qu'éditoriaux du référencement (et même les aspect sociaux désormais).

J'adresse un grand merci aux responsables de la formation pour leur accueil plus que chaleureux, et souhaite une studieuse année universitaire aux 47 étudiant(e)s de la licence.

Le support de mon cours inaugural :



Ce support est également disponible sous forme de podcast sur le site de l'université (Nécessite Quicktime. Le son s'interrompt cependant dans le dernier tiers, du fait d'un problème de micro).

3/09/2010

Old School SEO : les sujets chauds en 2000

A l'occasion de la préparation d'une intervention, je me suis replongé dans les discussions SEO (on parlait de "référencement" à l'époque) des années 1999/2000. Quelques sujets typiques de cette période héroïque, pour le fun :

  • Combien de mots-clés dans la balise meta keywords ?
  • Quels séparateurs dans la balise meta keywords ? Virgule, espace ? Virgule+espace ?
  • Les mots-clés dans les commentaires HTML sont ils pris en compte ?
  • Le référencement des sites avec frames.
  • Le référencement des sites dynamiques.
  • La necessaité d'une resoumission régulières aux moteurs de recherche.
  • La difficulté de rentrer dans certains annuaires et comment contacter les documentalistes.
  • Les garanties de positionnement.
  • Soumission manuelle vs soumission automatique.

30/08/2010

Rendez-vous à Paris Web 2010 !

J'aurais le plaisir d'animer un atelier sur le référencement et l'accessibilité le 16 octobre à l'occasion de l'édition 2010 de la conférence Paris Web.

Si vous souhaitez bénéficier de places à tarif réduit ne tardez surtout pas, l'offre étant valable jusqu'au 31 août ;)

20/08/2010

De la communauté SEO en France

Existe-t-il une communauté SEO française ? C'est la question que Sylvain Peyronnet se posait dernièrement sur son blog (blog dont je recommande chaudement la lecture au passage). Sylvain déplore également le manque de structuration du secteur et appelle de ses voeux à la création d'une "archive centralisée d’articles sur le SEO".

Pour ma part je pense qu'il existe bien une communauté SEO, si l'on considère le sens américain de "community", à savoir un groupe "partageant des caractéristiques ou intérêts communs, étant perçu ou se percevant lui-même comme distinct à certains égards de la société dans laquelle il existe". Selon cette définition les référenceurs sont clairement une communauté puisque ils partagent un intérêt commun (les moteurs et l'optimisation) et sont perçus comme un groupe de gens à part (les "SEO"). Eux-même d'ailleurs se perçoivent distinctement : il n'y a qu'à voir les volées de bois vert que se prennent les malheureux qui ont l'idée d'attaquer les référenceurs. On a bien là un comportement communautaire, fût-il anarchique et protéiforme.

Pour ce qui est de créer une archive centralisée je suis sceptique, pour plusieurs raisons. Déjà il existe plusieurs lieux compilant l'essentiel de ce qu'il faut savoir pour aborder le SEO : Abondance, Oseox et bien d'autres. La forme, le niveau de détail de ces ressources peuvent varier mais sur le fond il y a consensus sur l'essentiel des techniques. La centralisation n'apporterait pas grand chose de plus en terme de qualité de l'information. De plus le contenu de ces guides est bien revu par les pairs d'une certaine façon, très informelle il est vrai : si un guide s'éloignait trop du consensus il serait vite critiqué par la communauté, ou bien ignoré. Enfin, à ma connaissance, aucune autre communauté SEO nationale n'a jamais mis en place une telle autorité centrale. Le besoin ne semble donc pas si évident.

Par contre je rejoins totalement Sylvain sur le fait d'organiser des évenements où des scientifiques et universitaires interviennent. Cela apporte vraiment une dimension supplémentaire.

13/08/2010

85% des internautes préfèrent HTML à Flash !

A l'occasion de mon dernier billet, j'ai pu ressentir combien la mauvaise prise en compte des sites Flash par les moteurs était ressentie comme une frustration par de nombreux webmasters et designers. Mais au dela de l'aspect "bridage de la créativité" je me suis posé la question de savoir la relation qu'entretenaient les internautes avec les sites Flash. En effet un site est en principe conçu avant tout pour ses visiteurs. Il est donc pertinent de s'interroger sur le format de publication qu'ils tendent à privilégier à priori quand ils en ont le choix.

J'ai donc posé cette simple question via Twitter : "Vous arrivez sur une page d'accueil vous proposant deux versions d'un site : Flash ou HTML. Sur quel version cliquez-vous ?". Au final, il s'avère que 85% des répondants favorisent d'emblée la version HTML.

Alors certes l'échantillon est restreint (213 votes) et pas forcement représentatif. Mais quand même, cela fait beaucoup de personnes qui ont un a priori négatif vis-à-vis des sites Flash. D'autant plus que parmi les votants, du fait de la thématique de ce blog, beaucoup sont probablement des geeks, béneficiant de hauts débits et rompus à l'internet...

Alors oui la créativité peut être bridée par les limitations des moteurs. Mais la question à se poser n'est-elle pas alors : "pour qui crée-t-on et quel objectif vise-t-on" ?

21/07/2010

Google "dégueulasse"-t-il le web ?

Dans un billet intitulé "Google dégueulasse le web" l'auteur du blog Froggylink avance la thèse selon laquelle Google "pourrirait" le web en bridant la créativité des webmasters. Pour ma part je ne suis pas vraiment d'accord avec cette affirmation, et je vais tenter de m'en expliquer.

Premièrement, les guidelines Google ne constituent en rien une révolution par rapport aux guidelines antérieures. Tout au plus Google adopte-t-il un ton plus évangélique. De plus, les guidelines actuelles ne diffèrent pas substantiellement des celles des autres moteurs comme Yahoo ou Bing. Ce qu'il faut comprendre, c'est que celles-ci ne sont que la conséquence du fait que la technologie est ce qu'elle est, avec ses limitations. Un moteur de recherche est une machine à indexer du texte, c'est une sorte de loi naturelle et universelle (aujourd'hui du moins). S'insurger du fait que les moteurs ont besoin de texte pour évaluer un contenu, c'est un peu comme s'insurger contre la loi de la gravité qui limite la créativité des ingénieurs en ne permettant pas de faire voler des enclumes. Il est donc à mon avis faux de décrire un Google décrétant d'autorité la façon correcte de construire un site. D'autant plus que Google n'impose pas mais conseille : "En suivant les conseils ci-dessous, vous permettrez à Google de trouver, d'indexer et de classer plus facilement votre site".

Deuxièmement, Google n'a pas inventé HTML et la balise <h1>. Quand il communique, Google ne fait que rappeler le bon usage des balises définies par le W3C au gré des versions successives de HTML (la version 1 datant de 1993), ainsi que les bonnes pratiques en matière d'accessibilité, elles aussi établies par le W3C. Mais peut-être est-ce le W3C qui pourrit le web ? ;)

Troisièmement, coder un site respectueux des standards et accessible n'est en rien incompatible avec une expérience visuelle de qualité. Il suffit de parcourir CSS Zen Garden ou d'autres galeries CSS pour s'en apercevoir. Il est parfaitement possible d'avoir un site graphiquement évolué à partir du moment où l'information est accessible soit sous forme de textes soit sous formes d'attributs alt.

Cela dit, je dois bien admettre que Google a quand même d'une certaine façon contribué à "dégueulasser le web". Mais c'est au travers de son programme Adsense : avant on créait des sites que l'on cherchait éventuellement à monétiser. Maintenant on cherche à monétiser, puis on se pose ensuite la question de comment créer un site en faisant le moins d'efforts possible...

30/06/2010

Retours de Susan Moskwa suite au SMX Paris

Dans une série de twitts, Susan Moskwa, analyste chez Google, a apporté quelques précisions au sujet de questions qui lui avaient été posées à l'issue de la conférence SMX à Paris et pour lesquelles elle n'avait pas de réponses immédiates à fournir :

Susan a également mis en ligne ses présentations sur le duplicate content et sur le bon usage des demandes de réinclusion.

18/06/2010

Retour sur la 1ère édition des SMX à Paris

La première édition parisienne des conférences Search Marketing Expo s'est donc achevée mercredi soir.

Coté positif j'ai pu assister à de très bonnes conférences. J'ai particulièrement apprécié d'entendre Olivier de Segonzac sur le nettoyage de réputation, Philippe Yonnet sur les critères pris en compte par les moteurs et sur la recherche en temps-réel, Paul Sanchez sur les techniques black-hat, Virginie Clève sur le référencement des sites de grande envergure et Susan Moskwa de Google sur le duplicate content (en français qui plus est, ce qui est appréciable). Susan s'est également montrée très disponible pour répondre aux questions. J'ai aussi été impressionné par les capacités de "showman" de Marcus Tandler.

Parmi les point négatifs, une audience très réduite et quelques conférences trop basiques. Les organisateurs sont cela dit conscients de ces problèmes, et réfléchissent déjà aux améliorations à apporter lors des prochaines éditions. Pour d'autres retours sur cette conférence, je vous invite à aller lire les compte-rendus de Céline Simon sur Oseox, celui de Virginie Clève, celui de Seoplayer, ainsi que celui d'Eko

Ma présentation sur le référencement des sites de grande envergure :


3/06/2010

Parrain de la promotion 2010-2011 de la licence pro "Référencement et rédaction web"

En septembre prochain aura lieu à l'IUT de Mulhouse la troisième rentrée de la licence professionelle "Référenceur et rédacteur web". J'ai accepté d'en être le parrain cette année, et profite de ce billet pour remercier les responsables de la formation pour cet honneur. J'essaierai de me montrer à la hauteur de mes illustres prédécesseurs, Olivier Andrieu et Isabelle Canivet :)

Rendez-vous le 13 septembre pour un cours inaugural !

2/06/2010

Examen blanc CESEO : peut mieux faire ?

SEO Camp vient de mettre en ligne un questionnaire permettant de s'essayer à l'examen CESEO. Ayant participé à la rédaction des questions, mais n'ayant aucune idée des questions proposées par les autres contributeurs, je me suis aussitôt prété à l'exercice. Je dois avouer que j'ai été plutôt déçu, et ne semble pas le seul d'ailleurs à en juger les commentaires postés sur le blog officiel et dans certains forums.

De nombreuses questions selon moi n'ont aucun intérêt concrêt pour le référencement, et semblent faites plutôt pour tester les compétences (voire la culture générale) de développeurs. D'autres sont bien dans la thématique, mais n'apportent rien au niveau opérationnel. Certaines sont imprécises, ou sujettes à interprétation. Au final, j'ai plus eu l'impression de participer à un Trivial Pursuit webien qu'à un examen de validation de compétences spécifiquement SEO.

Afin d'illustrer mon propos, quelques exemples de questions, et mes réponses :

"Un champ MySQL de type longtext peut contenir plus de 4 milliards de caractères ?" On s'en fiche ! La Bible à titre de comparaison contient de 3,5 à 4 millions de caractères alors de là à mettre 4 millards de caractères dans un champ... Si vous en arrivez à vous poser cette question c'est que la structure de vos contenus a besoin d'être travaillée de toute évidence.

"ActionScript 3 est-il conforme à 100% avec la norme ECMA-262" : Qu'en sais-je ? Je suis SEO, pas développeur. Les quelques normes qui ont un intérêt pour moi sont HTTP, (X)HTML, divers protocoles comme robots.txt et sitemaps, eventuellement ISO 3166 pour ce qui a trait à la localisation. Et les référentiels relatifs à l'accessibilité si on les considère comme étant des normes.

"Rédaction de contenu, l'aspect formel est indispensable pour maintenir l'aspect sérieux et reste préférable à une certaine connivence ?" : Pour être honnête je n'ai compris que les 3 premiers mots de la question (rédaction de contenu). Le reste est d'un hermétisme certain. A moins qu'il ne s'agisse de quelques doctrine ésotérique accessible aux seuls initiés ? Si cela vous intéresse je peux vous envoyer quelques liens sur la "langue claire".

"Combien existe-t-il de types de oneboxes sur le moteur Google (USA compris) ?" : Un certain nombre, et qui est amené à varier, indiscutablement. Nous voila bien avancés hein ?

"Classez par ordre chronologique les mises à jour du moteur de recherche Google suivantes" : Avouez qu'il y a plus passionnant que l'histoire des mises à jour d'algorithmes, surtout que les mises à jour intéressantes sont évidemment les plus récentes...

Bref, quelques ajustements me semblent nécessaires pour un examen répondant aux attente des professionnels du domaine. mais je ne doute pas que ce sera le cas :)

PS : Si vous aimez les QCM SEO, je vous propose l'examen auquel j'ai soumis mes étudiants du Master IDEMM (PDF), ainsi que le très bon quizz Resoneo.

31/05/2010

Présent aux SMX Paris

Les conférences SMX débarquent à Paris les 15 et 16 juin ! J'aurais le plaisir d'y intervenir lors de deux sessions : le 15 juin en compagnie de David Degrelle, Paul Sanches (aka Tiger) et Alexandre Villeneuve à l'occasion de la session SEO Camp, et le 16 juin avec Anders Hjorth et Virginie Clève, pour échanger sur le référencement des sites de grande envergure.

Pour s'y inscrire, c'est par ici (15% de réduction avec le code BILLARDSMX010 - je ne suis pas commissionné).

< 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 >