Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à Référencement Design et Cie 2.0

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

11/01/2007

Humour Googlesque : c'est grave la bravitude ?

Lors d'une recherche sur "bravitude", Google suggère de chercher sur "gravitude". Google deviendrait-il ironique ? ;)

2/01/2007

Search : Que fût 2006 et quelles prédictions pour 2007 ?

Souvenez vous, c'était il y a un an : fin 2005, je m'étais risqué à quelques prédictions sur le paysage des moteurs de recherche en 2006... tout comme Fred, voyons lesquelles se sont réalisées...

Le changement d'ère que j'avais évoqué pour Google semble bien s'être confirmé, même si le moteur de Mountain View demeure toujours le "point G" du web et que son audience ne faiblit pas. La prédiction était donc correcte. De procès en campagnes d'activistes, de rumeurs en coups de gueule de blogueurs plus ou moins influents, Google a perdu de sa sympathie, et certains commencent à lui favoriser Yahoo... Si le mouvement vers la portalisation se poursuit (Google Calendar, Google docs & spreadsheets, rachat de YouTube...), Google n'a quand même pas été jusqu'à afficher des publicités graphiques sur ses propres sites comme j'avais pu l'imaginer, et ne connait toujours pas de concurrence sérieuse de la part de MSN concernant les liens sponsorisés. De même, pas de Google Desktop mobile en vue... Je me suis donc planté sur ces trois derniers points :)

J'avais également émis l'idée que Yahoo prendrait un tournant très social et geek. Cette tendance semble elle aussi s'être confirmée : En 2006, Yahoo a ainsi lancé un moteur de recherche personnalisable, un service de questions/réponses, partagé ses patterns de conception d'interfaces web, lancé une API AJAX et rajeuni ses services à la sauce 2.0, à grand renfort de tagging et de javascript. Tous ces efforts ne suffisent pas malheureusement pour prendre des parts de marché à Google...

MSN Search, rebaptisé Live, n'arrive lui non plus toujours pas à séduire, malgré des fonctionnalités intéressantes et une pertinence effectivement à la hausse. Ca n'avance donc pas vraiment, du moins pas autant qu'on pourrait le souhaiter. Et sa plateforme de publicité AdCenter ne permet toujours pas aux éditeurs de contenu d'afficher les liens sponsorisés du moteur...

Exalead, le petit moteur français a poursuivi ses efforts pour se faire connaître, notamment en mettant en place une interface plus légère et plus conviviale pour l'utilisateur. Le projet Quaero, bien qu'ayant du plomb dans l'aile, lui aura quand même permis d'augmenter un peu sa notoriété auprès du grand public. Exalead devra donc redoubler d'effort en 2007. Je reste persuadé que des partenariats avec des FAI et portails pourraient l'aider.

Concernant Ask, j'avais parlé de "flop", mais c'est finalement le moteur qui m'a le plus agréablement surpris : Ask a su mettre en place des outils de qualité (recherche cartographique, recherche dans les flux RSS, services mobiles) et a plutôt tendance à voir son audience progresser Outre-Atlantique. Et si c'était le moteur..."qui pouvait" justement ? Cela dit, en France son audience reste extrèmement faible.

Quel bilan tirer de toute cela et qu'attendre de 2007 ? D'abord qu'il est très difficile de prédire l'avenir. Ensuite que Google semble pour l'instant indétronable malgré une certaine érosion de son image chez les observateurs. S'il est difficilement envisageable que sa part de marché progresse (il est déjà au sommet), on peut s'attendre à ce qu'elle atteigne un plateau. S'il y a du changement, celui-ci viendra des portails et FAI, les internautes étant finalement peu enclins à changer de moteur. On peut également penser que la généralisation d'IE7 et l'arrivée de Windows Vista aidera un peu Live, mais l'impact sera probablement limité.

A lire également : les prédictions de John Battelle, ainsi que celles d'Andy Beal.

18/12/2006

Le spam social, spam du futur ?

Google sur son blog Webmaster Central revient sur les stratégies de liens. Le discours, assez classique, recommande de penser aux utilisateurs avant de penser aux moteurs de recherche (mais en y pensant quand même), ce qui est effectivement la bonne méthode.

Google conseille ensuite de profiter de services sociaux comme Digg ou Yahoo Answers pour se faire une autorité, et de mettre en place des dynamiques de link-baiting. Mais honnêtement, en conseillant ces techniques pour promouvoir son site, n'y a-t-il pas un risque que Google soit en train de créer le spam de demain, à savoir le spam social ? Y-a-t-il vraiment beaucoup d'utilisateurs qui soumettent des ressources spontanément de façon désinteressée, et donc qualitative ? Digg et ses multiples clônes sont déjà bien spammés. Yahoo Answers est désespérant, et ce n'est certainement pas le lieu où je chercherai un expert. Quant au link-baiting, on y trouve le meilleur et le pire, ce n'est donc pas en soi un signal de qualité, même si de bon contenus généreront effectivement des liens spontanés. Le spam social est bien sûr plus difficile à mettre en oeuvre, mais il sera aussi beaucoup plus dur à détecter pour les moteurs.

Qu'en pensez-vous ?

13/12/2006

Si tu vois le PageRank, tue-le !

Tel un leitmotiv, une question revient sans cesse sur les forums parlant de webmastering et de référencement : "le PageRank est il encore important ?" Généralement, ce genre de topic aboutit à un dialogue de sourds, les uns affirmant que le PR ne sert plus à rien, les autres assurant que le celui-ci est au contraire essentiel à la bonne visibilité d'un site.

C'est à se demander si le PageRank a jamais été compris... Il faut donc le redire encore une fois : Le PageRank n'est qu'un facteur discriminant ! C'est à dire que le PR ne sert qu'à départager des sites avec un scoring (une notation) proche pour une requête donnée.

Très approximativement, le score final d'un site pour une requête donnée est égal à score_contenu*PR (le vrai PR étant un chiffre compris entre 0 et 1 et l'échelle des scores m'étant inconnue).

Imaginons 4 sites en concurrence pour un mot-clé donné :

  • Un site A au contenu très pertinent avec un score_contenu de 0.98 et un PR de 0.5.
  • Un site B au contenu un tout petit peu moins pertinent mais très populaire avec un score_contenu de 0.90 et un PR de 0.9.
  • Un site C peu connu au contenu très pertinent avec un score_contenu de 0.97 et un PR de 0.1.
  • Un site D au contenu très peu pertinent avec un score_contenu de 0.3 et un PR de 0.99.

Les scores finaux des sites sont donc respectivement de 0.49, 0.81, 0.097 et 0.297. Les sites apparaitront donc dans les pages de résultat Google dans l'ordre suivant : B, A, C, D

Un site globalement pertinent jouissant d'une forte popularité (B) arrivera donc en tête, suivi d'un site très pertinent, mais moyennement populaire (A). En troisième position arrivera un site pertinent mais très peu populaire (C). Le site D, extrêmement populaire mais au contenu très peu pertinent sera relegué au fin fond des résultats. On voit donc bien que le PR ne fait pas tout, mais qu'il joue un rôle non négligeable. On peut avoir un PR énorme et ne pas être visible du tout sur une requête donnée, de même que l'on peut avoir un PR moyen et très bien se positionner.

Revenons-en au titre de ce billet : pourquoi tuer le PR ? Un maître zen disait souvent à ses disciples, qui désiraient ardemment atteindre l'éveil, de "tuer le Bouddha". Car c'est seulement en s'affranchissant des idées qu'ils se faisaient du Bouddha qu'ils pourraient eux-même devenir des éveillés, comme le Bouddha. Le maître n'entendait pas là que le Bouddha n'existait pas. De la même façon, c'est en s'affranchissant de cette obsession du Pagerank que l'on mènera une stratégie de liens efficace. Le PR n'est qu'un signal, un indicateur, pas très fiable qui plus est. Sachez-donc en tenir compte ;)

12/12/2006

SEO Spyglass, un outil pour analyser les liens entrants

Les liens entrants jouent un rôle important dans le positionnement d'un site, puisque les moteurs de recherche prenent en compte dans leurs algorithmes la quantité, la qualité et les intitulés de ces liens.

Disponible pour de multiples plateformes (Windows, Mac OS X, Linux) grâce à Java, SEO Spyglass permet une analyse poussée des liens pointant vers un site.

Le logiciel identifie non seulement les liens entrants dans les 3 grand moteurs (Google, Yahoo, MSN), mais fournit également les intitulés de ces liens, le nombre total de liens sur la page, le PageRank de la page et du domaine affichant le lien, l'adresse IP du domaine, sa présence dans les annuaires DMOZ et Yahoo, et l'âge du nom de domaine !

Afin de mieux interpréter les données obtenues, le logiciel permet de distinguer dans un second temps les liens issus des blogs et forums, ceux des annuaires, et ceux en page d'accueil. Un bouton "Analyze" offre quant à lui une synthèse des données obtenues, qui permet notamment d'étudier la répartition des liens en fonction du PR, ainsi que les intitulés de liens les plus fréquemment utilisés.

SEO Spyglass est gratuit, et ne nécessite que de fournir une adresse email pour le télécharger (qui vous vaudra sûrement un peu de pub, mais on n'a rien sans rien).

8/12/2006

Baidu lance un moteur de recherche de blogs

Avec une blogosphère chinoise en constante augmentation, il était naturel que Baidu développe sa propre solution de recherche de flux. Le numéro 1 de la recherche en Chine lance donc Baidu Blogsearch, son moteur de recherche de blogs. Pour soumettre votre flux RSS, c'est par ici.

Et tant que j'y suis, voici le formulaire de soumission pour la recherche web. Bon référencement ;)

5/12/2006

Etude sur la complémentarité entre référencement naturel et liens sponsorisés

Il est connu depuis longtemps que les liens sponsorisés et le référencement naturel(organique) se complètent, chacun ayant les défauts de ses qualités.

Une récente étude, commandée par Yahoo et menée par Comscore, va plus loin en suggérant que les internautes exposés à une marque à la fois via les résultats naturels et via les liens sponsorisés consultent plus de pages web, passent plus de temps sur les sites des annonceurs, et surtout achètent davantage.

Ainsi, les internautes ayant été exposés à la fois aux résultats naturels et aux liens sponsorisés comptabiliseraient un nombre de pages vues 68% supérieur à ceux exposés à un seul type de campagne, et un temps passé 66% supérieur. Mieux : les achats online de ceux-ci seraient 244% supérieurs (89% pour les achats offline).

Les raisons possible selon moi : le fait de voir la marque sur les 2 types de résultats renforcerait la confiance, et donc la motivation, et diminuerait les freins à l'achat. Si une marque est présente à la fois dans les résultats naturels et les liens sponsorisés, c'est qu'elle a une certaine popularité (pour les résultats naturels), et un certain budget (pour les liens sponsorisés). Ce qui est en partie un indicateur de confiance.

4/12/2006

Apéro référencement à Lille le 7 décembre

Les apéros référencement reprennent ! Je serais donc présent jeudi prochain à la Taverne Flamande, en compagnie de Renaud, Damien, Sabri et Yann, Eric, Aurélien, Julien et peut-être quelques autres.

N'hésitez pas à signaler votre venue sur le blog Bistoule.

30/11/2006

Optimisation du contenu : travaillez votre text appeal !

Pour ceux n'ayant pu assister aux Search Engine Strategies 2006, voici une version légèrement remaniée de mon intervention lors de la session "Optimiser son site pour les moteurs de recherche" :

Optimiser son contenu pour les moteurs de recherche

L'optimisation pour les moteurs de recherche est souvent traité sous un angle technique. La structure des sites influence en effet fortement le référencement. Mais intéressons nous plutôt à ce qui fait le coeur de l'information : le contenu.

Qu'est-ce qu'on entend par contenu ? Quand on parle de contenu, on parle le plus souvent du contenu textuel des sites : il s'agit donc des textes à proprement parler, mais aussi des métadonnées relatives aux éléments non-textuels, comme les attributs alt des images, ou les contenus alternatifs des clips Flash et des scripts.

L'optimisation du contenu est encore trop souvent négligée. Dans un projet web, typiquement, on confie la réalisation graphique à des spécialistes (le directeur artistique et le graphiste), le développement à des spécialistes (l'intégrateur et le programmeur), et la rédaction des textes... à des non-spécialistes : des gens du service marketing, une assistante, voire un stagiaire !

Bien sûr, on lit régulièrement dans la presse spécialisée qu'il faut beaucoup de contenu, que les mots-clés soient présents dans les textes... Mais ces aspects sont le plus souvent abordés sous un angle technique, et non éditorial. Si vous fréquentez les forums dédiés au référencement et au webmastering, vous y verrez une quantité de discussions : sur les algorithmes, le PageRank, la réécriture d'URLs, le balisage, le choix cornélien entre la balises <strong> et la balise <b>... et pratiquement aucune discussion sur l'architecture des contenus, ou sur l'écriture web.

Pourtant, le contenu texte devrait être au cœur des préoccupations des webmasters : ce par quoi vous communiquez, c'est du texte. Ce que les utilisateurs utilisent pour chercher, c'est du texte : les mots-clés. Ce que les moteurs indexent, c'est du texte. Le balisage HTML lui-même est d'abord un langage de description de texte. Il est donc vraiment essentiel pour un site de travailler son "text appeal" aussi bien pour le référencement que pour l'utilisateur. Soyez de véritables "obsédés textuels" !

Teneur du contenu

Pour parler de contenu, il faut déjà que celui-ci existe : plus un site comportera de texte et de pages, plus son potentiel de visibilité sera élevé. On aura beau dire qu'une image vaut 10.000 mots, si votre site n'affiche pas de texte, personne ne verra votre image !

N'hésitez donc pas à utiliser du texte en abondance : décrivez précisément votre métier, vos expertises, vos produits, vos spécificités, rédigez des articles d'information sur votre domaine d'activité, ou des fiches conseils. Si vous avez un catalogue en ligne, pensez à fournir au moins un paragraphe de description pour chaque produit. Un bon moyen de produire du contenu est aussi d'adjoindre un blog au site, parlant de votre métier, de l'actualité du secteur...

Deuxième point, très important : les moteurs de recherche utilisent essentiellement des méthodes statistiques pour déterminer la pertinence d'une page. Les moteurs ne comprennent pas le sens des mots. Si vous souhaitez être visible sur certains mots-clés, faites donc en sorte que ces mots-clés soient présents dans vos textes, et un nombre de fois suffisant pour que le contenu soit jugé pertinent pour ces mots-clés. Idéalement vos mots-clés devraient être présents dans la balise <title> de la page, dans les titres internes de la page, et plusieurs fois dans les paragraphes.

Le positionnement n'est pas tout : vous souhaitez logiquement être visible sur les mots-clés réellement tapés par les utilisateurs : parlez donc leur langage ! Le langage simple et clair devrait être la règle sur Internet. Ecrivez vos textes, non pas avec les mots que vous, vous emploieriez pour vous décrire, mais avec les mots que vos clients et vos utilisateurs potentiels utiliseraient pour vous décrire et pour rechercher vos produits.

Evitez l'utilisation des "buzzwords", des jargons, du langage marketing. Ce type d'écrit est creux, pénible à lire, apporte peu d'information, et surtout se référence très mal.

Favorisez donc les mots communs (utilisez "augmenter" au lieu de "maximaliser"), évitez les mots trop abstraits (comme le terme "solutions" : tout le monde vend des "solutions"), n'utilisez des termes techniques que si le langage commun est insatisfaisant, ou si vous savez que votre audience utilise couramment ce terme.

Le français est une langue riche et chacun recherche différemment : utilisez donc les versions au singulier et au pluriel de vos mots-clés, ainsi que des synonymes.

Structuration du contenu

Intéressons-nous maintenant aux aspects structurels du contenu : nous avons vu qu'il fallait un contenu à la fois abondant, riche en mots-clés, et écrit dans un langage clair. Mais cela ne suffit pas : il faut aussi que ce contenu respecte la structure technique des documents HTML, et qu'il soit lui-même logiquement structuré.

Premier élément structurel : la balise <title>. C'est elle qui apparait comme lien dans les pages de résultats des moteurs. Cette balise est extrêmement importante pour le référencement, puisque son rôle est d'identifier le contenu des documents. Son contenu se voit donc reconnaître un poids fort par les moteurs de recherche.

La balise <title> doit décrire précisément l'objet de votre page, et comporter des mots-clés pertinents par rapport à ce contenu. Evitez à tout prix les balises <title> génériques. Concernant la quantité de texte à insérer dans la balise, celle-ci n'est pas critique, mais un titre comportant entre 50 et 80 caractères est une bonne fourchette.

Deuxième élément structurel : les balises meta. Bien qu'elles jouent aujourd'hui un rôle marginal dans le référencement, renseignez quand même les balises meta description et meta keywords. Insérerez un paragraphe de description spécifique à la page dans la balise meta description, comportant vos mots-clés, et 5 à 6 mots-clés dans la balise meta keywords.

La structuration du contenu se joue aussi au niveau rédactionnel. Les textes écrits en langage clairs et logiquement structurés auront tendance à mieux se positionner. Il existe plusieurs techniques rédactionnelles permettant d'assurer à la fois une bonne lisibilité des textes, et un bon référencement :

Première technique : efforcez-vous de produire des pages monothématiques (càd dire qu'à un thème correspond une page). Par exemple, si vous être un distributeur de boissons, il est préférable de créer des pages dédiée à une seule famille de vin, plutôt que des pages évoquant en vrac ces différentes familles. Pourquoi ? D'abord parce que chaque page aura une balise <title> unique, et optimisée en conséquence, et ensuite parce que la densité des mots-clés propres à chaque thème sera naturellement augmentée.

Dans le même ordre d'idée, rédigez vos textes de telle façon qu'a chaque paragraphe corresponde une idée, un concept : la densité sur les mots-clés sera là aussi augmentée, et les pages bénéficieront de l'effet de proximité des mots-clés (qui est prise en compte par les moteurs), ce qui contribue au positionnement.

Deuxième technique : utilisez des titres informatifs et riches en mots-clés (je parle ici des titres dans les pages, pas de la balise <title>). Bien trop souvent, soit les pages ne comportent pas de titres, soit ces titres ne contiennent aucun mot-clé (exemple typique : le "Bienvenue !"). Pourtant, les titres descriptifs sont extrêmement intéressants : ils améliorent la lisibilité du contenu, mais surtout, ils se voient reconnaitre un poids fort par les moteurs de recherche, quand ils sont balisés de façon adéquate (càd avec les balises de titrage, <h1> à <h6>).

Troisième technique : énoncez d'entrée le sujet principal d'une phrase ou d'un paragraphe (on parle de "front-loading"). Cette recommandation est avant tout ergonomique, mais elle influence le référencement, en forçant à rédiger un contenu dense en mots-clés. Si on l'applique à une page, cette recommandation est d'autant plus intéressante, puisque elle force à placer les mots-clés en tout début du texte, ce qui est bénéfique au référencement, les moteurs favorisant le contenu placé haut dans le code. Il est donc important d'introduire votre contenu, que ce soit au niveau de la page entière ou de ses sous-parties.

Enfin, le contenu, c'est du sens, utilisez donc les possibilités sémantiques du language HTML : balisez les titres comme des titres (avec les balises <hn>), les listes comme des listes (balises <ul> et <ol>) et utilisez les emphases (mise en gras) avec la balise <strong>.

Pour aller plus loin

22/11/2006

Des critères personnalisés pour Google CSE

Google Custom Search Engine permettait déja d'associer son compte Adsense à ses moteurs de recherche personnalisés.

Depuis aujourd'hui, il est également possible de définir ses propres critères personnalisés, pour mesurer les performances de ses différents CSE. Pour cela, rendez vous dans l'espace de gestion de votre moteur, cliquez sur l'onglet "make money" et spécifiez le nom de critère de votre choix, par exemple le nom du moteur. Lorsque vous vous rendrez dans votre espace d'administration Adsense à la page "rapport", vous verrez alors les affichage et revenus de vos CSE s'afficher en cliquant sur "meilleurs supports publicitaires".

Autre nouveauté : il est maintenant possible de spécifier la langue de ses CSE.

17/11/2006

Voir le web comme un robot avec Firefox et la barre Web Developer

Plusieurs outils permettent de simuler approximativement la vision des robots d'indexation, par exemple Spider Simulator. Ce type d'application présente des avantages : elles sont accessibles en ligne et faciles à utiliser. Mais elles ne permettent pas de tester une page off-line, ni de naviguer facilement de lien en lien.

Voici donc une méthode basée sur l'extension Web Developer de Chris Pederick qui permet de simuler à peu près correctement la vision d'un robot d'indexation (les clips Flash restent cependant visibles, l'extension ne permettant pas de désactiver Flash actuellement) :

  • Les moteurs n'interprêtent pas javascript, ni les applets java : activez dans le menu Disable les options "disable java" et "disable javascript".
  • Les moteurs n'acceptent pas les cookies : activez dans le menu Cookies l'option "disable cookies | allcookies".
  • Les moteurs ignorent les couleurs des pages ainsi que les feuilles de style : activez dans le menu Disable l'option "disable page colors", puis l'option "disable styles | all styles" dans le menu CSS.
  • Les moteurs ne savent pas lire les images, mais tiennent compte des attribut alt : supprimez l'affichage des images en activant l'option "disable images | all images" dans le menu Images et activez l'option "replace images with alt attributes" dans le même menu.
  • Les moteurs lisent le contenu dans l'ordre du code : activez donc l'option "linearize page" dans le menu Miscellanous.

Surtout, n'oubliez pas pas d'activer l'option "persist style" dans le menu "options" afin de conservez ces paramètres lors de votre navigation ;)

16/11/2006

Un standard pour les sitemaps

Google, Yahoo et Microsoft viennent de s'accorder sur un standard commun de protocole sitemap. Ce système permet de fournir aux moteurs de recherche une liste d'URLs à indexer, ainsi que d'autres informations, comme la priorité d'indexation ou la fréquence de modification des pages, sous la forme d'un fichier XML.

Les spécifications du protocole, qui passent pour l'occasion à la version 0.90, sont disponibles sur le site sitemaps.org, et placées sous licence Creative Commons.

Les anciennes sitemaps continuent cependant d'êtres supportées par Google.

3/11/2006

Les Search Engine Strategies reviennent à Paris

Les 28 et 29 Novembre aura lieu au CNIT de La Défense à Paris la deuxième édition française des Search Engine Stratégies.

J'aurai le plaisir d'intervenir lors de plusieurs conférences, dont une sur la conception de sites web "search engine friendly", et une autre sur les stratégies de liens. Une session d'examen clinique du référencement des sites de l'auditoire est également prévue (voir le programme complet).

2/11/2006

Lycos signe un partenariat avec Ask

Affichant jusque ici les résultats de recherche Microsoft Live et les liens sponsorisés Google, Lycos vient de signer mercredi dernier un partenariat de recherche avec Ask/IAC.

Les sites du réseau Lycos (Lycos.com, Hotbot.com, Tripod, Angelfire) afficheront donc désormais les résultats de recherche web et image fournis par Ask, ainsi que les liens sponsorisés du même moteur. Cet accord ne semble toutefois pas concerner les sites du réseau Lycos Europe, qui continuent de délivrer les résultats fournis par Yahoo Search.

22/10/2006

Didactique et référencement

David s'étonnait récemment sur Webmaster Hub de mon peu d'entrain à spéculer sur la formule de l'algorithme Google telle que proposée sur SEOmoz (et traduite en français sur le blog de 1ère Position).

Le topic ayant été fermé, voici ma vision du sujet : un dicton bien connu dit qu'il est préférable d'apprendre la pêche à quelqu'un, plutôt que de lui donner un poisson directement : il pourra ainsi satisfaire sa faim lui-même, et ne sera plus dépendant des autres.

Discuter de la formule en question revient pour moi à spéculer sur le poids respectif du fil, de l'hameçon, et de l'appât dans la prise d'un poisson (en fait ils sont tous nécessaires). Une telle formule soulève plus de questions qu'elle n'en résout, ce qui ne va pas forcément dans le sens de la simplification. C'est peut être intellectuellement très stimulant, et ça peut même être un débat légitime pour des pêcheurs (référenceurs) chevronnés, mais ce sera peu utile pour la plus grande partie des gens. Leur apprendre à faire un noeud correctement, à appâter, à lancer leur ligne sera par contre bien plus productif et leur permettra d'obtenir des résultats concrets. C'est pourquoi lors de mes échanges sur les forums, je prône une approche pratique plutôt que spéculative.

Bon, sur ce, je retourne à mes cannes, on est dimanche après tout ;)

< 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 >