Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à Référencement Design et Cie 2.0

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

15/05/2006

Quaero : marchera ? marchera pas ?

Loic Le Meur prédit sur son blog l'échec du projet Quaero. Il est vrai que le projet, lancé il y a un peu plus d'un an, n'a pour l'instant pas vraiment progressé, si ce n'est au plan budgétaire. Et il est plus que probable que certaines applications du projet Quaero seront des échecs.

Cependant, certains arguments rapportés par Loic ne me semblent pas les bons :

"Une marque très mauvaise" : Quaero n'est pas une marque. Quand bien même elle le serait, si des francophones peuvent épeler "Typepad" "Del.icio.us", "Frappr" ou "Flickr" il devraient pouvoir épeler "Quaero".

"Centralisé et fermé" : Google n'est pas un modèle d'ouverture, pas plus que Yahoo, Ask, MSN, ce qui n'a pas empêché leur succès. En fait, aucun moteur de recherche important n'est aujourd'hui construit sur un modèle décentralisé, même si des communautés y travaillent, comme Frutch.

"Secret" : Loic cite l'exemple de Gmail "ouvert le plus tôt possible et en laissant tester un maximum de personnes". L'exemple est peu pertinent, puisque Gmail était pendant une longue période seulement sur invitation, donc par définition fermé aux non-invités.

"Pas de buzz, pas d'adoption" : La question ne se pose pas encore, puisque il n'y a rien à adopter pour l'instant. Mais Google, né au temps du web 1.0 n'a pas généré tout de suite du buzz. Sa notoriété s'est faite sur le bouche à oreille dans un premier temps, grâce à la qualité de ses résultats.

Je ne crois pas que tout projet web en 2006 se doive d'être collaboratif, ouvert, et basé sur la hype. C'est très efficace pour certains types de projets. Ca l'est moins pour d'autres. Il est possible (et probable même) que Quaero soit un demi-échec. Mais certaines sociétés, comme Exalead, profiteront du projet, de nouvelles technologies seront développées, et de nouveaux outils pour les utilisateurs avides d'information verront le jour. C'est déjà ça.

Edit : Voir aussi un billet équivalent sur le blog de Thierry Klein

9/05/2006

Google : 2006, le tournant ?

Fin 2005 je m'exerçais à cet exercice ô combien risqué que sont les prédictions, évoquant notamment une période difficile pour Google.

Plusieurs signaux semblent confirmer cette tendance : Le moteur A9 et Alexa, tous deux détenus par Amazon, ont ainsi récemment abandonné Google pour Microsoft, tandis qu'Ebay, inquiet de la concurrence de Google Base, serait en train de négocier avec Yahoo et Microsoft la possibilité d'un partenariat. Mêmes les bloggeurs influents s'y mettent : Jeremy Zawodny, à propos du différent qui oppose Google et Microsoft autour de IE7, critique ainsi les "doubles standards" de la firme de Mountain View.

Qui bénéficiera de cette vague de "dumping" ? Personnellement, je pencherais pour Yahoo. D'autres verraient bien Ask profiter de cette désaffection de Google. Certains évoquent un rapprochement entre Yahoo et Microsoft. Dans tous les cas, on ne peut que se réjouir à l'idée d'un possible reéquilibrage des parts de marché, même si celui-ci se fera très progressivement.

2/05/2006

Ask France ouvre son blog

Ask France vient d'ouvrir son blog en toute discrétion, en collaboration avec Abondance :

"Nous souhaitons être à l’écoute de nos utilisateurs. Cette volonté doit s’exprimer sur ce blog. Ainsi, nous prenons l’engagement suivant : votre parole est libre; aucune critique, aussi sévère soit-elle, ne sera écartée (...) Nous espérons que vous serez nombreux à intervenir sur ce blog, d’autant que quelques surprises devraient s’y glisser…".

Merci à l'équipe Ask d'avoir listé Référencement Design et Cie dans leurs blogs préférés, ce qui m'a permis de découvrir le site ;)

28/04/2006

Accessibilité et référencement sur le Journal du Net

Le Journal du Net publiait aujourd'hui un article sur l'accessibilité et le référencement. Il est heureux qu'un média d'envergure tel que le JDN aborde le sujet, en particulier en l'abordant sous l'angle du référencement. L'accessibilité est en effet souvent perçue comme une contrainte et non un bénéfice : elle n'est pas sexy.

Cependant, à la différence de l'article, je ne pense pas que "l'objectif de l'accessibilité pour le référenceur soit donc de limiter au maximum tous les obstacles pouvant bloquer l’indexation par les moteurs" : limiter les obstacles techniques à l'indexation est seulement le préalable. Le travail du référenceur va plus loin, en rejoignant celui de l'ergonome et du concepteur-rédacteur : au delà de l'accessibilité technique, il faut en effet prendre en compte l'accessibilité "cognitive" et la lisibilité des contenus, en s'efforçant de proposer des contenus clairs, compréhensibles par tous (point 14.1 de WCAG).

25/04/2006

Comprendre le "crawl caching proxy" de Google

Pour ceux que l'anglais rebute, une petite explication du "proxy de mise en cache du crawl" (crawl caching proxy) évoqué par Matt Cutts sur son blog :

Les serveur proxy sont fréquemment utilisés par les FAI et les réseaux d'entreprise pour réduire leur bande passante. Concrètement, un serveur proxy agit comme un cache mutualisé : quand un utilisateur se rend sur une page web, celle-ci est mise en cache dans le proxy. Les autres utilisateurs souhaitant acceder à cette page se verront servir non pas la page originale, mais celle enregistrée dans le cache. La bande passante est ainsi économisée, puisque le nombre d'accès à la page originale est réduit.

Ce que Google a fait, c'est appliquer ce système de cache à l'indexation : au lieu d'indexer une page de multiples fois via ses différents robots (Googlebot, Mediapartners, Newsearch, Blogsearch etc...), Google a mis en place un proxy utilisé par ceux-ci. Une page indexée une première fois par l'un des robots et mise dans le cache pourra donc être y récupérée par les autres robots, réduisant le nombre d'accès à la page originale.

Ce qu'il faut comprendre, c'est que le fait de participer à Adsense ou d'être indexé dans Google News n'influe en rien sur l'indexation dans les pages de résultats web du moteur. Le système ne fait que mettre en cache les pages pour les servir aux robots qui en font la demande. Ainsi, une page indexée par Mediapartners (le robot Adsense) ne se retrouvera dans l'index web que si Googlebot demande cette page et y accède.

24/04/2006

Matt Cutts à propos de la Googlebar

La prise en compte des données collectées par la barre d'outils Google dans l'algorithme du moteur est une question qui fait débat sur le forums consacrés au référencement. Interrogé par Lee Odden à propos de l'utilisation de ces données, Matt Cutts répond :

"Quand quelqu'un me pose la question de l'utilisation de tel ou tel signal dans l'algorithme, la réponse la plus correcte à la question est en général de dire qu'il est sage de ne pas rejeter catégoriquement un signal.

Prenons un exemple, bien qu'issu d'un contexte différent : les balises meta ont acquis une mauvaise réputation auprès des moteurs il y a quelques années, à cause des abus de certains. En conséquence, ces balises ne sont pratiquement plus prises en compte dans notre algorithme. Mais je m'abstiens cependant de dire que nous ne les utiliserons jamais, parce qu'il n'est pas intelligent de rejetter ce qui peut constituer un signal. Dans le futur, quelqu'un pourrait très bien trouver un moyen d'exploiter ce signal.

Je ne vais donc pas dire que Google n'utilise pas, ou n'utilisera jamais les données de la barre d'outils, ou tout autre signal (...)

Concernant les objections à l'usage des données issues de la barre d'outils, la principale serait que des webmasters pourraient les manipuler afin de faire croire qu'un site web est plus visité qu'il ne l'est en réalité. Par exemple, aux Search Engine Strategies de New-York, j'avais évoqué le fait qu'Alexa fournissait une fonctionnalité de "liens similaires", et que ce système avaient été spammé par des sites de poker, des sites d'emploi, etc (...)

Je ne dirai donc pas Google utilise tel ou tel signal. Je voulais juste évoquer les problèmes potentiels liés à l'utilisation de ces données."

Moralité : il est peu productif de spéculer sur l'utilisation de ces données. Si elles sont ignorées, s'en soucier n'aura servi à rien. Et si elles sont prises en compte, le temps passé à s'en soucier aura été mieux employé à développer son contenu pour les utilisateurs, dont une partie utilise la Googlebar...

19/04/2006

Mediapartners utilisé pour l'indexation ?

A en croire Matt Cutts qui s'est exprimé à ce sujet au Pubcon de Boston, Mediapartners, le robot d'indexation utilisé normalement pour cibler les liens sponsorisés du programme Google Adsense serait aussi utilisé par Google pour enrichir son index web. Le système permettrait ainsi d'économiser de la bande passante, et faciliterait la détection des sites faisant du cloaking.

13/04/2006

L'utilisateur et les moteurs : nouvelles statistiques

Une étude (pdf) menée par Iprospect en janvier 2006 nous éclaire un peu plus sur le comportement des utilisateurs face aux moteurs de recherche :

La première page de résultats comptabiliserait ainsi 62% des clics et les trois premières pages 90%, ce qui confirme (on s'en doutait) l'importance d'être positionné le plus haut possible dans les pages de résultats. Cette tendance semble d'ailleurs se renforcer avec les années.

En cas d'echec dans leur recherche, 41% des utilisateurs ont déclaré modifier leur requête ou changer de moteur s'ils ne trouvaient pas de résultats satisfaisants en première page. Ce chiffre monte à 88% si l'on considère les trois premières pages de résultats. Les utilisateurs semblent fidèles (ou paresseux), car 82% déclarent changer de mots-clés plutôt que d'essayer un autre moteur.

10/04/2006

Les moteurs aiment l'accessibilité !

A lire sur Pompage.net, une traduction d'un article de Andy Hagans, contributeur au magazine A List Apart : "Vous aimez l’accessibilité ? Les moteurs de recherche aussi !".

J'avais déjà abordé cette question début 2005, mais une piqûre de rappel ne saurait faire de mal. Cet article rejoint également mon billet précédent : les standards et l'accessibilité bénéficient à tous les agents utilisateurs, y compris les moteurs de recherche !

1/04/2006

Surveiller ses liens entrants

Il est parfois nécessaire de surveiller la qualité des liens pointants sur son site : dans ce monde sans pitié qu'est le référencement, les webmasters ont fréquemment recours à des artifices pour s'accaparer toujours plus de PageRank. C'est dans cette optique que Deepindex et Webmaster-Hub ont développé la technologie Backlink Crawler, permettant de contrôler ces liens. Performant, l'outil permet même de classer les liens de façon thématique.

Edit : il s'agissait bien évidement d'un canular, 1er avril oblige ;)

Google se lance dans l'imagerie médicale

Des sources bien informées font état d'un lancement imminent de Google dans l'imagerie médicale. Des prototypes de machines de type IRM seraient déjà operationnels.

Adam Kipper, initiateur du projet en interne, explique : "Les réseaux que forment les neurones ou les systèmes vasculaires ont une structure très proche de celle des réseaux de liens que l'on observe sur le web. Nous sommes persuadés que nos algorithmes -comme le PageRank- mais aussi nos autres algorithmes moins connus dédiés à l'analyse des liens peuvent peuvent participer aux progrès de la recherche et de la médecine".

Larry Page ajoute : "Nous étudions la possibilité de faire bénéficier les hopitaux des pays émergents de machines Google dans le cadre de notre fondation google.org".

Etant donnée la quantité énorme de données à traiter pour ces examens, les machines feraient appel à la puissance de calcul des datacenters Google, en faisant transiter les données par fibre optique (la fameuse "dark fiber").

Cette annonce fait suite à la nomination le mois dernier de Adam Bosworth au titre de "Google Health Architect".

A quand un équivalent de Google Earth dédié à l'exploration du corps humain ?

Edit : Il s'agissait bien sur d'un poisson d'avril, comme le nom de "kipper" (hareng en anglais) le suggérait ;)

22/03/2006

Google teste une nouvelle interface

Google est en train de tester de nouvelles interfaces utilisateurs, comme le montre cette capture d'écran. Les liens sur la gauche permettent d'accéder directement aux résultats de recherche du mot-clé sur différents services : recherche web, images, Google Groups, annuaire (Dmoz) et Google News. Les barres vertes sont fonctions du nombre de résultats.

Seuls certains utilisateurs cobayes semblent y avoir droit. Personnellement c'est sur Google.be que j'ai accès à cette interface.

19/03/2006

Moteurs : qui fournit qui ?

Il est parfois difficile de savoir qui fournit les résultats de recherche algorithmique à tel ou tel moteur ou portail... Je vous propose donc cette carte (format png), qui dresse un panorama des relations entres les principaux moteurs et portails français.

28/02/2006

Référenceur 2.0 ?

Oui je sais le titre est facile, mais si vous lisez ce billet, c'est à priori que vous avez été interpellé au point de cliquer dessus ;)

Pourquoi ce titre ? Il me semble que le métier de référenceur connait une accélération de son évolution. Comme l'évolution biologique, il ne s'agira pas d'un changement brutal, mais plutôt de changements progressifs -mais profonds- allant dans le sens de l'histoire (avec un grand H1).

Le référenceur 1.0 était essentiellement un technicien. Même s'il jouait avec les mots-clés et avait quelques notions de marketing, son univers se résumait à l'indexation et au positionnement, et sa prestation, souvent autonome, intervenait souvent en fin de chaîne de production, d'où l'usage de solutions techniques parfois limites du point de vue des moteurs et de l'usabilité (bien qu'efficaces). On mesurait sa performance en terme de positions, éventuellement en terme de création de trafic pour les plus audacieux.

Le référenceur 2.0, lui, est un touche-à-tout, le point de contact entre des mondes auparavant distants. Une partie de lui reste technique : on l'imagine mal ne pas maitriser les questions de serveurs, protocoles HTTP, javascript, PageRank, et autres robots.txt.

Mais il s'est ouvert à de nouveaux horizons : la sémantique, d'abord envisagée comme une simple astuce de positionnement, est devenue son cheval de bataille. Le contenu étant une composante essentielle du référencement, le référenceur 2.0 s'est aussi découvert une vocation de concepteur-rédacteur spécialiste du web, ses homologues du print n'ayant pas forcément su prendre ce virage (De l'autre coté de l'atlantique, ils ont même crée un nouveau mot : "SEO copywriter").

Du contenu à l'architecture de l'information, il n'y a qu'un pas, et le référenceur 2.0 a également intégré les questions d'ergonomie web et d'accessibilité à sa pratique. Ca tombe bien : ce qui est bon pour les utilisateurs est généralement bon pour les moteurs, ce qui se vérifie en terme de trafic, de taux de conversion, et ultimement, de ROI.

Voila donc notre référenceur 2.0 : un spécialiste du Search Marketing, doué de capacités rédactionnelles, et convaincu de l'importance de l'accessibilité.

27/02/2006

Au revoir Teoma

Racheté en 2001 par Askjeeves, le moteur de recherche Teoma redirige désormais vers le site Ask. Ce n'est cependant pas la mort de Teoma, puisque sa technologie et son index sont précisement ceux utilisés par Ask.

La seule perte pour l'utilisateur seront probablement les pages "ressources" (Hubs) auparavant affichées en marge des résultats, mais selon Ask, leur taux de clic était inférieur à 1%. Ces liens étaient cependant appréciés des utilisateurs avertis, et il n'est pas exclu que Ask les réintègre dans le futur.

< 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 >