Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à mon nouveau blog SEO

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

10/01/2007

ClickHeat, un script PHP de cartographie des clics

Développé par Labsmedia, ClickHeat est un script PHP vous permettant de cartographier les clics des utilisateurs sur vos pages web, de façon similaire à Crazy Egg. Le script est disponible sous licence Open Souce.

5/01/2007

Retour sur les tests de lisibilité

En septembre dernier je m'étais interessé aux méthodes d'évaluations de la lisibilité des textes, en particulier l'indice Gunning fog, qui permet d'estimer le nombre d'années de scolarité nécessaires pour lire correctement un texte. Ces méthodes étant à l'origine conçues pour tester des écrits en anglais, j'avais tenté de dresser une echelle d'indices de lisibilité pour différents types de textes francophones.

Il s'avère cependant (merci Aurélien) qu'une adaptation francophone de la formule de Flesh par Kandel et Moles existe, le site Standards-schmandard proposant même un outil utilisant cette adaptation.

Les billets de ce blog obtiennent un score moyen de 51, ce qui correspond à des textes de difficulté moyenne, comme le montre le tableau suivant :

Indice Difficulté
Type de support
% de la pop. ayant accès
0-30
Très difficile
Scientifique
4,5 %
30-50
Difficile
Technique
33 %
50-60
Assez difficile
Vulgarisation
54 %
60-70
Normal
Rewriting de masse
83 %
70-80
Assez facile
Revues familiales
88 %
80-90
Facile
Poches détective
92 %
90-100 Très facile Bandes dessinées 93 %

Et pour ceux s'intéressant à la programmation de ce type d'outils, voir ce billet sur le blog de Dave Child.

4/01/2007

Intégrez Ergonosearch à votre navigateur

Ergonosearch vous offre désormais la possibilité d'interroger son index directement à partir votre navigateur ! La recherche peut être intégrée soit dans la Googlebar, soit dans tout navigateur compatible avec le protocole OpenSearch (actuellement Internet Explorer 7 et Firefox 2).

Pour rappel, Ergonosearch est un moteur de recherche dédié à l'accessibilité et l'utilisabilité, indexant uniquement des ressources de qualité et exploitant le service Google Custom Search Engine.

Quel comportement de l'utilisateur face au scrolling ?

On a longtemps recommandé de minimiser voir d'éviter les scrolls verticaux (aussi appelés ascenseurs), bien qu'il aient pourtant été adoptés assez rapidement par les utilisateurs (Voir par exemple cette alerte de Jakob Nielsen de 1999).

Une étude menée récemment par ClickTale apporte des statistiques intéressantes sur le comportement de l'utilisateurs face aux scrolls :

  • 91% des pages consultées comprendraient un ascenseur vertical.
  • 76% des pages comportant un ascenseur vertical auraient été scrollées.
  • 22% des pages comportant un ascenseur vertical auraient été scrollées intégralement (jusqu'au pied de page).

22% peut paraître peu, mais si l'on observe la distribution de la part des pages effectivement scrollées, on s'aperçoit que la part des utilisateurs ayant scrollé moins de 25% des pages est finalement réduite. Et si l'on observe la distribution des utilisateurs ayant scrollé intégralement les pages (c'est-à-dire scanné ou lu), on ne peut que constater que les utilisateurs n'hésitent pas à scroller de très longues pages, de près de 10000 pixels de haut.

Ces données semblent donc indiquer que des pages longues de 2 ou 3 écrans (éventuellement plus) sont admissibles si le contenu le justifie, à condition que l'utilisateur puisse juger de la teneur du contenu dès le premier écran. On peut aussi penser, comme le souligne ClickTale, qu'il y a finalement peu de bénéfice à compacter les pages pour gagner de l'espace. Mieux vaut travailler sur la lisibilité des textes, en jouant par exemple justement sur les espaces, ainsi que sur les tailles de polices et les interlignes.

3/01/2007

Version 3.0 beta pour Goshme

Goshme, que j'avais présenté en octobre 2005, est un moteur de recherche un peu particulier, puisque au lieu d'indexer directement les contenus, ils interroge des bases de données préalablement sélectionnées, permettant ainsi d'accéder au web invisible (sur ce sujet, consulter le livre blanc Goshme, au format PDF).

Goshme se positionne donc d'avantage comme un assistant de recherche qu'un moteur stricto sensu. Actuellement, Goshme est capable d'interroger environ 2590 bases de données, avec des temps de réponses plus courts qu'avant (deux à trois secondes, contre quinze auparavant, et ce délai devrait descendre à terme en dessous de la seconde).

L'interface de cette beta 3.0 a été grandement simplifiée et épurée. Alors qu'il fallait auparavant sélectionner les catégories de sites à interroger, la page d'accueil comprend désormais une simple boite d'interrogation, l'affinage de la recherche se faisant directement dans les pages de résultats grâce à une arborescence sur la gauche (il est cependant toujours possible de sélectionner dès le départ les catégories à interroger via la recherche avancée). Le menu en haut des pages de résultats permet quant à lui de spécifier le type de média recherché : tous types, images, contenus audio, vidéo, actualités etc.

Une prévisualisation des pages de résultats des différentes bases interrogées dans des iframes est offerte. J'aurais cependant apprécié une indication du nombre de résultats pour chaque base interrogée. Espérons que cette fonctionnalité soit implémentée par la suite.

La version précédente de Goshme comprenait trois onglets : moteurs spécialisés, annuaires, et moteur généralistes. Cette distinction a disparu, Goshme affichant d'abord les résultats des moteurs spécialisés, puis ceux des outils généralistes.

Si elles sont moins visibles, des améliorations ont également été menée coté back-office : la maintenance et la catégorisation des bases de données sont désormais automatisées, ce qui permet de gérer plus facilement un très grand nombre de base de données, leur configuration changeant régulièrement. Ce processus était auparavant assuré manuellement.

D'autres améliorations sont enfin prévues, en particulier une attention plus grande portée aux bases de données du web profond, et l'indexation de bases non anglophones, notamment portugaises, françaises et espagnoles.

2/01/2007

Search : Que fût 2006 et quelles prédictions pour 2007 ?

Souvenez vous, c'était il y a un an : fin 2005, je m'étais risqué à quelques prédictions sur le paysage des moteurs de recherche en 2006... tout comme Fred, voyons lesquelles se sont réalisées...

Le changement d'ère que j'avais évoqué pour Google semble bien s'être confirmé, même si le moteur de Mountain View demeure toujours le "point G" du web et que son audience ne faiblit pas. La prédiction était donc correcte. De procès en campagnes d'activistes, de rumeurs en coups de gueule de blogueurs plus ou moins influents, Google a perdu de sa sympathie, et certains commencent à lui favoriser Yahoo... Si le mouvement vers la portalisation se poursuit (Google Calendar, Google docs & spreadsheets, rachat de YouTube...), Google n'a quand même pas été jusqu'à afficher des publicités graphiques sur ses propres sites comme j'avais pu l'imaginer, et ne connait toujours pas de concurrence sérieuse de la part de MSN concernant les liens sponsorisés. De même, pas de Google Desktop mobile en vue... Je me suis donc planté sur ces trois derniers points :)

J'avais également émis l'idée que Yahoo prendrait un tournant très social et geek. Cette tendance semble elle aussi s'être confirmée : En 2006, Yahoo a ainsi lancé un moteur de recherche personnalisable, un service de questions/réponses, partagé ses patterns de conception d'interfaces web, lancé une API AJAX et rajeuni ses services à la sauce 2.0, à grand renfort de tagging et de javascript. Tous ces efforts ne suffisent pas malheureusement pour prendre des parts de marché à Google...

MSN Search, rebaptisé Live, n'arrive lui non plus toujours pas à séduire, malgré des fonctionnalités intéressantes et une pertinence effectivement à la hausse. Ca n'avance donc pas vraiment, du moins pas autant qu'on pourrait le souhaiter. Et sa plateforme de publicité AdCenter ne permet toujours pas aux éditeurs de contenu d'afficher les liens sponsorisés du moteur...

Exalead, le petit moteur français a poursuivi ses efforts pour se faire connaître, notamment en mettant en place une interface plus légère et plus conviviale pour l'utilisateur. Le projet Quaero, bien qu'ayant du plomb dans l'aile, lui aura quand même permis d'augmenter un peu sa notoriété auprès du grand public. Exalead devra donc redoubler d'effort en 2007. Je reste persuadé que des partenariats avec des FAI et portails pourraient l'aider.

Concernant Ask, j'avais parlé de "flop", mais c'est finalement le moteur qui m'a le plus agréablement surpris : Ask a su mettre en place des outils de qualité (recherche cartographique, recherche dans les flux RSS, services mobiles) et a plutôt tendance à voir son audience progresser Outre-Atlantique. Et si c'était le moteur..."qui pouvait" justement ? Cela dit, en France son audience reste extrèmement faible.

Quel bilan tirer de toute cela et qu'attendre de 2007 ? D'abord qu'il est très difficile de prédire l'avenir. Ensuite que Google semble pour l'instant indétronable malgré une certaine érosion de son image chez les observateurs. S'il est difficilement envisageable que sa part de marché progresse (il est déjà au sommet), on peut s'attendre à ce qu'elle atteigne un plateau. S'il y a du changement, celui-ci viendra des portails et FAI, les internautes étant finalement peu enclins à changer de moteur. On peut également penser que la généralisation d'IE7 et l'arrivée de Windows Vista aidera un peu Live, mais l'impact sera probablement limité.

A lire également : les prédictions de John Battelle, ainsi que celles d'Andy Beal.

21/12/2006

5 choses que vous ne saviez probablement pas à mon sujet

La vague du "Five things you didn't know about me" a traversé l'Atlantique, et c'est Nadir qui m'a taggé. Me voici donc dans l'obligation de vous révéler 5 choses que vous ne saviez peut-être pas à mon sujet :

  • Je n'ai pas de réelle formation informatique ou marketing : mon plus haut niveau de formation est une maîtrise de Droit Privé, et mon seul diplôme en relation avec le web est un diplôme universitaire "Droit et Cyberespace". Je suis tombé dans le référencement en m'exerçant à promouvoir mes sites persos.
  • Je fais un piètre geek : mon premier PC était un portable Olivetti équipé d'un 386SX-20, d'un disque dur de 40 Mo, et d'un écran LCD 64 niveaux de gris, le tout acheté chez Darty.
  • Mon 1er message sur la liste Yahoo "Référencement" date d'octobre 2000 et comportait la question suivante : "ya-t-il une limite au nombre de meta-keywords pris en compte par les moteurs de recherche ?". Qui a dit noob ? ;)
  • J'ai dû me casser le nez cinq fois environ, ce qui explique la déviation de cet appendice, ainsi que le fait que je ne puisse respirer que par une narine.
  • J'ai fait un peu de musique. Avec plus ou moins de succès... Je suis sûr qu'apprendre le solfège aurait pu m'aider :)

Bon, qui vais-je tagger maintenant ? Aymeric, Eric, Jean-Marie, Monique, Julien ?

19/12/2006

Beau et accessible

Aujourd'hui, on peut être beau et accessible.

...Bon, ok c'était juste un clin d'oeil (et une pub gratuite pour le dernier Nikon), mais je n'ai pas pu résister ;)

18/12/2006

Le spam social, spam du futur ?

Google sur son blog Webmaster Central revient sur les stratégies de liens. Le discours, assez classique, recommande de penser aux utilisateurs avant de penser aux moteurs de recherche (mais en y pensant quand même), ce qui est effectivement la bonne méthode.

Google conseille ensuite de profiter de services sociaux comme Digg ou Yahoo Answers pour se faire une autorité, et de mettre en place des dynamiques de link-baiting. Mais honnêtement, en conseillant ces techniques pour promouvoir son site, n'y a-t-il pas un risque que Google soit en train de créer le spam de demain, à savoir le spam social ? Y-a-t-il vraiment beaucoup d'utilisateurs qui soumettent des ressources spontanément de façon désinteressée, et donc qualitative ? Digg et ses multiples clônes sont déjà bien spammés. Yahoo Answers est désespérant, et ce n'est certainement pas le lieu où je chercherai un expert. Quant au link-baiting, on y trouve le meilleur et le pire, ce n'est donc pas en soi un signal de qualité, même si de bon contenus généreront effectivement des liens spontanés. Le spam social est bien sûr plus difficile à mettre en oeuvre, mais il sera aussi beaucoup plus dur à détecter pour les moteurs.

Qu'en pensez-vous ?

13/12/2006

Si tu vois le PageRank, tue-le !

Tel un leitmotiv, une question revient sans cesse sur les forums parlant de webmastering et de référencement : "le PageRank est il encore important ?" Généralement, ce genre de topic aboutit à un dialogue de sourds, les uns affirmant que le PR ne sert plus à rien, les autres assurant que le celui-ci est au contraire essentiel à la bonne visibilité d'un site.

C'est à se demander si le PageRank a jamais été compris... Il faut donc le redire encore une fois : Le PageRank n'est qu'un facteur discriminant ! C'est à dire que le PR ne sert qu'à départager des sites avec un scoring (une notation) proche pour une requête donnée.

Très approximativement, le score final d'un site pour une requête donnée est égal à score_contenu*PR (le vrai PR étant un chiffre compris entre 0 et 1 et l'échelle des scores m'étant inconnue).

Imaginons 4 sites en concurrence pour un mot-clé donné :

  • Un site A au contenu très pertinent avec un score_contenu de 0.98 et un PR de 0.5.
  • Un site B au contenu un tout petit peu moins pertinent mais très populaire avec un score_contenu de 0.90 et un PR de 0.9.
  • Un site C peu connu au contenu très pertinent avec un score_contenu de 0.97 et un PR de 0.1.
  • Un site D au contenu très peu pertinent avec un score_contenu de 0.3 et un PR de 0.99.

Les scores finaux des sites sont donc respectivement de 0.49, 0.81, 0.097 et 0.297. Les sites apparaitront donc dans les pages de résultat Google dans l'ordre suivant : B, A, C, D

Un site globalement pertinent jouissant d'une forte popularité (B) arrivera donc en tête, suivi d'un site très pertinent, mais moyennement populaire (A). En troisième position arrivera un site pertinent mais très peu populaire (C). Le site D, extrêmement populaire mais au contenu très peu pertinent sera relegué au fin fond des résultats. On voit donc bien que le PR ne fait pas tout, mais qu'il joue un rôle non négligeable. On peut avoir un PR énorme et ne pas être visible du tout sur une requête donnée, de même que l'on peut avoir un PR moyen et très bien se positionner.

Revenons-en au titre de ce billet : pourquoi tuer le PR ? Un maître zen disait souvent à ses disciples, qui désiraient ardemment atteindre l'éveil, de "tuer le Bouddha". Car c'est seulement en s'affranchissant des idées qu'ils se faisaient du Bouddha qu'ils pourraient eux-même devenir des éveillés, comme le Bouddha. Le maître n'entendait pas là que le Bouddha n'existait pas. De la même façon, c'est en s'affranchissant de cette obsession du Pagerank que l'on mènera une stratégie de liens efficace. Le PR n'est qu'un signal, un indicateur, pas très fiable qui plus est. Sachez-donc en tenir compte ;)

12/12/2006

Un annuaire pour les professionnels blogueurs

Professionnels blogueurs en quête de visibilité, Blogs Pro vous propose "de découvrir les entreprises à travers leurs blogueurs" à travers son annuaire spécialisé.

Une bonne initiative, car elle bénéficie à tous : le blogueur y gagne en visibilité et en notoriété, de même que l'entreprise qui profite d'un contact plus vrai et plus informel. Et le visiteur y trouve facilement des sites de qualité.

SEO Spyglass, un outil pour analyser les liens entrants

Les liens entrants jouent un rôle important dans le positionnement d'un site, puisque les moteurs de recherche prenent en compte dans leurs algorithmes la quantité, la qualité et les intitulés de ces liens.

Disponible pour de multiples plateformes (Windows, Mac OS X, Linux) grâce à Java, SEO Spyglass permet une analyse poussée des liens pointant vers un site.

Le logiciel identifie non seulement les liens entrants dans les 3 grand moteurs (Google, Yahoo, MSN), mais fournit également les intitulés de ces liens, le nombre total de liens sur la page, le PageRank de la page et du domaine affichant le lien, l'adresse IP du domaine, sa présence dans les annuaires DMOZ et Yahoo, et l'âge du nom de domaine !

Afin de mieux interpréter les données obtenues, le logiciel permet de distinguer dans un second temps les liens issus des blogs et forums, ceux des annuaires, et ceux en page d'accueil. Un bouton "Analyze" offre quant à lui une synthèse des données obtenues, qui permet notamment d'étudier la répartition des liens en fonction du PR, ainsi que les intitulés de liens les plus fréquemment utilisés.

SEO Spyglass est gratuit, et ne nécessite que de fournir une adresse email pour le télécharger (qui vous vaudra sûrement un peu de pub, mais on n'a rien sans rien).

8/12/2006

Baidu lance un moteur de recherche de blogs

Avec une blogosphère chinoise en constante augmentation, il était naturel que Baidu développe sa propre solution de recherche de flux. Le numéro 1 de la recherche en Chine lance donc Baidu Blogsearch, son moteur de recherche de blogs. Pour soumettre votre flux RSS, c'est par ici.

Et tant que j'y suis, voici le formulaire de soumission pour la recherche web. Bon référencement ;)

6/12/2006

L'illettrisme : un "handicap" trop ignoré ?

Dans un article paru dans INSEE Première en octobre 2005 et intitulé "Les compétences des adultes à l’écrit, en calcul,et en compréhension orale" (PDF), Fabric Murat relève que "parmi l’ensemble des personnes de 18 à 65 ans résidant en France, 7% éprouvent de graves difficultés face à l’écrit" et que 5% éprouvent "des difficultés moins importantes mais suffisamment fortes pour rendre difficile une communication vraiment efficace par l’écrit". 12% de la population française est ainsi dans une "situation préoccupante face à l'ecrit".

Dans un compte-rendu intitulé "L'illettrisme en France. Etat et perspectives d'action" (PDF), Alain Bentolila rapporte que "9 à 12% des jeunes adultes français comprennent mal un texte simple et court".

L'Agence Nationale de Lutte contre l'Illettrisme ( s'appuyant sur les chiffres de l'INSEE) estime elle que 9% de la population française serait en situation d’illettrisme (PDF), soit 3.1 millions de personnes.

Enfin, selon les statistiques de l'OCDE (XLS), 35% de la population adulte (entre 25 et 64 ans) n'aurait pas poursuivi d'études au delà du premier cycle du secondaire (collège).

Jakob Nielsen semble donc avoir raison quand il estime que le faible niveau d'alphabétisation est le plus gros problème d'accessibilité du web. Pourtant ce groupe d'utilisateur est trop souvent négligé, et l'écriture en langage clair (l'équivalent du plain language anglophone) méconnue...

5/12/2006

Firebug : l'extension ultime pour débugger un site

La barre d'outil Web Developer permettait déjà d'éditer à la volée le code HTML et CSS d'une page.

Firebug va bien plus loin : Les codes HTML, CSS, Javascript, ainsi que le DOM sont éditables, et bénéficient de la coloration syntaxique. De nombreuses fonctionnalités d'aide au debuggage et à l'optimisation sont disponibles : par exemple, un carré coloré apparaît au survol d'un code couleur dans la fenêtre d'édition des feuilles de style qui affiche la couleur spécifiée. Les éléments blocs sont également encadrés quand leur code est selectionné dans la fenêtre d'édition du code HTML. Autre fonctionnalité intéressante : le temps de chargement des différents éléments composant la page est analysé, ce qui permet d'identifier les causes d'un chargement trop long.

L'essayer c'est l'adopter ;)

< 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 >