Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à Référencement Design et Cie 2.0

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

3/07/2007

Améliorer l'accessibilité d'un site pour les handicapés moteurs

Les handicaps affectant la vision sont très souvent évoqués en matière d'accessibilité web. Les handicaps moteurs le sont moins. Pourtant, de multiples pathologies sont à l'origine de ce type de handicaps : attaques cérébrales, maladie de Parkinson, sclérose en plaques, tétraplegies, hémiplégies... On estime que les handicapés moteurs représentent environ 60% (PDF) de la population handicapée en France. Webcredible publie ce mois-ci un article sur l'amélioration de l'accessibilité pour ces utilisateurs.

Bref résumé des recommandations :

  • Maximisez la taille de la zone cliquable des liens.
  • Indiquez visuellement le focus sur les liens, afin que l'utilisateur puisse identifier le lien sur le point d'être visité.
  • Proposez une lien d'évitement visible, pour permettre l'accès direct au contenu.
  • Evitez de jouer automatiquement des fichiers audio, qui peuvent interférer avec les commandes vocales de certains utilisateurs
  • Evitez en général d'utiliser l'attribut tabindex. Conservez l'ordre de tabulation par défaut.
  • N'utilisez pas les access keys.

29/06/2007

Digimind publie un livre blanc sur le Web 2.0 et la recherche d'informations

Société française spécialiste de la veille, Digimind vient de publier un livre blanc de 113 pages téléchargeable gratuitement, intitulé "Le Web 2.0 pour la veille et la recherche d'informations".

Le document tente d'abord de définir ce qu'est le Web 2.0, pour ensuite faire le tour de ses apports en matière de recherche d'information et de veille. Le propos y est très équilibré, reconnaissant à la fois l'interêt de ces applications sans pour autant céder au sirènes d'un nouveau web, ce qui en fait une très bonne synthèse pour les étudiants et les "travailleurs du savoir".

Extrait de la conclusion : "Le Web 2.0 : ce mot qui génère énormément de buzz, d'écrits et de blogs spécialisés n'est-il qu'un terme marketing, un courant de mode ? Il est probable que bientôt, on ne l'emploiera plus pour désigner ces nouvelles applications qui seront devenues la norme. Toutefois, ce terme, sorte de parapluie conceptuel qui recouvre les différentes tendances du web nouvelle génération, a le mérite de mettre un nom simple sur un courant du net novateur. Le Web 2.0 n'est pas une révolution ou une rupture technologique mais plus certainement une évolution qui permet de replacer l'utilisateur au centre des réseaux. Cela n'est certes pas très nouveau : Usenet, l'un des plus anciens protocoles de l'internet, bien antérieur au Web, offrait du contenu en ligne créé par l'internaute via les Newsgroups dès les années 1980. Mais les progrès technologiques ont permis d'intensifier cette tendance et de démocratiser l'accès à la création de contenu en ligne et à sa diffusion au plus grand nombre. Potentiellement, tout internaute peut maintenant diffuser ses publications tant les outils sont devenus simples"

Un lien entre branding et pertinence perçue des moteurs de recherche

Décidemment, l'être humain est loin d'être rationnel : selon une étude (PDF) présentée récemment au CIH 2007, la pertinence perçue des pages de résultats des moteurs de recherche serait affectée par la marque du moteur associé à ces pages.

Pour vérifier leur hypothèse, les auteurs de l'étude ont demandé à 32 participants d'évaluer la pertinence de 4 pages de résultats originellement issues de Google, mais "rebrandées" aux couleurs de quatres moteurs : Google, MSN, Yahoo et AIRS, un moteur fictif inventé pour l'occasion.

Les résultats de recherches étant strictement les mêmes, les moteurs auraient dû en toute logique recueillir des scores de pertinence similaires. Au lieu de ça, les auteurs ont constaté un écart de pertinence perçue de 25% entre les moteurs. C'est Yahoo qui a été jugé globalement le plus pertinent, avec un score de pertinence de 42%, suivi de Google avec un score de 36% (soit la moyenne de l'ensemble des moteurs) et de MSN avec un score de 34%. Le moteur fictif AIRS a recueilli quant à lui un score de 32%.

La perception de la marque affecte donc bien la perception de la pertinence, ce que semble confirmer l'analyse qualitative : certains utilisateurs jugent ainsi les résultats de recherche AOL "inférieurs" alors que ceux-ci sont fournis par Google. Moralité : si vous ne parvenez pas à améliorer votre pertinence, travaillez votre branding...

SEO will never die

Il se trouve régulièrement des prophètes pour annoncer l'apocalypse imminente du référencement naturel. Autrefois, c'était les liens sponsorisés qui étaient censés tuer le référencement. Puis ce furent les améliorations sucessives des algorithmes des moteurs. Puis la personnalisation des résultats. Aujourd'hui, ce serait pour certains la recherche universelle prônée par Google et Ask...

S'il y avait une révélation à faire ("révélation" étant le sens original de "apocalypse" après tout), c'est que le référencement n'est pas prêt de disparaître : les pratiques peuvent être amenées à évoluer, mais tant qu'il y aura des outils de recherche et un interêt à y figurer, il y aura des gens pour analyser le fonctionnement de ses outils et travailler à l'amélioration de la visibilité des sites dont ils ont la charge.

Les moteurs agrègent les contenus de divers bases de données ? Les référenceurs travailleront alors en parallèle sur ces différentes bases. En fait c'est déjà le cas. L'optimisation des vidéos pour le référencement est déjà possible par le tagging et par des systèmes de meta données comme Media RSS. Il est possible depuis longtemps déjà de travailler sur la visibilité des images grâce à l'attribut alt et aux noms de fichiers. RSS s'indexe facilement. Quand aux actualité, l'optimisation se fait surtout par le contenu. Bref, peu importe le contenu, il est toujours possible de travailler sur sa trouvabilité.

La seule chose qui pourrait tuer le référencement : la disparition de son ecosystème, c'est à dire les outils de recherche. Hypothèse improbable...

27/06/2007

Près de 90% des utilisateurs utilisent le mode de recherche par défaut de Google

On se doutait intuitivement que les internautes ignoraient la plupart du temps les options de recherche avancées des moteurs. C'est désormais prouvé : selon une étude menée par la société de mesure d'audience Seelog, environ 90% des recherches faites sur Google le seraient avec l'option "Web", qui est le mode de recherche activé par défaut. Les recherche sur les "Pages francophones" et les "Pages : France" se partageraient équitablement les 10% restant.

Voila qui confirme encore une fois "le pouvoir des valeurs par défaut", et soulève des doutes quant à la complexification des interfaces des moteurs, au moins pour le grand public.

25/06/2007

K-html, éditeur HTML léger et universel (ou presque)

A découvrir : K-html est une petite application permettant de transformer n'importe quel éditeur de texte en éditeur (X)HTML, grâce à des raccourcis clavier. Par exemple la combinaison AltGr+Tab transforme immédiatement le mot tapé en une balise. "div" suivi de cette combinaison devient aussitôt <div></div>. D'autres fonctions sont également bien utiles, comme la création de pages XHTML vides à l'aide de Verr.Maj+Espace ou la fermeture automatique des guillemets et parenthèses. A noter que K-html fonctionne aussi sur les formulaires web, ce qui peut en faire un éditeur de code pour blogs et CMS.

Voila donc semble-t-il une solution d'édition de code HTML presque universelle (une fois assimilés les différents raccourcis), puisque fonctionnant sur tout système d'édition de texte. Attention par contre à désactiver le programme lorsque le travail sur le code est terminé pour retrouver un comportement normal des touches...

22/06/2007

WCAG Samurai Errata : une alternative dissidente aux WCAG 2

Au commencement, il n'y avait rien, et le monde de l'accessibilité était informe et vide (il faut bien que génèse se passe). Puis le WAI dit : "que les WCAG soient !" et une première version des WCAG vit le jour. Le WAI vit que cela était bon. Enfin pendant quelques temps seulement. Puis le WAI dit : "que les WCAG 2 soient !". Et là Joe Clark se rebella, en lançant avec un groupe de développeurs indépendants le projet "WCAG Samurai Errata", destiné à fournir une alternative à la version 2 des Web Content Accessibility Guidelines.

La version 1 des WCAG Samurai Errata est bâtie sur la première version de WCAG. Voici une traduction du résumé officiel :

  • "Nous interdisons et exigeons : nous ne tournons pas autour du pot avec des expressions comme "évitez" ou "jusqu'à ce que les agents utilisateurs" dont les définitions bien que publiées sont mal comprises ou ignorées. A la place, vous pouvez choisir d'appliquer ou non une recommandation. Nous utilisons des termes comme "supprimez", "ignorez", "n'utilisez pas" d'une part, et "devez" de l'autre".
  • "Au diable la priorité 3 : non seulement vous n'avez à vous conformer à aucune des recommandations de priorité 3 qui sont pour la plupart impraticables, mais vous devez même ignorer ces recommandations".
  • "Oui aux priorités 1 et 2 : Vous devez vous conformer aux recommandations de priorité 1 et 2 telles que corrigées par le Samurai. Entre autres choses, cela implique que votre code soit valide".
  • "Pas de nouvelles recommandations concernant les handicaps cognitifs : Les WCAG 1 et 2 ne peuvent satisfaire les besoins des personnes avec des handicaps cognitifs tels que la dyslexie (qui n'est qu'un exemple parmi d'autres, avec des besoins souvent contradictoires) Si nous n'avons pu nous résoudre à supprimer la seule recommandation en dessous de la propriété 3 tentant de prendre en compte ce type de handicap ("Utilisez le langage le plus clair et le plus simple possible"), nous n'avons pas prévu non plus un nouveau lot de recommandations. Personne d'autre ne l'a fait d'ailleurs. Cela nécessiterait une recherche bien plus poussée, et surtout, des tests utilisateurs. Nous n'adhérons pas non plus à la plupart des discours des prétendus experts du domaine. Nous conservons les WCAG 1 en l'état, et affirmons que la conformité aux WCAG et aux directives Samurai ne peut en aucun cas constituer une déclaration d'accessibilité totale aux personnes ayant des handicaps cognitifs".
  • "Les tableaux de présentation et les frames sont interdites : toutes les recommandations relatives aux tableaux de présentation et au frames ont été supprimées. Vous pouvez cependant toujours utiliser l'élément iframes".
  • "Adieu <noscript> : les scripts et applets (le plus souvent Ajax et Flash) doivent être directement accessibles. Non seulement vous ne pouvez plus insérer du contenu alternatif dans la balise <noscript>, mais l'usage de cette balise vous est interdit".
  • "Nous interdisons la plupart des PDFs : les PDFs qui devraient être en HTML sont interdits à moins d'être accompagnés d'une version HTML. Tous les autres PDFs doivent être taggés".
  • "Adieu, reliques du 20ème siècle : au lieu d'essayer de rendre ces reliques accessibles, nous interdisons simplement les aberrations telles que l'art ASCII".
  • "Nous nous préocuppons plus du multimédia que n'importe qui d'autres : Toutes vos vidéos sonores doivent être sous-titrées, la plupart, sinon toutes vos vidéos doivent avoir une description audio (en fonction du contexte), vous devez fournir un transcript de vos podcasts (sauf podcasts musicaux), et vous ne pouvez utiliser du texte ou du HTML en tant qu'ersatz de sous-titres ou de description audio".

15/06/2007

Quelle maturité pour le Search Marketing en France et en Europe ?

A lire sur le Journal du Net, une tribune de David Bianovici, directeur général de Relevant Traffic France.

David s'interroge en particulier sur le degré de maturité du marché du Search Marketing : "Est-ce pour autant que ce marché est mature, rien n’est moins sûr (...) nous sommes encore loin des montants investit en Angleterre et des coûts au clic constatés (...) D’autre part, si l’on analyse chacun des principaux marchés européens : Angleterre, Allemagne et France pour les principaux, l’on constate que les pratiques et solutions utilisées sont différentes et font états d’un niveau de maturité inégal".

J'abonde dans le sens de David. Et je rajouterai même un troisième indicateur d'immaturité du marché : dans un marché mature, c'est-à-dire ayant véritablement saisi l'importance d'une bonne visibilité dans les outils de recherche, les annonceurs traiteraient en amont les problématiques d'optimisation pour le référencement naturel, soit en ayant acquis les compétences en interne, soit en faisant appel systématiquement à un spécialiste. Je ne peux que constater que ce n'est pas le cas : la majorité des sites produits encore aujourd'hui ne sont pas pensés pour le référencement. Le marché mûrit progressivement, certes, mais il n'a rien de mature. Et tant mieux, c'est un excellent prétexte pour évangéliser ;)

Devenez Search Profiler !

La recherche sur le web n'a plus de secrets pour vous ? Vous vous sentez l'âme d'un Gil Grissom ? Devenez Search Profiler !

Lancé par l'agence de Search Marketing CVFM, le concours "Search Profiling" vous propose de dresser le profil le plus complet possible d'un utilisateur à partir de ses recherches sur le web, en se basant sur les données accidentellement diffusées par AOL en août 2006. But de l'opération (en plus de générer du buzz) : montrer comment les moteurs peuvent cibler un utilisateur, et sensibiliser les internautes sur le fait que leurs recherches peuvent en dire long sur leur vie privée...

Une belle initiative, à laquelle j'avais d'ailleurs déjà pensé il y a quelques temps, et dont j'avais même discuté avec David lors d'une rencontre Blog en Nord si je me souviens bien ;)

14/06/2007

Mini-tutorial : utiliser le navigateur texte Lynx

Lynx est un navigateur en mode texte, fonctionnant dans une fenêtre DOS. Utiliser en 2007 ce type de navigateur peut paraître à première vue archaïque, mais Lynx est en fait l'un des meilleurs outils quand il s'agit d'évaluer l'accessibilité technique d'un site web, ou sa capacité à être indexé correctement par les moteurs de recherche : Lynx ne sait en effet afficher que du texte HTML, des élements de formulaires et des hyperliens. Les images, les tables, les frames, les scripts ainsi que Flash et les éléments multimédias sont tous ignorés (les cookies peuvent être acceptés ou non). Son comportement est donc très proche de celui d'un robot d'indexation, ou d'un système de navigation pour personnes aveugles (synthèse vocale, plage braille).

La prise en main du logiciel pouvant rebuter, voici quelques instructions pour bien débuter avec ce navigateur. Auparavant, téléchargez et installez la version de Lynx pour Windows disponible ici.

  • Lancez Lynx. Une page d'ouverture par défaut est alors affichée. Si vous souhaitez configurer une URL donnée en page d'ouverture (par exemple Google), ajoutez simplement cette URL à la commande de lancement de l'exécutable dans le fichier lynx.bat. Je vous conseille également d'ajouter le paramètre "-accept_all_cookies" à cette ligne pour ne pas se voir demander à chaque chargement de page si on accepte le cookie ou pas. La dernière ligne de votre fichier lynx.bat devrait donc ressembler à ça : "%HOME%\lynx.exe %1 %2 %3 %4 %5 http://www.google.fr -accept_all_cookies"
  • La navigation dans Lynx se fait intégralement au clavier. Pour faire défiler le contenu de la page en cours, utilisez les touches de défilement (page suivante, page précédente). Vous pouvez également utiliser la barre d'espace pour faire défiler le contenu écran par écran. Les liens, formulaires et boutons sont eux sélectionnés à l'aide des flèches haut et bas. Lorsque un lien est sélectionné vous pouvez l'actionner à l'aide de la flèche "droite" ou de la touche "entrée". La flèche "gauche" sert quant à elle à revenir à l'URL précédente.
  • Pour accéder directement à une URL, appuyez sur la touche "g" et entrez l'URL, en y incluant le "http://". Vous pouvez également explorer les fichiers locaux en utilisant la syntaxe DOS, par exemple "c:" pour vous rendre sur le lecteur c:, "c:\repertoire" pour vous rendre dans le répertoire correspondant du lecteur c: etc.
  • Pour rechercher un mot dans une page, appuyez sur la touche "/", entrez la chaîne de caractères à rechercher et validez. Pressez "n" pour chercher les occurrences suivantes.
  • Pour afficher le code source de la page en cours appuyer sur la touche "\". Refaites de même pour afficher à nouveau le contenu de la page.

Vous voilà désormais armés pour naviguer et auditer vos pages avec Lynx ;) Pour en savoir (beaucoup) plus sur ce navigateur, je ne peux que vous conseiller le site de Dominique Guebey, très complet sur le sujet.

29/05/2007

La version 2 de Géoportail en beta

Géoportail, le portail d'information géographique de l'IGN, se dote d'une nouvelle version, proposée en beta.

L'interface a été entièrement revue de façon à afficher plus d'information. Il est ainsi possible de masquer les éléments dont on n'a pas besoin, et d'afficher le site dans en "plein écran" (en fait en exploitant toute la surface d'affichage du navigateur). Les coordonnées géographiques du curseur de la souris sont désormais affichées dans le bas de l'écran.

Mais la grande nouveauté réside surtout dans la sélection et l'affichage de couches d'informations, faisant de Geoportail un véritable SIG : Géoportail est ainsi capable d'afficher en plus des vues aeriennes les cartes IGN, le relief, les limites administratives et cadastrales, les surfaces bâties, le réseau routier et ferroviaire, le réseau hydrographique, les noms et informations sur les communes, les risques naturels... d'autres couches, actuellement en grisé, devraient être mises à disposition par la suite.

On peut cependant regretter la compression un peu forte des images, qui les rend peu agréables à regarder (chose d'autant plus surprenante ques les Pages Jaunes, utilisant les données de l'IGN, affichent une meilleure qualité d'image), et la non possibilité d'exporter les cartes obtenues en format Jpg ou Acrobat.

25/05/2007

Stratégie, tactique et Search Marketing

Dave Pasternack s'insurge dans un article sur DM News de l'emploi abusif du terme "stratégie" en matière de Search Marketing alors qu'il est question le plus souvent, selon lui, de "tactique".

La stratégie est selon le Trésor de la Langue Française, "un ensemble d'actions coordonnées, d'opérations habiles, de manœuvres en vue d'atteindre un but précis (...) une manière d'organiser, de structurer un travail, de coordonner une série d'actions, un ensemble de conduites en fonction d'un résultat. Pour le Littré, la stratégie est "l'art de préparer un plan de campagne, de diriger une armée sur les points décisifs ou stratégiques, et de reconnaître les points sur lesquels il faut, dans les batailles, porter les plus grandes masses de troupes pour assurer le succès".

La tactique, quant à elle est "l'art d'utiliser les meilleurs moyens pour atteindre un certain objectif; l'ensemble de ces moyens" et designe aussi la "technique pour appliquer une stratégie définie, qui combine, en vue d'un maximum d'efficacité et en fonction des circonstances, tous les moyens et formes de combat utilisables" (Trésor de la Langue Française). "La tactique exécute les mouvements qui sont commandés par la stratégie" (Littré).

Pour certains, la tactique est l'art des moyens (le "comment"), et la stratégie celui des fins (le "quoi").

Qu'en est-il du Search Marketing ? Il me semble que l'on y retrouve tout aussi bien des éléments stratégiques que tactiques : par exemple en ce qui concerne le référencement naturel, le choix de porter en priorité ses efforts sur la popularité d'un site plutôt que sur son contenu peut être qualifié de stratégique, car il s'agit d'une orientation globale. Le choix des techniques pour générer ces liens (soumissions aux annuaires, marketing viral, jeux concours, achat de liens...) sera lui tactique. Mais tout est question d'échelle : au niveau de la stratégie globale de communication d'une marque, le search marketing peut être considéré comme un élement tactique.

Qu'en pensent les stratèges et tacticiens ?

23/05/2007

A quand Google Guru ?

Dans une interview accordée au Financial Times, Eric Schmidt décrit à quoi pourrait ressembler Google dans quelques années : "Nous n'en somme qu'au tout début en termes de capacité d'information que peut contenir Google. Les algorithmes vont continuer de progresser, en particulier la personnalisation. Le but est de permettre aux utilisateurs Google de poser des question telles que 'que dois-je faire demain ?' ou 'quel job devrais-je choisir ?' (...) Actuellement, nous ne pouvons même pas répondre aux questions les plus basiques, parce nous n'avons pas assez de données sur vous. C'est un point clé pour l'expansion de Google".

On connaissait le mantra "Don't be evil", voici venir "Om namo Guru Google"...

S'il ne devait en rester que 5...

Le "mème" blogosphérien du moment (parfois décrit sous le pittoresque vocable de "chaîne alakon") consiste à sélectionner 5 blogs dont on ne pourrait se passer. Sollicité à la fois Par Frédéric, David et Aymeric, je me plie donc à cet exercice ô combien difficile étant donné que je ne pourrais me satisfaire de 5 fils RSS...

Mais si je n'avais pas le choix, voici les 5 blogs que je sélectionnerais probablement. Afin de garder un bon rapport signal/bruit, je limiterai ma sélection aux blogs tournant autour de la recherche d'information et du Search Marketing :

  • Search Engine Land, parce que Danny Sullivan et son équipe sont la référence mondiale en matière de Search.
  • SEO by the Sea, parce que Bill Slawski fait un excellent travail de veille sur les brevets déposés par les moteurs.
  • Zorgloob, parce que toute l'actualité Googlienne y est synthétisée, en français.
  • Influx, pour le côté veille et recherche d'information.
  • Best Viewed With Googlebot, histoire de s'encanailler.

Comme toute bonne chaîne et en bon rémora que je suis, je transmets à Loic, Eric, Philippe, Raphael et enfin Stéphane ;)

18/05/2007

Google dévoile sa recherche universelle

Marissa Meyer, vice-présidente des produits de recherche et de l'expérience utilisateur chez Google a présenté lors de la conférence Searchology le concept de "recherche universelle". Selon Marissa,"le but ultime de la recherche universelle est de faire tomber les silos de l'information qui existent sur le web, et fournir la meilleure réponse chaque fois qu'un utilisateur interroge notre moteur. La vision qu'a Google de la recherche universelle est de chercher à travers toutes les sources de contenus indexées, de comparer et d'ordonner cette masse d'informations en temps réel, et de délivrer une page unique de résultats qui offre à l'utilisateur précisément ce qu'il recherche".

Une recherche via l'interface principale de Google n'affichera donc désormais plus uniquement des résultats web , mais aussi des images, des videos ou des dépêches d'actualités, ainsi que des raccourcis contextuels vers les services de recherche spécialisés (exemple : recherche sur "Cheech and Chong"). Pour certaines recherche c'était déjà le cas, mais là, Google généralise et étend le système.

Est-ce un progrès ? J'ai de sérieux doutes. Si les discrets raccourcis de recherche vers les services de recherche spécialisés sont bienvenus, l'affichage de données autres que les pages web n'est lui pas vraiment utile et n'apporte à mon avis que de la confusion. Google prétend fournir "la meilleure réponse", mais Google ne fait ici qu'afficher une plus grand variété de réponses. Où est la "précision" quand on ajoute de l'information ? La précision n'est-elle pas justement dans ces "silos de l'information" qui permettent de mieux définir le perimètre de sa recherche ?

Il ne faut pas se faire d'illusions : si cette recherche est qualifiée d'"universelle", ce n'est pas tant qu'elle donne accès à plus d'information. C'est surtout qu'elle vise à maintenir l'utilisateur le plus longtemps possible dans l'univers Google...

A lire également sur le sujet, le billet d'Olivier Ertzscheid.

< 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 >