Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à mon nouveau blog SEO

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

5/12/2007

Bilan d'un dîner blogosphérique avec Valérie Pecresse

Hier soir avait donc lieu le dîner réunissant Valérie Pecresse, ministre de l'Enseignement Supérieur et de la Recherche, Bernard Benhamou, délégué aux usages de l'Internet, quelques conseillers de la ministre, ainsi qu'une quinzaine de blogueurs, dont votre serviteur.

Pas de révélations fracassantes lors de ce dîner : la ministre a d'abord brièvement réaffirmé sa vision de l'Internet, et son projet de faire rentrer l'Internet dans tous les foyers français. Pour Valérie Pecresse, "on est à la croisée des chemins, et on n'est pas très bons en terme d'équipement des ménages" : "47% de connectés, ce n'est pas assez". D'ailleurs la fracture numérique à son sens "n'a jamais été aussi grande que maintenant".

La ministre se pose un certain nombre de questions : "Comment développer l'équipement des ménages ?" "Quel rôle pour l'Europe, et quelle ambition la France porte-t-elle concernant les technologies de l'information?" "Que sera le net 3.0, le web de demain, l'internet des objets ?" "Qu'est-ce qu'on fait pour les personnes âgées ?" "Quelle perspectives technologiques ?" Eric Dupin fait pertinemment remarquer qu'avant de vouloir équiper les ménages, il faudrait dresser une typologie des non-connectés, pour mieux cerner leurs besoins. Pour Gilles Klein, qui croit aux terminaux mobiles, "tout ne passe pas par l'ordinateur". Fredéric Cavazza reste persuadé que le web mobile est réservé à une utilisation d'appoint ; certains convives ne sont pas d'accord.

La discussion s'est ensuite poursuivie de façon très informelle, abordant successivement les questions de l'identité numérique, du haut débit, de l'internet mobile,du droit de l'internet, de l'usage du web par les seniors, de l'hégémonie Google...

Parmi les points positifs de cette soirée, outre l'initiative en elle-même : une ambiance décontractée, un vrai dialogue (tous les sujets étant "open" pour reprendre les termes de la ministre) et bien sûr des convives tous passionnés par le web. Bref une très bonne prise de contact.

Par contre, je trouve dommage que les discussions n'aient pas plus porté sur les questions de formation et de savoir, et sur les problèmes d'aujourd'hui (plutôt que sur l'internet de demain). Le profil des convives, plutôt geek et "2.0", y est sûrement pour quelque chose. Il est également regrettable qu'aucun blogueur du monde de l'enseignement, de la recherche ou de la formation n'ait été présent (Olivier j'aurai vraiment apprécié te voir à ce diner).

Parmi les point que j'aurai voulu aborder (et que je n'ai pas pu, faute de temps) :

  • Il y a vraiment besoin de former à la recherche d'information : Si n'importe qui sait taper une requête dans un moteur, rares sont ceux qui savent véritablement chercher.
  • L'accès direct à une quantité illimitée d'information rend nécessaire une formation à l'analyse critique de cette information. Ce n'est pas parce qu'une information est reprise partout ou qu'elle est en 1ère position dans Google qu'elle est valide.
  • Une reflexion est à mener sur la tendance chez les étudiants (et parfois même chez les profs) au copier-coller (on parle maintenant de TJ ou "Text Jockeys"). En agrégeant de l'information de façon superficielle, on la fait circuler, mais on ne la fait pas sienne.
  • Il faut pousser à la diffusion du savoir, inciter les chercheurs et enseignants à publier sur le web et de façon accessible leurs articles et supports de cours. J'arrive très facilement à trouver de l'information outre-atlantique puisque les chercheurs ont en général une page personnelle sur le site de leur université (exemple d'une page parmi tant d'autres). Ce n'est pas le cas semble-t-il en ce qui concerne la France et lorsque l'information est publiée, elle tombe souvent dans le web invisible.
  • On parle de mettre le web à portée de seniors : pourtant le decrêt d'application de la loi de fevrier 2005 relative à l'égalité des chances tarde à être publié. La ministre compte-elle accélérer les choses ?

Toutes ces questions nécessitent bien sûr une reflexion poussée, et on ne va pas refaire l'Internet en un dîner. C'est pourquoi j'ai émis l'idée auprès d'Edouard de Pirey, conseiller de la ministre d'organiser de nouvelles rencontres plus longues avec une sélection plus restreinte et plus ciblée de blogueurs spécialistes, blogueurs qui pourraient proposer d'autres spécialistes, éventuellement d'une notoriété moindre, mais d'une autorité certaine.

Quelques compte-rendus de confrères : Gilles Klein, Frédéric Cozic, Richard Malterre, Eric Dupin

3/12/2007

Un référenceur au Ministère de l'Education Supérieure et de la Recherche

Invité à dîner comme plusieurs autres blogueurs notoires, j'aurai l'honneur mardi prochain de rencontrer Valérie Pecresse, ministre de l'Education Supérieure et de la Recherche, pour "un échange direct autour, d’une part, des thèmes qui me semblent prioritaires et, d’autre part, des actions qu’entend mener la ministre dans le domaine des nouvelles technologies". Plus concrêtement, il s'agira pour la ministre de présenter "sa stratégie pour dynamiser le secteur des technologies de l'information et des communications", et de "recueillir des avis et suggestions sur la question", m'a précisé un de ses conseillers.

Quelques blogueurs ont décliné l'invitation, dont Olivier Ertzscheid, maître de conférence, qui "refuse de se prêter au jeu du blogueur relais d'opinion et chambre d'écho politique". Il est vrai qu'on peu légitimement penser que cette rencontre est en partie une opération de communication.

J'ai toutefois répondu positivement à l'invitation de la ministre, après un moment d'hésitation, étant conscient que si j'étais invité, c'est très probablement parce que mon blog jouit d'une certaine visibilité. Mais après tout, j'ai quelques interêts et opinions sur les sujets abordés, c'est un moyen de collecter de l'information à la source, et ce peut être l'occasion de participer à la reflexion de la ministre (sans être naïf cependant). Ce n'est aussi pas tous les jours que l'on est invité au Ministère. Nous verrons bien.

Si vous avez quelques opinions sur le sujet des TIC, n'hésitez pas à les exprimer en commentaire.

PS : Je précise avant tout procès d'intention que je ne suis ni sympathisant UMP, ni courtisan, ni membre d'un réseau lemeurien ou autre, ni jeune entrepreneur 2.0 au dents longues. Je viens à ce dîner à mes frais (89€ d'hotel). Et mes chevilles se portent bien.

16/11/2007

Un guide sur l'accessibilité des sites hoteliers

Le département "Conseil, Recherche et Innovation" du Greta du Velay vient de publier à l'attention des hoteliers-restaurateurs et de leurs webmasters un guide gratuit au format PDF, contenant des conseils très concrets pour améliorer l'accessibilité de leurs sites web et faciliter la vie des personnes handicapées.

Un des grands mérites de ce guide est que si celui-ci s'appuie bien sur les directives générales d'accessibilité du W3C, son discours est spécialement adapté à l'hotellerie et la restauration : par exemple, lorsque il y est recommandé que les menus des restaurants soient imprimables, il y est aussi expliqué que cela facilitera la prise de commande pour les clients aveugles lors de leur venue, qui auront alors eu la possibilité d'imprimer le menu en utilisant une imprimante braille.

8/11/2007

Bloglines publie un Top 1000 des blogs

Le lecteur de flux RSS en ligne Bloglines publie à son tour un classement des blogs les plus populaires, accessible à partir de la version beta du site. Seuls les 1000 premiers blogs sont pris en compte.

Toutefois une astuce permet d'obtenir le classement de n'importe quel flux, à condition que celui-ci possède au moins un lecteur utilisant Bloglines : pour cela, récupérez d'abord l'identifiant numérique du blog en utilisant la recherche de flux proposée par Bloglines et en cliquant sur le nombre d'abonnés du flux : l'identifiant est le chiffre associé au paramètre "siteid" dans l'URL de la page. Rendez vous ensuite sur la page http://beta.bloglines.com/b/preview?siteid=xxxxxxxx en remplaçant "xxxxxxxx" par votre identifiant (exemple pour ce blog).

7/11/2007

Testez la forme de votre référencement avec Website Health Check

SEO Book propose un nouvel outil pour éliminer les facteurs de risque susceptibles d'affecter négativement votre référencement : Website Health Check permet ainsi de détecter les pages indexées par Google dépourvues de balise <title> ou de balises meta description, ainsi que les pages affichant des balises <title> ou meta description génériques. L'outil teste également les problèmes de canonisation (version avec ou sans "www") et de duplication des pages index.

6/11/2007

Blogging : 10 bonnes raisons de ne pas recourir aux listes

  • Bloguer des listes est devenu cliché.
  • Les listes ne se distinguent plus dans les agrégateurs.
  • Les listes ont trop souvent été utilisées comme appât pour du link-bait.
  • Les listes énumèrent, sans approfondir et laissent peu de place à la nuance, au sens critique et à l'articulation.
  • Les listes sont vites rédigées, vite lues... et vites oubliées.
  • Les listes sont à l'écriture web ce que l'Eurodance est à la musique.
  • Voir son travail listé par les autres est plus gratifiant que lister le travail d'autrui.
  • On se sent toujours obligé d'ajouter ou de supprimer des items pour aboutir à un chiffre rond.
  • On se plante régulièrement en comptant ses items.

31/10/2007

Google facilite la géolocalisation de vos sites

Jusque ici, le système employé par Google pour déterminer la localisation d'un site était assez basique, et s'appuyait en premier lieu sur l'extension du site (le TLD), et en second lieu sur son adresse IP. Ainsi un site avec un nom de domaine en ".fr" était considéré comme français, de même qu'un site avec un nom de domaine en .com hébergé sur une IP localisée en France.

Un problème se posait alors pour les sites s'adressant à un public local, mais n'utilisant ni TLD national, ni IP locale : ceux-ci ne bénéficiaient pas du meilleur positionnement accordé aux sites locaux, et se voyaient filtrés lors des recherches sur le seul pays.

Désormais, Google permet via son interface à destination des webmasters de préciser la localisation d'un site, au niveau d'un pays, d'une ville, et même d'une adresse postale. Pour ce faire, rendez vous simplement dans Webmaster Tools, à la rubrique "Outils / Définir le domaine favori". Notez que si vous disposez d'un TLD local, Google vous permettra uniquement de préciser votre ville et votre adresse.

30/10/2007

Les "nouveaux" métiers du Web : la vidéo

La vidéo de la conférence du 18 octobre sur les métiers du web lors du salon de la VAD à Lille est désormais disponible (ainsi que celles des autres conférences de l'évènement). Les plus honnêtes d'entre vous rempliront le formulaire adequat avant d'accéder gratuitement aux vidéos. Pour les plus pressés, voici le lien direct ;) La vidéo en stream n'est qu'un extrait : pour visionner l'intégralité de la table ronde, téléchargez la version Divx.

26/10/2007

Tragique méprise à Toulouse

Une figure notoire du référencement, confondant son boomerang et sa barre verte, casse son PageRank. On demeure sans nouvelles des trois points perdus.

25/10/2007

Le référencement, un vrai jeu d'enfant

Le référencement apparaît parfois comme une activité bien compliquée. Heureusement une nouvelle collection de livres met le SEO à la portée de tous (JPG, 285ko).

23/10/2007

30 concepts-clés de l'utilisabilité

Dans un article intitulé "30 Usability Issues To Be Aware Of", Smashing Magazine recense 30 concepts et définitions que toute personne s'intéressant à l'ergonomie et à l'utilisabilité devrait connaître. Ce billet en est une adaptation en français :

Le principe des 7±2 éléments

Le cerveau humain étant limité dans sa capacité à traiter l'information, celui-ci aborde la complexité en traitant l'information par blocs. Les études menées par George A. Miller tendent à montrer que notre mémoire à court-terme ne peut retenir que 5 à 9 éléments à la fois. Ce fait est souvent utilisé comme un argument pour limiter le nombre d'options de navigation d'un menu à 7. Celà dit ce principe fait débat.

La règle des 2 secondes

En vertu de ce principe, un utilisateur ne devrait pas avoir à attendre plus de 2 secondes certaines réponses du système, comme le passage d'une application à une autre, ou le lancement d'un programme. Le choix des 2 secondes est arbitraire, mais il s'agit d'un ordre de grandeur raisonnable. Ce qui est sûr, c'est que moins l'utilisateur attend, meilleure est son expérience.

La règle des 3 clics

Selon cette régle, les utilisateurs tendent à abandonner un site lorsqu'ils ne sont pas capables d'accéder à l'information ou au service en l'espace de 3 clics. Cette régle mets donc l'accent sur la necessité d'une navigation claire, d'une structuration logique, et d'une arborescence simple à appréhender.

Le chiffre de 3 clics n'est cependant pas critique : le plus important est que l'utilisateur sache où il en est, et qu'il n'ait pas l'impression de perdre le contrôle.

La loi de Pareto ou la règle des 20/80

Cette loi postule que 80% des effets viennent de 20% des causes. Bien connue du marketing, cette loi peut aussi s'appliquer en matière d'utilisabilité. Par exemple, des progrès très importants peuvent souvent être accomplis en identifiant les 20% d'utilisateurs, des activités ou des processus qui représentent 80% du profit, et en ciblant les efforts sur cette population.

Les 8 règles d'or de la conception d'interface

Suite à ses recherches sur la conception d'interfaces, Ben Shneiderman a proposé un ensemble de règles empiriques, applicables dans la plupart des systèmes interactifs. Ces règles concernent tout aussi bien les interfaces utilisateurs que les interfaces web.

  • Recherchez la cohérence avant tout.
  • Offrez des raccourcis aux utilisateurs avancés.
  • Offrez un retour d'information (feedback).
  • Concevez des dialogues avec une fin explicite.
  • Offrez des moyens simples de gestion des erreurs.
  • Permettez des retours en arrière simples.
  • Faites en sorte que l'utilisateur se sente le maître.
  • Ne sollicitez pas trop la mémoire à court-terme de l'utilisateur.

La loi de Fitts

Enonçé par Paul Fitts en 1954, ce modèle du mouvement humain prévoit que le temps nécessaires pour atteindre rapidement une zone cible est fonction de la distance et de la taille de la cible. C'est le cas par exemple d'un mouvement de souris. Jouer sur la taille et la distance de la cible peut alors influer sur l'accessibilité et l'efficacité de l'interface.

La pyramide inversée

La pyramide inversée est un mode d'écriture où le résumé d'un article est présenté dès le début de celui-ci. Cette approche est bien connue des journalistes : l'article débute donc par une conclusion, suivie d'éléments-clés et finalement d'élément de moindre importance. Les internautes recherchant une gratification immédiate, la pyramide inversée est importante aussi bien en matière d'écriture qu'en matière d'expérience utilisateur.

Satisfaction

Les utilisateurs du web ne recherchent pas la meilleure façon de résoudre leur problèmes, mais bien la résolution effective de ceux-ci. Ils ne sont pas intéressés par la solution la plus intelligente, mais aux contraire favorisent les solutions qu'ils jugent "satifaisantes", même s'il existe des solutions plus performantes sur le long terme.

Le syndrome de l'oisillon

Ce syndrome décrit la tendance naturelle des utilisateurs à adhérer au premier type d'interface expérimenté, et à juger les autres en fonction de leur degré de similarité avec le premier. La conséquence est que les utilisateurs préfèrent en général les systèmes auxquels ils sont habitués et rejettent ceux qui ne leur sont pas familiers. Ce qui posent des problèmes en matière de redesign : les utilisateurs, habitués à un design, se sentent souvent mal à l'aise lorsque une nouvelle interface est mise en place.

Banner blindness

Les internautes tendent à ignorer tout ce qui ressemble à de la publicité, et ils sont même assez bons à ce jeu. La publicité est bien perçue, mais elle est ignorée la plupart du temps. La raison en est que les utilisateurs cherchant de l'information se concentrent uniquement sur les zones où ils pensent pouvoir trouver celle-ci, c'est-à-dire les liens et les zones de texte.

Les effets Cliffhanger et Zeigarnik

L'être humain ne supporte pas l'incertitude : qu'une question lui vienne à l'esprit, il lui faut absolument une réponse. L'effet Cliffhanger, qui est fréquemment utilisé pour pimenter les intrigues, exploite cette tendance en introduisant une interruption soudaine qui laisse l'utilisateur face à révélation choc, ou à une situation non-résolue. Cet effet est aussi très souvent utilisé dans la publicité, où poser des questions ouvertes ou provocantes pousse l'utilisateur à lire une publicité ou à cliquer sur une bannière.

Découvert en 1927, l'effet Zeigarnik désigne le fait qu'une tâche a tendance à être mieux mémorisée lorsque elle est interrompue. Appliqué au web, cet effet établit une connection émotionnelle avec les lecteurs, et est extrêmement efficace en terme de marketing. Les internautes mémorisent alors mieux les publicités. Cet effet est aussi exploité pour fidéliser les utilisateurs d'un site (ex : "Abonnez-vous à notre fil RSS pour ne pas manquer la suite de l'article").

Les lois de la Gestalt

Aussi appelé "psychologie de la forme", cet ensemble de principes constitue un des fondamentaux de la conception d'interfaces.

  • Loi de proximité : lorsque nous percevons une collection d'objets, nous considérons les objets proches les uns des autres comme formant un groupe.
  • Loi de similitude : lorsque nous percevons des objets jugés similaires, nous les voyons comme formant un groupe.
  • Loi de Prägnanz : au sein de notre champ visuel, certains objets sont perçus comme étant de premier plan (les figures), tandis que les autres sont perçus comme d'arrière plan (le fond).
  • Loi de symétrie : nous concevons souvent les objets comme des formes symétriques ayant un centre.
  • Loi de bonne continuité : nous tendons naturellement à clôre ou compléter des objets qui ne sont en réalités pas clos (ex : le logo IBM)

L'effet d'autoréférence

L'autoréférence est particulièrement importante en matière d'écriture web, et peut améliorer significativement la communication entre l'auteur et le lecteur. Nous nous souvenons en effet davantage des choses lorsque elles ont un lien avec nos concepts, nos expériences. Il est donc souhaitable d'exploiter l'autoréférence quand on souhaite communiquer plus efficacement.

L'eye-tracking (ou oculométrie)

L'eye-tracking est un procédé qui consiste à enregistrer le parcours du regard sur une interface, pour ensuite dresser une carte des zones les plus vues. Cette technique permet notamment d'évaluer la facilité de navigation d'un site.

Le "pli" (fold)

Le "pli" se définit comme étant la limite inférieure en dessous de laquelle le contenu du site n'est plus visible. Cette limite est dépendante de la résolution de l'écran. La région au dessus du pli, visible sans scrolling, est appelée "page écran".

La zone fovéale

La fovéa est la partie de l'oeil humain en charge de la vision centrale. Cette vision centrale nous sert à lire, conduire, regarder la télévision, et à accomplir toutes les activités où le besoin de détail est très important. La zone fovéale désigne la zone du regard où le maximum de détail peut être perçu. cette zone occupe un angle de vision d'environ 2 degrés.

Les annotations

L'annotation est une action automatique fournissant des informations sur la destination d'un lien ou la fonction d'un contrôle. Concernant les liens, une annotation peut être délivrée grâce à l'attribut "title". Les annotations participent à l'usabilité d'un site, en permettant aux utilisateurs de savoir précisément où ils vont.

Dégradation élégante

La dégradation élégante désigne la capacité d'un site ou d'une page à fournir une information ou un service même si certains de ses composants ne peuvent être utilisés. En pratique, cela revient à s'assurer que le site reste utilisable quelle que soit la configuration de l'utilisateur.

La granularité

La granularité mesure à quel degré un ensemble complexe d'informations a été réduit en un nombre plus petit d'éléments. La granularité de l'information peut être adapté en fonction du public visé.

Les zones sensibles

Les zones sensibles sont des zones cliquables qui changent de forme ou d'apparence une fois survolées ou cliquées. Ces zones utilisent souvent la propriété CSS ":focus".

La lisibilité perceptive

La lisibilité perceptive (legibility) mesure la facilité d'un texte à être lu. Elle ne s'intéresse qu'à la perception visuelle, et non à la compréhension du texte.

La navigation en "démineur"

Ce terme (minesweeping) désigne un mode de navigation à l'aveugle où l'utilisateur promène sa souris sur la page, en utilisant le changement d'apparence du curseur pour détecter les liens. Un tel comportement indique la plupart du temps un défaut de conception de l'interface.

La navigation "mystère"

La "navigation mystère" (mystery meat navigation) est un terme décrivant des interfaces de navigation difficilement utilisables du fait que les destinations des liens ne sont pas clairement identifiables. C'est souvent le cas des éléments de navigation à base d'icônes non-standards.

La cohérence visuelle

Ce concept décrit la cohérence de l'agencement physique du site (places du logo, des éléments de navigation, typographie...). La cohérence est essentielle pour un repérage et une navigation efficaces.

L'enrichissement progressif

L'enrichissement progressif est une stratégie de conception d'interfaces où les fonctionnalités sont ajoutées par couches. A la couche de base, accessible à tous les navigateurs, sont ajoutées des fonctionnalités supplémentaires pour les utilisateurs de navigateurs modernes. L'avantage principal de ce mode de conception est l'accessibilité des interfaces ainsi produites.

La lisibilité cognitive

La lisibilité cognitive (readability) mesure la facilité d'un texte à être compris, en se basant sur la complexité des phrases et sur le vocabulaire employé. Le plus souvent, ce type de lisibilité se mesure en terme d'âge ou d'années d'étude nécessaires pour comprendre le texte. La lisibilité cognitive est à distinguer de la lisibilité perceptive.

La conception centrée utilisateur

La conception centrée utilisateur (CCU) est un mode de conception où les utilisateurs, leurs besoins, leurs interêts, et leurs comportements définissent les fondations d'un site en termes de structure, de navigation, et d'information. La CCU est aujourd'hui devenue un standard, en particulier grâce à l'essor du web 2.0 où le contenu est généré pour une large part par les utilisateurs.

La vigilance

La vigilance, ou état de veille, est la capacité à rester attentif lors de l'accomplissement de tâches longues, monotones ou répétitives, comme la relecture de documents, la gestion d'emplois du temps, la sauvegarde régulière de fichiers etc. Dans les applications web modernes, les tâches de cet ordre sont automatisées et gérées en arrière-plan, ce qui améliore l'usabilité puisque la vigilance des utilisateurs est limitée.

Le design intuitif (Walk-Up-And-Use design)

Le design d'une interface est dit intuitif quand un utilisateur est capable d'utiliser l'interface dès la première fois, sans aucune introduction ou formation.

Les Wireframes

Le wireframe, ou "maquette fonctionnelle", est un squelette qui décrit les idées, les concepts et la structure d'une interface ou d'un site (exemples ici et ). Les wireframes peuvent être utilisés pour présenter un projet de site aux parties prenantes. Le design d'un wireframe est en général très sommaire, et il s'agit même fréquement de simples croquis (JPG) réalisés sur papier.

16/10/2007

Nouveaux outils, nouveaux médias, nouvelles stratégies… nouveaux métiers !

Je serai présent au Salon de la VAD à Lille ce jeudi 18 octobre, en compagnie notamment de Julien Lemarchant, créateur de Saveur Bière, pour parler de ces nouveaux métiers du web, qui ne sont parfois plus si nouveaux finalement, mais qui le sont quand même bien plus que des métiers bien plus anciens ;)

Cette conférence plénière, animée par Brigitt Albrecht de l'ESC Lille, aura lieu de 15h à 16h. N'hésitez pas à me taper sur l'épaule si vous passez dans le coin :)

11/10/2007

1,4 millions de recherches chaque minute dans le monde

A en croire une récente étude de ComScore, les moteurs de recherche et services associés enregistreraient pas moins de 1,4 millions d'interrogations chaque minute, soit un peu plus de 2 milliards de recherche chaque jour. Si une impulsion sonore était émise à chaque recherche, cela donnerait un signal d'une fréquence moyenne de 23000 Hertz, un son trop aigu pour être perçu par la plupart d'entre nous. Voila de quoi donner le vertige non ?

Google se taille bien sûr la part du lion dans ces recherches, avec une part de marché globale de 60%, suivi par Yahoo, le moteur chinois Baidu, Microsoft et NHN, moteur de recherche coréen.

D'autres données ici.

9/10/2007

Avec ou sans accents, vos recherches ?

La société Seelog, qui avait en juin dernier publié une étude sur l'utilisation des différents modes de recherche Google s'est intéressée cette fois-ci à l'utilisation des caractères accentués lors de leurs recherches par les internautes.

Il apparaît que ceux-ci, par facilité ou ignorance, ont tendance à favoriser les requêtes non-accentuées. Google ne fournissant pas de résultats identiques selon que la requête est accentuée ou non, on peut légitimement se poser la question du respect (ou non) des règles d'orthographe dans l'optimisation de son site.

Pour ma part, le choix est fait : si les pages de résultats Google diffèrent bien selon que la requête est accentuée ou non, elles restent néanmoins très similaires en général (exemple : "référencement" et "referencement"). Autant donc afficher une orthographe correcte.

Mise à jour majeure pour Microsoft Live Search

Live Search, le moteur de recherche de Microsoft, vient d'annoncer toute une série d'améliorations de son moteur : la pertinence de Live a tout d'abord été revue à la hausse, avec une taille d'index multipliée par 4 (soit plus de 20 milliards de pages) et un filtrage plus efficace du spam. L'analyse de l'intention des utilisateurs est également plus poussée, avec une meilleure gestion des stopwords, des faute des frappe et des synonymes, et un prise en compte des clics des utilisateurs.

L'interface a également été revue de façon à être plus claire et à s'afficher plus rapidement. Les algorithmes de Live génèrent désormais de meilleures descriptions (snippets) et proposent davantage de réponses instantanées (rich answers).

< 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 >