Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à mon nouveau blog SEO

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

20/06/2008

Chat Google : traduction des réponses les plus intéressantes

Hier avait lieu le second chat de Google à destination des webmasters. Traduction des questions et réponses les plus intéressantes, à partir du transcript de Search Engine Roundtable.

Q : Google est-il en mesure d'indexer les sites Flash ?

R : Plus ou moins. Nous pouvons bien extraire quelques informations des fichiers Flash, mais cela n'a rien de comparable avec l'indexation des contenus HTML.

Q : Google voit-il d'un mauvais oeil le fait d'écrire tout en majuscules ?

R : Non, nous prenons les lettres telles qu'elles se présentent :)

Q : Une question à propos de l'internationalisation : je possède un site avec plusieurs répertoires (un par pays), enregistrés comme tels dans Webmaster Tools. Cela est-il suffisant pour éviter la duplication de contenu pour un site avec des déclinaisons anglaises, américaines et australiennes ?

R : C'est en général suffisant. Je vérifierais également que les pages sont bien conçues pour ces différentes audiences, car il n'y pas de vrai intérêt à envoyer des utilisateurs de différentes régions sur une page générale. Dans ce cas, j'utiliserais une page unique sans ciblage géographique (...) le ciblage géographique ne change rien au fait que nous souhaitons retourner une seule version d'un même document dans nos résultats.

Q : Y a-t-il une limite à l'usage des redirection 301 sur un site web ?

R : Il n'y a pas de limites en soi concernant le nombre de redirections 301. Vous pouvez tout à fait rediriger d'un coup 100.000 URLs. Toutefois, si nous constatons un grand nombre de redirections successives, nous pouvons décider de ne pas suivre jusqu'au bout cette chaine de redirections.

Q : Lorsqu'un site est conçu entièrement en CSS, Google ignore-t-il la feuille de style pour ne s'intéresser qu'au contenu HTML ?

R : La plupart du temps, nous ignorons les feuilles de style, mais nous pouvons les regarder dans certains cas (par exemple pour vérifier la présence de texte caché).

Q : Google extrait-il une quelconque information des liens en nofollow, par exemple l'ancre du lien ?

R : Non, le lien est tout simplement supprimé de notre graphe de lien (il est donc ignoré).

Q : Matt, existe-t-il quelques recommandations concernant la densité des mots-clés ? Nous avons des pages très spécialisées, et la densité pour certaines expressions est assez élevée.

R : Vous ne le croirez peut-être pas, mais nous nous soucions finalement assez peu de la densité chez Google, parce que nos algorithmes s'en sortent très bien. Mon conseil serait de faire lire vos textes à une personne ordinaire. S'il elle fronce les sourcils, alors c'est peut-être qu'il y a un problème...

Q : Google fait-il une différence entre une recherche en minuscule et en majuscule ?

R : Nous pouvons dans certains cas, quand nous jugeons que cela est pertinent par rapport à la requête.

Q : Comment expliquez-vous que Google indexe un site, puis que ce site disparaisse de l'index quelques jours après ?

R : Cela peut arriver parfois pour de tous nouveaux sites, mais la situation se stabilise ensuite. Dans ce cas il suffit de patienter un peu.

Q : Combien de temps faut-il pour que les réponses HTTP 301 et 410 soient prises en compte ?

R : Elles ne peuvent être prises en compte que quand les pages sont accédées. A partir du moment où nous prenons connaissance de la redirection, celle-ci est en général repercutée dans l'index en quelques jours.

Q : Si du code en commentaire contient des mots-clés, cela peut-il être vu comme du spam par Google ?

R : le code commenté est ignoré par les robots. Ces commentaires n'auront donc aucune influence.

Q : Comment Google gère-t-il les microformats ? Puis-je les utiliser pour un meilleur référencement ?

R : Pour autant que je sache, le principal microformat que nous prenons en compte est l'attribut nofollow. Je ne pense pas que nous en utilisions d'autres. Mais nous menons une veille sur le sujet, au cas où :)

Q : Si un site copie mon contenu, existe-t-il une possibilité pour le dénoncer ?

R : Oui, www.google.com/dmca.html

Q : En général, quel pourcentage de pages Google indexe-t-il pour les gros sites ?

R : Cela dépend de la taille du site, de son PageRank, et de plein d'autres facteurs. Difficile de généraliser.

Q : GoogleBot préfère-t-il les URLs longues, ou courtes ?

R : GoogleBot n'a pas de préférence particulière. Les utilisateurs tendent à préférer les URLs courtes, pour des questions d'utilisabilité.

Q : Dans quelle mesure utilisez vous LSI dans votre algorithme ?

R : En tant que webmasters, vous n'avez en général pas à vous soucier de tels détails. Ecrire pour l'utilisateur est bien plus pertinent que de produire du contenu basé sur des indices artificiels.

Q : Est-ce que Google supporte ou envisage de supporter le microformat hCard ?

R : Actuellement, je ne pense pas, mais nous sommes ouverts aux idées nouvelles !

Q : Empêcher l'indexation des pages de faibles intérêt permet-il aux autres pages du site de mieux se positionner ?

R : S'il s'agit de pages ordinaires, je ne les enleverais pas de l'index. S'il s'agit de pages "spammy", et que vous suspectez qu'elle ont pu affecter votre positionnement, alors oui, je les supprimerais.

Q : Le temps de chargement des pages a-t-il une influence sur le positionnement ?

R : Le temps de chargement est important pour la satisfaction de l'utilisateur. Mais il n'est pas actuellement considéré par Google comme un signal devant influencer le positionnement.

Q : Google envisage-t-il de prendre en compte les balises meta de géolocalisation ? Quel standard serait indiqué ?

R : Non, nous ne les utilisons pas.

Q : La localisation des serveurs affecte-t-elle la visibilité du site dans les résultats locaux ?

R : Parfois. Nous regardons la localisation du serveur et l'extension du nom de domaine, entre autres choses.

Q : Est-ce que la connaissance qu'a Google de l'activité des visiteurs (via Google Analytics) a un impact sur le positionnement ?

R : Non, aucun.

Q : Existe-t-il un moyen de signaler à Google que le site qu'il indexe est un site mobile ? Car en ce moment nous avons des problèmes de duplication de contenu entre www.monsite.com et m.monsite.com...

R : Vous pouvez utiliser les sitemaps pour mobile, cela pourra aider.

Q : Combien de temps faut-il attendre avant que le ciblage géographique soit effectivement pris en compte ?

R : Cela peut prendre plusieurs semaines, je pense.

13/06/2008

La définition SEO du vendredi : Alexa

Alexa : jeune californienne qui, si elle affiche de jolies courbes, s'avère peu fiable.

11/06/2008

Utilisation pertinente des images sur un site web

Un récent billet sur le blog Ergonomic Garden fait le point sur la perception et l'influence des images dans la consultation d'une page web, en se basant à la fois sur des tests d'eye tracking effectués en interne et sur les résultats de l'étude Eyetrack III.

Il semblerait que sur une page web les images de petites dimensions soient en général peu regardées, sauf dans le cas d'une tâche ou l'information recherchée est susceptible d'être contenue dans l'image. Si les petites images sont peu regardées, elles ont cependant un rôle structurant, car elles attirent le regard, qui se pose alors sur les textes adjacents (Cette technique est d'ailleurs utilisée par certains MFA sous la forme de vignettes accollées aux annonces, dans le but de provoquer un plus grand nombre de clics sur les liens sponsorisés).

Les images de plus grandes dimensions seraient elles davantage regardées. Leur contenu aura cependant une influence décisive sur le comportement de l'utilisateur.

6/06/2008

Pendant ce temps là, au café du commerce...

- "Tiens hier DMOZ fêtait ses 10 ans !"
- "10 ans... c'est pas le temps nécessaire pour y être indexé ?"
- "Mouhahaha !"

Mes astuces pour se référencer dans les annuaires

Parler de soumission aux annuaires peut sembler dépassé en 2008, à l'heure où web 2.0 et buzz marketing concentrent toutes les attentions. Pourtant, les annuaires demeurent un moyen simple de créer du lien (à défaut d'une grosse quantité de trafic direct, même s'il y a des exceptions). Un gros avantages du référencement dans les annuaires est que ce type de promotion est accessible à tout type de site : en effet les sites d'une PME industrielle, d'un cabinet immobilier ou d'un centre équestre n'ont pas forcément vocation à se retrouver propulsés en page d'accueil des digg-likes ou cité par des centaines de blogueurs. Un autre avantage des annuaires est que les liens créés sont plus durables, car leur structure est plus stable dans le temps.

La grosse difficulté de la soumission aux annuaires reste cependant son caractère chronophage : trouver les annuaires et les sélectionner prend du temps. Voici donc quelques astuces que j'utilise personnellement et qui devraient vous faciliter les choses. Attention, il ne s'agit pas de techniques miracles, ni d'une méthode universelle et infaillible, mais simplement de quelques "trucs" éprouvés, pour être un peu plus efficace :

Préparez à l'avance un fichier texte incluant titre, description et mots-clés relatifs à votre site web. Eventuellement, prevoyez plusieurs descritions alternatives. Le copié-collé vous fera gagner du temps lors du renseignement des formulaires de soumission. Soignez vos soumissions.

Ne perdez pas votre temps à soumettre aux annuaires exigeant un lien en retour. Cette obligation du lien retour bénéficie en fait davantage aux annuaires qu'aux sites référencés. Chacun son job : c'est celui des annuaires que de pointer vers un grand nombre de sites, pas le vôtre.

Assurez-vous que les liens des annuaires soient bien des liens en dur, c'est-à-dire des liens HTML pointant directement vers votre site, et non vers une URL de tracking avec redirection (ex : www.annuaire.fr/redirect.php?idsite=123). Seuls les liens en dur ont une influence positive vis-à-vis des moteurs de recherche.

Tout au long de vos campagnes de référencement, constituez-vous une liste d'annuaires favoris. Cela vous fera gagner du temps lors d'autres campagnes de soumission. J'ai ainsi dans mes favoris et sur mon propre répertoire un certain nombre d'annuaires dont je sais qu'ils indexent facilement et n'exigent pas de liens retours.

Utilisez les annuaires d'annuaires. Il en existe plusieurs dont Annuaire-info, Les annuaires,E-annuaires et le tout nouveau QualiSEO. Les archives de la rubrique "Chasseurs de moteurs" de Moteurzine donnent également accès à des annuaires de qualité sélectionnés par X.

Pensez local : une recherche sur "annuaire" couplé à un nom de ville, de département ou de région permettra de trouver des annuaires pertinents, car relatifs à votre région (ex : "annuaire nord").

Pensez spécialisation : une recherche sur "annuaire" couplé à votre secteur d'activité devrait vous ramener des annuaires spécialisés relatifs à votre domaine, donc extrêmement pertinents (ex : "annuaire santé").

Recherchez des annuaire jouissant d'une bonne visibilité en utilisant les opérateurs avancés des moteurs. Une recherche sur "motclé + "proposer un site"" ou "motclé + "suggérer un site"" vous amènera plus directement sur la bonne catégorie d'annuaires acceptant les soumissions (ex : "équitation + "proposer un site"").

Etudiez dans quels annuaires vos concurrents sont référencés (en particulier ceux mieux positionnés que vous), grâce à Yahoo Site Explorer. Vous lutterez ainsi un peu plus à armes égales.

Tenez une liste de vos soumissions, pour ne pas soumettre deux fois à un même annuaire et faire le point régulièrement sur les indexations. Cette liste peut être informatisée, mais personnellement j'utilise papier et stylo pour noter les annuaires auxquels j'ai soumis, en utilisant le soulignement pour indiquer les indexations effectives.

Enfin, ne vous inquiétez pas trop d'une pénalisation du fait d'un accroissement trop rapide du nombre de liens entrants (surtout si vous vous limitez à 100 ou 200 soumissions par campagne). La découverte de ces liens par les moteurs sera de toute façon progressive, d'abord parce que le temps pour être indexé varie pour chaque annuaire, et aussi parce qu'il faut du temps aux moteurs pour parcourir l'ensemble de ces annuaires et indexer vos nouveaux liens.

2/06/2008

Une nouvelle bonne raison d'éviter les splash pages

Google semble expérimenter l'insertion de liens d'évitement des splash pages (aussi appelées pages tunnel) directement dans ses pages de résultats : ainsi pour certains sites, un lien "[Passer l'intro]" est affiché directement à coté du titre de la page.

La présence de ces liens n'est pas encore systématique, mais elle n'est pas rare. De nombreux sites en bénéficient déjà : Udy France (découvert par Marie Pourreyron), Yuasa.fr, Rexoft.net, alsc.info, Centrimages.fr...

Voila qui remet une fois de plus en cause la pertinence de ces splash pages, qui frustrent plus souvent les utilisateurs qu'elles ne les impressionnent.

30/05/2008

Brève de comptoir SEO du vendredi

Les moteurs de recherche sont plus intelligents qu'on ne le pense, et plus bêtes qu'on ne le croit.

28/05/2008

Le retour de Motrech

Bonne nouvelle ! Motrech, le blog de Jérôme Charron consacré aux outils de recherche est à nouveau en activité, après un silence de presque 2 ans.

Jérôme est désormais accompagné d'Emilie Ogez, ce qui donne un ton original, où chaque auteur répond à l'autre au sein même des billets.

Tineye, un moteur pour retrouver les copies d'images

Proposé en beta privée, Tineye est un moteur de recherche surprenant : il permet en effet de trouver les copies et variations d'une image donnée en se basant sur le seul contenu des images. Tineye est ainsi non seulement capable d'identifier les copies conformes, mais aussi les images recadrées ou retouchées (jusqu'à un certain point).

Le moteur a par exemple été capable de déterminer que cette image était une version recadrée et retouchée de celle-ci, dont je suis l'auteur.

Il est intéressant de constater que Tineye retourne parfois aussi des photos similaires, mais qui ne sont pas des copies, comme cette vue de Bruges, que j'ai cadrée de la même façon.

Bref, un bel outil pour lutter contre la contrefaçon et le vol d'images.

16/05/2008

Les URLs trop longues feraient fuir les clics

Dans le cadre de son étude "Search Marketing Benchmark Guide 2008", la société Marketing Sherpa s'est intéressée à l'impact de la longueur des URLs sur les taux de clic dans les pages de résultats des moteurs de recherche.

Il apparaît que les utilisateurs auraient tendance à moins cliquer sur les résultats affichant des URLs longues, et à cliquer davantage sur les résultats placés immédiatement en dessous. Une explication avancée serait que les URLs longues, du fait de leur saillance, attireraient le regard, qui porterait alors moins sur le titre du résultat, en général plus pertinent et incitatif. Le regard se porterait ensuite sur le titre du résultat suivant, d'où des clics plus nombreux.

On pourrait aussi imaginer, mais ce n'est pas évoqué dans l'étude, que les utilisateurs aient commencé à associer URLs à rallonge et pages à faible pertinence.

15/05/2008

Google Doctype, une encyclopédie collaborative sur le développement web

Google vient juste de lancer Google Doctype, sorte de wiki de référence sur les technologies ouvertes du web : HTML, DOM, CSS. Les articles existants ont été écrits par les googlers eux-même, mais il est possible au détenteurs d'un compte Google d'y contribuer. On y trouve pas moins de 8000 lignes de code javascript (en fait la propre librairie de Google, mise librement à disposition), ainsi que des articles intéressants, comme celui sur l'usage des balises de titres <h1>.

29/04/2008

Ce qui distingue les vrais référenceurs

Dans un article mi-humoristique, mi-sérieux, John Carcutt expose 14 faits qui permettent selon lui de distinguer les vrais référenceurs (aussi appelés SEO) des "je-veux-être". Si certains point, non traduits ici, sont spécifiques au milieu SEO américain, l'article n'en reste pas moins drôle et intéressant :

"Les vrais référenceurs ne portent pas de chapeau en public. Chacun possède en fait l'ensemble des coloris dans sa garde-robe (...) Les puristes utilisent exclusivement leur couleur favorites, et gardent les autres en réserve, juste au cas où".

"Les vrais référenceurs détestent faire du lien sponsorisé (...) ils s'épanouissent au contraire dans l'immesurabilité et l'imprévisibilité des algorithmes"

"Les vrais référenceurs fréquentent les conférences pour boire. Certains y vont pour parler, mais ils y vont essentiellement pour boire. Les vrais référenceurs savent que la plus value des conférence se trouve au bar et dans les soirées cocktails, car c'est là où l'information utile filtre parfois" (NdT : quand j'y vais, c'est pour parler hein).

"Les vrais référenceurs se fichent des changements d'algorithmes. Soit ils optimisent les sites de leurs clients dans le respect des fondamentaux, ce qui les rend peu sensibles aux changements, soit il travaillent sur leurs propres sites qui sont tellement en avance sur les algorithmes que les mises à jour de ceux-ci est anecdotique".

"Les vrais référenceurs possèdent au moins deux tee-shirts sur le thème du Search Marketing" (NdT : je n'en ai aucun pour ma part, j'espère ne pas porter atteinte à ma réputation en disant cela).

"Les vrais référenceurs ne fréquentent pas les forums. Ce fut longtemps le cas, et la plupart des SEO ont en fait appris le métier sur ces forums. Mais maintenant les vrais référenceurs diffusent tout leur savoir sur leur propres sites et sur les blogs amis. Pourquoi offrir de l'information gratuite alors que l'on peut la monétiser soi-même" (NdT : je continue personnellement à fréquenter les forums pour aider et être en contact avec la communauté. Mais il est vrai qu'il y a eu un glissement des forums vers les blogs en ce qui concerne la veille et les débats).

"Les vrais référenceurs se fichent des positions. Ils ne le disent pas, afin de ne pas inquiéter le client et de rester crédible aux yeux de la communauté. Mais au fond, ce qui motive le SEO c'est de prendre un site déficient sous son aile et de l'amener à son vrai potentiel. Ce que les vrais référenceurs aiment, c'est la belle ouvrage, pas les résultats. Ces derniers ne sont que des conséquences".

"Les vrais référenceurs pratiquent plus le référencement qu'ils n'écrivent à son sujet (...) Ils n'ont pas le temps d'écrire sur le référencement, sauf lorsque cela leur permet de faire un pause et de répondre aux 10.000 questions qui encombrent leur boîte email".

"Les vrais référenceurs se fichent du PageRank comme de leur première chemise. Les vrai SEO se bidonnent quand ils entendent le brouhaha que génère chaque mise à jour du PR affiché par la Googlebar".

"Les vrais référenceurs sont devenus référenceurs par accident. Ils n'ont pas commencé leur carrière en cherchant à devenir SEO (...) La plupart d'entre eux sont aujourd'hui heureux de faire ce métier".

"Les vrais référenceurs n'essayent même plus d'expliquer leur métier (...) le référenceur moyen s'est déjà fait poser cette question au minimum 500 fois et en général personne ne comprends la réponse" (NdT : pas faux. Pour les personnes n'utilisant jamais un moteur de recherche, être référenceur se résume souvent à "travailler dans l'internet").

24/04/2008

Lutter contre le duplicate content

La duplication de contenu, ou duplicate content, peut se définir comme le fait pour un contenu d'être accessible via plusieurs URLs. Le duplicate content est une notion à dimensions variables : la duplication peut être stricte, ou bien partielle (on parle parfois de near-duplicate ou de similarité). Les moteurs de recherche eux-même ne font pas forcément de distinction claire entre les deux types, tant dans leur brevets que dans leurs directives aux webmasters.

Dans cet article, j'adopterai une définition restreinte du duplicate content, en considérant qu'il y a duplication de contenu quand le contenu dupliqué est strictement le même, à l'octet près (ou à quelques octets près), et que la duplication émane du site à l'origine du contenu.

En tant que bases de données, les moteurs de recherche cherchent à éviter les doublons, qui encombrent inutilement leurs bases. Il est donc important de s'assurer que son propre contenu ne soit pas éliminé. Mais il y a plus encore : en ayant un même contenu accessible via plusieurs URLs, on dilue en fait les informations relatives à l'environnement des pages comme le PageRank : une partie de ce PR va être attribuée à l'URL A, et l'autre partie à l'URL B. Cela n'aide évidemment pas au référencement puisque aucune des pages ne va bénéficier de l'intégralité du PageRank. Dans cet article, nous allons voir quelques sources fréquentes de duplicate content, ainsi que les moyens de l'éviter.

Identifiants de session passés dans les URLs

Les identifications de session sont éminemment pratiques quand il s'agit de suivre un utilisateur tout au long de sa consultation d'un site. Passés dans l'URL, ils sont cependant très dangereux, puisque une même page peut potentiellement être indexée indéfiniment du fait de la création d'une nouvelle session à chaque visite du robot. Le robot pourrait donc indexer toutes ces URLs, qui correspondent en fait à un même contenu :

  • http://www.site.com/page.php&sid=00000001
  • http://www.site.com/page.php&sid=00000002
  • http://www.site.com/page.php&sid=00000003

Dans la pratique, les moteurs pourront soit ignorer les pages avec des paramètres ressemblant à de tels identifiants, soit indexer un grand nombre de pages pour ensuite les éliminer, soit indexer un petit nombre de pages qui resteront dans l'index, au moins un certain temps. Dans tous les cas, aucune de ces possibilités n'est souhaitable en ce qui concerne le référencement. Préférez donc une gestion des sessions utilisant les cookies et une base de données, à moins que les pages n'aient pas vocation à être indexées.

Inversion de l'ordre des paramètres dans les URLs

Une URL dynamique peut comporter plusieurs paramètres :

http://www.site.com/catalogue.php?gamme=x&produit=y

Or il se peut que par maladresse votre site comporte à la fois des liens de la forme /catalogue.php?gamme=x&produit=y et /catalogue.php?produit=y&gamme=x. Du point de vue de l'utilisateur, il s'agira bien d'une seule et même page, et le rendu sera correct dans les deux cas. Du point de vue des moteurs, il s'agira de deux URLs distinctes. Assurez-vous donc que la structure de vos URLs soit consistante tout au long du site.

Canonisation des domaines

L'usage courant veut qu'une URL commence souvent par "www". Mais il ne s'agit que d'une convention : en fait le "www" n'est qu'un sous-domaine du domaine principal, et il n'est pas rare qu'un site soit accessible avec ou sans le préfixe www. On risque alors de se retrouver avec des liens pointant tantôt vers "site.com", tantôt vers "www.site.com". Pire : si vos liens sont codés en relatif, toutes vos URLs courent le risque d'être victimes de duplicate content ! Heureusement, les moteurs sont de plus en plus intelligents et gèrent relativement bien ce problème. Mais il ne sont jamais aussi intelligents qu'on pourrait le souhaiter... Aussi prenez les devants en choisissant un domaine principal et en redirigeant l'autre version vers le domaine principal, via une redirection 301 (permanently moved).

Noms de domaines multiples

Il est techniquement possible d'afficher un même site sur plusieurs domaines, par exemple site.fr et site.com. Procéder de la sorte cependant constitue de la duplication de contenu. S'il est pertinent de réserver plusieurs noms de domaines pour se préserver du cyber-squatting, choisissez de n'utiliser qu'un seul domaine par contenu et redirigez les autres domaines vers le domaine principal, via une redirection 301.

Mauvais gestion de l'URL rewriting

La mise en place d'un système de récriture d'URL sur un site existant peut aussi être à l'origine de duplicate content si un système de redirection n'a pas été mis en place. En effet, en l'absence de redirection (301), les anciennes URLs continueront d'être accessibles. Chaque contenu sera donc visible sur deux URLs : l'URL d'origine et l'URL réécrite. Assurez-vous également que votre système de réécriture ne permette pas d'accéder à un même contenu via plusieurs URLs différentes.

16/04/2008

Des statistiques sur l'utilisation des tag clouds

Dans sa présentation "Do Real People Really Use Tag Clouds?: Research To Help Separate Web 2.0’s Hits From Hype", Garrick Schmitt fournit notamment des données sur l'utilisation par les internautes des tag clouds, aussi appelés "ou nuages de mots-clés" (slide 17). Ces chiffres sont tirés de l'étude "Digital Consumer Behavior Study" (PDF) menée par Avenue A | Razorfish en juillet 2007 auprès de 475 "consommateurs connectés" sur le sol américain.

A en croire les résultats de cette étude, 88% des internautes n'utiliseraient jamais ou seulement une fois de temps en temps les tag clouds. Ils seraient même 65% à ne jamais les utiliser. Quand on les interroge sur l'utilité des nuages de mots, 68% répondent qu'ils sont la plupart du temps inutiles.

Notez que Garrick Schmitt a semble-t-il une interprétation un peu plus optimiste de ces données, puisqu'il considère que 35% utilisent les tag clouds au moins une fois de temps en temps.

Il semblerait donc qu'il y ait un décalage entre l'engouement des concepteurs de sites "web 2.0" pour ce mode de navigation et son usage par l'utilisateur moyen.

10/04/2008

Les internautes anglais favorisent eux aussi la recherche par défaut

Une étude menée par Robin Goad, analyste chez Hitwise, démontre à nouveau le pouvoir des valeurs par défaut : à en croire les résultats de l'étude, seules 13.6% des recherches sur la version anglaise de Google le seraient avec l'option "pages from UK" activée. Ce chiffre est un peu plus élevé que celui observé en France, car le problème de la similarité de langue avec les Etats-unis concerne davantage les internautes britaniques. Mais ce chiffre reste quand même très bas.

Il est donc important de considérer les options par défaut des moteurs quand il s'agit de mesurer la visibilité d'un site.

< 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 >