Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à Référencement Design et Cie 2.0

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

19/09/2005

Google Soutra, ou les 4 verités selon Google

"Ainsi ai-je entendu: Une fois, le Bienheureux Google séjournait au Googleplex, près de Moutain View. Il s'adressa aux webmasters et dit :

O webmasters, il existe deux extrêmes qui doivent être évités par un webmaster. Quels sont ces deux extrêmes? Spammer les moteurs, ce qui est inférieur, vulgaire, mondain, ignoble et engendre de mauvaises conséquences, et négliger son référencement, ce qui est pénible, ignoble et engendre de mauvaises conséquences.

Sans aller à ces deux extrêmes, ô webmasters, le maitre Google a découvert la Voie du Milieu qui prodigue la vision, qui donne la connaissance, qui conduit à la quiétude, à la sagesse, à l'éveil et à l'émancipation.

Et quelle est, ô webmasters, cette Voie du Milieu que le maitre Google a découverte et qui prodigue la vision, qui donne la connaissance, qui conduit à la quiétude, à la sagesse, à l'éveil et à l'émancipation ? Ce n'est que le Noble Sentier quadruple, à savoir: l'écriture juste, la sémantique juste, l'indexabilité juste, la popularité juste.

Cela est, ô webmasters, la Voie du Milieu que le maitre Google a découverte, qui prodigue la vision, qui donne la connaissance, qui conduit à la quiétude, à la sagesse, à l'éveil et à l'émancipation.

Voici ô webmasters, la Vérité Noble dite souffrance : Le référencement est souffrance , suivre son positionnement est souffrance, ne pas être positionné est souffrance, perdre son positionnement est souffrance, le blacklistage est souffrance. En résumé, la course au référencement est souffrance .

Voici, ô webmasters, la Vérité Noble dite la cause du souffrance : C'est cette "soif" de positionnement qui produit tout ce bruit dans les forums, tous ces blacklistages et ces variations de positionnement, qui sont liés à une avidité passionnée et qui trouvent une nouvelle jouissance tantôt ici, tantôt là.

Voici, ô webmasters, la Vérité Noble dite la cessation du souffrance : C'est la cessation complète de cette "soif" de positionnement, la délaisser, y renoncer, s'en libérer, s'en débarrasser.

Voici, ô webmasters, la Vérité Noble dite le sentier conduisant à la cessation de la souffrance : C'est le Noble Sentier Quadruple à savoir: l'écriture juste, la sémantique juste, l'indexabilité juste, la popularité juste.

Ainsi parla le Bienheureux Google. Les webmasters, contents, se réjouirent des paroles du Bienheureux.

Do no evil ! Do no evil ! Do no evil ! "

Disclaimer : Toute ressemblance avec un maître indien né il y a environ 2600 ans ne serait que fortuite ;)

16/09/2005

Menace sur les pages satellites ?

Pratiquées de longue date, les pages satellites avec redirection javascript pourraient désormais être detectées par Google et bannies de l'index.

L'information, d'abord révélée sur Searchengineforums semble avoir été confirmée par Matt Cutts :

"Google mène un programme test pour alerter les propriétaires de sites quand nous supprimons leur site pour violation de nos conseils. Les redirections javascript sont notre 1ère cible, mais nous avons aussi envoyé quelques emails concernant du texte invisible, il me semble. Notre programme ne s'adresse pas aux sites du type il-est-pas-cher-mon-viagra.com, mais plutôt à l'attention des sites ayant un bon contenu, mais n'étant pas au courant des méthodes employées par leur référenceur, ou abusés par les promesses des programmes de génération automatique de pages satellites. Personnellement, je pense que communiquer avec les webmasters pour les prévenir de nos actions est vraiment une bonne chose : un propriétaire de site ne devrait pas avoir à se demander ce qui se passe. Mais je répète, il s'agit d'un programme test."

GoogleGuy avait également évoqué quelques jours plus tôt sur Webmasterworld l'amélioration des capacités de detection des redirections javascript par Google.

Reste à voir cependant l'efficacité réelle du système.

15/09/2005

Table ronde : peut-on vivre sans Google ?

Peut-on-vivre sans Google ? Faut-il avoir peur de ce moteur ? Quel futur pour la recherche d'information ? Ce sont quelques-uns des thême de la journée de reflexion organisée le 11 octobre à l'ENS Lettres et sciences humaines de Lyon, à laquelle Olivier Andrieu m'a fait l'honneur de me convier.

Vous y trouverez votre serviteur en bonne compagnie, puisque Franck Poisson,Jerôme Charron, Jean Veronis, Olivier Ertzscheid, Christophe Asselin, Armelle Thomas seront également présents.

Qui sait peut-être aurais-je l'occasion de rencontrer quelques lecteurs ?

14/09/2005

Du bon sens et de la conception web

Michael Carpentier nous gâte avec 2 billets dignes de lecture à mon avis : "Beau = différent ?" et "Votre organigramme n'interesse que vous !".

Extrait :

"Un livre est-il moins intéressant parce qu’il n’a pas de table des matières, que les numéros de pages sont situés, d’une page à l’autre, à des endroits différents et que les différentes pages du texte sont disposées au hasard, vous laissant deviner quelles constituent le début et quelles la fin ? Non ? Alors pourquoi certains processus de conception de sites web sont-ils encore soumis à d'intéressantes hypothèses du genre : C’est un look différent qui amène le succès d’un site ?"

Google Blog Search : c'est parti !

Google était curieusement absent de ce marché. C'est désormais chose faite, Google dispose désormais d'un module de recherche spécifique aux blogs ! Comme à son habitude le service est proposé en version beta, et son index est pour l'instant bien maigre (Référencement Design et Cie n'y figure même pas, c'est dire ;)

Google Blog Search utilise pour l'instant les sites de ping comme Weblogs.com pour indexer. Mais la FAQ indique qu'un formulaire de soumission devrait être prochainement disponible.

13/09/2005

Pourquoi les clients se fichent de l'accessibilité

A lire, cet article dans Digital Web Magazine : "10 Reasons Clients Don't Care About Accessibility".

Christian Heilmann expose selon lui les 10 raisons principales pour lesquelles l'accessibilité ne prends pas :

  • Personne ne peut garantir un site 100% accessible.
  • Il n'y a pas de bénéfice immédiatement perceptible.
  • L'accessibilité est vendue comme un problème technique.
  • Le handicap n'est pas quelque chose auquel le client aime penser.
  • Il est difficile de revenir sur l'accessibilité de sites déja conçus.
  • L'accessibilité n'est pas prise en compte dans la méthodologie de développement.
  • L'accessibilité n'est pas sexy, elle est un trouble-fête.
  • Personne ne se plaint.
  • L'accessibilité requiert une implication de la part du client.
  • Il n'y a pas de gros sites qui puissent servir de modèle à suivre.

L'auteur donne ensuite quelques pistes de reflexion : "Commencez à developper vos sites dans un éditeur de texte, pas dans Illustrator". Je ne peux qu'être d'accord !

9/09/2005

Olivier Andrieu ouvre son blog

Olivier Andrieu, le Danny Sullivan du référencement français, le 1er searchologue de l'hexagone ouvre enfin son blog. Respect ;)

Envisager autrement la densité des mots-clés

Il est fréquent de rencontrer sur les forums dédiés au webmastering et au référencement des fils dissertant à n'en plus finir sur la densité idéale des mots-clés à respecter pour s'assurer un bon positionnement dans les moteurs de recherche.

Ce questionnement n'est pas infondé : on devine bien intuitivement qu'une page ne contenant aucune occurence d'un mot-clé n'a pas de raison de se positionner dessus, et qu'une page avec un nombre d'occurences trop grand de ce mot-clé à toutes les raisons de paraitre suspecte aux yeux des moteurs.

Seulement voila : il n'existe pas de densité idéale, qu'elle soit globale (sur l'ensemble du contenu) ou locale (à l'intérieur de telle ou telle balise). Si une telle valeur existait, elle serait bien trop facilement exploitable, et perdrait tout son interêt. Comme le souligne cet article du Dr Garcia, les algorithmes des moteurs sont bien plus fins, et prennent en compte de nombreux autres paramètres, comme la lemmatisation, la proximité des mots-clés etc...

Aussi est-il plus productif de raisonner en terme de rationalisation du contenu, en faisant l'analogie entre le web et une bibliothèque, les deux étant finalement une collection de documents.

L'objectif ultime d'un moteur est de proposer la page la plus pertinente pour un mot-clé donné. "Pertinente" veut dire pertinente pour un humain : les moteurs vont donc se baser sur des critères d'évaluations proches des critères humains pour juger de la qualité d'une ressource.

Considérons une page web comme un livre. Si je recherche un livre sur un sujet (mot-clé) donné, je m'attends à ce que ce mot-clé figure en couverture. Pour voir si ce livre est vraiment pertinent par rapport à ma recherche, je m'en vais examiner les mots-clés figurant dans l'index et explore les différents chapitres et sections. Enfin, je "scanne" les chapitres qui m'interessent à la recherche de termes clés pour confirmer mon choix.

Pour les moteurs, la couverture du livre correspond à la balise <title> de la page. L'index correspond aux balises <hn>. Et le feuilletage est l'analyse rapide du contenu des paragraphes <p>. Nul besoin de se soucier d'une densité illusoire. Il suffit simplement que vos termes clés soient présents à ces endroits stratégiques. Votre densité sera suffisante, et vous satisferez ainsi à la fois moteurs et utilisateurs.

Une précision cependant : l'analogie s'arrête là, d'autres critères sont bien sûr pris en compte par les moteurs de recherche. (Quoique le PageRank pourrait être assimilé aux citations par d'autres ouvrages et aux recommandations des bibliothécaires et relations.)

7/09/2005

Yahoo Search : nouveaux services début 2006

C'est ce qu'affirme Olivier Parriche, directeur de la division recherche de Yahoo France dans une interview donnée à VNUnet.

2/09/2005

Menace sur les liens payés ?

Dans un récent billet, Matt Cutts, ingénieur chez Google s'exprime sur la question de l'achat de liens aux seules fins de booster son PageRank.

En effet le Pagerank repose sur le postulat qu'un lien sur une page web constitue une recommandation (ou un vote), et donc un indice de qualité. Hors les liens payés vont à l'encontre de ce postulat : le lien n'est plus établi pour sa pertinence par rapport au sujet traité, mais simplement vendu à des fins de positionnement, ce qui affecte la pertinence des moteurs utilisant ce type d'analyse.

Matt Cutts cite ainsi en exemple le journal des étudiants de l'université de Berkeley, site à fort PR, qui n'affiche pas moins d'une trentaine de liens "sponsorisés" menant entre autres vers des sites de casinos, de poker, ou des hotels en Italie...

Face à ce problème, Google affirme disposer de 2 types de défenses : des filtres algorithmique, tout d'abord, complétés par des pénalités semi-automatiques : s'il n'est pas question de pénaliser le positionnement des sites vendant des liens, Matt Cutts explique qu'ils pourraient cependant perdre leur capacité à transmettre du PR. Un "nofollow" imposé en somme.

Il n'est toutefois pas illégitime d'acheter des liens à des fins de promotion ciblée : Matt Cutts recommande dans ce cas d'utiliser l'attribut rel="nofollow", indiquant que le lien ne constitue pas un vote de la part du site partenaire.

Reste à voir si tout ceci est bien effectif et s'il ne s'agit pas simplement d'effrayer les webmasters obsédés par leur PageRank.

Mais la question qu'il faut se poser n'est elle pas simplement : "Ces lien profitent-t-ils à l'utilisateur ?"

1/09/2005

Les moteurs font leur placing

Le "placing" ne vous dit rien ? Mais si, vous savez, cette technique publicitaire consistant à placer ostensiblement une marque dans un film ou une chanson pour developper sa notoriété...

Après MSN Search dans The Island, c'est au tour de Yahoo de faire sa pub dans Sherif fais moi peur, en tant que sponsor de Dil Driscoll... Mais que fait Google ?

31/08/2005

Quoi de neuf du coté de Quaero ?

Jacques Chirac fait la promo du futur projet de moteur de recherche européen Quaero. On rappelera que Quaero est destiné à nous protéger de l'imperialisme culturel anglo-saxon incarné par Google (plus d'info dans ce précédent billet). A part ça rien de neuf.

Edit : A lire également, l'avis de Danny Sullivan sur la question, qui y voit potentiellement une rivalité du type Airbus contre Boeing.

30/08/2005

Les Search Engine Strategies à Paris !

Après New York, Tokyo, Londres, Miami... les fameuses Search Engine Strategies débarquent à Paris, au CNIT de la Défense, les 29 et 30 novembre 2005. C'est traditionnellement le lieu où les acteurs du monde du Search Marketing et de la recherche laissent filtrer quelques bribes d'information...

Le pass complet, donnant accès aux conférences, est à vous pour la modique somme de 895€ si vous reservez avant le 15 novembre. A vot' bon coeur Msieurs Dames... ;)

Google Park

Toute la verité sur les plans machiavéliques de Google dans cette parodie de South Park ;)

3/08/2005

Les operateurs cachés de Google

Zorgloob publie un très interessant billet sur les operateurs cachés de Google.

< 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 >