Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à Référencement Design et Cie 2.0

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

23/03/2007

Cartographiez et auditez votre site avec XML Sitemap Tool

XML Sitemap Tool est une application Java accessible en ligne permettant de crawler et de générer un plan de site. Les applications de ce type sont nombreuses, tant coté client que coté serveur. Mais XML Sitemap Tool sort à mon avis du lot sur de nombreux points, jugez plutôt :

  • Respect des protocoles robots.txt, meta name="robots" et rel="nofollow".
  • Possibilité d'exclure les images du crawl.
  • Possibilités étendues de filtrage des URLs.
  • Possibilité de réglage de la vitesse de crawl, afin de ménager le serveur.
  • Affichage d'informations utiles au référencement : réponses HTTP, balise <title>, nombre de liens entrants et sortants
  • Possibilité d'exportation du sitemap dans de multiples formats : TXT (une URL par ligne), CSV, XML, Google Sitemap et HTML.
  • Sauvegarde des audits en local pour réutilisation ultérieure.

Bref, un service à conserver dans ses favoris ;)

14/03/2007

AOL France abandonne Exalead

Le site AOL France se démarquait jusque ici des autres portails du groupe par son moteur de recherche, basé sur la technologie Exalead. Cette époque est en passe d'être révolue, puisque le contrat qui liait Exalead et AOL France ne sera pas renouvelé. Ce sera donc Google qui désormais fournira sa technologie de recherche au portail.

Que reste-t-il à Exalead ? En France, pas grand chose puisque AOL était le seul portail important utilisant cette technologie (Netscape.fr l'avait été aussi pendant un temps). Le moteur devra donc abolument développer l'audience de son propre site. En Hollande, Exalead vient de signer un partenariat avec Ilse Media.

20/02/2007

La longue traîne en pratique

Si l'on entend régulièrement parler du concept de longue traîne, qu'il s'agisse de vendre des produits sur le web ou d'améliorer sa visibilité dans les moteurs de recherche, les illustrations concrètes de celle-ci restent encore rares.

Je me suis donc interessé à la répartition des mots-clés tapés pour accéder à l'un de mes sites, un annuaire de taille moyenne consacré à la création numérique. A la différence d'un blog, la structure et le contenu d'un annuaire évoluent assez peu, ce qui en fait un site au comportement plus proche de celui d'un site institutionnel ou marchand, et donc plus représentatif.

Voyons maintenant cette répartition (image GIF) : le bargraphe en rouge représente le nombre de visites par mots-clés, tandis que la courbe en bleu représente la part de trafic en pourcents pour les x mots-clés les plus populaires.

On observe bien un phénomène de longue traîne, à savoir un pic de visites pour les requêtes les plus populaires, suivi très rapidement d'une longue suite de mots clés peu populaires, mais dont le trafic cumulé est supérieur au premier groupe. Ainsi, les 5 premiers mots-clés ne représentent que 16% du trafic, les 20 premiers 25%, les 100 premiers 40%, les 250 premiers 50%, les 1000 premiers 65%, les 5000 premiers 81% et les 10000 premiers 87% sur un total de 21568 mots-clés analysés.

Il ne faut donc pas être obnubilé par une poignée de mots-clés : s'ils peuvent constituer un échantillon permettant d'apprécier en partie la visibilité d'un site, il faut toujours garder à l'esprit que la majorité du trafic se fera de toute façon sur des termes moins populaires. Il est donc plus intéressant de produire du contenu de façon à être visible sur une grande variété de mots-clés, que de chercher à optimiser uniquement pour un nombre restreint d'expressions-clés, même si elles sont individuellement les plus populaires. Ce qui n'empêche pas d'optimiser son site également pour ces expressions stratégiques...

Google : Retour à la normale pour la commande "site:"

J'avais évoqué il y a environ un mois un changement de comportement de la commande "site:" sur Google. Depuis quelques jours il semble que tout soit rentré dans l'ordre. La commande "site:" affiche désormais bien les pages du seul sous-domaine spécifié.

19/02/2007

L'écriture web : buzz de l'année ?

L'écriture pour les utilisateurs et pour les moteurs serait-elle en passe de devenir la nouvelle "hype" du référencement en 2007 ? C'est bien possible...

On ne peut que constater que les signaux se multiplient : des tables rondes sont organisées sur le sujet, des agence publient des livres blancs sur la relation entre référencement et contenu, la blogosphère en discute ici et (et aussi ici), et Abondance consacre même dans sa lettre d'information une série d'articles à l'écriture pour les moteurs.

Cet interêt soudain pour le contenu est bienvenu. L'aspect éditorial du référencement a en effet été, et reste encore très souvent négligé. Certains s'inquiètent, parfois à juste raison, des possibles effets de bord de cette popularisation de l'optimisation par le contenu : pour les journalistes, les contraintes de l'écriture web peuvent être ressenties comme une atteinte à leur créativité. Pour les observateurs du monde du référencement, il n'est pas exclu que l'on assiste à un développement du "contenu pour le contenu", qui ne serait finalement qu'une nouvelle forme de spam. Cela est possible.

Mais les plus malins auront compris qu'un contenu rédigé avec soin est gagnant sur tous les plans : utilisabilité, efficacité de la communication, et référencement. Il faut aussi voir au delà des contraintes : un écrit original dans la forme peut parfois avoir un potentiel de visibilité plus grand qu'un écrit strictement descriptif, par les liens spontanés qu'ils va générer. Bien assimilées, les contraintes deviennent ainsi des opportunités...

15/02/2007

Une méthode pour trouver les bons mots-clés

En matière de communication web, il est essentiel peut-être plus qu'ailleurs de parler le langage de l'utilisateur : vous améliorez ainsi non seulement votre visibilité dans les moteurs de recherche, mais vous vous assurez également une communication plus efficace auprès des utilisateurs.

Comment alors identifier les expressions-clés réellement utilisées par vos visiteurs potentiels ? Google et Yahoo proposent certes des outils de suggestion de mots-clés, mais les résultats de ces outils sont parfois altérés par les interrogations automatiques des moteurs. Voici donc une méthode complémentaire, basée uniquement sur l'expression des utilisateurs. Il s'agit avec cette méthode non pas de trouver les termes les plus recherchés sur les moteurs, mais d'identifier les expressions les plus utilisées par un groupe d'utilisateurs, et de détecter éventuellement des tendances.

1ère étape : Identifiez une communauté liée à votre thématique, par exemple les produits de régime. Pour ce thème, j'ai choisis les forums Doctissimo qui sont parmi les plus actifs sur ce sujet.

2ème étape : Collectez un nombre important de pages du forum, avec l'aide d'un outil comme HTTrack. Respectez cependant le site en espaçant vos requêtes, et en limitant la bande passante utilisée pour la collecte. Veillez également à la qualité des pages collectées, en ne téléchargeant pas les pages "citer" et "répondre". J'ai ainsi collecté environ 4000 pages de discussion que j'ai converti en fichiers .txt grâce à Htmlastext. Plus le corpus sera important, plus il sera fiable.

3ème étape : Procédez à l'analyse de ce corpus à l'aide du logiciel d'analyse linguistique Antconc. Ses fonctionnalités sont nombreuses, mais celles qui nous intéressent le plus sont le concordancier et l'analyse des "clusters" (amas de mots) qui permet de rechercher la fréquence des expressions de n mots contenant le mot-clé de votre choix, et même de rechercher les n-grammes, c'est-à-dire l'intégralité des expressions de n mots sans spécifier de mot-clé.

Importez votre corpus via le menu "File/Open dir", cliquez sur l'onglet "Clusters", définissez une taille de cluster entre 2 (Min. Size) et 5 (Max. Size) afin d'identifier les expressions composées de 2 à 5 mots, entrez un mot-clé ou une expression régulière, comme "r?gime+", cliquez sur "Start" et... patientez, l'analyse pouvant être longue. Vous devriez obtenir une liste d'expressions, qu'il vous faudra ensuite dégrossir à la main en vous aidant du concordancier, en supprimant le bruit et les aberrations, comme les mots-clés contenus dans les signatures de membres très actifs. Au final, on obtient une liste de ce type sur le thème "régime", classée par fréquence décroissante :

  • Regime dukan
  • Régime HP
  • Régime dukan
  • Régime hypocalorique
  • Regime WW
  • Régime soupe
  • Régime hyperprotéiné
  • Régime équilibré
  • Régime protéiné
  • Régime WW
  • Regime soupe
  • Regime pates
  • Regime hyperproteiné
  • Régime soupe aux choux
  • Régime des protéines pures
  • Régime hypo
  • Regime equilibré
  • Regime hypocalorique
  • Régime hyper protéiné
  • Regime chocolat

Sur le thème "perdre", on obtient les expressions suivantes :

  • Perdre du poids
  • Perdre des kilos
  • Perdre quelques kilos
  • Perdre un peu de poids
  • Perdre du ventre
  • Perdre un kilo

Etc.

7/02/2007

Analysez vos liens avec Google

Le service d'outils pour webmasters Google s'enrichit de nouvelles fonctionnalités, avec l'apparition d'une rubrique "liens" dans son interface (accessible uniquement une fois que Google aura vérifié que vous êtes bien le gestionnaire du site).

L'outil propose ainsi l'accès pour chacune de vos pages indexées à une liste des liens externes ou internespointant vers ces pages, avec mention de la date de la dernière indexation. Chose très intéressante, l'ensemble des données est téléchargeable au format CSV, ce qui facilite les traitements et analyses ultérieures.

Attention cependant : bien que la quantité de données soit infiniment supérieure à celle retournée par la commande "link:" (56018 liens pour ce domaine par exemple), l'outil ne garantit pas que tous les liens y soient présents, et limite à 1 million le nombre maximum de résultats retournés. D'autre part, il semble que les données ne soient pas mises à jour en temps réel : ainsi à la date d'aujourd'hui (7 février), je n'ai pas pu trouver de liens indexés postérieurement au 15 janvier.

Ces limitations évoquées, il s'agit néanmoins d'un excellent outil, supérieur à Yahoo Site Explorer en ce qui concerne le nombre de liens retournés et les possibilité d'export (limitées à 1000 liens chez Yahoo).

28/01/2007

W3 Campus les 30 et 31 mars à Marseille

L'édition 2007 de W3 Campus, organisé par Webmaster Hub, aura lieu les 30 et 31 mars à Marseille, patrie de Marcel Pagnol, de la bouillabaisse et de "Plus belle la vie" :)

Tout comme l'année dernière, j'aurais le plaisir d'y intervenir pour parler de référencement. Le référencement ne sera cependant qu'un des aspects de cette édition, axée sur la génération de trafic et le e-marketing.

Cette année, le séminaire se fera en mode résidentiel, afin de faciliter les échanges informels entre les participants. L'hôtel Best Western Bonneveine Prado a donc été requisitionné à cet effet, et accueillera intégralement le séminaire, à l'exception de la soirée de clotûre, qui aura lieu... sur le Marseillois, une goélette de 42 mètres amarrée dans le Vieux-Port.

Le nombre de places est limité à 150, n'attendez donc pas trop pour réserver. J'avais été favorablement impressionné par la première édition de W3 Campus, bien plus conviviale et riche en échanges et informations que certains autres évenements auxquels j'ai pu participer. Nul doute que cette édition sera tout aussi sympathique :)

26/01/2007

Adam Lasnik revient sur la densité des mots-clés

Dans un fil de discussion sur le newsgroup d'aide aux webmasters, Adam Lasnik, ingénieur chez Google, revient sur la notion de densité des mots-clés :

"Ecrivez naturellement. Ce que nos algorithmes veulent voir, ce sont des documents qui évitent ces deux extrêmes : d'un coté, ne contenir aucun mot-clé pertinent dans la page, de l'autre afficher une densité des mots-clés telle que si votre professeur de français vous lisait, il vous taperait energiquement sur les doigts, et de façon répetée.

Je vais vous confier un petit secret : il n'existe pas d'indice de densité idéal. Les gens qui affirment que la densité optimale est x% devraient devraient recevoir le même traitement de la part d'un professeur de français, d'un Googler ou d'un webmaster.

Enfin, laissez moi réitérer un point-clé : Le fait de pouvoir trouver des sites se positionnant bien sur un mot-clé donné et pratiquant le "gavage de mots-clés" n'est PAS une preuve que cette méthode soit efficace. Je pourrais tout aussi bien vous montrer une correlation entre le positionnement de certains sites et le fait qu'ils contiennent exactement trois fois la lettre "q"."

Voila qui confirme encore une fois que la notion de densité idéale est une illusion ;)

Les Googlebombs désamorcées ?

Dans un billet sur le "Webmaster Central Blog" de Google, Matt Cutts, Ryan Moulton et Kendra Carattini expliquent que le moteur a commencé à minimiser l'impact des Google bombings, par des méthodes algorithmiques. Désormais, des pages commentant le Google bombing pourront éventuellement apparaître, mais plus le site "googlebombé".

Aucun détail technique n'est fourni, mais il semble que le système soit efficace : les google bombings les plus courants ont en effet disparu, et la biographie de Nicolas Sarkozy n'apparaît plus pour la recherche "Iznogoud".

25/01/2007

Nouveau comportement pour l'opérateur "site:" sur Google ?

Jusque ici, la commande "site:sousdomaine.domaine.com" sur Google retournait uniquement les pages indexées pour ce seul sous-domaine, quel que soit le sous-domaine (www ou autre) considéré.

Il semble cependant que le comportement de la commande "site:" ait changé ces dernières semaines, puisque Google retourne désormais d'autres sous-domaines de premier et second niveau (exemple pour www.msn.fr).

Plus étrange encore : dans certains cas, il semble que le premier niveau de sous-domaine soit pris en compte par la commande, mais pas les niveaux suivants. Ainsi la commande "site:billard.free.fr" retourne bien les pages de ce domaine, mais la commande "site:s.billard.free.fr" retourne les mêmes résultats, comme si le sous-domaine "s" de second niveau spécifié dans la requête était ignoré. Ce comportement n'est toutefois pas constant (exemple avec Lycos).

Le comportement de la commande semblerait donc désormais être le suivant :

  • "site:www.domaine.com" retourne les pages de tous les sous-domaines du domaine.
  • "site:sousdomaine.domaine.com" retourne les pages de ce sous-domaine, mais également des sous-domaines de second niveau.
  • "site:sousdomaineA.sousdomaineB.domaine.com" retourne tantôt les pages du sous-domaine B en ne tenant pas compte du sous-domaine de second niveau A, tantôt les pages du sous-domaine de second niveau A uniquement.

Reste à savoir s'il s'agit d'un bug ou d'une fonctionnalité. Si ce changement est voulu, il est bien malheureux, la commande "site:" étant bien utile pour avoir un aperçu rapide de toutes les URLs appartenant à un sous-domaine donné.

24/01/2007

Des statistiques pour Google Custom Search Engine

Google CSE (présenté ici) fournit désormais des statistiques sur l'utilisation de ses moteurs de recherche personnalisés (celui-là par exemple), directement dans l'espace d'administration des moteurs. Pour y accéder, il suffit simplement de cliquer sur le lien "statistics" dans la page "My search engines". Jusque ici, le seul moyen d'obtenir quelques statistiques étaient de consulter son compte Adsense si l'on participait au programme.

L'évolution du nombre de requêtes est ainsi visible sous la forme d'un graphique pour des périodes d'une journée, d'une semaine, d'un mois ou depuis le lancement du moteur. Le nombre total de requêtes de la période considéree est également affiché, ainsi que quelques requêtes populaires. On peut cependant regretter de ne pas avoir accès à l'intégralité des requêtes, ces requêtes de la "longue traîne" apportant à mon avis une information bien plus utile sur les centres d'interêt des utilisateurs et permettant d'affiner le moteur en conséquence.

18/01/2007

Enquête SEMPO / Jupiter Research sur le marché du Search Marketing

Jupiter Research et SEMPO, l'organisation des professionnels du Search Marketing, organisent jusqu'au 26 janvier 2007 une enquête sur le Search Marketing (avec il faut bien l'avouer une emphase sur les liens sponsorisés) dont les résultats seront rendus publics lors des Search Engine Strategies de Londres en février.

Les participants à l'enquête auront la possibilité de gagner un pass complet pour l'événement.

12/01/2007

Des statistiques globales sur les moteurs de recherche

Market Share propose en libre-accès ses statistiques sur les moteurs de recherche, basées sur l'étude du trafic de plus de 40000 URLs. Des données sur les parts de marché des navigateurs et systèmes d'exploitation sont également disponibles. Chose intéressante, les données sont exportables dans de multiples format (PDF, Word, Excel, RTF, XML...) ce qui permet de le traiter et de les mettre en forme librement.

La couverture est mondiale, et il n'est pas possible de segmenter les données par région.

(Repéré via Outils Froids)

Inflation du prix des Adwords aux Etats-Unis

Selon un article de Marketwatch, certains clients Adwords commenceraient à revoir leur budget Adwords à la baisse, suite à une inflation galopante du coût du clic et à des conversions pas toujours au rendez-vous. Pour certains, leur budget Adwords aurait été jusqu'à doubler.

Adwords est finalement victime de son succès : son faible coût comparé à d'autre médias a attiré un nombre de plus en plus grand d'annonceurs, qui enchérissent les uns contre les autres et font grimper le prix moyen du clic. Selon les analystes, cette tendance n'est pas prête de s'inverser. Il est donc essentiel de bien suivre ses campagnes et de mesurer leur retour sur investissement.

C'est l'occasion aussi de rappeler l'importance du référencement naturel, parfois négligé au profit des liens sponsorisés, jugés plus prédictifs et plus faciles à mettre en place : à la différence des liens sponsorisés, le référencement naturel offre une visibilité durable, et chaque clic issu du référencement naturel fait baisser le côut moyen de la visite.

< 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 >