Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à Référencement Design et Cie 2.0

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

Résultats de votre recherche de annuaire.

30/06/2011

Synonymizer, un logiciel de content spinning gratuit

Après Sick Scraper, présenté lors de mon précédent billet, intéressons-nous aujourd'hui au content spinning, à savoir la recombination de texte dans le but de produire des contenus uniques. Pour ce faire, je vous propose d'utiliser le logiciel gratuit Synonymizer, développé par SeoDevGroup. Rassurez-vous, ce blog n'a pas viré black-hat et nous allons voir que le content spinning peut tout à faire avoir des applications white-hat.

Le fonctionnement des outils de spinning est plutôt simple, du moins dans son principe : les parties d'un texte à spinner sont balisées avec des accolades, les variations étant séparée par des pipes. Il est possible d'imbriquer les parties à spinner, ce qui permet d'autant plus de variations.

Exemple de formule de spin :

{{Le blog|Le site|Site|Site personnel} d'un|Un} {consultant|expert} {parlant|traitant} {de|essentiellement de|principalement de} {référencement|référencement (SEO)|SEO|référencement naturel}{,| ainsi que| mais {également|aussi}} {d'ergonomie|d'accessibilité|d'usabilité}, {d'écriture web|de copywriting} et de {marketing|e-marketing|communication internet}.

Cette formule donnera des centaines de variations qui pourront constituer autant de descriptions uniques pour annuaires :

  • "Un consultant parlant de référencement, d'usabilité, d'écriture web et de e-marketing"
  • "Un expert parlant de référencement, d'ergonomie, de copywriting et de marketing"
  • "Site d'un expert parlant de référencement naturel mais également d'accessibilité, de copywriting et de marketing"
  • "Le blog d'un consultant traitant de référencement (SEO) mais aussi d'ergonomie, d'écriture web et de communication internet"
  • "Un consultant traitant de référencement, d'ergonomie, de copywriting et de marketing"
  • "Le blog d'un expert traitant principalement de référencement (SEO) mais aussi d'ergonomie, d'écriture web et de communication internet"
  • "Un expert parlant de référencement mais également d'usabilité, de copywriting et de e-marketing"
  • "Un consultant parlant de référencement (SEO) mais également d'ergonomie, d'écriture web et de marketing"
  • Etc.

La même approche pourrait être utilisée pour des communiqués de presse.

Le content spinning peut également être utilisé pour générer automatiquement des listes d'expressions-clés pour des campagnes de liens sponsorisés ou du contrôle de positionnement.

Exemple :

{achat|acheter|location|louer} {maison|appartement|studio} {Lille|Marcq en Baroeul|La Madeleine}

Cette formule produira une liste de toutes les combinaisons possible de ces mots-clés :

  • "achat maison Lille"
  • "achat maison Marcq en Baroeul"
  • "achat maison La Madeleine"
  • "achat appartement Lille"
  • "achat appartement Marcq en Baroeul"
  • "achat appartement La Madeleine"
  • "achat studio Lille"
  • "achat studio Marcq en Baroeul"
  • "achat studio La Madeleine"
  • "acheter maison Lille"
  • "acheter maison Marcq en Baroeul"
  • Etc.

Bref un outil potentiellement très utile aux référenceurs et webmasters, tous chapeaux confondus.

19/05/2011

Sick Scraper, un logiciel de scraping gratuit

Signalé par Supergago sur le forum Seosphère, Sick Scraper est un logiciel de scraping totalement gratuit qui propose les mêmes fonctionnalités que le module Harvester du célèbre Scrapebox. Le logiciel est volontairement bien moins complet que Scrapebox, puisque conçu comme un complément à Sick Submitter, le produit phare de l'éditeur. Mais il reste un très bon outil pour aller à la chasse aux URLs.

Comme Scrapebox, la recherche des URLs se fait en spécifiant une empreinte (ou footprint, par exemple "ajouter un site") et optionnellement des mots-clés. Le logiciel va alors interroger les moteurs de recherche spécifiés et extraire les URLs des pages de résultats. Pour du scraping massif il est possible d'utiliser des proxies, que le logiciel peut récuperer de lui-même. Une fois les URLs scrapées, Sick Scraper permet d'appliquer divers traitements pour nettoyer les résultats, comme la suppression des doublons, la suppression des résultats multiples d'un même site, la suppression des URLs correspondants à des fichiers, et la récupération des pageranks des URLs.

Combiné à un logiciel de complétion de formulaires comme Fireform, lui aussi gratuit, Sick Scraper permet ainsi d'accélerer significativement la soumission aux annuaire, la recherche de billets à commenter etc. Ces opérations doivent bien sûr être effectuées de façon légitime et manuelle :)

3/09/2010

Old School SEO : les sujets chauds en 2000

A l'occasion de la préparation d'une intervention, je me suis replongé dans les discussions SEO (on parlait de "référencement" à l'époque) des années 1999/2000. Quelques sujets typiques de cette période héroïque, pour le fun :

  • Combien de mots-clés dans la balise meta keywords ?
  • Quels séparateurs dans la balise meta keywords ? Virgule, espace ? Virgule+espace ?
  • Les mots-clés dans les commentaires HTML sont ils pris en compte ?
  • Le référencement des sites avec frames.
  • Le référencement des sites dynamiques.
  • La necessaité d'une resoumission régulières aux moteurs de recherche.
  • La difficulté de rentrer dans certains annuaires et comment contacter les documentalistes.
  • Les garanties de positionnement.
  • Soumission manuelle vs soumission automatique.

16/07/2009

Quand "annuaire" rime avec "galère"...

La soumission aux annuaires de recherche reste un des "basics" de toute campagne de link building, même s'il existe bien d'autres techniques aujourd'hui pour créer du lien.

J'avais eu l'occasion de râler il y a un peu plus d'un an contre les annuaires exigeant un lien retour. Ayant eu récemment à faire de la soumission, j'ai pu découvrir que la nouvelle lubie de certains annuairistes est désormais d'exiger une description unique, sous peine de voir son site refusé. Cela par peur du duplicate content. Pire encore, la description du site doit fréquemment satisfaire à des exigences de longueur qui dépassent allègrement les limites du ridicule.

Soyons sérieux : un annuairiste qui n'est pas fichu d'écrire, ou à la rigueur d'adapter une description n'envoie-t-il pas implicitement un signal que son but est uniquement d'afficher de l'Adsense sans se fatiguer, et non pas d'effectuer une sélection éditoriale ? Un point de vue qui semble rejoindre celui du blog annuaire-info.

PS : L.Jee poursuit le débat sur Webrankinfo

29/05/2009

49 facteurs qui influenceraient le référencement local

Près de 20% des requêtes seraient géographiquement ciblées à en croire certaines études, du moins au USA. La recherche locale est donc devenue un enjeu de taille, tant pour les moteurs de recherche que pour les webmasters.

Il reste qu'à l'exception de quelques facteurs évidents, les ressorts du référencement local sont encore mal connus. Afin d'y voir plus clair, David Mihm a interrogé 27 spécialistes du search marketing pour tenter de dégager un consensus sur le sujet. Son étude constitue une lecture très intéressante. Je vous livre ici la liste traduite des facteurs, classés par ordre décroissant d'importance. J'ai respecté l'ordre de l'étude : il ne s'agit pas forcément de ma propre opinion. De même certains critères sont un peu flous. Mais globalement l'ensemble fait plutôt sens.

Les facteurs perçus comme positifs pour un bon référencement local

  • Localisation du Local Business Listing dans la ville recherchée (facteur le plus important)
  • Indexation dans les annuaires géographiques (Pages Jaunes, Kompass, infobel...)
  • Choix judicieux des catégories associées au Local Business Listing
  • Création d'un Local Business Listing (ou de plusieurs)
  • Présence de mots-clés (produits ou services) dans le titre du Local Business Listing
  • Importance générale des critères "off-page" (citations, liens...)
  • Volume des avis des utilisateurs
  • Importance générale des avis d'utilisateurs
  • Importance générale des critères "on-page"
  • Présence de l'adresse complète sur la page de contact
  • Proximité par rapport au centre-ville
  • Qualité des liens entrants
  • Citations et liens provenant de sites locaux
  • Présence de mots-clés dans la description du Local Business Listing
  • Présence de mots-clés relatifs à la localisation dans les liens entrants
  • Avis des utilisateurs déposés sur le moteur lui-même
  • Présence de mots-clés relatifs à la localisation dans le titre du Local Business Listing
  • Présence de mots-clés relatifs aux produits et services dans les liens entrants
  • Présence de mots-clés relatifs à la localisation dans la balise <title> des pages
  • Avis d'utilisateurs sur des sites tiers
  • Présence de mots-clés relatifs à la localisation dans la description du local business listing
  • Nombre de liens entrants
  • Présence de la ville et de la région dans la balise <title> de la page contact
  • Présence de mots-clés relatifs aux produits et services dans l'URL
  • Présence de mots-clés relatifs aux produits et services dans les champs personnalisés du Local Business Listing
  • Association du Local Business Listing à des catégories personnalisées
  • Présence de mots-clés relatifs à la localisation dans l'URL
  • Utilisation d'un numéro de téléphone local dans le Local Business Listing
  • Association de vidéos au Local Business Listing
  • Présence d'un numéro de télépone local sur la page contact
  • Citations au sein de cartes personnalisées ou de contenus générés par les utilisateurs
  • PageRank de la page d'accueil
  • Associations de photos au Local Business Listing
  • Utilisation de fichiers KML
  • Appréciations positives de la part des utilisateurs
  • Présence de mots-clés relatifs à la localisation dans les champs personnalisés du local business listing
  • Utilisation du micro-format hCard sur le site
  • Age du Local Business Listing
  • Association de coupons de réduction au Local Business Listing
  • Utilisation de campagnes PPC locales (facteur le moins important)

Les facteurs pouvant affecter négativement le référencement local

  • Utilisation de numéros de téléphones nationaux dans le Local Business Listing (le plus bénin)
  • Présence de plusieurs adresses sur la page contact
  • Appréciations négatives de la part des utilisateurs
  • Usage exclusif de numéros de téléphones nationaux sur la page contact
  • Publication de plusieurs Local Business Listings avec le même titre
  • Usage exclusif de boites postales
  • Publication de plusieurs Local Business Listings avec le même numéro de téléphone
  • Publication de plusieurs Local Business Listings avec la même adresse (le pire)

16/10/2008

Interview d'Ambroise "alec" Fensterbank, de l'équipe qualité de recherche Google (2cde partie)

Suite de l'interview d'Ambroise Fensterbank, membre de l'équipe qualité de recherche du moteur Google (accéder à la 1ère partie).

Sébastien Billard : Des bruits circulent comme quoi des Googlers fréquenteraient anonymement les forums de webmastering et de référencement, dans le but d'effectuer une veille et d'identifier des sites violant les guidelines... info ou intox ?

Ambroise Fensterbank : On s’intéresse à ce qui se passe sur le marché pour savoir ce que pensent les webmasters, leurs opinions sur la qualité de recherche, ce qu’ils aiment ou n’aiment pas chez Google, les nouvelles tendances, etc.

SB : L'historique d'un site est-il un facteur dans l'évaluation de la qualité de celui-ci ? Par exemple un site ayant violé à maintes reprises les guidelines peut-il voir sa visibilité pénalisée ? Ou bien ne tenez vous compte que de la situation présente des sites ?

AF : On se concentre sur la qualité des résultats de recherche actuels. De plus, une page qui ne respecte pas nos consignes de qualité sera considérée comme telle, indépendamment de son ancienneté. Si vous achetez un domaine où il y a eu du spam précédemment, et que vous constatez quelque chose de bizarre, je vous conseille de faire une demande une reconsidération.

SB : Existe-t-il un lien entre la qualité d'un site telle que perçue par Google et l'affichage des SiteLinks ?

AF : Les liens de site ou "Sitelinks" sont les liens qui s’affichent au-dessous de certains sites dans les résultats de recherche. Lorsqu'ils sont présents, ils ont été générés automatiquement par Google. Leur sélection se fait en analysant la structure du site. Ils n’apparaissent que s’ils sont utiles aux internautes et sont en quelque sorte des raccourcis vers les différentes sections de votre site. Les liens s’affichent seulement pour le premier résultat de la recherche et cette position est en effet étroitement liée à la qualité du site. Nous avons écrit un article à ce sujet dans notre forum d’entraide.

SB : On observe une recrudescence des sites de communiqués de presse, qui sont un bon moyen de créer du lien. N'y vois-tu pas un risque de déviance, la version 2008 des fermes de liens ?

AF : Oui, nous avons remarqué cette tendance. Que ce soit un communiqué de presse ou un autre contenu, les liens seront traités de la même manière : les articles doivent avoir un contenu intéressant pour l'internaute et ne doivent pas être formatés. Dans tous les cas, il est déconseillé de publier du contenu seulement dans le but de créer des liens artificiels.

SB : Certains SEO vantent les mérites du PR sculpting grâce à l'attribut nofollow. Matt Cutts, sans encourager l'usage cette technique, ne l'a pas désapprouvée non plus. Pourtant il s'agit clairement d'une technique destinée à la seule amélioration de son classement dans les moteurs de recherche et qui n'a aucun intérêt pour l'utilisateur. Quel est ton avis sur la question ?

AF : Nous ne condamnons pas cette technique mais nous pensons qu’il y a des moyens plus efficaces pour améliorer un site. Par exemple, on peut travailler sur l'ergonomie ou optimiser le taux de conversion. Les webmasters oublient parfois quelle est la raison première de leur site.

En général, nous recommandons aux webmasters d’utiliser l’attribut nofollow pour :

  • Les liens qui ne leur inspirent pas 100% confiance, par exemple dans les commentaires de blogs ou dans les forums
  • Les liens payants
  • Les liens qui ont peu de contenu, par exemple le lien "Inscrivez-vous" car il y a peu de chance que le bot de Google vienne s’inscrire sur votre site :)

Cela me rappelle un article sur notre forum dans lequel Thierry Cavalié, un de nos participants très actifs, explique l’importance relative du PageRank.

SB : Google conseille (avec raison) de faire les choses pour l'utilisateur, et non pour les moteurs. L'attribut nofollow, à destination exclusive des moteurs, n'est il pas en contradiction avec ce principe ? En quoi un lien pertinent pour l'utilisateur, bien visible, serait-il moins pertinent pour Google du simple fait d'être acheté ?

AF : Un lien acheté est ajouté sur une page pour une raison d’argent, et non pas pour sa pertinence. Les liens sont comme des votes, et on sait bien que l’argent et les votes ne font pas bon ménage :)

En utilisant l’attribut nofollow pour ce type de liens, les webmasters travaillent dans le sens des moteurs de recherche, Google comme les autres qui utilisent le nofollow. En utilisant le nofollow avec raison, les webmasters aident à façonner, même indirectement, la recherche et le web dans l'intérêt des internautes. Par exemple, quand les créateurs de CMS (système de gestion de contenu) ajoutent l’attribut nofollow dans les commentaires d’utilisateurs, ils dissuadent les spammeurs d'utiliser à leur profit les commentaires. Le nofollow peut donc agir comme un moyen de prévention contre le spam.

SB : Google met à disposition des éditeurs les Webmaster Tools. Quelles sont les fonctionnalités de cet outil qui selon toi sont les plus importantes pour quelqu'un qui souhaite améliorer sa visibilité ?

AF : Les outils Google pour les webmasters sont là pour vous aider avec votre site. Vous pouvez entre autre :

  • Vérifier les informations d'exploration de Googlebot et les erreurs reçues
  • Soumettre un fichier Sitemap pour aider Google à trouver votre site
  • Vérifier vos liens et le top 20 des requêtes utilisées pour trouver votre site
  • Définir une zone géographique pour en cibler les internautes

Ceci n’est qu’un aperçu de ce que les outils peuvent vous apporter. Ils vont de pair avec notre centre d’aide. Ces outils sont gratuits, vous n'avez besoin que d'un compte Google. Nous avons créé une vidéo explicative pour vous aider à commencer.

SB : Est-il selon toi possible d'acquérir une visibilité rapidement tout en ayant une démarche qualitative ? Une faiblesse de Google ne réside-t-elle pas dans sa sensibilité aux liens, qui génère beaucoup de spam et de bruit (course au link baiting, abus de liens, soumissions massives aux annuaires...)

AF : J'encourage les webmasters à penser sur le long terme. Comme je l’ai expliqué, il n’y a pas de formule magique. Je conseille aux webmasters de bien réfléchir aux raisons pour lesquelles ils ont créé leur site, qu’il s’agisse d’un site perso ou professionnel.

  • Vous vendez des produits sur votre site ? Dans ce cas, votre taux de conversion est tout aussi important que votre classement dans les résultats de recherche.
  • Votre site est un site d’informations ? Pensez à une stratégie pour attirer des lecteurs. Vous pouvez par exemple traiter de sujets qui n’ont pas encore été abordés. Vous pouvez aussi utiliser un ton original, un angle de vue différent sur un sujet déjà existant.
  • Vous souhaitez développer une communauté au sein de votre site ? Pensez aux nouvelles fonctionnalités du web social qui facilite l'interaction.

La visibilité d'un site dans l'index de Google ne devrait pas être l'unique préoccupation des webmasters. Je pense qu’ils ont intérêt à innover plutôt que d’optimiser une recette existante. En particulier, quand un thème est très compétitif, chaque innovation compte, et les plus petites pourront faire toute la différence.

SB : Google propose au moins deux certifications pour les professionnels, une pour Adwords, l'autre pour Google Analytics. Avez-vous déjà pensé à une certification pour le référencement naturel ?

AF : Oui, nous y avons pensé mais nous n’avons pas prévu pour l’instant de certification pour le référencement. Il y a deux raisons à cela :

  • Premièrement, nous attachons beaucoup d’importance à l'indépendance vis à vis des créateurs de contenu
  • Ensuite, si des référenceurs obtenaient une certification de Google, nous ne pourrions pas garantir qu'ils continuent à suivre nos consignes par la suite.

SB : Tu interviens parfois (ainsi que ta collègue Nathalie) sur le groupe Google d'entraide entre webmasters. Or les débats en matière de SEO ont surtout lieu sur des forums comme Webrankinfo, Twiger, Seosphere, ou Webmaster-Hub, bien plus fréquentés. Est-ce par choix, ou par manque de temps ?

AF : Depuis un an et demi, nous essayons de partager davantage avec les webmasters, notamment en discutant sur notre forum d’entraide de sujets tels que le crawling, l’indexation, les Sitemaps ou les outils pour les webmasters.

Nous consultons aussi les forums sur le référencement pour voir quels problèmes rencontrent les webmasters. Il nous arrive de parler de ces problèmes dans notre forum. Ainsi, récemment, nous avons par exemple posté un article sur le lien retour obligatoire. Nous sommes trois guides Google avec Nathalie et JY. Mais les vraies stars du forum sont nos participants bénévoles qui viennent aider les webmasters et qui ont créé une communauté vraiment sympa. Je pense en particulier à Thierry JR Cavalié, aCOSwt, Papy, BacK, Athanor et Azcrea. Et il y en a tous les jours d’autres, moins réguliers, qui apportent aussi leur aide.

Parfois nous aimerions participer aux forums que tu as mentionnés plus haut. Mais pour l'instant, nous pensons que la participation dans le forum d’entraide est mieux adaptée pour répondre aux questions spécifiques des webmasters adressées à Google.

SB : Utilises-tu personnellement d'autres moteurs de recherche que Google? Et si oui pour quelles raisons ou quels usages ?

AF : Oui bien sûr, je m’intéresse à tout ce qui se passe sur le marché et je suis toujours curieux de connaître les innovations et les nouveaux outils. Le web change tous les jours :)

SB : Mènes-tu une veille sur les sites d'information et communautés consacrés au référencement ? Aurais-tu quelques ressources selon toi pertinentes à conseiller aux lecteurs cherchant à s'informer sur le référencement ?

AF : Je me tiens au courant de ce qui se passe dans le monde du référencement, et je lis notamment les sources que tu as mentionnées. J'apprécie aussi les comptes rendus de conférence. Je lis des blogs de référenceurs de tous bords ;) Mais j'apprécie particulièrement quand les gens donnent leur opinion, expliquent ce qu'ils aiment ou n'aiment pas, ce qui leur manque et ce qu'ils aimeraient avoir. Souvent ils ont d'excellentes idées dont nous nous inspirons directement dans notre équipe qualité de recherche.

Pour les sources officielles, la référence est clairement le Webmaster Central Blog (en anglais). Je vous recommande aussi de faire un tour sur notre centre d’aide et de passer sur notre forum. Il y a aussi le blog de Matt Cutts pour des articles approfondis.

SB : Y a-t-il des points que tu souhaiterais évoquer qui n'auraient pas été abordés dans cette interview ?

AF : Partager davantage avec les webmasters est très important pour nous, et nous avons encore beaucoup à faire. C'est notre première interview et c'est vraiment un bon moyen pour nous de parler de notre équipe et de ce que nous faisons. Merci Sébastien de nous avoir donné cette opportunité !

J'invite aussi tous les webmasters à venir faire un tour sur notre forum. Nous n’offrons pas l’apéro mais vous êtes vraiment tous les bienvenus :) Et n'hésitez pas à essayer les outils Google pour les webmasters ;)

SB : Merci à toi Ambroise :)

14/10/2008

Interview d'Ambroise "alec" Fensterbank, de l'équipe qualité de recherche Google (1ère partie)

J'ai pu rencontrer Ambroise à l'occasion des Search Engine Strategie de 2008. Nous avions alors discuté de divers sujets que vous devinerez aisément ;) Je lui avais également proposé une interview. Malheureusement cela n'était pas envisageable à l'époque. Les choses ont depuis évolué, ce qui me permet de vous livrer cette interview qui sera publiée en deux parties, sa longueur étant conséquente.

Sébastien Billard : Bonjour Ambroise, peux-tu te présenter aux lecteurs ? Quelles sont tes fonctions chez Google ?

Ambroise Fensterbank : Bonjour Sébastien, je travaille pour Google dans l’équipe qualité de recherche depuis bientôt deux ans. Notre mission est d’empêcher le spam d’apparaître dans les résultats de recherche, afin que nos utilisateurs n’en soient pas affectés. C’est l’objectif principal de notre équipe.

Mais la communication avec les webmasters constitue également une part importante de notre travail. Depuis un peu plus d’un an, nous engageons le dialogue avec les webmasters, par le biais de notre forum, du blog de nos collègues d’AdSense mais aussi en participant à des conférences ou grâce à cette interview :)

SB : Comment en arrive-t-on à travailler au sein de l'équipe qualité des résultats ? Quel est ton parcours académique et professionnel ?

AF : J’ai la chance de travailler dans une équipe où tout le monde a des parcours très divers. Cela fait partie des avantages de travailler chez Google ! En ce qui me concerne, j’ai commencé par un diplôme en informatique, suivi d’un autre en gestion de projet spécialisé en technologie de l’information. Puis j’ai passé un Master en intelligence économique. Après un stage en stratégie marketing dans un grand groupe de distribution, j’ai postulé pour ce job chez Google. Après plusieurs entretiens, j’ai acheté mon billet d’avion pour Dublin où se trouve l’un des plus grands bureaux de Google en Europe.

SB : Quels sont les effectifs de l'équipe qualité en charge du web francophone ? Et pour le monde entier ?

AF : Plutôt que de parler d'effectifs, je préfère t’indiquer que notre équipe qualité de recherche travaille sur une quarantaine de langues dans le monde. Plus de la moitié sont d'ailleurs prises en charge ici à Dublin. Comme mes collègues responsables du marché francophone, ma langue maternelle est le français. Mais d'autres personnes de mon équipe travaillent sur des marchés de plus petites tailles. Il est important pour Google de s’occuper de la qualité de recherche aussi bien pour les gros que pour les petits marchés.

SB : Ta mission, et celle de ton équipe, est d'empêcher le spam d'apparaître dans les pages de résultats du moteur. Exercez-vous des actions directement, ou vous limitez-vous à faire remonter l'information aux équipes en charge de l'algorithme ?

AF : C’est une question qui revient souvent ;) Nous exerçons des actions directement sur l’index, et nous collaborons aussi avec les ingénieurs pour l’amélioration des algorithmes. Nous avons d'ailleurs mis en ligne une courte introduction au sujet de notre équipe sur notre forum.

SB : Pour un webmaster français souhaitant faire une demande de réinclusion, quelle langue faut-il mieux employer pour un traitement rapide et efficace ? Français ou anglais ?

AF : Le français nous convient parfaitement. La demande de reconsidération sera traitée de la même manière, qu'elle soit en anglais ou en français. Ce qui compte le plus, c'est de bien effectuer les modifications nécessaires.

SB : Quel est le temps moyen entre une demande de réinclusion et la réinclusion effective d'un site, à supposer que le site ait bien abandonné toute pratique non conforme à vos directives ?

AF : On s’occupe des demandes de reconsidération dès leur réception. Si le site est réinclus, il réapparaîtra dans l’index dès le prochain parcours de notre bot.

Au fait, j'ai un conseil à vous donner lorsque vous faites une demande de reconsidération : effectuez une vérification complète et sérieuse de votre site ; assurez-vous qu'il respecte bien toutes nos consignes de qualité. C’est vraiment important. Prenez le temps nécessaire pour corriger tout ce qui est contraire à nos consignes. J'insiste sur ce point car le site ne peut pas être réinclus tant qu'il reste des choses à modifier.

SB : Supposons que je crée un CMS et le diffuse gratuitement. En pied de page y est inséré un lien vers le site source du CMS. L'utilisation du CMS n'est nullement subordonnée à l'affichage du lien, et les webmasters ont le choix de le conserver ou non. Ce lien est-il considéré comme "acheté" par Google, ou n'étant pas conforme à vos directives de qualité ? Dans le même ordre d'idée, un widget comportant un lien "en dur" vers le site éditeur du widget est-il conforme à vos directives de qualité ?

AF : Google prend en compte de nombreux facteurs pour considérer les liens, tels que le texte du lien (anchor text), le nombre de liens, leur pertinence, etc. Si un lien est inséré sans l'intervention délibérée du webmaster, il ne sera pas aussi utile qu’un lien choisi. Par conséquent, le poids que lui attribuera Google pourra varier. Si le lien inséré est suspect, cela va affecter la réputation du site qui l’utilise dans son CMS.

En ce qui concerne les widgets, je vous conseille de lire une interview (en anglais) de Matt Cutts qui donne des détails sur leurs critères. Et pour bien faire la distinction avec l’achat de lien, je vous recommande un article de Matt Cutts, contenant beaucoup d'explications, de détails, d'exemples et de questions/réponses.

SB : Un certain nombre de webmasters pensent que Google tend de plus en plus à déprécier les annuaires dans ses pages de résultats. Est-ce vrai ? Qu'est-ce qu'un bon annuaire du point de vue de Google ?

AF : Nos consignes de qualité sont les mêmes pour tous les sites, y compris les annuaires. Nous voyons beaucoup d’annuaires créés avant tout pour manipuler les moteurs de recherche. J'aimerais d'ailleurs en profiter pour fortement décourager ce type de pratique. La visibilité de ce genre d’annuaire dans notre index sera revue à la baisse.

Au contraire, j'encourage les webmasters à se poser la question: "Qu'est-ce qui rend mon annuaire unique ?" Cela peut passer par l'ajout de fonctionnalités originales, les choix éditoriaux ainsi qu'une spécialisation thématique.

La soumission de liens dans les annuaires est un point important : Matt Cutts (encore lui :) a écrit sur son blog quelques infos sur la façon dont on juge la qualité des annuaires : "Avant de soumettre un lien dans un annuaire, je me poserais une ou deux questions comme :

  • Est-ce que l’annuaire rejette des URLs ? Si chaque URL est acceptée sans filtrage, l’annuaire se rapproche d’une liste de liens où règne le "chacun pour soi"
  • Si l’inscription est payante, est-ce justifié ? Dans le cas d'un annuaire de qualité, cela récompensera le temps et le travail de l'équipe qui va évaluer une URL ou un site."

SB : Quantités d'annuaires exigent un lien en retour, dans le but de gagner des liens entrants, et donc de la visibilité. Cette obligation du lien retour est-elle considérée par Google comme une violation des guidelines, ou comme un signal de non-qualité ?

AF : C'est un critère que nous prenons très sérieusement en compte pour les annuaires. Je décourage franchement les webmasters d'utiliser ce procédé. Pour nous, ce type de lien a beaucoup moins de valeur qu'un lien délibérément choisi. Comment pourrions-nous garantir la qualité de notre index si chaque site exigeait un lien retour ? Nous avons écrit un article sur notre forum à ce sujet. Nous donnons davantage de poids à un lien lorsqu'il est ajouté dans l'intérêt du visiteur. C'est pourquoi on regarde souvent d'un mauvais œil les annuaires qui exigent un lien retour. Nous voulons que les liens soient créés parce qu'ils sont utiles, et non parce qu'ils sont requis.

SB : Les référenceurs sont souvent montrés du doigt quand un site se retrouve blacklisté. D'après ton expérience, le spam est-il le fait de référenceurs professionnels, ou au contraire est-il le fait plutôt d'éditeurs indépendants ?

AF : Beaucoup de référenceurs optimisent les sites en respectant nos consignes de qualité, d'autres utilisent des techniques qui vont à leur encontre. Dans ce deuxième cas, le client sera le grand perdant car il aura payé une optimisation qui aura causé pour sa visibilité plus de tort que de bien. En effet, nous considérons que le responsable d'un site est son webmaster et qu'il en a entièrement le contrôle. C'est pourquoi j'encourage les webmasters à faire attention aux offres suspectes telles que "votre site en premier résultat de Google en une semaine". Il n'existe pas de formule magique. Mais bien sûr, nous ne mettons pas tous les référenceurs dans le même panier :)

Lorsque vous faites optimiser votre site par un référenceur ou un service en ligne, voici quelques conseils pour réduire le risque d'avoir des problèmes :

  • Assurez-vous du professionnalisme du service que vous contractez
  • Faites en sorte qu'un spécialiste du web, idéalement votre webmaster, vous assiste dans la définition de la prestation, et qu'il ait bien le détail de toutes les modifications apportées au code source de votre site
  • Renseignez-vous au préalable sur le référenceur ou le service en ligne qui vous intéresse, autour de vous ou sur le web, il y a des chances que les gens donnent leur opinion

Nous avons aussi un article complet sur les SEOs dans notre centre d'aide qui pourra vous en apprendre plus.

SB : Un certain nombre de sites ont basé leur visibilité sur l'agrégation de contenus d'éditeurs tiers (grâce aux fils RSS). Cette visibilité est-elle légitime de ton point de vue ? On a assisté à quelques baisses de visibilité importante de certains sites... La lutte contre le scraping et l'agrégation est-elle un de vos chantiers actuels ?

AF : Nous tenons à protéger nos utilisateurs contre des pages de résultats de recherche affichant toujours le même contenu. C'est pour cette raison que nous encourageons toujours les webmasters à ajouter du contenu original et personnel. De nombreux sites ont trouvé des moyens originaux pour agréger du contenu, l'organiser, le partager ou encore offrir des fonctionnalités pour interagir avec les internautes. Être original ne passe pas que par le contenu textuel, cela passe aussi par son organisation, sa navigabilité et la façon dont il est publié. Bref, en général, posez-vous ces questions : "qu'est-ce qui rend mon site unique ? Qu'est-ce que je propose dans mon site qu'on ne peut pas trouver ailleurs ?"

SB : Quelle est la part de pages "spammy" affichant des annonces Adsense ? ;)

AF : Ce que nous voyons, c’est qu’il y a énormément de contenu de qualité sur le web, avec ou sans pub, et donc nous ne traitons pas ces deux types de pages différemment. Par conséquent, si vous ajoutez des annonces AdSense sur votre site, celles-ci ne vont provoquer ni un afflux de trafic ni une baisse. Mais pour en revenir à ta question Sébastien, la majorité du spam que l’on voit sur le web ne comporte pas d’AdSense ;)

SB : En tant que consultant en référencement respectueux des bonnes pratiques, je me retrouve de plus dans une situation paradoxale, qui est de conseiller à des clients trop zélés de "désoptimiser" leur site quand celui-ci utilise des techniques que vous réprouvez dans vos directives de qualité. Or cela aboutit parfois à une moindre visibilité du site à court terme, Google étant loin d'être infaillible dans l'élimination du spam. Quel intérêt à respecter les règles quand l'arbitre n'est pas en mesure de les faire respecter systématiquement ?

AF : Ce sera toujours extrêmement bénéfique pour un site qu'un référenceur se penche sur son cas et enlève le spam déjà présent. Cela ne semblera peut-être pas bénéfique à court terme mais le sera à long terme. C'est un investissement qui évitera au site des mauvaises surprises concernant sa présence dans notre index.

On fait de notre mieux pour protéger nos utilisateurs contre le spam. Mais il se peut que des résultats de spam nous échappent. Si vous voyez dans les résultats un site qui ne respecte pas nos consignes, vous pouvez nous aider en nous envoyant un spamreport de votre compte outils pour les webmasters. Lorsque vous le remplissez, écrivez un commentaire détaillé et clair.D’ailleurs, à propos des spamreports, j'aimerais éclaircir deux points qui reviennent souvent :

  • Oui, nous prenons vraiment en compte les spamreports
  • Envoyer des spamreports pour tenter de nuire à un site concurrent, alors qu'il respecte nos consignes, n'aura pas d'effet.

SB : Un webmaster ayant une tendance lourde à spammer les moteurs peut-il en tant qu'individu être pénalisé par Google ? Il y a quelques rumeurs à ce sujet, probablement alimentées par le fait que Google est un registrar et peut donc identifier les éditeurs de sites... Ou bien Google ne considère que les sites et en aucun cas les éditeurs ?

AF : Lorsqu'on examine des cas de spam, on peut trouver des signaux récurrents sur les sites. Si on retrouve les mêmes signaux sur d'autres sites, on regardera de plus près. Google est un registrar, mais ça ne veut pas dire qu'il possède les données de "whois". Du coup, nous nous concentrons davantage sur le contenu de notre index que sur les personnes derrière les sites.

(Accéder à la 2cde partie de l'interview)

10/10/2008

Google désavoue-t-il réellement les annuaires ?

Un changement dans la version américaine des guidelines Google la semaine dernière a fait trembler le landerneau du référencement (notez au passage la formule cliché digne d'un vrai journaliste) : Google ne recommanderait désormais plus de rechercher des liens entrants pertinents, ni même de soumettre à des annuaires de qualité tels que Yahoo et DMOZ.

Faut-il en conclure que Google n'aime pas les annuaires ? Pas si sûr. Ce que je perçois de ce changement de formulation, c'est que Google ne souhaite pas encourager les webmasters à créer du lien pour du lien, mais plutôt à promouvoir leurs sites auprès de la communauté. D'ailleurs les guidelines recommandent toujours de "vérifier que tous les sites susceptibles d'être intéressés par le contenu de vos pages sont informés que votre site est en ligne" : cela inclue les annuaires, quand cela est pertinent pour les utilisateurs.

Dans une discussion sur le groupe anglophone d'aide Google aux webmasters, John Mueller, analyste chez Google, apporte d'ailleurs quelques précisions allant dans ce sens : "Je ne pense pas qu'il faille en déduire que nous reconnaissons une moindre valeur aux liens de Yahoo. C'est juste qu'il s'agit d'une chose que nous n'avons pas besoin de recommander. Si les gens pensent qu'un annuaire peut leur apporter de nombreux visiteurs, il n'y a évidemment aucun problème à y être listé".

Concernant les liens entrants, John Mueller ajoute : "Nous avons supprimé cette ligne parce nous pensons que vous ne devriez pas forcer d'autres sites à faire des liens vers vous. Il est bien sûr bon que les sites se lient, et vous pouvez parfaitement encourager et faciliter la création de liens vers votre site. Je ne pense pas toutefois que nous devions préciser dans nos guidelines que d'autres sites pertinents proposent des liens vers le vôtre. Ces sites doivent le faire de leur propre chef, ce doit être leur décision, pas la vôtre".

Créer du lien en informant les webmasters de l'existence de son site (y compris en soumettant à des annuaires consciemment choisis) reste donc parfaitement valide du point de vue Google tant que cela est basé sur la pertinence et pas sur la seule recherche de PageRank. Et un annuaire avec une vraie démarche éditoriale et des liens entrants de qualité n'a à priori pas non plus de raisons de craindre les foudres du moteur (lire d'ailleurs le billet de Matt Cutts à ce sujet).

6/06/2008

Mes astuces pour se référencer dans les annuaires

Parler de soumission aux annuaires peut sembler dépassé en 2008, à l'heure où web 2.0 et buzz marketing concentrent toutes les attentions. Pourtant, les annuaires demeurent un moyen simple de créer du lien (à défaut d'une grosse quantité de trafic direct, même s'il y a des exceptions). Un gros avantages du référencement dans les annuaires est que ce type de promotion est accessible à tout type de site : en effet les sites d'une PME industrielle, d'un cabinet immobilier ou d'un centre équestre n'ont pas forcément vocation à se retrouver propulsés en page d'accueil des digg-likes ou cité par des centaines de blogueurs. Un autre avantage des annuaires est que les liens créés sont plus durables, car leur structure est plus stable dans le temps.

La grosse difficulté de la soumission aux annuaires reste cependant son caractère chronophage : trouver les annuaires et les sélectionner prend du temps. Voici donc quelques astuces que j'utilise personnellement et qui devraient vous faciliter les choses. Attention, il ne s'agit pas de techniques miracles, ni d'une méthode universelle et infaillible, mais simplement de quelques "trucs" éprouvés, pour être un peu plus efficace :

Préparez à l'avance un fichier texte incluant titre, description et mots-clés relatifs à votre site web. Eventuellement, prevoyez plusieurs descritions alternatives. Le copié-collé vous fera gagner du temps lors du renseignement des formulaires de soumission. Soignez vos soumissions.

Ne perdez pas votre temps à soumettre aux annuaires exigeant un lien en retour. Cette obligation du lien retour bénéficie en fait davantage aux annuaires qu'aux sites référencés. Chacun son job : c'est celui des annuaires que de pointer vers un grand nombre de sites, pas le vôtre.

Assurez-vous que les liens des annuaires soient bien des liens en dur, c'est-à-dire des liens HTML pointant directement vers votre site, et non vers une URL de tracking avec redirection (ex : www.annuaire.fr/redirect.php?idsite=123). Seuls les liens en dur ont une influence positive vis-à-vis des moteurs de recherche.

Tout au long de vos campagnes de référencement, constituez-vous une liste d'annuaires favoris. Cela vous fera gagner du temps lors d'autres campagnes de soumission. J'ai ainsi dans mes favoris et sur mon propre répertoire un certain nombre d'annuaires dont je sais qu'ils indexent facilement et n'exigent pas de liens retours.

Utilisez les annuaires d'annuaires. Il en existe plusieurs dont Annuaire-info, Les annuaires,E-annuaires et le tout nouveau QualiSEO. Les archives de la rubrique "Chasseurs de moteurs" de Moteurzine donnent également accès à des annuaires de qualité sélectionnés par X.

Pensez local : une recherche sur "annuaire" couplé à un nom de ville, de département ou de région permettra de trouver des annuaires pertinents, car relatifs à votre région (ex : "annuaire nord").

Pensez spécialisation : une recherche sur "annuaire" couplé à votre secteur d'activité devrait vous ramener des annuaires spécialisés relatifs à votre domaine, donc extrêmement pertinents (ex : "annuaire santé").

Recherchez des annuaire jouissant d'une bonne visibilité en utilisant les opérateurs avancés des moteurs. Une recherche sur "motclé + "proposer un site"" ou "motclé + "suggérer un site"" vous amènera plus directement sur la bonne catégorie d'annuaires acceptant les soumissions (ex : "équitation + "proposer un site"").

Etudiez dans quels annuaires vos concurrents sont référencés (en particulier ceux mieux positionnés que vous), grâce à Yahoo Site Explorer. Vous lutterez ainsi un peu plus à armes égales.

Tenez une liste de vos soumissions, pour ne pas soumettre deux fois à un même annuaire et faire le point régulièrement sur les indexations. Cette liste peut être informatisée, mais personnellement j'utilise papier et stylo pour noter les annuaires auxquels j'ai soumis, en utilisant le soulignement pour indiquer les indexations effectives.

Enfin, ne vous inquiétez pas trop d'une pénalisation du fait d'un accroissement trop rapide du nombre de liens entrants (surtout si vous vous limitez à 100 ou 200 soumissions par campagne). La découverte de ces liens par les moteurs sera de toute façon progressive, d'abord parce que le temps pour être indexé varie pour chaque annuaire, et aussi parce qu'il faut du temps aux moteurs pour parcourir l'ensemble de ces annuaires et indexer vos nouveaux liens.

27/09/2007

Google fait aussi la chasse aux liens artificiels en France

On le répète pourtant depuis longtemps : la création de liens artificiels ou de mauvaise qualité n'est pas une solution pérenne en matière de référencement. Dernièrement, Google pénalisait ainsi manuellement un certain nombre d'annuaire américains présentant des signes manifestes de mauvaise qualité, comme la présence de liens douteux, un discours trop axé sur la transmission de PageRank, la possibilité de liens multiples avec choix des ancres, ou encore l'obligation de lien reciproques.

On pourrait se croire à l'abri de telles sanctions en France. Ce n'est pas le cas : le réseau d'échange automatique de liens Refseo vient semble-t-il de se faire pénaliser par Google. Tout commes les annuaires évoqués plus haut, le site n'est plus trouvable ni sur sa marque, ni sur le contenu de sa balise title, mais uniquement sur son nom de domaine. On peut également penser que le site Refseo a perdu toute capacité à transmettre du PageRank, même s'il affiche toujours un PR de 6 (ce qui confirme encore une fois qu'il ne faut pas faire aveuglément confiance au PageRank affiché par la Googlebar).

Le site Refseo n'est pas le seul touché : un certain nombre de membres du réseau ont également fait l'objet d'une pénalité temporaire de 30 jours, accompagnée d'un email d'avertissement expliquant que la présence de textes et de liens cachés sur leur site n'était pas conforme aux directives de qualité du moteur.

25/09/2007

Une autre preuve de la non-relation entre Sitelinks et TrustRank

En avril dernier, je tentais de décrypter le fonctionnement des Sitelinks Google, en exprimant mon scepticisme vis-à-vis de la relation pourtant souvent évoquée entre Sitelinks et Trustrank.

Un récent article de Rand Fishkin sur le blog SEOmoz semble conforter cette absence de relation : Rand observe ainsi qu'un certain nombre d'annuaires pénalisés par Google (mais non blacklistés) continuent d'afficher des Sitelinks lors d'une recherche sur leur nom de domaine. La notion de "confiance" ("trust" en anglais) n'est donc vraisemblablement pas une condition préalable à l'affichage des Sitelinks.

25/05/2007

Stratégie, tactique et Search Marketing

Dave Pasternack s'insurge dans un article sur DM News de l'emploi abusif du terme "stratégie" en matière de Search Marketing alors qu'il est question le plus souvent, selon lui, de "tactique".

La stratégie est selon le Trésor de la Langue Française, "un ensemble d'actions coordonnées, d'opérations habiles, de manœuvres en vue d'atteindre un but précis (...) une manière d'organiser, de structurer un travail, de coordonner une série d'actions, un ensemble de conduites en fonction d'un résultat. Pour le Littré, la stratégie est "l'art de préparer un plan de campagne, de diriger une armée sur les points décisifs ou stratégiques, et de reconnaître les points sur lesquels il faut, dans les batailles, porter les plus grandes masses de troupes pour assurer le succès".

La tactique, quant à elle est "l'art d'utiliser les meilleurs moyens pour atteindre un certain objectif; l'ensemble de ces moyens" et designe aussi la "technique pour appliquer une stratégie définie, qui combine, en vue d'un maximum d'efficacité et en fonction des circonstances, tous les moyens et formes de combat utilisables" (Trésor de la Langue Française). "La tactique exécute les mouvements qui sont commandés par la stratégie" (Littré).

Pour certains, la tactique est l'art des moyens (le "comment"), et la stratégie celui des fins (le "quoi").

Qu'en est-il du Search Marketing ? Il me semble que l'on y retrouve tout aussi bien des éléments stratégiques que tactiques : par exemple en ce qui concerne le référencement naturel, le choix de porter en priorité ses efforts sur la popularité d'un site plutôt que sur son contenu peut être qualifié de stratégique, car il s'agit d'une orientation globale. Le choix des techniques pour générer ces liens (soumissions aux annuaires, marketing viral, jeux concours, achat de liens...) sera lui tactique. Mais tout est question d'échelle : au niveau de la stratégie globale de communication d'une marque, le search marketing peut être considéré comme un élement tactique.

Qu'en pensent les stratèges et tacticiens ?

6/04/2007

Identifier et corriger ce qui bloque un référencement

De retour de l'édition 2007 de W3 Campus, voici une version adaptée de la session "Identifier et corriger ce qui bloque un référencement" que j'ai eu le plaisir de présenter. Pour les lecteurs intéressés par la conférence "Ultimate SEO" à laquelle j'ai également participé, je vous invite à lire ce billet sur l'identification des expressions-clés employées par les utilisateurs. Je profite de ce billet pour remercier à nouveau les organisateurs du séminaire qui ont su faire de celui-ci un évenement à la fois convivial et (très) riche en information, ainsi que le public pour sa sympathie ;)

Introduction

"Identifier et corriger ce qui bloque un référencement" est le lot quotidien du référenceur : on regarde l'existant, on identifie les points bloquants, et on recherche ensuite des solutions et des améliorations.

En matière de référencement naturel, i faut savoir qu'il y a 3 grands leviers que l'on peut activer :

  • Le contenu (le texte).
  • Le contenant (la structure du site, le code).
  • La popularité (l'environnement du site, les liens).

Pour qu'un référencement fonctionne correctement, il faut que tous ces leviers soient activés. Ainsi, un site populaire, riche en contenu mais inaccessible aux moteurs aura un référencement médiocre. Un site accessible, populaire, mais sans contenu texte pertinent aura lui aussi un référencement médiocre. Et un site pourtant accessible, avec un contenu pertinent, mais sans aucun lien pointant vers lui aura une référencement médiocre (spécialement pour les thèmes concurentiels).

Il faut donc toujours avoir à l'esprit ces trois axes : contenu, contenant, et popularité. Et pour identifier ce qui bloque un référencement, il faut s'intéresser encore à ces trois axes : un site pourra souffrir d'un contenu mal optimisé, d'une structure rendant son contenu inaccessible ou le mettant mal en valeur, ou bien souffrir d'un déficit de popularité.

Noms de domaine et redirections

La première chose qui peut bloquer un référencement est d'abord la structure. Il arrive qu'un même site possède plusieurs noms de domaines, par exemple pour se proteger du cyber-squatting ou rester accessibles aux utilisateurs qui font des coquilles. Le problème est que des noms de domaines différents sont censés correspondre à des sites différents du point de vue des moteurs. Deux cas de figure se présentent alors :

  • Soit les différents domaines sont considérés comme des doublons (duplicate content), et sont tous ignorés.
  • Soit plusieurs domaines sont effectivement indexés, et la popularité du site est alors diluée.

Il se peut également que sur certains moteurs, ce soit tantôt un domaine qui ressorte, tantôt l'autre. Dans tous les cas, cela nuit à la visibilité du site...

Comment détecter une mauvaise gestion des domaines ? La commande allintitle:"title_de_la_homepage" de Google permet parfois de repérer les pages indexées par le moteur ayant pour balise <title> le contenu spécifié. Le symptôme d'une mauvaise gestion des domaines se manifeste alors comme plusieurs de vos noms de domaines affichant le même <title> : version avec et sans tirets, avec différents TLD, adresse IP...

Comment corriger ce problème ? Si vous réservez plusieurs noms de domaines pour un site :

  • Ne faites la promotion que d'un seul, ce qui limitera l'indexation des autres.
  • Redirigez les autres domaines vers le domaine principal, via une redirection serveur, de type 301.

N'utilisez que des redirections serveur : ce sont les seule suivies par les moteurs (les redirection à bases de frames 100%, de javascript, ou de balises meta refresh ne sont pas valables). N'utilisez pas de redirections serveurs de type 302, car le risque est que le contenu de la page de destination soit indexées sous l'URL (et donc le domaine) de la page redirigée, puisque la redirection est considérée temporaire.

Fichiers Robots.txt

Le protocole robots.txt sert a restreindre le parcours des sites web par les robots. Il s'agit d'un simple fichier txt, situé à la racine du site ou du sous-domaine. On peut y définir des répertoires ou fichiers à ne pas indexer pour tous les robots, ou désactiver l'accès seulement à des robots spécifiques.

Si ce fichier n'est en général par défaut pas présent sur un site web , il se peut qu'il ait été placé là par un précédent webmaster, où que vous l'ayiez oublié. Si un ou plusieurs moteurs refusent absolument de vous indexer pensez donc à regarder au cas où si ce fichier est présent, et s'il contient ce type de lignes :

User-agent: * Disallow: /

L'exemple ci-dessus interdit par exemple à tous les robots l'indexation du site.

Javascript, AJAX, Flash et images

Aujourd'hui encore, les moteurs de recherche ne sont pas capables d'interpréter correctement ni Javascript, ni les éléments Flash (même si Google commence timidement à extraire de l'information des fichiers Flash). Ils ne lisent pas non plus le contenu des images.

Ces technologies doivent donc être considérées comme bloquantes pour les moteurs, au moins en ce qui concerne le Flash. Javascript, lui, s'il n'est pas interprété par les moteurs peut dans certains cas être utilisé de façon à conserver l'accessibilité du site, tandis que les images significatives peuvent être dotées de l'attribut "alt".

Comment savoir ce que voient (ou pas) les moteurs ? Plusieurs façons :

  • Une 1ère méthode est tout simplement de faire un copié-collé de l'intégralité de la page dans le notepad (sous Windows) à partir du navigateur : On ne verra ainsi que le contenu compréhensible par les moteurs à savoir le contenu texte, et les attributs des images. L'inconvénient de cette méthode est que le texte affiché via javascript sera aussi copié, et que l'on ne voit pas si les liens sont accessibles... Cette méthode, si elle est rapide est donc peu fiable.
  • Seconde méthode : naviguer sur le site avec Firefox et l'extension Webdeveloper, en ayant désactivé Javascript, l'affichage des images, et CSS : On a alors une meilleure idée de l'accessibilité du site, puisque les liens restent cliquables. Mais les éléments Flash reste cependant visibles...
  • Troisième méthode moins simple mais vraiment efficace : naviguer sur le site avec un navigateur texte comme Lynx. Lynx est un navigateur préhistorique, qui ne connait ni les images, ni Javascript, ni Flash, ni CSS, pas même les tableaux. C'est donc le meilleur simulateur de robot qui soit.

Une fois diagnostiqué les points bloquants, que faire ? Il faut mettre en place des alternatives accessibles. Si votre site est 100% Flash, faites une version HTML. Si votre menu est en Flash, faites des liens href alternatifs, éventuellement en pied de page, ou dans le contenu. Si un clip Flash mène vers d'autres pages, doublez-le de liens href vers ces pages. Si vous faites de popups, rendez-les accessibles en utilisant un lien href doté d'un attribut "onclick".

Veillez aussi à utiliser de façon pertinente ces technologies : ce qui est bon pour les moteurs l'est souvent pour les utilisateurs, et inversement. La simplicité est souvent payante, tant en matière de référencement que d'ergonomie.

Formulaires

Les moteurs de recherche ne savent que suivre les liens pour passer d'une page à une autre, et sont incapables de remplir un formulaire. Si l'affichage du contenu dépend d'un formulaire, cela pose donc problème : le contenu du site aura beau être immensément riche, les moteurs seront incapables d'y accéder. C'est d'ailleurs ce qui constitue le fameux "web invisible" : des milliards de pages de qualité, mais cachées derrières des formulaires.

Identifier le problème est plutôt simple : tout contenu accessible uniquement via un formulaire est inaccessible pour les robots.

Comment le résoudre ? Il faut s'assurer que le contenu de la base de données soit accessible également via des liens HTML, qui auront pour URL les pages de résultats du formulaire (ce qui implique d'utiliser la méthode GET pour interroger la base, avec les paramètres dans l'URL).

On peut par exemple faire une arborescence qui soit fonction des éléments du formulaire : pour un site de recherche de biens immobiliers ce sera par exemple une arborescence par nature du bien puis par localisation géographique.

Balisage sémantique

Qu'est-ce que le balisage sémantique ? Les spécifications du HTML comprennent un certain nombre de balises qui ont une fonction "sémantique", càd qu'elle donnent des indications quand au "sens", ou plutôt quand à la fonction des éléments balisés.

  • Les titres et sous-titres devraient ainsi utiliser les balises <h1> à <h6>.
  • Les paragraphes la balise <p>.
  • Les listes et menus les balises <ul> et <ol>.
  • Les emphases la balise <strong> ou <em>.

Ces balises sont prises en compte par les moteurs : un contenu balisé comme un titre se verra donc reconnaître un poids plus fort, parce qu'un titre est censé résumer le contenu qui le suit. Le problème est que les logiciels WYSIWYG, souvent utilisés, ne vont pas insérer ces balises automatiquement. Dreamweaver ne sait pas qu'un titre est un titre... C'est donc à vous de baliser correctement votre contenu.

Comment identifier les éventuels problèmes de balisage ? Naviguez sur le site, toujours avec l'extension Webdeveloper, en ayant activé l'option "display element information", et assurez-vous que les élements sont bien balisés conformément à leur signification au sein du contenu.

Balise Title

Intéressons nous maintenant à ce qui fait réellement le contenu : le premier élément de contenu de votre site est la balise <title>. Cette balise, qui est obligatoire, est importante pour votre référencement, puisque elle est décrit normalement ce dont parle votre page. Les moteurs lui accordent donc une grande importance. Il ne faut pas oublier non plus que la balise <title> est le premier contact qu'a l'internaute avec votre site, puisque c'est son intitulé qui est généralement repris comme lien dans les pages de résultats des moteurs de recherche. C'est donc un élement qu'il faut rédiger avec soin.

Comment identifier les éventuels problèmes de <title> ? Dressez une carte du site avec le logiciel Xenu, et assurez-vous que chaque page possède un <title> pertinent par rapport à son contenu. "Pertinent" signifie ici que chaque page du site possède un title explicite, engageant et riche en mots-clés (sans pour autant devenir une liste). Cette balise devrait comporter idéalement entre 50 et 80 caractères.

Teneur du contenu

Les moteurs de recherche sont avant tout des machines à indexer du texte. Si vous souhaitez être visible sur certaines expressions, vous devez absolument employer ces expressions dans votre contenu (des exceptions existent, mais elles sont marginales). Si vous n'avez pas de contenu texte, ou si celui-ci est insuffisant, vous ne serez pas visible. Et si vous avez du contenu, mais que celui-ci n'est pas en adequation avec les mots-clés tapés par les utilisateurs, vous ne serez pas visible non plus.

Comme identifier si votre contenu bloque votre référencement ?

  • Assurez-vous que vous avez déjà du contenu
  • Assurez-vous que vous parlez le langage de vos utilisateurs. Soyez directs, explicites, favoriser un langage simple et naturel, évitez les jargons.
  • Assurez-vous d'avoir le plus possible de pages mono-thématiques, c'est à dire des pages consacrée à un nombre limité d'expressions-clés gravitant autour d'un thème donné.
  • Vérifiez que vos expressions-clés soient présentes dans vos pages, en particulier dans les zones "chaudes" des pages : la balise <title>, les titres et sous-titres, les paragraphes (le corps du texte), les menus et liens. Ces zones chaudes constituent le contenu primaire, qui doit être optimisé en priorité. A coté de ce contenu primaire, vous pouvez optimiser le contenu secondaire de la page : les balises meta description et meta keywords, les attributs alt, les noms de fichiers et de répertoires.

Popularité

La popularité est un concept imaginé par les moteurs pour départager des pages avec un contenu plus ou moins équivalent au niveau de la pertinence. Concrètement, il s'agit de mesurer la quantité, mais aussi la qualité des liens qui pointent vers une page. L'algorithme PageRank est le plus connu, mais chaque moteur possède en fait son propre indice de mesure de la popularité.

Comment déceler un manque de popularité ? On peut se faire une 1ère idée avec le PageRank affiché par la Googlebar et les operateurs de Google (exemple pour ce site). Pour des résultats plus détaillés, on peut également utiliser les services Google Webmaster Tools et Yahoo Site Explorer.

Si votre site affiche très peu de résultats, ou si votre popularité est nettement inférieure à celle de vos concurrents, alors vous manquez probablement de liens entrants. On peut considérer qu'un site avec un PR<3 (sur sa page d'accueil) est peu populaire, et qu'un site avec un PR de 4 ou 5 est moyennement populaire. Au dela, de 6 à 10, le site commence à vraiment être populaire. Attention cependant : l'échelle du PR étant logarithmique, un site PR4 n'est pas deux fois plus populaire qu'un site PR2.

Comment augmenter sa popularité ? L'idée générale est d'augmenter le nombre de liens (pertinents) pointant vers son site : soumettez donc votre site aux annuaires généralistes, aux annuaires spécialisés, aux sites thématiques, échangez des liens avec des sites proches, mettez votre site en signature sur les forums, mettez votre URL sur vos communiqués de presse, syndiquez votre contenu... Tout lien est bon à prendre tant qu'il fait sens pour l'utilisateur.

Distribuer sa popularité

On parle souvent de la "popularité d'un site", c'est en fait un abus de langage : la popularité est toujours relative à une page, et non à un site. Quand on dit qu'un site est populaire, on parle en fait de la popularité de sa page d'accueil, page qui est en général la plus populaire du site car la plus liée.

Mais cette page d'accueil est par définition une page généraliste : sa popularité ne lui sert donc pas à grand chose. Par contre des pages plus ciblées auront tout à gagner à devenir populaires. Il est donc important pour une visibilité maximale de redistribuer le PageRank pour faire en sorte que toutes les pages du site soient populaires.

Comment détecter et corriger une mauvaise répartition de la popularité ?

  • Assurez-vous que le PR ne décroit pas trop rapidement au fur et à mesure qu'on s'enfonce dans le site.
  • Redistribuez la popularité en mettant en place un réseau dense de liens à l'intérieur du site. L'idée est de réduire le nombre de clics pour accéder aux pages profondes, et de favoriser la remontée vers l'accueil à partir des pages profondes. Plusieurs méthodes sont possibles : chemins de fers, liens dans le contenu, multiplication des liens dans les menus.
  • Essayez d'établir des liens profonds venant de l'extérieur : c'est à dire des liens pointant non pas vers votre domaine ou votre page d'accueil, mais vers les pages profondes de votre site : pages d'accueil de second niveau, pages produits...

20/02/2007

La longue traîne en pratique

Si l'on entend régulièrement parler du concept de longue traîne, qu'il s'agisse de vendre des produits sur le web ou d'améliorer sa visibilité dans les moteurs de recherche, les illustrations concrètes de celle-ci restent encore rares.

Je me suis donc interessé à la répartition des mots-clés tapés pour accéder à l'un de mes sites, un annuaire de taille moyenne consacré à la création numérique. A la différence d'un blog, la structure et le contenu d'un annuaire évoluent assez peu, ce qui en fait un site au comportement plus proche de celui d'un site institutionnel ou marchand, et donc plus représentatif.

Voyons maintenant cette répartition (image GIF) : le bargraphe en rouge représente le nombre de visites par mots-clés, tandis que la courbe en bleu représente la part de trafic en pourcents pour les x mots-clés les plus populaires.

On observe bien un phénomène de longue traîne, à savoir un pic de visites pour les requêtes les plus populaires, suivi très rapidement d'une longue suite de mots clés peu populaires, mais dont le trafic cumulé est supérieur au premier groupe. Ainsi, les 5 premiers mots-clés ne représentent que 16% du trafic, les 20 premiers 25%, les 100 premiers 40%, les 250 premiers 50%, les 1000 premiers 65%, les 5000 premiers 81% et les 10000 premiers 87% sur un total de 21568 mots-clés analysés.

Il ne faut donc pas être obnubilé par une poignée de mots-clés : s'ils peuvent constituer un échantillon permettant d'apprécier en partie la visibilité d'un site, il faut toujours garder à l'esprit que la majorité du trafic se fera de toute façon sur des termes moins populaires. Il est donc plus intéressant de produire du contenu de façon à être visible sur une grande variété de mots-clés, que de chercher à optimiser uniquement pour un nombre restreint d'expressions-clés, même si elles sont individuellement les plus populaires. Ce qui n'empêche pas d'optimiser son site également pour ces expressions stratégiques...

3/01/2007

Version 3.0 beta pour Goshme

Goshme, que j'avais présenté en octobre 2005, est un moteur de recherche un peu particulier, puisque au lieu d'indexer directement les contenus, ils interroge des bases de données préalablement sélectionnées, permettant ainsi d'accéder au web invisible (sur ce sujet, consulter le livre blanc Goshme, au format PDF).

Goshme se positionne donc d'avantage comme un assistant de recherche qu'un moteur stricto sensu. Actuellement, Goshme est capable d'interroger environ 2590 bases de données, avec des temps de réponses plus courts qu'avant (deux à trois secondes, contre quinze auparavant, et ce délai devrait descendre à terme en dessous de la seconde).

L'interface de cette beta 3.0 a été grandement simplifiée et épurée. Alors qu'il fallait auparavant sélectionner les catégories de sites à interroger, la page d'accueil comprend désormais une simple boite d'interrogation, l'affinage de la recherche se faisant directement dans les pages de résultats grâce à une arborescence sur la gauche (il est cependant toujours possible de sélectionner dès le départ les catégories à interroger via la recherche avancée). Le menu en haut des pages de résultats permet quant à lui de spécifier le type de média recherché : tous types, images, contenus audio, vidéo, actualités etc.

Une prévisualisation des pages de résultats des différentes bases interrogées dans des iframes est offerte. J'aurais cependant apprécié une indication du nombre de résultats pour chaque base interrogée. Espérons que cette fonctionnalité soit implémentée par la suite.

La version précédente de Goshme comprenait trois onglets : moteurs spécialisés, annuaires, et moteur généralistes. Cette distinction a disparu, Goshme affichant d'abord les résultats des moteurs spécialisés, puis ceux des outils généralistes.

Si elles sont moins visibles, des améliorations ont également été menée coté back-office : la maintenance et la catégorisation des bases de données sont désormais automatisées, ce qui permet de gérer plus facilement un très grand nombre de base de données, leur configuration changeant régulièrement. Ce processus était auparavant assuré manuellement.

D'autres améliorations sont enfin prévues, en particulier une attention plus grande portée aux bases de données du web profond, et l'indexation de bases non anglophones, notamment portugaises, françaises et espagnoles.

12/12/2006

Un annuaire pour les professionnels blogueurs

Professionnels blogueurs en quête de visibilité, Blogs Pro vous propose "de découvrir les entreprises à travers leurs blogueurs" à travers son annuaire spécialisé.

Une bonne initiative, car elle bénéficie à tous : le blogueur y gagne en visibilité et en notoriété, de même que l'entreprise qui profite d'un contact plus vrai et plus informel. Et le visiteur y trouve facilement des sites de qualité.

SEO Spyglass, un outil pour analyser les liens entrants

Les liens entrants jouent un rôle important dans le positionnement d'un site, puisque les moteurs de recherche prenent en compte dans leurs algorithmes la quantité, la qualité et les intitulés de ces liens.

Disponible pour de multiples plateformes (Windows, Mac OS X, Linux) grâce à Java, SEO Spyglass permet une analyse poussée des liens pointant vers un site.

Le logiciel identifie non seulement les liens entrants dans les 3 grand moteurs (Google, Yahoo, MSN), mais fournit également les intitulés de ces liens, le nombre total de liens sur la page, le PageRank de la page et du domaine affichant le lien, l'adresse IP du domaine, sa présence dans les annuaires DMOZ et Yahoo, et l'âge du nom de domaine !

Afin de mieux interpréter les données obtenues, le logiciel permet de distinguer dans un second temps les liens issus des blogs et forums, ceux des annuaires, et ceux en page d'accueil. Un bouton "Analyze" offre quant à lui une synthèse des données obtenues, qui permet notamment d'étudier la répartition des liens en fonction du PR, ainsi que les intitulés de liens les plus fréquemment utilisés.

SEO Spyglass est gratuit, et ne nécessite que de fournir une adresse email pour le télécharger (qui vous vaudra sûrement un peu de pub, mais on n'a rien sans rien).

2/11/2006

Google Custom Search a son blog

Le service de moteur de recherche personnalisé Google CSE possède désormais son blog officiel.

Pendant ce temps-là de nouveaux CSE apparaissent : Igor lance un CSE sur les standards du web, Jean Pierre lance un CSE indexant les sites référencés par Webonorme, tandis que SEOplug se spécialise dans l'indexation des sites liés au référencement. Un annuaire spécialisé, Guide to Custom Search Engines, fait également son apparition.

27/09/2006

Matt Cutts : L'achat de liens est du spam

Dans une interview accordée à John Battelle, Matt Cutts revient sur la vente par le W3C de liens sur son site : "J'ai déjà eu l'occasion de m'exprimer à ce sujet plusieurs fois, mais je suis heureux de clarifier à nouveau : Google considère que la vente et l'achat de liens qui ont une influence sur les moteurs de recherche sont une violation de ses directives de qualité".

On sait donc désormais que Yahoo ainsi que tous les annuaires faisant payer l'inclusion sont des délinquants au yeux de Google, à moins de doter leurs liens d'un attribut "nofollow"... On peut également s'interroger sur la valeur des liens achetés : si un lien acheté pour le seul PageRank est à priori peu pertinent, le simple fait de payer pour un lien ne veut pas dire que ce lien n'ait pas de valeur pour les moteurs. C'est le cas par exemple de nombreux annuaires professionnels.

25/07/2006

Optimiser sa soumission aux annuaires

La soumission aux annuaires représente un élément incontournable d'une campagne de référencement réussie : les liens générés participent non seulement à votre popularité auprès des moteurs, mais génèrent également du trafic direct, souvent de bonne qualité.

En tant que référenceur, je suis bien placé pour savoir que ce processus prends du temps. En tant qu'éditeur de quelques petits annuaires (, et ), je suis aussi bien placé pour savoir que les soumissions sont souvent baclées, quand elles ne sont pas carrément hors-sujet : plus des 3/4 des soumissions que je reçois partent ainsi à la poubelle. Aussi voici quelques conseils pour des soumissions efficaces :

Soignez votre site : quel intérêt pour un éditeur d'annuaire un tant soit peu sérieux de référencer des sites non-finis, qui ne fonctionnent pas, ou affichent cinq popups ? Un annuaire digne de ce nom n'est pas une ferme de liens, mais une collection de ressources. Aussi posez vous la question de savoir si votre site apporte une valeur ajoutée pour les utilisateurs de l'annuaire.

Ciblez vos soumissions : inutile de soumettre le site de votre riad à Marrakech à un annuaire se spécialisant dans les sites de la région Nord-Pas de Calais, vous perdez votre temps et en faites perdre aux éditeurs de l'annuaire. De même, faites gagner du temps aux éditeurs en faisant l'effort de soumettre votre site dans la catégorie la plus pertinente de l'annuaire, et non à sa racine. Ayez toujours en tête que plus vous facilitez le travail des éditeurs, plus votre site aura des chances d'être accepté.

Soignez vos titres et descriptions : rien n'est plus pénible pour un éditeur que d'avoir à réécrire un titre ou une description. Evitez les mots-clés dans le titre, qui ne devrait reprendre que le nom du site. Rédigez une vraie phrase de présentation du site avec sujet, verbe et complément, non une suite de mots-clés. Evitez les superlatifs ("le meilleur site") et les incitations à visiter le site. Décrivez simplement votre site, son contenu, sa spécificité, ses fonctionnalités. Veillez à utiliser une orthographe et un français corrects. Et relisez-vous avant de valider votre soumission : il serait dommage de fournir une URL erronée...

2/06/2006

Un moteur de recherche RSS pour Ask

Ask, déjà propriétaire de Bloglines, vient de sortir un moteur spécialisé dans la recherche au sein des blogs et flux RSS. En fait de moteur, c'est plutôt 3 moteurs en 1, puisque trois modes de recherche sont proposés : recherche dans les contenu des billets, recherche de flux, et recherche dans les actualités.

Parmi les point positifs, on peut saluer la qualité de l'interface : comme tous les services Ask (recherche web, cartographie...) celle-ci est très claire et fonctionnelle. Les jumelles affichent ainsi les derniers entrées du flux RSS, permettant de se faire une idée du contenu du site source, et un menu déroulant permet de restreindre la recherche dans le temps, de 1 heure à 1 mois. L'outil affiche également sur sa droite des flux populaires pertinents par rapport à la requête de l'utilisateur.

Un autre bon point de l'outil est son ouverture vers des service tiers : Il est ainsi possible de souscrire directement à un flux via Bloglines, Google Reader, Newsgator, Netvibes, ou Feedshow et de soumettre une entrée à des services de bookmarking comme Mesfavs, Linkedfeed ou Blogmarks. Le moteur permet également de s'abonner directement aux résultats de la recherche via ces services.

Tout n'est pas cependant parfait, et le service souffre parfois d'un manque de pertinence. Un des problèmes rencontré est notamment l'indexation de flux RSS qui ne devraient pas l'être (AMHA) comme ceux proposé par certains forums et Digg-likes, par Wikipedia, ou par des annuaire de fils RSS (Lamooche par exemple). Espérons qu'un effort soit fait sur ce point. Ces problèmes une fois réglés, je suis persuadé que le service a un très bon potentiel.

23/05/2006

Un attribut pour s'affranchir des descriptions DMOZ

DMOZ est le plus grand annuaire mondial. Malheureusement, cet annuaire maintenu par des bénévoles souffre d'une inertie considérable, et les webmasters doivent parfois patienter des mois, voire des années, avant que leur site soit indexé ou que sa description soit modifiée. Il arrive donc que les moteurs utilisant DMOZ affichent des données inexactes ou obsolètes.

Conscient de ce problème, MSN Search propose désormais un moyen de forcer ses pages de résultats à ne plus afficher la description de l'annuaire DMOZ, sous la forme d'une simple balise meta (ou plus exactement d'un attribut "noodp" à destination des robots d'indexation) :

<meta name="robots" content="noodp">

Cette balise, insérée dans le <head> des pages, forcera ainsi le moteur à afficher des extraits de celles-ci au lieu de la description de l'annuaire.

Il serait bon que l'ensemble des moteurs reconnaissent cet attribut, comme cela c'était déjà passé pour l'attribut "nofollow"...

2/05/2006

Quelques liens sur le "bien écrire"

En complément à mon précédent billet, j'ai ajouté une rubrique "qualité d'écriture et typographie" à mon annuaire. J'en ai également profité pour mettre à jour la rubrique "Accessibilité et ergonomie". Bonne lecture !

24/04/2006

Net Recherche : un guide pour mieux chercher sur le web

"Un guide pratique pour mieux trouver l'information utile" : Après lecture, je peux vous dire que le livre co-écrit par Véronique Mesguich et Armelle Thomas tient sa promesse.

Le guide aborde dans un premier temps les bases de la recherche pour ensuite passer en revue les différents mode de recherche d'information : moteurs généralistes et spécialisés, meta-moteurs, annuaires, bases de données documentaires, RSS et recherche "sociale", logiciels de veille... L'information donnée y est avant tout pratique : les différentes syntaxes d'interrogation sont exposées et illustrées par des exemples, et de nombreux liens vers les outils de recherche et ressources sont fournis.

Plusieurs publics peuvent je pense bénéficier d'un tel ouvrage :

L'étudiant, peu importe sa spécialité, y trouvera de quoi mener et approfondir ses recherches. Le dirigeant, le cadre, ou l'assistante de direction y trouveront des pistes pour rechercher l'information et mener une veille active. Les journalistes y trouveront des outils efficaces. Les professionnels de l'information y trouveront bien sûr un ensemble de ressources utiles à leur pratique professionnelle.

La fiche du livre sur le site de l'éditeur

Commander le livre sur Amazon

22/03/2006

Google teste une nouvelle interface

Google est en train de tester de nouvelles interfaces utilisateurs, comme le montre cette capture d'écran. Les liens sur la gauche permettent d'accéder directement aux résultats de recherche du mot-clé sur différents services : recherche web, images, Google Groups, annuaire (Dmoz) et Google News. Les barres vertes sont fonctions du nombre de résultats.

Seuls certains utilisateurs cobayes semblent y avoir droit. Personnellement c'est sur Google.be que j'ai accès à cette interface.

13/10/2005

Goshme, un assistant de recherche étonnant !

"Goshme", qu'on pourrait traduire en français par "étonne-moi" est effectivement impressionnant (Merci Armelle).

Goshme ressemble à première vue à un moteur de recherche, ou à un métamoteur. Mais en fait il est bien plus que cela : Goshme est un point d'entrée vers plus de 1000 moteurs, annuaires, et bases de données selectionnés pour leur qualité. On dispose alors d'un accès simple au fameux "web invisible", tout ce contenu très pertinent accessible en ligne, mais inindexable par les moteurs de recherche conventionnels.

Goshme ne propose pas de liens direct vers les pages de contenu, mais fournit les liens vers les pages de résultats des bases de données, en fonction des mots-clés tapés et des catégories selectionnées.

Bref, un outil indispensable pour le chercheur serieux.

6/06/2005

Nouveaux formats pour Adsense ?

Il semble que Google soit en train de tester de nouveaux formats pour son programme de liens contextuels Adsense : J'ai eu la surprise de découvrir sur un de mes annuaires que le bandeau standard 728*90 permettait de préciser le thême des publicités affichées, et même d'y taper les mots-clés de son choix ! (L'affichage de ces annonces test est toutefois aléatoire).

copie d'ecran test Adsense

Je précise que je n'ai pas été contacté par Google pour participer à un quelconque programme de test. La fonctionnalité mériterait d'ailleurs d'être peaufinée, car le texte "afficher des annonces sur :" est coupé.

Edit : La FAQ Adsense explique ce phénomène.

9/02/2005

Update Allegra : Google a des ratés

Il semblerait que suite à un ajustement de son algorithme (Update Allegra), Google connaisse de gros problemes de pertinence depuis quelques jours : De très nombreux webmasters se plaignent de ne plus être visibles, même sur le nom de leur site ! Des sites pertinents, riches en contenus et longtemps bien positionnés se retrouvent dans les profondeurs des classements.

lire la suite

21/01/2005

Le référencement des blogs

Ce n'est pas tout d'avoir un blog, encore faut-il le faire connaître. C'est là que se pose la problèmatique de son référencement...

lire la suite

19/01/2005

Popularité et référencement

De nombreux webmasters persistent à croire que les meta tags sont essentiels à un bon référencement. Si cela a pu être vrai il y a quelques (lointaines) années, cette époque est révolue aujourd'hui. Les moteurs ont affiné leurs algorithmes et de nouveaux critères sont désormais pris en compte pour positionner les sites. L'un des plus importants, pourtant trop souvent encore négligé, est la notion de popularité.

lire la suite

13/01/2005

Du RSS pour MSN Beta

La société annonce en effet sur son blog qu'il est possible d'obtenir les résultats de recherche sous la forme d'un flux RSS. Il suffit simplement d'ajouter "&format=rss" à l'URL de la page de résultats.

Cette fonctionnalité est encore en version alpha. Si elle est perennisée, on peut déja imaginer les abus de webmasters peu scrupuleux qui se constitueront ainsi de pseudo-annuaires pour afficher des liens contextuels... MSN semble toutefois avoir envisagé cette possibilité : "please don't recreate our search engine with them".

On ne peut que saluer cette prise en compte du RSS. Appliqué à MSN News, cette solution remplaceraient avantageusement les Google Alerts.