Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à mon nouveau blog SEO

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

1/10/2013

Prédiction involontaire

Le 1er avril 2006, j'annonçais (pour rire) que des chercheurs étudiaient la possibilité d'utiliser l'algorithme PageRank à des fins médicales, "les réseaux que forment les neurones ou les systèmes vasculaires ayant une structure très proche de celle des réseaux de liens que l'on observe sur le web".

Par hasard, je suis tombé aujourd'hui sur cet article, où des chercheurs expliquent utiliser le PageRank pour analyser des réseaux moleculaires, à des fins médicales.

Mince, serais-je un visionnaire, un Nostradamus du SEO ?! :)

8/03/2013

3 extensions pour supprimer le tracking Google et se venger du not provided

La majorité de mes lecteurs n'est probablement pas sans savoir que chaque clic dans les pages de résultats Google est traqué. Ainsi lors d'une recherche sur "sébastien billard" dans Google, le lien vers ce blog n'est pas directement celui-ci :

"http://s.billard.free.fr/referencement/"

Mais celui-là :

"http://www.google.com/url?sa=t&rct=j&q=s%C3%A9bastien%20billard&source=web&cd=1&cad=rja&ved=0CC4QFjAA&url=http%3A%2F%2Fs.billard.free.fr%2Freferencement%2F&ei=m8g5UY2nNcPeswa01YGACA&usg=AFQjCNF8UhrGhRJHpFrkif4gTLUidnv3YQ&bvm=bv.43287494,d.ZGU"

Ce tracking est pénible à plus d'un titre : il rend impossible le copier-coller de l'adresse d'un lien via un clic droit, ralentit régulièrement le chargement des pages du fait du temps nécessaire à la redirection, et fournit toujours plus d'informations à un Google qui n'a de cesse de nous déposseder nous, référenceurs, e-marketeurs et webmasters d'informations utiles à nos activités.

Aussi, si vous souhaitez vous affranchir du tracking présent dans les SERPs, accélerer un peu votre navigation et vous venger de Google, je vous propose ces 3 extensions pour vos navigateurs favoris (merci Lionel) :

6/03/2013

Le point sur Google et les modifications de balises <title>

Toute personne avec une connaissance même basique du SEO sait que le contenu de la balise <title> est un élément stratégique en matière de référencement et d'usage du web. En effet, le contenu de cette balise est particulièrement valorisé par les moteurs de recherche. C'est également le contenu de cette balise qui est utilisé par défaut en tant que titre pour les favoris / marque-pages. Enfin, le contenu de la balise est habituellement utilisé dans les pages de résultats de recherche des moteurs (SERPs) en tant que lien vers les sites sélectionnés.

Cela n'est cependant pas toujours vrai, du moins chez Google. Le moteur quand il décide que le contenu de la balise <title> n'est pas idéal pour l'utilisateur peut prendre l'initiative d'altérer ou de remplacer celui-ci. Petit tour d'horizon de modifications déjà rencontrées :

  • Remplacement par le libellé de liens entrants (exemple avec le site La Fraise)
  • Modification par l'ajout du libellé de liens entrants au début du <title> (exemples sur 3 Suisses)
  • Modification par la suppression d'éléments du <title> jugés génériques ou non pertinents
  • Modification par l'ajout du nom du site en fin de <title>
  • Modification par déplacement de la marque au début du <title> suivie d'un ":" (exemple évoqué ce jour par Abondance)

Ces modifications sont-elles un problème ? Par forcément. Mais dans bien des cas cela peut être le signe de balises <title> mal optimisées, car obscures ou trop riches en mots-clés. Un examen est donc indiqué :)

7/12/2012

Le nouveau visage du SEO. Vraiment ?

En menant ma veille quotidienne, je suis tombée sur la nouvelle infographie à la mode, intitulée "The new face of SEO", éditée par l'agence Fuzzone. A en croire cette infographie, le SEO aurait profondément changé suite aux pandas, manchots et autres gremlins Google. Bigre ! Cela mérite d'y porter attention, il ne faudrait quand même pas devenir un SEO has-been... Que nous conseille donc cette infographie ?

"Ciblez un large choix de mots-clés" : Ok, un peu comme ce que je conseillais en février 2007 alors ?

"Faites de l'expérience utilisateur votre priorité" : Comme ce référenceur 2.0 dont il était question en février 2006 ?

"Produisez des contenus engageants pour vos utilisateurs" : je ne peux qu'être d'accord, je l'avais dit en juillet 2005 même. Je parlais même de "text appeal" en novembre 2006.

"La densité de mots-clés n'est pas si importante" : C'est bien vrai ça ! On en parlait en septembre 2005 d'ailleurs.

"Ayez des <title> vendeurs" : Je plussoie. Depuis au moins avril 2007 (et en réalité depuis le début).

"Créez des contenus créatifs et partageables" : Ca me dit quelque chose... ah oui vous parlez du linkbait, que Matt Cutts évoquait déjà en janvier 2006 ?

"Diversifiez vos liens" : En somme il suffirait d'être naturel, quand bien même ce naturel est un peu forcé ? Nous sommes d'accord. J'essaie d'appliquer ce principe depuis 2001.

"Travaillez votre branding" : Un peu comme ce que promeut le Clutrain Manifesto, depuis avril 1999 ?

"Optez pour des soumission manuelles" : Nous sommes là encore sur la même longueur d'onde c'est formidable ! Moi j'en parlais en janvier 2005 avant que les updates soient affublés de noms d'animaux...

Il n'y a pas à dire, le SEO a radicalement changé : avant pour se faire mousser on écrivait des articles bidons. Maintenant on les met en image...

11/10/2012

Identifier les sous-domaines d'un site avec Google

Il est des cas où l'on est dans l'impossibilité d'avoir accès à la liste exhaustive des sous-domaines d'un site. Pourtant les connaitre est très utile, notamment pour s'assurer que le site ne propose pas de contenus dupliqué ou obsolètes. Hélas il n'existe pas de commande toute faite du coté des moteurs, et à ma connaissance aucun service en ligne ne propose de solution miracle. Aussi je vous propose la méthode empirique suivante, basée sur la commande "site:" de Google que l'on va combiner à divers opérateurs pour affiner progressivement les résultats. cette méthode est à personnaliser selon les cas : l'idée est de supprimer le maximum de résultats non souhaités. Attention, un sous-domaine inconnu de Google ne pourra pas être trouvé via cette méthode.

Le point de départ est de lister toutes les pages connues du domaine à l'exception du sous-domaine "www" qui est le sous-domaine par défaut de la majorité des sites. La commande est donc :

"site:exemple.fr -site:www.exemple.fr"

Le problème est que nous recherchons surtout les racines des sous-domaines et non pas toutes les URLs que Google connait. Nous allons donc filtrer les extensions de fichiers les plus communes :

"site:exemple.fr -site:www.exemple.fr -filetype:html -filetype:htm -filetype:php -filetype:asp -filetype:pdf -filetype:swf"

Un autre problème qui peut se poser est que certains sous-domaines peuvent retourner un grand nombre de résultats non-filtrables via les extensions de fichier. Dans ce cas il convient de les filtrer manuellement grâce à la commande "-site:" ce qui évitera de paginer à tout va :

"site:exemple.fr -site:www.exemple.fr -filetype:html -filetype:htm -filetype:php -filetype:asp -filetype:pdf -site:blog.exemple.fr"

Ah si seulement on pouvait requêter les moteurs à l'aide d'expressions régulières...

15/06/2012

Navigations à facettes : opportunités et dangers pour le SEO

La navigation à facettes est désormais une fonctionnalité courante sur les sites e-commerce. Celle-ci consiste à proposer une navigation additionnelle non pas arborescente, mais basée sur la sélection de filtres (appelés facettes), cette sélection pouvant être multiple. L'utilisateur n'a donc plus à identifier la bonne catégorie pour trouver un produit donné : il lui suffit juste de préciser les propriétés de ce qu'il recherche. Par exemple, dans une catégorie "robes" une navigation à facettes permettra de rechercher directement les robes de la marque Morgan de couleur noire. Sans ce type de navigation, il faudrait soit regarder l'intégralité des robes du commerçant, soit l'intégralité des robes Morgan, toutes couleurs confondues, dans le cas où les marques constituent des sous-catégories. L'avantage est donc indéniable en termes d'ergonomie. Qu'en est-il maintenant en ce qui concerne le SEO ?

Opportunités

Les facettes peuvent être bénéfiques au référencement d'un site, en ce qu'elle proposent de nouvelles pages d’atterrissage. Il faut cependant s'assurer que ces pages soient indexables par les moteurs, ce qui exclue les navigations à facettes à base d'AJAX ou de javascript non-accessible. On veillera également à exploiter les valeurs des facettes dans l'optimisation des pages, particulièrement dans le balise <title> et le titre principal (<h1>). Typiquement on composera le <title> des pages en faisant suivre le libellé de la catégorie (ex : "robes") des valeurs des facettes (ex : "Morgan" et "noir"'). Ce qui donnera ici "Robes Morgan noir".

Dangers

Reste que les navigations à facette ne sont pas sans danger pour votre SEO. D'abord, si les facettes créent de nouvelles pages, elles ne créent pas de contenu : les facettes ne sont jamais que des réarrangements du contenu existant d'où un risque de near duplicate, les moteurs voyant encore et toujours les mêmes fragments de contenu.

En plus du near duplicate, les navigations à facette peuvent être la source de duplication de contenu pure et simple. Par exemple, toujours dans la catégorie "robes", si je sélectionne la facette "noir" puis la facette "Morgan" j'obtiendrai logiquement la même sélection de produits que si je sélectionne "Morgan" puis "noir". Mais les deux URLs pourront être différentes, d'où une duplication de contenu. Il faudra donc veiller à ce que le système génère des URL uniques, en forçant un ordre des facettes. Notez que le balise canonical n'est pas une bonne solution à ce problème, car elle ne résout pas le double crawl, seulement la double indexation.

Enfin, le grand danger des navigations à facette est de proposer un trop grand nombre d'URLs indexables, qui va littéralement épuiser votre budget crawl (le temps alloué par les moteurs à indexer votre site). Du fait des combinaisons possibles entre facettes, il se peut que le nombre de facettes à indexer soit gigantesque comparé aux nombre de produits proposé. Les moteurs perdront donc leur temps à indexer des facettes sans grande valeur au lieu d'indexer des pages plus utiles, et votre PageRank se diluera à vitesse grand V. Une solution à ce problème est de limiter le nombre de facettes et de valeurs de facettes possibles. Je conseille également de restreindre l'indexation aux seules facettes utiles à votre SEO : Les facettes marque et couleur sont très utiles car recherchées dans Google, mais c'est moins vrai des tailles ou des taux de décote. Un cryptage sélectif des facettes est dans ce cas tout indiqué. Il peut également être opportun d'interdire l'indexation des pages avec sélection multiple d'une même facette, car elles ne correspondent pas aux typologies de recherches : personne ne recherche des baskets "Nike Adidas" :)

5/04/2012

Bing une autre source de mots-clés pour votre SEO

Proposé en version bêta depuis fin février dans ses outils pour webmasters, l'outil de suggestion de mots-clé de Bing semble avoir très peu retenu l'attention des SEO et autres e-marketeurs. La francisation pitoyable de son interface, et son fonctionnement parfois obscur y sont probablement pour quelque chose. Néanmoins, cet outil a le mérite d'être la seule alternative à Google, et a l'avantage d'être bien moins censuré que son concurrent (ce qui est très utile pour certaines thématiques).

Quelques petites choses à savoir, étant que donné que Bing n'est pas fichu de fournir une aide correcte :

  • Les résultats peuvent contenir des termes associés (l'association étant parfois très lontaine).
  • Les recherches accentuée et non accentuées se ressemblent beaucoup mais ne sont pas identiques.
  • Il n'est pas possible d'utiliser des expressions exactes, ni des mots-clés négatifs.
  • L'option "strict" ne joue en fait que sur le décompte des impressions, pas sur les expressions elles-mêmes.
  • Le nombre d'impressions par défaut porte sur les 2 derniers mois.
  • L'historique des données est de 6 mois.

26/01/2012

Quelles méthode pour des SERPs Google le plus neutres possible ?

Avec une tendance de plus en plus marquée à la personnalisation des résultats, il devient important de pouvoir se raccrocher à des résultats de référence à peu près neutres quand on souhaite mesurer la visibilité d'un site ou l'impact d'une optimisation. Si j'emploie le terme "à peu près" c'est qu'il n'existe en réalité pas de pages 100% neutres : le contenu des pages de résultats est toujours personnalisé, ne serait-ce que du fait de la géolocalisation de l'adresse IP.

Quelle approche employer donc pour des résultats les moins personnalisés possible ? Peter J. Meyers sur le blog SEOmoz s'est intéressé à la question en mesurant la différence entre les pages de résultats par défaut (incluant Google+) et les pages de résulats obtenues selon 4 configurations :

  • Avec les résultats désocialisés via le bouton "no personal results"
  • En étant déloggé
  • En utilisant la navigation privée offerte par Chrome
  • En utilisant un Firefox portable sécurisé et anonymisé (Ironkey)

Si on fait abstraction des résultats Ironkey qui ont servi de référence, il apparait que les résultats les moins personnalisés sont ceux obtenus en étant déloggé. Toutefois les différences observées restent finalement faibles entre les différentes méthodes testée. Le plus simple à mon sens reste donc de surfer deloggé. Les puristes quant à eux utiliseront un navigateur dédié en supprimant les cookies à chaque contrôle.

20/01/2012

Publicité et SEO : à trop charger la barque...

Trop de pub au dessus de la ligne de flottaison pourra désormais faire couler votre positionnement, ou du moins l'affecter négativement. Google explique ce choix par le fait que l'insertion de publicités en haut de page réduit la visibilité du contenu utile, nuisant ainsi à l'expérience utilisateur. Ce changement affecterait moins de 1% des recherches selon Google, et seules les implémentations manifestement excessives seraient sanctionnées.

Ce changement est bienvenu en ce qui concerne la qualité des résultats. Toutefois on peut s'interroger sur le fait que Google ne tate pas de sa propre médecine, en affichant des pages de résultats où les résultats publicitaires occupent fréquemment jusque à deux tiers de la surface utile...

2/01/2012

SEO : tout ne va pas si mal :)

Suppression des mots-clés dans les referers, développement des résultats Onebox, extension des liens sponsorisés, update divers... régulièrement de nouvelles menaces semblent planer sur le SEO. Toutefois, le SEO ne se porterait pas si mal à en croire Ian Howells (PDF).

Se basant sur les données Google Webmaster Tools de gros clients e-commerce, l'auteur affirme que le taux de clic des résultats naturels serait de 52.5% contre 13% pour les résultats sponsorisés. Les 35% restants étant constitués de clics indéterminés, de clics Google Maps, Youtube ou Google Shopping (il est à noter que seul le trafic hors-marque a été pris en compte pour cette étude).

Comparativement aux données AOL de 2006, l'auteur observe que le taux de clic des résultats naturels était de 49% en 2006. Le CTR des résultats naturels n'aurait donc pas baissé, et aurait même légèrement augmenté. Il apparait également que la première position, si chère aux yeux des référenceurs, aurait légèrement perdu de son importance au profit des positions 2 à 5. Selon l'auteur, la cause en serait l'insertion de plus en plus fréquente de résultats issus des moteurs verticaux. Il est vrai que l'avènement de la recherche universelle a quelque peu modifié la distribution de l'attention au sein des pages de résultats.

En résumé, poursuivez vos efforts en SEO et PPC, tout en ne négligeant pas la recherche universelle et les moteurs verticaux. L'important est d'occuper le terrain :)

19/10/2011

Résultats Google en HTTPS : 2012 avec un an d'avance ?

La dernière annonce faite par Google n'a pas fini de faire grincer des dents : le moteur a en effet décidé d'adopter le protocole SSL comme protocole par défaut pour ses utilisateurs identifiés. Désormais, les requêtes et pages de résultats pour ces utilisateurs seront donc cryptées, et le referrer sera amputé de la requête (sauf en ce qui concerne les clics sur les annonces). Concrètement, cela signifie que les webmasters et référenceurs n'auront plus accès aux mots-clés tapés par les utilisateurs, ceux-ci étant contenus dans le paramètre "q=" du referrer...

Cette nouvelle est bien évidemment désastreuse. S'il est louable de proposer aux utilisateurs qui le souhaitent un service de recherche sécurisé comme https://encrypted.google.com/ la généralisation du SSL va priver les éditeurs de sites d'un feedback utilisateurs très utile, sans pour autant améliorer la sécurité de l'utilisateur lambda. Laquelle n'est AMHA pas spécialement menacée, le referrer seul ne permettant pas d'identifier une personne.

Certes pour l'instant, l'annonce ne concerne que google.com et probablement une faible proportion d'utilisateurs ("un pourcentage à un chiffre" d'après Matt Cutts qui s'est confié à Danny Sullivan). Mais qui dit que le SSL ne sera pas étendu par la suite à l'ensemble des utilisateurs ?

Car l'analyse des mots-clés ne sert pas qu'à gruger les moteurs. L'analyse des mots-clés, c'est aussi mieux connaître son visitorat, trouver de inspiration pour la création de nouveaux contenus, s'assurer de l'adéquation entre requêtes et pages d'atterissage, bref autant de choses qui vont dans le sens d'une amélioration de l'expérience utilisateur, en principe si chère à Google...

28/09/2011

Google facilite le référencement des contenus paginés

Google supporte désormais les attributs rel="next" et rel="prev" ! Longtemps ignorés par les moteurs de recherches, ces attributs de la balise <link> ont vocation à définir des relations entre des pages web constituant une série telles qu'une suite de pages de résultats, un article scindé en plusieurs pages ou tout autre forme de pagination.

Selon Google, le support de ces attributs devrait permettre de "consolider les données d'indexation" notamment en ce qui concerne les liens. Le linkjuice (PageRank et ancres de liens) considéré ne serait donc plus uniquement celui des pages prises individuellement, mais celui de la série vue comme un tout. Les 1ères pages des séries devraient également être favorisées dans les pages de résultats du moteur.

Il est à noter qu'utiliser les attributs rel="prev" et rel="next" n'est en aucun cas une obligation, et que leur utilisation est parfois même déconseillée : si vous avez un contenu paginé qui est également accessible dans une version non paginée (tel que les pages "afficher tout") Google conseille alors de définir la version non paginée comme URL canonique à l'aide de la balise rel="canonical".

Les rel="prev" et rel="next" insérés automatiquement par certains scripts de blogs pourraient à mon avis poser également quelques soucis quand on cherche à faire remonter dans les résultats des moteurs les billets eux-même et non le billet le plus récent. Mais il est trop tôt pour le dire. A surveiller donc.

1/08/2011

Bascule de Yahoo vers Bing : le 3 août en France

Conséquence inéluctable de l'Alliance Search entre Microsoft et Yahoo, le passage de Yahoo à la technologie Bing pour les résultats naturels, déjà actif aux USA depuis Août 2010, aura lieu pour la France la 3 août prochain. Ne vous étonnez pas donc si vos positions évoluent à la hausse ou à la baisse. A partir du 3 août nous n'aurons donc plus que 3 moteurs en France au final : Google, Bing et... Voila :/

30/06/2011

Synonymizer, un logiciel de content spinning gratuit

Après Sick Scraper, présenté lors de mon précédent billet, intéressons-nous aujourd'hui au content spinning, à savoir la recombination de texte dans le but de produire des contenus uniques. Pour ce faire, je vous propose d'utiliser le logiciel gratuit Synonymizer, développé par SeoDevGroup. Rassurez-vous, ce blog n'a pas viré black-hat et nous allons voir que le content spinning peut tout à faire avoir des applications white-hat.

Le fonctionnement des outils de spinning est plutôt simple, du moins dans son principe : les parties d'un texte à spinner sont balisées avec des accolades, les variations étant séparée par des pipes. Il est possible d'imbriquer les parties à spinner, ce qui permet d'autant plus de variations.

Exemple de formule de spin :

{{Le blog|Le site|Site|Site personnel} d'un|Un} {consultant|expert} {parlant|traitant} {de|essentiellement de|principalement de} {référencement|référencement (SEO)|SEO|référencement naturel}{,| ainsi que| mais {également|aussi}} {d'ergonomie|d'accessibilité|d'usabilité}, {d'écriture web|de copywriting} et de {marketing|e-marketing|communication internet}.

Cette formule donnera des centaines de variations qui pourront constituer autant de descriptions uniques pour annuaires :

  • "Un consultant parlant de référencement, d'usabilité, d'écriture web et de e-marketing"
  • "Un expert parlant de référencement, d'ergonomie, de copywriting et de marketing"
  • "Site d'un expert parlant de référencement naturel mais également d'accessibilité, de copywriting et de marketing"
  • "Le blog d'un consultant traitant de référencement (SEO) mais aussi d'ergonomie, d'écriture web et de communication internet"
  • "Un consultant traitant de référencement, d'ergonomie, de copywriting et de marketing"
  • "Le blog d'un expert traitant principalement de référencement (SEO) mais aussi d'ergonomie, d'écriture web et de communication internet"
  • "Un expert parlant de référencement mais également d'usabilité, de copywriting et de e-marketing"
  • "Un consultant parlant de référencement (SEO) mais également d'ergonomie, d'écriture web et de marketing"
  • Etc.

La même approche pourrait être utilisée pour des communiqués de presse.

Le content spinning peut également être utilisé pour générer automatiquement des listes d'expressions-clés pour des campagnes de liens sponsorisés ou du contrôle de positionnement.

Exemple :

{achat|acheter|location|louer} {maison|appartement|studio} {Lille|Marcq en Baroeul|La Madeleine}

Cette formule produira une liste de toutes les combinaisons possible de ces mots-clés :

  • "achat maison Lille"
  • "achat maison Marcq en Baroeul"
  • "achat maison La Madeleine"
  • "achat appartement Lille"
  • "achat appartement Marcq en Baroeul"
  • "achat appartement La Madeleine"
  • "achat studio Lille"
  • "achat studio Marcq en Baroeul"
  • "achat studio La Madeleine"
  • "acheter maison Lille"
  • "acheter maison Marcq en Baroeul"
  • Etc.

Bref un outil potentiellement très utile aux référenceurs et webmasters, tous chapeaux confondus.

19/05/2011

Sick Scraper, un logiciel de scraping gratuit

Signalé par Supergago sur le forum Seosphère, Sick Scraper est un logiciel de scraping totalement gratuit qui propose les mêmes fonctionnalités que le module Harvester du célèbre Scrapebox. Le logiciel est volontairement bien moins complet que Scrapebox, puisque conçu comme un complément à Sick Submitter, le produit phare de l'éditeur. Mais il reste un très bon outil pour aller à la chasse aux URLs.

Comme Scrapebox, la recherche des URLs se fait en spécifiant une empreinte (ou footprint, par exemple "ajouter un site") et optionnellement des mots-clés. Le logiciel va alors interroger les moteurs de recherche spécifiés et extraire les URLs des pages de résultats. Pour du scraping massif il est possible d'utiliser des proxies, que le logiciel peut récuperer de lui-même. Une fois les URLs scrapées, Sick Scraper permet d'appliquer divers traitements pour nettoyer les résultats, comme la suppression des doublons, la suppression des résultats multiples d'un même site, la suppression des URLs correspondants à des fichiers, et la récupération des pageranks des URLs.

Combiné à un logiciel de complétion de formulaires comme Fireform, lui aussi gratuit, Sick Scraper permet ainsi d'accélerer significativement la soumission aux annuaire, la recherche de billets à commenter etc. Ces opérations doivent bien sûr être effectuées de façon légitime et manuelle :)

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 >