Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à Référencement Design et Cie 2.0

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

15/11/2013

Ce blog déménage...

Ceci est le dernier billet de ce blog. Rassurez-vous Référencement Design et Cie continue, mais sur un vrai hébergement (il était temps !). Pensez donc à mettre à jour vos flux RSS / Atom :)

1/10/2013

Prédiction involontaire

Le 1er avril 2006, j'annonçais (pour rire) que des chercheurs étudiaient la possibilité d'utiliser l'algorithme PageRank à des fins médicales, "les réseaux que forment les neurones ou les systèmes vasculaires ayant une structure très proche de celle des réseaux de liens que l'on observe sur le web".

Par hasard, je suis tombé aujourd'hui sur cet article, où des chercheurs expliquent utiliser le PageRank pour analyser des réseaux moleculaires, à des fins médicales.

Mince, serais-je un visionnaire, un Nostradamus du SEO ?! :)

8/03/2013

3 extensions pour supprimer le tracking Google et se venger du not provided

La majorité de mes lecteurs n'est probablement pas sans savoir que chaque clic dans les pages de résultats Google est traqué. Ainsi lors d'une recherche sur "sébastien billard" dans Google, le lien vers ce blog n'est pas directement celui-ci :

"http://s.billard.free.fr/referencement/"

Mais celui-là :

"http://www.google.com/url?sa=t&rct=j&q=s%C3%A9bastien%20billard&source=web&cd=1&cad=rja&ved=0CC4QFjAA&url=http%3A%2F%2Fs.billard.free.fr%2Freferencement%2F&ei=m8g5UY2nNcPeswa01YGACA&usg=AFQjCNF8UhrGhRJHpFrkif4gTLUidnv3YQ&bvm=bv.43287494,d.ZGU"

Ce tracking est pénible à plus d'un titre : il rend impossible le copier-coller de l'adresse d'un lien via un clic droit, ralentit régulièrement le chargement des pages du fait du temps nécessaire à la redirection, et fournit toujours plus d'informations à un Google qui n'a de cesse de nous déposseder nous, référenceurs, e-marketeurs et webmasters d'informations utiles à nos activités.

Aussi, si vous souhaitez vous affranchir du tracking présent dans les SERPs, accélerer un peu votre navigation et vous venger de Google, je vous propose ces 3 extensions pour vos navigateurs favoris (merci Lionel) :

6/03/2013

Le point sur Google et les modifications de balises <title>

Toute personne avec une connaissance même basique du SEO sait que le contenu de la balise <title> est un élément stratégique en matière de référencement et d'usage du web. En effet, le contenu de cette balise est particulièrement valorisé par les moteurs de recherche. C'est également le contenu de cette balise qui est utilisé par défaut en tant que titre pour les favoris / marque-pages. Enfin, le contenu de la balise est habituellement utilisé dans les pages de résultats de recherche des moteurs (SERPs) en tant que lien vers les sites sélectionnés.

Cela n'est cependant pas toujours vrai, du moins chez Google. Le moteur quand il décide que le contenu de la balise <title> n'est pas idéal pour l'utilisateur peut prendre l'initiative d'altérer ou de remplacer celui-ci. Petit tour d'horizon de modifications déjà rencontrées :

  • Remplacement par le libellé de liens entrants (exemple avec le site La Fraise)
  • Modification par l'ajout du libellé de liens entrants au début du <title> (exemples sur 3 Suisses)
  • Modification par la suppression d'éléments du <title> jugés génériques ou non pertinents
  • Modification par l'ajout du nom du site en fin de <title>
  • Modification par déplacement de la marque au début du <title> suivie d'un ":" (exemple évoqué ce jour par Abondance)

Ces modifications sont-elles un problème ? Par forcément. Mais dans bien des cas cela peut être le signe de balises <title> mal optimisées, car obscures ou trop riches en mots-clés. Un examen est donc indiqué :)

7/12/2012

Le nouveau visage du SEO. Vraiment ?

En menant ma veille quotidienne, je suis tombée sur la nouvelle infographie à la mode, intitulée "The new face of SEO", éditée par l'agence Fuzzone. A en croire cette infographie, le SEO aurait profondément changé suite aux pandas, manchots et autres gremlins Google. Bigre ! Cela mérite d'y porter attention, il ne faudrait quand même pas devenir un SEO has-been... Que nous conseille donc cette infographie ?

"Ciblez un large choix de mots-clés" : Ok, un peu comme ce que je conseillais en février 2007 alors ?

"Faites de l'expérience utilisateur votre priorité" : Comme ce référenceur 2.0 dont il était question en février 2006 ?

"Produisez des contenus engageants pour vos utilisateurs" : je ne peux qu'être d'accord, je l'avais dit en juillet 2005 même. Je parlais même de "text appeal" en novembre 2006.

"La densité de mots-clés n'est pas si importante" : C'est bien vrai ça ! On en parlait en septembre 2005 d'ailleurs.

"Ayez des <title> vendeurs" : Je plussoie. Depuis au moins avril 2007 (et en réalité depuis le début).

"Créez des contenus créatifs et partageables" : Ca me dit quelque chose... ah oui vous parlez du linkbait, que Matt Cutts évoquait déjà en janvier 2006 ?

"Diversifiez vos liens" : En somme il suffirait d'être naturel, quand bien même ce naturel est un peu forcé ? Nous sommes d'accord. J'essaie d'appliquer ce principe depuis 2001.

"Travaillez votre branding" : Un peu comme ce que promeut le Clutrain Manifesto, depuis avril 1999 ?

"Optez pour des soumission manuelles" : Nous sommes là encore sur la même longueur d'onde c'est formidable ! Moi j'en parlais en janvier 2005 avant que les updates soient affublés de noms d'animaux...

Il n'y a pas à dire, le SEO a radicalement changé : avant pour se faire mousser on écrivait des articles bidons. Maintenant on les met en image...

11/10/2012

Identifier les sous-domaines d'un site avec Google

Il est des cas où l'on est dans l'impossibilité d'avoir accès à la liste exhaustive des sous-domaines d'un site. Pourtant les connaitre est très utile, notamment pour s'assurer que le site ne propose pas de contenus dupliqué ou obsolètes. Hélas il n'existe pas de commande toute faite du coté des moteurs, et à ma connaissance aucun service en ligne ne propose de solution miracle. Aussi je vous propose la méthode empirique suivante, basée sur la commande "site:" de Google que l'on va combiner à divers opérateurs pour affiner progressivement les résultats. cette méthode est à personnaliser selon les cas : l'idée est de supprimer le maximum de résultats non souhaités. Attention, un sous-domaine inconnu de Google ne pourra pas être trouvé via cette méthode.

Le point de départ est de lister toutes les pages connues du domaine à l'exception du sous-domaine "www" qui est le sous-domaine par défaut de la majorité des sites. La commande est donc :

"site:exemple.fr -site:www.exemple.fr"

Le problème est que nous recherchons surtout les racines des sous-domaines et non pas toutes les URLs que Google connait. Nous allons donc filtrer les extensions de fichiers les plus communes :

"site:exemple.fr -site:www.exemple.fr -filetype:html -filetype:htm -filetype:php -filetype:asp -filetype:pdf -filetype:swf"

Un autre problème qui peut se poser est que certains sous-domaines peuvent retourner un grand nombre de résultats non-filtrables via les extensions de fichier. Dans ce cas il convient de les filtrer manuellement grâce à la commande "-site:" ce qui évitera de paginer à tout va :

"site:exemple.fr -site:www.exemple.fr -filetype:html -filetype:htm -filetype:php -filetype:asp -filetype:pdf -site:blog.exemple.fr"

Ah si seulement on pouvait requêter les moteurs à l'aide d'expressions régulières...

29/06/2012

99% des infographies sont stupides

Bon OK j'exagère. Mais en voici quand même un bel exemple : "How big is the SEO industry on Internet". Comme toutes les infographies, on nous propose un bel assemblage de chiffres chocs, pas forcément utiles et assenés sans aucun sens critique.

Ainsi 863 millions de sites mentionnent le terme SEO. Mais soyons humble ce n'est pas forcément de notre SEO qu'il s'agit. "Seo" est un nom de famille extrêmement courant en Corée, de nombreuses personnalités portent ce nom. les sites de fans et les discussions sur les forums participent très certainement à la popularité du terme. "SEO actor" retourne 13 millions de résultats, "seo actress" 7 millions, "seo singer" 9 millions, "Seo In Young" près de 2 millions, "Seo Hyo Rim" 1 million... tout ça s'additionne vite. SEO est aussi l'acronyme de "Sony Ericsson Open" une compétition de tennis ayant lieu... en mars. cela explique probablement le pic de requête mentionné dans l'infographie. Quel intérêt donc à cette information ?

Bref, encore une infographie qui n'apporte rien si ce n'est des liens à son concepteur...

15/06/2012

Navigations à facettes : opportunités et dangers pour le SEO

La navigation à facettes est désormais une fonctionnalité courante sur les sites e-commerce. Celle-ci consiste à proposer une navigation additionnelle non pas arborescente, mais basée sur la sélection de filtres (appelés facettes), cette sélection pouvant être multiple. L'utilisateur n'a donc plus à identifier la bonne catégorie pour trouver un produit donné : il lui suffit juste de préciser les propriétés de ce qu'il recherche. Par exemple, dans une catégorie "robes" une navigation à facettes permettra de rechercher directement les robes de la marque Morgan de couleur noire. Sans ce type de navigation, il faudrait soit regarder l'intégralité des robes du commerçant, soit l'intégralité des robes Morgan, toutes couleurs confondues, dans le cas où les marques constituent des sous-catégories. L'avantage est donc indéniable en termes d'ergonomie. Qu'en est-il maintenant en ce qui concerne le SEO ?

Opportunités

Les facettes peuvent être bénéfiques au référencement d'un site, en ce qu'elle proposent de nouvelles pages d’atterrissage. Il faut cependant s'assurer que ces pages soient indexables par les moteurs, ce qui exclue les navigations à facettes à base d'AJAX ou de javascript non-accessible. On veillera également à exploiter les valeurs des facettes dans l'optimisation des pages, particulièrement dans le balise <title> et le titre principal (<h1>). Typiquement on composera le <title> des pages en faisant suivre le libellé de la catégorie (ex : "robes") des valeurs des facettes (ex : "Morgan" et "noir"'). Ce qui donnera ici "Robes Morgan noir".

Dangers

Reste que les navigations à facette ne sont pas sans danger pour votre SEO. D'abord, si les facettes créent de nouvelles pages, elles ne créent pas de contenu : les facettes ne sont jamais que des réarrangements du contenu existant d'où un risque de near duplicate, les moteurs voyant encore et toujours les mêmes fragments de contenu.

En plus du near duplicate, les navigations à facette peuvent être la source de duplication de contenu pure et simple. Par exemple, toujours dans la catégorie "robes", si je sélectionne la facette "noir" puis la facette "Morgan" j'obtiendrai logiquement la même sélection de produits que si je sélectionne "Morgan" puis "noir". Mais les deux URLs pourront être différentes, d'où une duplication de contenu. Il faudra donc veiller à ce que le système génère des URL uniques, en forçant un ordre des facettes. Notez que le balise canonical n'est pas une bonne solution à ce problème, car elle ne résout pas le double crawl, seulement la double indexation.

Enfin, le grand danger des navigations à facette est de proposer un trop grand nombre d'URLs indexables, qui va littéralement épuiser votre budget crawl (le temps alloué par les moteurs à indexer votre site). Du fait des combinaisons possibles entre facettes, il se peut que le nombre de facettes à indexer soit gigantesque comparé aux nombre de produits proposé. Les moteurs perdront donc leur temps à indexer des facettes sans grande valeur au lieu d'indexer des pages plus utiles, et votre PageRank se diluera à vitesse grand V. Une solution à ce problème est de limiter le nombre de facettes et de valeurs de facettes possibles. Je conseille également de restreindre l'indexation aux seules facettes utiles à votre SEO : Les facettes marque et couleur sont très utiles car recherchées dans Google, mais c'est moins vrai des tailles ou des taux de décote. Un cryptage sélectif des facettes est dans ce cas tout indiqué. Il peut également être opportun d'interdire l'indexation des pages avec sélection multiple d'une même facette, car elles ne correspondent pas aux typologies de recherches : personne ne recherche des baskets "Nike Adidas" :)

5/04/2012

Bing une autre source de mots-clés pour votre SEO

Proposé en version bêta depuis fin février dans ses outils pour webmasters, l'outil de suggestion de mots-clé de Bing semble avoir très peu retenu l'attention des SEO et autres e-marketeurs. La francisation pitoyable de son interface, et son fonctionnement parfois obscur y sont probablement pour quelque chose. Néanmoins, cet outil a le mérite d'être la seule alternative à Google, et a l'avantage d'être bien moins censuré que son concurrent (ce qui est très utile pour certaines thématiques).

Quelques petites choses à savoir, étant que donné que Bing n'est pas fichu de fournir une aide correcte :

  • Les résultats peuvent contenir des termes associés (l'association étant parfois très lontaine).
  • Les recherches accentuée et non accentuées se ressemblent beaucoup mais ne sont pas identiques.
  • Il n'est pas possible d'utiliser des expressions exactes, ni des mots-clés négatifs.
  • L'option "strict" ne joue en fait que sur le décompte des impressions, pas sur les expressions elles-mêmes.
  • Le nombre d'impressions par défaut porte sur les 2 derniers mois.
  • L'historique des données est de 6 mois.

26/01/2012

Quelles méthode pour des SERPs Google le plus neutres possible ?

Avec une tendance de plus en plus marquée à la personnalisation des résultats, il devient important de pouvoir se raccrocher à des résultats de référence à peu près neutres quand on souhaite mesurer la visibilité d'un site ou l'impact d'une optimisation. Si j'emploie le terme "à peu près" c'est qu'il n'existe en réalité pas de pages 100% neutres : le contenu des pages de résultats est toujours personnalisé, ne serait-ce que du fait de la géolocalisation de l'adresse IP.

Quelle approche employer donc pour des résultats les moins personnalisés possible ? Peter J. Meyers sur le blog SEOmoz s'est intéressé à la question en mesurant la différence entre les pages de résultats par défaut (incluant Google+) et les pages de résulats obtenues selon 4 configurations :

  • Avec les résultats désocialisés via le bouton "no personal results"
  • En étant déloggé
  • En utilisant la navigation privée offerte par Chrome
  • En utilisant un Firefox portable sécurisé et anonymisé (Ironkey)

Si on fait abstraction des résultats Ironkey qui ont servi de référence, il apparait que les résultats les moins personnalisés sont ceux obtenus en étant déloggé. Toutefois les différences observées restent finalement faibles entre les différentes méthodes testée. Le plus simple à mon sens reste donc de surfer deloggé. Les puristes quant à eux utiliseront un navigateur dédié en supprimant les cookies à chaque contrôle.

20/01/2012

Publicité et SEO : à trop charger la barque...

Trop de pub au dessus de la ligne de flottaison pourra désormais faire couler votre positionnement, ou du moins l'affecter négativement. Google explique ce choix par le fait que l'insertion de publicités en haut de page réduit la visibilité du contenu utile, nuisant ainsi à l'expérience utilisateur. Ce changement affecterait moins de 1% des recherches selon Google, et seules les implémentations manifestement excessives seraient sanctionnées.

Ce changement est bienvenu en ce qui concerne la qualité des résultats. Toutefois on peut s'interroger sur le fait que Google ne tate pas de sa propre médecine, en affichant des pages de résultats où les résultats publicitaires occupent fréquemment jusque à deux tiers de la surface utile...

11/01/2012

Révolution socialiste chez Google

Révolution à venir dans les SERPs : Google vient d'annoncer qu'il allait modifier sensiblement ses pages de résultats, par l'ajout d'informations issues des réseaux sociaux (et notamment de Google+).

Désormais les pages de résultats du moteur pourront afficher des "résultats personnels" c'est-à-dire des contenus avec lesquels vous êtes liés, soit parce qu'ils sont les vôtres, soit parce que des contacts les ont partagé avec vous. Des profils utilisateurs pourront également être proposés à la fois dans les suggestions de recherche et les pages de résultats. Enfin, pour certaines requêtes générales, des profils utilisateurs et des pages Google+ en rapport avec la requête pourront être affichées.

A en croire Google, tout cela est merveilleux. Matt Cutts lui-même tente de nous en convaincre. Malheureusement il nous montre surtout que les résultats sociaux lui ont permis de trouver ce qu'il ne cherchait pas. J'espère au moins qu'il a par la suite trouvé ce qu'il cherchait :) Pour ma part le "Search plus your world" se résume davantage à "Clutter plus your world", et je désactiverai la fonctionnalité aussitôt qu'elle sera activée en France.

(Par contre Google si tu pouvais remettre à son emplacement originel le lien "en cache" dans les SERPs là je te serais reconnaissant...)

2/01/2012

SEO : tout ne va pas si mal :)

Suppression des mots-clés dans les referers, développement des résultats Onebox, extension des liens sponsorisés, update divers... régulièrement de nouvelles menaces semblent planer sur le SEO. Toutefois, le SEO ne se porterait pas si mal à en croire Ian Howells (PDF).

Se basant sur les données Google Webmaster Tools de gros clients e-commerce, l'auteur affirme que le taux de clic des résultats naturels serait de 52.5% contre 13% pour les résultats sponsorisés. Les 35% restants étant constitués de clics indéterminés, de clics Google Maps, Youtube ou Google Shopping (il est à noter que seul le trafic hors-marque a été pris en compte pour cette étude).

Comparativement aux données AOL de 2006, l'auteur observe que le taux de clic des résultats naturels était de 49% en 2006. Le CTR des résultats naturels n'aurait donc pas baissé, et aurait même légèrement augmenté. Il apparait également que la première position, si chère aux yeux des référenceurs, aurait légèrement perdu de son importance au profit des positions 2 à 5. Selon l'auteur, la cause en serait l'insertion de plus en plus fréquente de résultats issus des moteurs verticaux. Il est vrai que l'avènement de la recherche universelle a quelque peu modifié la distribution de l'attention au sein des pages de résultats.

En résumé, poursuivez vos efforts en SEO et PPC, tout en ne négligeant pas la recherche universelle et les moteurs verticaux. L'important est d'occuper le terrain :)

24/11/2011

Davantage de mémoire pour XML Sitemaps (Sitemap Generator)

Si comme moi vous êtes un utilisateur régulier de l'application Sitemap Generator d'AuditmyPC, vous avez probablement déjà été confronté à des messages "memory low" lors de crawls importants (plusieurs dizaines de milliers d'URLs). La faute en incombe non pas à la quantité de RAM de votre machine, mais à la quantité de mémoire allouée à la machine virtuelle Java. Heureusement, il est possible d'augmenter cette quantité de mémoire allouée !

Pour cela (sous Windows 7) rendez-vous dans le panneau de configuration, double-cliquez sur l'icône Java, cliquez sur l'onglet "Java" puis sur le bouton "Afficher" correspondant aux paramètres de l'applet Java Runtime. Dans les paramètres d'exécution, ajoutez "-Xmx300m" (sans les guillemets), cliquez sur OK, quittez le panneau de configuration et redémarrez votre navigateur. Avec 300 Mo de mémoire, XML Sitemaps devrait voir ses capacités de crawl décuplées, 66 Mo étant par défaut alloué à Java.

Note : le chiffre "300" du paramètre "-Xmx300m" correspond au nombre de Mo alloués à l'applet. Vous pouvez revoir cette valeur à la hausse ou à la baisse en fonction de votre système. Pour vérifier que la bonne quantité de mémoire a bien été allouée, dans Sitemap generator cliquez sur le bouton "System" et regardez la rubrique "memory Usage". La valeur "Max memory" doit correspondre à quelques mega-octets près à la valeur que vous avez spécifié.

19/10/2011

Résultats Google en HTTPS : 2012 avec un an d'avance ?

La dernière annonce faite par Google n'a pas fini de faire grincer des dents : le moteur a en effet décidé d'adopter le protocole SSL comme protocole par défaut pour ses utilisateurs identifiés. Désormais, les requêtes et pages de résultats pour ces utilisateurs seront donc cryptées, et le referrer sera amputé de la requête (sauf en ce qui concerne les clics sur les annonces). Concrètement, cela signifie que les webmasters et référenceurs n'auront plus accès aux mots-clés tapés par les utilisateurs, ceux-ci étant contenus dans le paramètre "q=" du referrer...

Cette nouvelle est bien évidemment désastreuse. S'il est louable de proposer aux utilisateurs qui le souhaitent un service de recherche sécurisé comme https://encrypted.google.com/ la généralisation du SSL va priver les éditeurs de sites d'un feedback utilisateurs très utile, sans pour autant améliorer la sécurité de l'utilisateur lambda. Laquelle n'est AMHA pas spécialement menacée, le referrer seul ne permettant pas d'identifier une personne.

Certes pour l'instant, l'annonce ne concerne que google.com et probablement une faible proportion d'utilisateurs ("un pourcentage à un chiffre" d'après Matt Cutts qui s'est confié à Danny Sullivan). Mais qui dit que le SSL ne sera pas étendu par la suite à l'ensemble des utilisateurs ?

Car l'analyse des mots-clés ne sert pas qu'à gruger les moteurs. L'analyse des mots-clés, c'est aussi mieux connaître son visitorat, trouver de inspiration pour la création de nouveaux contenus, s'assurer de l'adéquation entre requêtes et pages d'atterissage, bref autant de choses qui vont dans le sens d'une amélioration de l'expérience utilisateur, en principe si chère à Google...

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 >