Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à Référencement Design et Cie 2.0

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

3/09/2008

Ainsi on pense pouvoir être consultant SEO ?

A la recherche de consultants SEO seniors, l'agence Résoneo vient de lancer un quizz permettant de tester si l'on est bien taillé pour le métier. Apparament, j'ai les compétences nécessaires (ouf, voila qui justifie mon salaire).

Bien sûr ce n'est pas très sérieux (quoique les questions posées sont pertinentes...) mais c'est divertissant, et la fin du test dénote une vision très saine du métier. Je n'en dis pas plus ;)

Alors vous avez gagné combien d'étoiles ?

2/09/2008

Ce que Google Chrome pourrait nous apprendre en matière de référencement (ou pas)

Google Chrome, le navigateur développé par Google, est donc sur le point d'être rendu public. Les fonctionnalités d'un navigateur concernent à priori l'expérience utilisateur, et le lien avec le référencement n'est pas évident à première vue. Néanmoins il me semble que certaines technologies développées pour Chrome pourraient éventuellement être utilisée par le moteur pour améliorer la pertinence de ses pages de résultats. Je dis bien "éventuellement" : les idées que j'émets ici ne sont que pure spéculation. Je m'explique :

Les tests de navigation ont utilisé l'infrastructure informatique Google, et on porté sur sur des dizaines de milliers de pages : nous savons donc désormais que Google est capable de simuler à grande échelle l'utilisation d'un navigateur ordinaire par des utilisateurs humains.

Les tests de rendu ont été effectués non pas à l'aide de captures d'écrans, mais grâce à une analyse de l'apparence des pages : Google serait donc capable de "voir" comme un utilisateur, ce qui lui permettrait de distinguer les zones de contenu des zones à faible rapport signal / bruit comme les pieds de page, et de débusquer les contenus cachés.

Une machine virtuelle javascript à haute performance a été développée : Google est donc potentiellement capable d'interpréter javascript plus efficacement et en toute sécurité. Cela pourrait améliorer sa capacité à détecter les javascripts employés à des fins de spam (redirections sournoises, cloaking javascript etc.) ainsi que sa capacité à indexer des sites utilisant des navigations reposant sur javascript.

On peut cependant penser que si ces technologies sont bien mises en oeuvre au niveau moteur, elles ne le seront pas systématiquement, mais seulement sur un petit nombre de sites (à l'échelle du web) préalablement selectionnés soit parce qu'ils sont essentiels à l'index, soit au contraire parce qu'ils sont suspects.

Qu'en pensez-vous ?

Google sur le point de lancer son navigateur Chrome

Le sujet était évoqué régulièrement, certains y croyant, d'autre étant plus sceptiques (dont moi, je dois bien l'avouer). Mais Google s'apprète bien à lancer son navigateur, en version beta et en open-source, dans 100 pays.

En lisant la BD d'introduction à Chrome, on y apprend un certain nombre de choses très intéressantes : ainsi, le moteur de Chrome est basé sur Webkit, un navigateur open-source également utilisé dans Safari. Etant donné que javascript est une technologie abondamment utilisée aujourd'hui pour les interface web, Chrome bénéficie d'une machine virtuelle javascript écrite à partir de zéro, et spécialement optimisée pour les applications javascript complexes. Ainsi au lieu d'interprêter le code javascript et de l'exécuter, Chrome le compile à la volée en langage machine, ce qui permet son éxécution directe par le CPU, d'où une plus grande rapidité

Un gros accent a été mis sur la stabilité : chaque page web et chaque javascript sont exécutés dans des processus séparés, ce qui permet une meilleure gestion de la mémoire, de meilleurs temps de réponses, et surtout permet en cas de bug de fermer uniquement le processus defectueux au lieu de planter le navigateur.

En ce qui concerne l'interface, les onglets sont un concept clé de Chrome, au point que ceux-ci ont été placé au sommet du navigateur. Il est possible de les déplacer d'une fenêtre à une autre, et chaque onglet comprend ses propres controles (barre d'adresse , boutons précédent / suivant ...). La barre d'adresse va au delà de la simple gestion des URLs et a été baptisée "Omnibox". On y retrouve toutes sortes d'informations : suggestions de recherches, historique des recherches et des visites etc.

La plupart des navigateurs proposent une page par défaut, qui peut être une page blanche ou une URL spécifiée par l'utilisateur. Google Chrome propose une page par défaut générée dynamiquement, qui affiche les 9 sites les plus visités, et les formulaires de recherche les plus utilisés.

Un mode "incognito" a également été implémenté, qui permet d'ouvrir une fenêtre ou rien, ni historique no cookies, ne sera enregistré sur la machine. Enfin, Chrome comprend plusieurs dispositifs destinés à protégér l'utilisateurs des malware et du phishing.

Une dernière chose à noter est que si le navigateur est en version beta, les versions de développement on été testées... par des machines ! Utilisant son infrastructure informatique, Google est ainsi capable dans les 20 à 30 minutes de tester chaque release sur des dizaines de milliers de pages différentes fréquemment visitées par les internautes. Même le rendu des pages a été testé de façon automatique, et Chrome est capable de passer avec succès plus de 99% des tests de rendu de Webkit.

A lire également sur l'impact vis-à-vis de Firefox : "A propos de Google Chrome et du reste" par Tristan Nitot. Et quelques captures d'écran et vidéos sur Techcrunch.

Edit : on peut désormais télécharger Google Chrome.

27/08/2008

Flash, Référencement, PageRank et Sitemaps : infos en vrac

L'interview par Eric Enge de Maile Ohye, en charge du support aux webmasters chez Google, constitue une lecture intéressante. Parmi les points notables :

Le fait d'utiliser un sitemap RSS au lieu d'un sitemap statique classique (XML ou texte) n'a aucune influence sur la rapidité d'indexation. Maile précise d'ailleurs que le protocole sitemap concerne surtout la découverte des URLs à crawler plus que l'indexation proprement dite.

Le fait d'augmenter la vitesse d'indexation dans l'interface Webmaster Tools peut conduire à l'indexation d'un plus grand nombre de pages.

Les liens dans les fichiers Flash sont bien suivis par le moteur, et ont la capacité de transmettre du PageRank. En ce qui concerne les différentes méthodes de contenu alternatif utilisée pour l'accessibilité et le référencement des sites Flash, Maile précise que le contenu alternatif n'a pas forcément à être strictement identique, mais il doit alors décrire de façon très fidèle la teneur du contenu Flash. Mail insiste également sur l'importance de l'accessibilité et sur le concept d'amélioration progressive (proche de celui de dégradation élégante).

20/08/2008

De l'intérêt de placer des liens au sein du contenu

Les brevets déposés par les moteurs de recherche constituent une source d'information très intéressante pour qui s'intéresse au référencement. Même si le simple dépôt de brevets ne signifie pas leur mise en oeuvre effective, leur lecture permet de mieux cerner les méthodes employées par les moteurs de recherche.

Dans son dernier billet, Olivier Duffez décortique un brevet attribué à Google en décembre 2007, intitulé "Anchor tag indexing in a web crawler system" (ce brevet est également commenté par Bill Slawski).

Si Olivier s'est surtout intéressé à la description du système de crawl, l'information la plus intéressante reste pour moi le fait que le texte entourant un lien est utilisé comme un signal dans l'évaluation de la pertinence de la page de destination par rapport à une requête donnée.

La quantité de texte retenue par le moteur utilise principalement la notion de distance par rapport à l'ancre du lien : le texte situé à x caractères à droite et à gauche du lien sera ainsi utilisé. Mais cette distance peut être modulée en fonction des autres ancres de liens à proximité, de la quantité de texte totale du document ainsi que d'autres critères.

Il y a donc tout intérêt, aussi bien pour l'utilisateur que pour les moteurs, à placer des liens au sein même des contenus, et à ne pas réserver ceux-ci aux seuls éléments de navigation. Ces liens seront fortement porteurs de pertinence, puisque non seulement leur ancre sera prise en compte, mais probablement aussi le texte attenant (d'ailleurs c'est déjà le cas avec Google Images).

Cette forme d'écriture, si elle est courante dans la blogosphère, reste encore trop rare sur le reste du web...

8/08/2008

Microsoft Live Search améliore ses Webmaster Tools

Google n'est pas le seul à proposer une interface à destination des webmasters. Lancée depuis novembre 2007, la version Microsoft des Webmaster Tools vient de s'enrichir de nouvelles fonctionnalités.

L'interface permet désormais de mieux identifier les problèmes d'indexation (erreurs 404, mauvaise gestion des robots, URLs trop longues, formats non supportés) et fournit davantage de données concernant les liens entrants, qu'il est possible de télécharger au format CSV.

Présent à l'université d'été Medialibs sur l'avenir du web

J'aurai l'honneur d'intervenir le vendredi 5 septembre lors de l'université d'été (PDF) organisée par la société Medialibs qui aura pour thème de "l'avenir du web". Ce sera l'occasion de faire le point sur l'état actuel du référencement, et de réfléchir sur ses possibles évolutions.

Cet évènement aura lieu à l'abbaye de Saint-Florent le Vieil, entre Nantes et Angers. Envie de vous y inscrire ? C'est par ici.

1/08/2008

Offre de stage : assistant(e) SEO/SEM chez Relevant Traffic

Relevant Traffic France, agence spécialisée en Search Marketing, recherche un stagiaire ou un candidat en alternance pour une durée de 4 à 10 mois, à compter de septembre 2008 (temps plein, éventuellement mi-temps). Le poste est situé à Paris (9ème).

Au sein de nos équipes de production, en référencement naturel tout comme en référencement payant, vous contribuerez au support et à l’assistance sur l’ensemble de nos campagnes et prestations. Vous partagerez le quotidien de nos équipes en vous formant aux métiers du web et de l’internet, auprès de consultants aguerris . Vous interviendrez sur des projets ponctuels, avec à terme la prise en charge de prestations SEO ou de campagnes de liens sponsorisés.

Vos missions

Vos différentes tâches incluront :

  • La préparation et la création de campagnes de liens sponsorisés (estimations, conceptions de campagnes et d’annonces, mise en ligne...)
  • La préparation et le support de nos missions de conseil en référencement naturel (travaux préparatoires, analyse de trafic, rapports de positionnement...)
  • La conception de rapports, de bilans de campagnes intermédiaires, et d’analyses statistiques.

Votre Profil

  • De formation supérieure, bac +3 à +4.
  • Cycle long ou en alternance.
  • Un excellent relationnel, une bonne présentation, de la rigueur, de l’organisation et un sens de l’écoute.
  • Une passion ou un intérêt réel pour le monde du référencement et de l’internet.
  • Anglais souhaité. Autres langues appréciées.

Une première expérience de l'internet ou du webmarketing serait un plus (à titre personnel ou professionnel), de même qu'une bonne connaissances des moteurs de recherche et outils (Google Analytics, Xiti, etc.)

Envie de postuler ? Envoyez votre CV accompagné d'une courte lettre de motivation à jobs@relevanttraffic.com.

Google, c'est le Mal (et je le prouve)

Un moteur de recherche est une combinaison de cerveaux et de moyens financiers. Relation que l'on peut modéliser de la sorte :

Google = Cerveaux * Argent

Mais les cerveaux ont eux-même un coût. Ainsi :

Google = Argent * Argent = (Argent)²

La Bible (Timothée 6:10) nous enseigne que l'argent est la racine de tout mal (Argent = √Mal), soit :

Google = (√Mal)²

Expression qui une fois simplifiée nous prouve que, malgré son slogan "do no evil", Google représente bien l'incarnation du Mal :

Google = Mal

Bon vendredi ;)

24/07/2008

La barre d'outils Google n'est pas utilisée pour l'indexation

Matt Cutts a confirmé dans un récent billet que la barre d'outils Google n'était pas utilisée par le moteur comme un moyen d'indexer de nouvelles pages.

En fait, ce n'est pas vraiment la première fois que Matt Cutts s'exprime à ce sujet, puisque des tests avaient déjà été effectués en 2006, concluant tous à la non-utilisation de la Googlebar pour l'indexation. Mais les mythes ont la vie dure (j'ai moi-même souvent pensé que la barre pouvait constituer un intéressant crawler distribué).

Répondant à certains commentaires, Matt Cutts affirme également qu'à sa connaissance ni Gmail, ni Google Talk, ni Google Analytics ne sont exploités pour indexer de nouvelles URLs.

Comment expliquer alors que des URLs "secrètes", n'ayant fait l'objet d'aucune promotion se retrouvent indexées ? En fait ces URLs ont probablement généré des liens sans le savoir, par exemple en apparaissant en tant que referer dans des services de statistiques publiquement accessibles, en tant que bookmark dans un système de partage de favoris, ou en étant listées sur certains sites publiant les noms de domaine nouvellement créés.

Restent certains phénomènes inexpliqués...

18/07/2008

SEO + Parano = Pipo

Descartes a un jour écrit que le bon sens était la chose du monde la mieux partagée. Il ne devait compter ni webmasters ni référenceurs dans ses fréquentations. Car dans cette population, j'ai parfois l'impression que la distribution du bon sens est au moins aussi inégale que celle du PageRank.

Un exemple de ce manque de rationalité est l'emploi abusif du concept de pénalisation : quand un webmaster observe un déclassement de son site, il invoque immédiatement le terme de "pénalité". Il ne lui viendrait pas à l'idée que son positionnement n'est que le résultat d'une méthode de classement automatisée d'un ensemble de documents en perpetuelle évolution. Les ajustements de cette méthode de classement peuvent très bien provoquer des variations. De même que les ajustement des infrastructures techniques permettant de mettre en oeuvre ces méthodes. De même que des erreurs dans la mise en oeuvre de tout cela. Mais non, une baisse de positionnement est pour lui forcément une pénalité, une punition divine.

Mais le webmaster dans sa paranoïa va encore plus loin : ne comprenant pas pourquoi il est pénalisé (si tant est qu'il le soit vraiment), il invente pour se justifier le concept de "pénalité aléatoire" (random penalty): Google punit on ne sait pas trop quoi exactement, mais en plus au hasard. Peut-être une application de l'adage "si ce n'est toi c'est donc ton frère" ?

Le webmaster gagnerait à penser comme un ingénieur d'un moteur de recherche avant des développer des théories de "machinbox" et "bidule penalty"...

27/06/2008

Quelles pratiques de recrutement et de rémunération dans le référencement ?

Afin d'avoir une vision plus claire du marché de l'emploi du référencement, l'association SEO Camp lance une enquête sur les pratiques de recrutement et de rémunération des entreprises employant des référenceurs (agences et annonceurs).

Pour y répondre, c'est par ici (questionnaire à destination des entreprises).

Le conseil SEO du vendredi

Beaucoup d'entre vous se posent la question de savoir quelle est la densité de mots-clés idéale pour bien se positionner sur une expression donnée. Si c'est votre cas, voici une régle facilement applicable :

"Il en faut plus que pas assez, et moins que trop".

26/06/2008

Les symboles ASCII ou Unicode dans la balise title sont-ils du spam ?

Lors de vos recherches web, il vous est probablement arrivé de tomber sur certains sites affichant des caractères spéciaux dans leur balise <title> ou leur snippet, dans le seul but de capter l'attention de l'utilisateur dans une page de résultats (exemple).

Les caractères utilisés sont multiples (➜, ►, ♥, ♫, ☼...) et peuvent être combinés (exemples : ••▷, II►, ➜➜➜).

Cette technique est-elle constitutive de spam ? Certes, ces caractères n'ont pas d'influence sur le positionnement, mais ils donnent aux sites qui les emploient une visibilité accrue dans les pages de résultats, sans que cela soit lié à leur pertinence.

Il est d'ailleurs intéressant de constater que les moteurs traitent différement ces caractères : Google, Live et Exalead peuvent les afficher aussi bien dans le lien que dans le snippet des sites, tandis que Yahoo semble avoir choisi de les filtrer complètement.

Afin, d'en savoir plus, j'ai interrogé les Googlers via le groupe Google d'entraide pour les webmasters. Il apparaît que l'usage abusif de caractères Unicode ou ASCII dans les balises <title> ou <meta> est bien considéré comme une forme de spam par les équipes qualité du moteur, pouvant justifier une pénalisation du site. Google, fidèle à l'esprit de ses guidelines, décourage clairement l'utilisation de ce type de technique.

Reste à savoir ce qui relève de l'abus ou pas. Google ne souhaite volontairement pas fixer de limites claires, afin de ne pas légitimer un usage même léger de la technique. On en revient donc à la question suprême, qui est à l'évaluation du spam ce que le rasoir d'Occam est à la science : "Ce qui est fait est-il fait pour l'utilisateur, ou bien uniquement pour les moteurs de recherche ?".

20/06/2008

La définition SEO du vendredi : Trusted Feed

Trusted feeds : Levier de promotion unique cumulant les inconvénients respectifs du référencement naturel et ceux des liens sponsorisés, à savoir une visibilité aléatoire assortie d'un coût au clic élevé.

< 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 >