Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à mon nouveau blog SEO

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

7/02/2007

Analysez vos liens avec Google

Le service d'outils pour webmasters Google s'enrichit de nouvelles fonctionnalités, avec l'apparition d'une rubrique "liens" dans son interface (accessible uniquement une fois que Google aura vérifié que vous êtes bien le gestionnaire du site).

L'outil propose ainsi l'accès pour chacune de vos pages indexées à une liste des liens externes ou internespointant vers ces pages, avec mention de la date de la dernière indexation. Chose très intéressante, l'ensemble des données est téléchargeable au format CSV, ce qui facilite les traitements et analyses ultérieures.

Attention cependant : bien que la quantité de données soit infiniment supérieure à celle retournée par la commande "link:" (56018 liens pour ce domaine par exemple), l'outil ne garantit pas que tous les liens y soient présents, et limite à 1 million le nombre maximum de résultats retournés. D'autre part, il semble que les données ne soient pas mises à jour en temps réel : ainsi à la date d'aujourd'hui (7 février), je n'ai pas pu trouver de liens indexés postérieurement au 15 janvier.

Ces limitations évoquées, il s'agit néanmoins d'un excellent outil, supérieur à Yahoo Site Explorer en ce qui concerne le nombre de liens retournés et les possibilité d'export (limitées à 1000 liens chez Yahoo).

1/02/2007

Un nouvel agrégateur dédié à l'accessibilité

Sébastien Delorme, déjà co-auteur de Tentatives Accessibles, vient de lancer Planète Accessibilité, un agrégateur consacré à l'actualité francophone de l'accessibilité numérique.

Assurément une très bonne initiative :)

29/01/2007

Fujitsu offre des logiciels d'évaluation de l'accessibilité

La firme Fujitsu vient de sortir trois nouveaux outils destinés à l'évaluation de l'accessibilité des pages web :

Web Accessibility Inspector permet de juger de l'accessibilité d'une page selon les critères WCAG et Fujitsu. Il existe déjà un certain nombre de validateurs, mais je trouve le rapport produit par Web Accessibility Inspector particulièrement clair. En particulier, une icone loupe permet d'accéder directement à l'élément posant problème, celui-ci étant mis en évidence par une bordure clignotante.

Color Selector permet lui de selectionner des couleurs et d'apprécier en temps réel leur lisibilité pour différents troubles de la vision (cataracte, protanopie, deuteranopie, tritanopie).

Enfin, Color Doctor permet de simuler en temps réel les troubles de perception de la couleur pour tout document affiché à l'écran, ainsi que de sauvegarder des captures des simulations.

Les trois logiciels sont disponibles à la fois pour Windows XP et pour Mac OS X.

28/01/2007

W3 Campus les 30 et 31 mars à Marseille

L'édition 2007 de W3 Campus, organisé par Webmaster Hub, aura lieu les 30 et 31 mars à Marseille, patrie de Marcel Pagnol, de la bouillabaisse et de "Plus belle la vie" :)

Tout comme l'année dernière, j'aurais le plaisir d'y intervenir pour parler de référencement. Le référencement ne sera cependant qu'un des aspects de cette édition, axée sur la génération de trafic et le e-marketing.

Cette année, le séminaire se fera en mode résidentiel, afin de faciliter les échanges informels entre les participants. L'hôtel Best Western Bonneveine Prado a donc été requisitionné à cet effet, et accueillera intégralement le séminaire, à l'exception de la soirée de clotûre, qui aura lieu... sur le Marseillois, une goélette de 42 mètres amarrée dans le Vieux-Port.

Le nombre de places est limité à 150, n'attendez donc pas trop pour réserver. J'avais été favorablement impressionné par la première édition de W3 Campus, bien plus conviviale et riche en échanges et informations que certains autres évenements auxquels j'ai pu participer. Nul doute que cette édition sera tout aussi sympathique :)

26/01/2007

Adam Lasnik revient sur la densité des mots-clés

Dans un fil de discussion sur le newsgroup d'aide aux webmasters, Adam Lasnik, ingénieur chez Google, revient sur la notion de densité des mots-clés :

"Ecrivez naturellement. Ce que nos algorithmes veulent voir, ce sont des documents qui évitent ces deux extrêmes : d'un coté, ne contenir aucun mot-clé pertinent dans la page, de l'autre afficher une densité des mots-clés telle que si votre professeur de français vous lisait, il vous taperait energiquement sur les doigts, et de façon répetée.

Je vais vous confier un petit secret : il n'existe pas d'indice de densité idéal. Les gens qui affirment que la densité optimale est x% devraient devraient recevoir le même traitement de la part d'un professeur de français, d'un Googler ou d'un webmaster.

Enfin, laissez moi réitérer un point-clé : Le fait de pouvoir trouver des sites se positionnant bien sur un mot-clé donné et pratiquant le "gavage de mots-clés" n'est PAS une preuve que cette méthode soit efficace. Je pourrais tout aussi bien vous montrer une correlation entre le positionnement de certains sites et le fait qu'ils contiennent exactement trois fois la lettre "q"."

Voila qui confirme encore une fois que la notion de densité idéale est une illusion ;)

Les Googlebombs désamorcées ?

Dans un billet sur le "Webmaster Central Blog" de Google, Matt Cutts, Ryan Moulton et Kendra Carattini expliquent que le moteur a commencé à minimiser l'impact des Google bombings, par des méthodes algorithmiques. Désormais, des pages commentant le Google bombing pourront éventuellement apparaître, mais plus le site "googlebombé".

Aucun détail technique n'est fourni, mais il semble que le système soit efficace : les google bombings les plus courants ont en effet disparu, et la biographie de Nicolas Sarkozy n'apparaît plus pour la recherche "Iznogoud".

25/01/2007

Nouveau comportement pour l'opérateur "site:" sur Google ?

Jusque ici, la commande "site:sousdomaine.domaine.com" sur Google retournait uniquement les pages indexées pour ce seul sous-domaine, quel que soit le sous-domaine (www ou autre) considéré.

Il semble cependant que le comportement de la commande "site:" ait changé ces dernières semaines, puisque Google retourne désormais d'autres sous-domaines de premier et second niveau (exemple pour www.msn.fr).

Plus étrange encore : dans certains cas, il semble que le premier niveau de sous-domaine soit pris en compte par la commande, mais pas les niveaux suivants. Ainsi la commande "site:billard.free.fr" retourne bien les pages de ce domaine, mais la commande "site:s.billard.free.fr" retourne les mêmes résultats, comme si le sous-domaine "s" de second niveau spécifié dans la requête était ignoré. Ce comportement n'est toutefois pas constant (exemple avec Lycos).

Le comportement de la commande semblerait donc désormais être le suivant :

  • "site:www.domaine.com" retourne les pages de tous les sous-domaines du domaine.
  • "site:sousdomaine.domaine.com" retourne les pages de ce sous-domaine, mais également des sous-domaines de second niveau.
  • "site:sousdomaineA.sousdomaineB.domaine.com" retourne tantôt les pages du sous-domaine B en ne tenant pas compte du sous-domaine de second niveau A, tantôt les pages du sous-domaine de second niveau A uniquement.

Reste à savoir s'il s'agit d'un bug ou d'une fonctionnalité. Si ce changement est voulu, il est bien malheureux, la commande "site:" étant bien utile pour avoir un aperçu rapide de toutes les URLs appartenant à un sous-domaine donné.

24/01/2007

Des statistiques pour Google Custom Search Engine

Google CSE (présenté ici) fournit désormais des statistiques sur l'utilisation de ses moteurs de recherche personnalisés (celui-là par exemple), directement dans l'espace d'administration des moteurs. Pour y accéder, il suffit simplement de cliquer sur le lien "statistics" dans la page "My search engines". Jusque ici, le seul moyen d'obtenir quelques statistiques étaient de consulter son compte Adsense si l'on participait au programme.

L'évolution du nombre de requêtes est ainsi visible sous la forme d'un graphique pour des périodes d'une journée, d'une semaine, d'un mois ou depuis le lancement du moteur. Le nombre total de requêtes de la période considéree est également affiché, ainsi que quelques requêtes populaires. On peut cependant regretter de ne pas avoir accès à l'intégralité des requêtes, ces requêtes de la "longue traîne" apportant à mon avis une information bien plus utile sur les centres d'interêt des utilisateurs et permettant d'affiner le moteur en conséquence.

18/01/2007

Enquête SEMPO / Jupiter Research sur le marché du Search Marketing

Jupiter Research et SEMPO, l'organisation des professionnels du Search Marketing, organisent jusqu'au 26 janvier 2007 une enquête sur le Search Marketing (avec il faut bien l'avouer une emphase sur les liens sponsorisés) dont les résultats seront rendus publics lors des Search Engine Strategies de Londres en février.

Les participants à l'enquête auront la possibilité de gagner un pass complet pour l'événement.

16/01/2007

Une rencontre sur l'écriture web le 9 février à Lille

Eric Delcroix dans le cadre de Blog en Nord organise à l'Université Lille III une table ronde sur l'écriture web, avec des invités prestigieux : Sébastien Bailly, Jean-Marc Hardy, Gilles Klein, et Xavier de Mazenod, bref une belle brochette d'obsédés textuels ;)

L'entrée est, comme toujours, gratuite mais il est fortement conseillé de réserver sa place via le blog.

A mon grand regret, je ne pourrais être présent pour cause d'obligations professionnelles, aussi je compte sur vous pour les compte-rendus !

12/01/2007

Des statistiques globales sur les moteurs de recherche

Market Share propose en libre-accès ses statistiques sur les moteurs de recherche, basées sur l'étude du trafic de plus de 40000 URLs. Des données sur les parts de marché des navigateurs et systèmes d'exploitation sont également disponibles. Chose intéressante, les données sont exportables dans de multiples format (PDF, Word, Excel, RTF, XML...) ce qui permet de le traiter et de les mettre en forme librement.

La couverture est mondiale, et il n'est pas possible de segmenter les données par région.

(Repéré via Outils Froids)

Interview avec Rafael Mizrahi (Feng-GUI)

La présentation de ViewFinder il y a 2 jours avait soulevé quelques commentaires et interrogations. Rafael Mizrahi, directeur de la technologie chez Feng-GUI et créateur de l'algorithme a gentiment accepté de répondre à mes questions.

Sébastien Billard : Bonjour Rafael, pourriez-vous vous présenter aux lecteurs ?

Rafael Mizrahi : Je travaille dans l'industrie informatique depuis plus de 16 ans. Jouant de la musique et faisant de la peinture, j'ai toujours eu une forte sensibilité pour l'harmonie. Ces deux aspects de ma personnalité m'ont naturellement conduit à l'étude des interfaces utilisateurs, une branche de la recherche informatique.

SB : Quand avez vous commencé à développer cet algorithme ?

RM : J'ai mené des recherches sur la composition dynamique et enseigné durant les 10 dernières années. Mais l'implémentation de ViewFinder à proprement parler n'a débuté qu'il y a 2 ans environ.

SB : Quelles recherches avez-vous utilisé pour mettre au point ViewFinder ?

RM : La question nous est souvent posée, c'est pourquoi nous allons ajouter plus d'informations sur le site à ce sujet. Mais si je devais résumer en un seul mot, je dirai : la saillance (NdT : c'est à dire la capacité d'un élément à ressortir prioritairement lors de la perception visuelle d'une scène, au point de prendre une importance cognitive particulière. Plus d'info dans ce Powerpoint).

L'algorithme ViewFinder crée une carte de saillance du site. Les cartes de saillance ont été développées durant les 25 dernières années par les laboratoires de recherche sur la vision numérique. L'algorithme a été développé puis comparé aux résultats expérimentaux de recherche sur les mouvements du regard, de façon à représenter fidèlement la façon dont les humains sont attirés par les visuels.

SB : Votre algorithme analyse-t-il seulement les contrastes, ou prend-il en compte d'autres stimuli ou comportements ?

RM : ViewFinder prend en compte les contrastes, mais aussi les couleurs, les mouvements, les textures, les flux ainsi que d'autres critères, dans le but de se comporter comme un oeil et un cerveau (modèle "bottom-up", de l'oeil vers le cerveau). Nous travaillons également à inclure dans l'algorithme des capacités de détection des textes et des visages, qui sont des éléments clés de l'attention chez les humains (modèle "top-down").

SB : Qu'entendez-vous exactement par "flux" ?

RM : Qu'il s'agisse de flux, de mouvements, de textures, tout cela se rapport aux motifs que l'on peut retrouver dans les images. Par exemple, prenez une voiture de petite taille (disons 2% de la surface de l'image) suivant une route à flanc de montagne. Les algorithme de détection du mouvement inclus dans ViewFinder peuvent identifier cette voiture, car elle brise la fluidité de la texture de la montagne.

SB : Et concernant le texte, parlez-vous d'analyser le sens des textes, ou seulement leur apparence ?

RM : La détection des textes (en fait leur localisation) ainsi que celle des visages sont utilisées pour déterminer les endroits affichant du texte et des visages. Il s'agit d'algorithmes de classification, qui localisent des motifs, mais n'essayent pas de les comparer à une base de données biométrique ou d'effectuer une reconnaissance de caractères. Il s'agit donc juste de savoir qu'il y a quelque chose d'intéressant à un endroit donné.

SB : Votre outil suggère souvent une attention visuelle portée aux bordures, alors que ces zones sont vides. S'agit-il d'un bug ? d'un artefact ?

Effectivement, un certain nombre de personnes nous l'ont fait remarquer, et nous pensons fournir des exemples et expliquer ces résultats. Ce n'est pas un bug. Bien souvent il s'agit de régions présentant un fort contraste avec la zone intérieure, et ces zones attirent votre attention, même si c'est de façon subliminale et qu'elles ne contiennent rien de significatif. Comme le souligne l'article Psychologie de la forme et symétrie dynamique, "le rythme est au temps ce que la symétrie est à l'espace".

SB : Votre outil n'analyse pas le sens, c'est-à-dire le signifié des éléments. Dans quelle mesure la teneur des textes ou des images affecte-t-elle l'attention visuelle ? L'attention visuelle dépend-elle de ce qui est représenté, ou dépend-elle uniquement de la façon dont les choses sont représentées ?

RM : L'attention peut aussi bien être réflexive, impulsive ("bottom-up") que cognitive, liée au contexte ("top-down"). Elle dépend à la fois du "comment" et du "quoi".

Prenez cette exemple : vous conduisez la nuit, sur une route circulaire. Sur cette route, une voiture est garée, avec ses clignotants allumés. Votre attention est attirée par ces lumière qui s'allument et s'éteignent, une fois ("bottom-up"). Vous continuez votre route, et commencez à ignorer ces lumières ("top-down") parce que vous savez que cette voiture n'aura plus d'influence sur vous. C'est juste une voiture en train de se garer.

SB : Quels sont les projets et développements futurs ?

RM : Notre société Feng-Gui a pour spécialité la perception des visuels, qu'il s'agisse d'attention ou d'attraction. Notre business model est de développer différentes applications de Viewfinder, pour ensuite les intégrer dans les produits d'entreprises leaders telles que Apple, Adobe, Google, Yahoo, etc.

Inflation du prix des Adwords aux Etats-Unis

Selon un article de Marketwatch, certains clients Adwords commenceraient à revoir leur budget Adwords à la baisse, suite à une inflation galopante du coût du clic et à des conversions pas toujours au rendez-vous. Pour certains, leur budget Adwords aurait été jusqu'à doubler.

Adwords est finalement victime de son succès : son faible coût comparé à d'autre médias a attiré un nombre de plus en plus grand d'annonceurs, qui enchérissent les uns contre les autres et font grimper le prix moyen du clic. Selon les analystes, cette tendance n'est pas prête de s'inverser. Il est donc essentiel de bien suivre ses campagnes et de mesurer leur retour sur investissement.

C'est l'occasion aussi de rappeler l'importance du référencement naturel, parfois négligé au profit des liens sponsorisés, jugés plus prédictifs et plus faciles à mettre en place : à la différence des liens sponsorisés, le référencement naturel offre une visibilité durable, et chaque clic issu du référencement naturel fait baisser le côut moyen de la visite.

11/01/2007

Humour Googlesque : c'est grave la bravitude ?

Lors d'une recherche sur "bravitude", Google suggère de chercher sur "gravitude". Google deviendrait-il ironique ? ;)

10/01/2007

Un simulateur d'eye-tracking pour tester ses interfaces

Découvert via le blog d'Eliaz, ViewFinder Heatmap est un service en ligne simulant l'eye-tracking (ou oculométrie) d'une page web.

Il ne s'agit pas de réel tests utilisateurs, mais d'une modélisation du comportement de ceux-ci, basées sur des études en neurosciences portant sur l'attention, la perception et la cognition.

Ce que l'outil permet de prédire n'est donc pas tant ce qui sera réellement vu par les utilisateurs (ce qui dépend du contexte d'utilisation) que le potentiel d'attention visuelle des différents éléments de la page.

A lire également : l'évaluation des documents par oculométrie (PDF) par Jean Caelen, directeur de recherche au CNRS

< 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 >