Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à mon nouveau blog SEO

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

11/01/2012

Révolution socialiste chez Google

Révolution à venir dans les SERPs : Google vient d'annoncer qu'il allait modifier sensiblement ses pages de résultats, par l'ajout d'informations issues des réseaux sociaux (et notamment de Google+).

Désormais les pages de résultats du moteur pourront afficher des "résultats personnels" c'est-à-dire des contenus avec lesquels vous êtes liés, soit parce qu'ils sont les vôtres, soit parce que des contacts les ont partagé avec vous. Des profils utilisateurs pourront également être proposés à la fois dans les suggestions de recherche et les pages de résultats. Enfin, pour certaines requêtes générales, des profils utilisateurs et des pages Google+ en rapport avec la requête pourront être affichées.

A en croire Google, tout cela est merveilleux. Matt Cutts lui-même tente de nous en convaincre. Malheureusement il nous montre surtout que les résultats sociaux lui ont permis de trouver ce qu'il ne cherchait pas. J'espère au moins qu'il a par la suite trouvé ce qu'il cherchait :) Pour ma part le "Search plus your world" se résume davantage à "Clutter plus your world", et je désactiverai la fonctionnalité aussitôt qu'elle sera activée en France.

(Par contre Google si tu pouvais remettre à son emplacement originel le lien "en cache" dans les SERPs là je te serais reconnaissant...)

13/01/2010

Cours sur le référencement : parties 2 et 3 (moteurs de recherche, search marketing et spam)

Deux présentations à vous proposer cette fois-ci. La première traite des outils de recherche et de leur fonctionnement :


La seconde aborde le Search Marketing dans son ensemble, fournit quelques données-clés et s'intéresse aux techniques de spam :


8/04/2009

Un sélecteur de couleur dans Google Images

J'évoquais il y a quelques semaines la possibilité de recherche par teinte dans Google Images grâce au paramètre "imgcolor". L'intégration de cette fonctionnalité semble se poursuivre puisqu'un sélecteur de couleur est maintenant présent sur les pages de résultats de la version US du moteur. Curieusement, le sélecteur semble n'être visible qu'avec Firefox et n'apparaît pas lorsque d'autres navigateurs sont utilisés (testé avec IE et Google Chrome). Parions que cela sera réglé rapidement :)

24/03/2009

Recherche par teinte(s) dans Google Images

Le moteur de recherche d'images de Google permet depuis longtemps déjà de rechercher des images en couleur, en niveaux de gris ou en noir et blanc. Depuis peu, il est également possible de spécifier les teintes recherchée, un peu comme Multicolr, mais en conjonction avec un mot-clé.

Cette fonctionnalité, pas encore documentée, passe par l'ajout d'un paramètre "imgcolor" dans l'URL des pages de résultats. Ainsi http://images.google.fr/images?hl=fr&q=fleur&imgcolor=pink renvoit des images de fleurs avec une dominante rose.

Il est également possible de specifier plusieurs teintes, en séparant dans l'URL les couleurs par des virgules. Par exemple, http://images.google.fr/images?hl=fr&q=fleur&imgcolor=pink,black retourne des images de fleurs composées principalement de rose et de noir.

Les couleurs utilisables sont les suivantes : "red" "blue", "green", "teal" (turquoise), "purple", "yellow", "orange", "pink", "white", "gray", "black" et "brown".

14/11/2008

Meilleure indexation des PDF par Google grâce à l'OCR

Google indexe depuis déjà longtemps les documents publiés au format PDF (Adobe Acrobat). Si jusque ici la partie indexable de ces documents se limitait au contenu texte, Google est désormais en mesure d'indexer également le texte des images contenues dans les PDFs, par l'usage de technologies de reconnaissance des caractères (OCR).

Cette nouvelle constitue à mon sens une avancée notable pour le chercheur sérieux, puisque l'on trouve fréquemment dans les fichiers PDF de l'information de qualité. A quand l'application de cette technologies pour le moteur de recherche d'images ?

30/10/2008

Multicolr, moteur de recherche d'images par la couleur

Développé par Idée Inc (déjà à l'origine de Tineye, présenté ici-même il y a quelques temps), Multicolr est un moteur permettant la recherche d'images en fonction de couleurs selectionnées dans une palette. Il devient alors très facile de trouver des images d'une dominante donnée (ex : rose, gris), ou mariant différentes teintes (ex : noir et blanc, camaieu, vert jaune rouge).

Multicolr permet actuellement de rechercher au choix parmi plus de 10 millions d'images Flickr ou 2.8 millions d'images du stock photo Alamy.

27/10/2008

123people, moteur de recherche de personnes

Besoin (ou envie) d'en savoir plus sur une personnalité, une connaissance, un collègue, un collaborateur potentiel ? 123people est un moteur d'origine autrichienne spécialisé dans la recherche d'information sur les personnes. 123people agrège en effet l'information disponible sur le web (pages web, réseaux sociaux, images, vidéos, blogs, plateformes de microblogging, emails...) pour la présenter de façon structurée (exemple).

Si le service n'a rien de révolutionnaire en soi et ne remplace pas une recherche manuelle approfondie, les résultats sont plutôt intéressants (bien que perfectibles) pour une recherche rapide sur l'identité numérique d'une personne.

28/05/2008

Le retour de Motrech

Bonne nouvelle ! Motrech, le blog de Jérôme Charron consacré aux outils de recherche est à nouveau en activité, après un silence de presque 2 ans.

Jérôme est désormais accompagné d'Emilie Ogez, ce qui donne un ton original, où chaque auteur répond à l'autre au sein même des billets.

Tineye, un moteur pour retrouver les copies d'images

Proposé en beta privée, Tineye est un moteur de recherche surprenant : il permet en effet de trouver les copies et variations d'une image donnée en se basant sur le seul contenu des images. Tineye est ainsi non seulement capable d'identifier les copies conformes, mais aussi les images recadrées ou retouchées (jusqu'à un certain point).

Le moteur a par exemple été capable de déterminer que cette image était une version recadrée et retouchée de celle-ci, dont je suis l'auteur.

Il est intéressant de constater que Tineye retourne parfois aussi des photos similaires, mais qui ne sont pas des copies, comme cette vue de Bruges, que j'ai cadrée de la même façon.

Bref, un bel outil pour lutter contre la contrefaçon et le vol d'images.

17/01/2008

Les méandres de la recherche universelle : compte-rendu

Je participais mercredi dernier en compagnie de Philippe Yonnet et Jean Veronis à la conférence sur "les méandres de la recherche universelle" à l'occasion des Search Engine Strategies. Pour ceux n'ayant pu y assister (ou ceux ayant déjà tout oublié), voici un transcript légèrement remanié de mon intervention, enrichi de quelques liens, ainsi que l'inévitable Powerpoint (PPT).

Le concept

En quoi consiste la recherche universelle tout d'abord ? Le concept-clé, c'est de présenter dans une page de résultats unique des ressources issues de bases de données spécialisées, au lieu de présenter uniquement des résultats web par défaut. Chez Google, cela donne une page mélangeant des résultats de natures différentes dans une même liste (exemple). Chez Ask, par contre, on a bien une page unique, mais les résultats autres que les pages web sont présentés dans une colonne à part (exemple)

La recherche universelle coté utilisateurs

La recherche universelle est souvent présentée par les moteurs comme une révolution qui permettra enfin d'accéder à toute la richesse du web. On peut comprendre que les moteurs soient enthousiastes vis-à-vis de leurs produits. Pour autant, s'agit-il d'une panacée ?

L'adjectif "universel" en lui-même est déjà trompeur : en guise d'univers, c'est surtout l'exploration de la galaxie Google qui est facilitée. De l'univers à la galaxie, ce n'est pas la même échelle. La recherche n'est pas si "universelle" que cela : la recherche universelle ne donne pas accès aux documents pourtant accessibles mais non indexés par le moteur, et encore moins au web invisible.

Une autre question qui se pose : est-ce un progrès pour l'utilisateur ? En général, les utilisateurs aiment peu le changement, et ils ne cherchent pas non plus à avoir l'interface la plus efficace possible. Ce qu'ils apprécient, c'est une interface qui fonctionne et leur permet simplement d'accomplir leurs tâches. Depuis des années, le modèle d'une page présentant uniquement des pages web s'est imposé. Les utilisateurs ne seront-ils pas désorientés si on ajoute à ces pages des images, des vidéos, des actualités, des images etc. ? Les images et les vidéos, de par leur saillance, n'affectent-elles pas la lisibilité des pages de résultats, comme semblent le suggérer quelques études d'eye-tracking ? On peut également noter que des interfaces similaires à ce que propose la recherche universelle existent depuis plusieurs années. Pourtant elles n'ont jamais vraiment décollé…

Bien sûr, Google nous dit qu'il s'agit de "briser les silos de l'information". C'est vrai que ça présente toujours mieux de dire que l'on va "libérer" quelque chose plutôt que "segmenter" : cela fait appel à la notion de liberté, avec tous les à-priori positifs qui vont avec. Pourtant, les silos sont bien pratiques : d'ailleurs ne les a-t-on pas inventés pour stocker et protéger le bon grain? Briser ces silos sans que cela soit demandé par l'utilisateur, n'est-ce pas prendre le risque d'introduire de l'ivraie, du bruit dans sa recherche ? Car les utilisateurs, même s'ils ne l'expriment pas savent en général ce qu'ils cherchent. Et ils savent d'ailleurs s'approprier les bons outils quand ils en ont besoin : Google Images est par exemple le second service de recherche le plus utilisé de Google.

Avec la recherche universelle, ce que Google propose, ce n'est pas vraiment une amélioration dans la pertinence : il ne s'agit pas de présenter de meilleurs résultats, mais juste une plus grande diversité de résultats, dans l'espoir que parmi ses résultats l'internaute trouvera son compte. Pour prendre une image guerrière, Google fait le choix de mitrailler sa cible au lieu d'affiner sa visée. C'est un choix défendable, mais ce n'est pas à mon avis une amélioration qualitative.

Enfin, dernière question : comment comparer la pertinence de ressources de natures très différentes, comme une page web et une vidéo ? Quand il s'agit de comparer deux textes, cela est déjà difficile, même si on a des éléments objectifs, comme le nombre d'occurrences, leurs places dans les documents etc. Mais dans le cas d'un texte et d'une vidéo ?

Quelques innovations bienvenues

Tout n'est pas cependant négatif. La recherche universelle propose quand même quelques innovations appréciables. Le menu de navigation contextuel est je pense une bonne innovation. Mais il ne s'agit pas quand même d'une révolution majeure : il y a plusieurs années, l'interface de Google permettait déjà d'adresser la même requête aux différents services comme Google News, Google Image, Usenet etc. Ce qui est neuf est juste la contextualisation en fonction de la requête.

Un autre mérite de la recherche universelle pourrait être d'inciter les utilisateurs à utiliser davantage les outils verticaux, une fois que ceux-ci les auront découverts via une page "universelle". Mais il y a là un paradoxe, puisque la page de résultats unique prônée par Google pourrait finalement pousser à la spécialisation des recherches.

La prise en compte de l'intention est aussi bienvenue : une recherche sur "global warming vidéos" affichera par exemple des vidéos dans les pages de résultats, ce qui n'est pas le cas d'une recherche sur "global warming" uniquement.

La recherche universelle et les référenceurs

Après avoir parlé de l'utilisateur, qu'en est-il au niveau du Search Marketing ? La recherche universelle remet-elle en cause les stratégies de référencement telles qu'on les connait actuellement ?

On peut considérer dans un sens que la recherche universelle est une menace. Pourquoi une menace ? Tout simplement parce qu'il y a plus de documents en compétition : là où l'on concourait avec 1.000.000 de pages web, on concourt désormais potentiellement avec 1.000.000 pages web + 12.000 news + 30.000 billets de blogs + 150 vidéos etc. Il peut donc potentiellement être plus difficile de se positionner.

Mais la recherche universelle peut aussi être une opportunité pour le web marketer, qui dispose de nouveaux leviers à activer : il est ainsi possible pour les marques d'acquérir une visibilité dans les pages de résultats par défaut des moteurs grâce à une vidéo, une image, une actualité.

Il faut cependant relativiser tout cela. La menace, si elle est réelle, reste encore limitée : L'implémentation de la recherche universelle est encore partielle aux Etats-Unis, et encore plus anecdotique en France. Philippe Yonnet parlait d'ailleurs de 5% de pages des résultats universelles seulement.

D'autre part, j'ai personnellement de gros doutes sur le "référencement universel" et son retour sur investissement en général, même si des cas isolés peuvent faire croire le contraire : quand on voit les efforts qu'il faut déployer pour développer un peu plus le contenu texte de nombreux sites, je ne pense pas qu'on puisse décemment demander à un client de produire de la vidéo, d'animer un blog, de référencer des images uniquement pour améliorer son référencement. L'investissement serait disproportionné. Par contre, dans le cas où le client décide effectivement de communiquer via la vidéo, ou via le blog il faut absolument prendre en compte le référencement de ces contenus dès le départ, pour profiter éventuellement de la recherche universelle.

17/07/2007

Google plus physionomiste qu'Exalead

Etant donné que Google (via la recherche avancée) comme Exalead (via la "zapette") proposent dans leurs moteurs de recherche d'images de restreindre la recherche au seuls visages, je me suis livré à un petit test pour tester les capacités de physionomiste des deux moteurs.

J'ai donc interrogé chaque moteur sur 30 mots-clés de tous genres en comptant les faux positifs, c'est-à-dire les images considérées comme contenant un visage mais n'en représentant aucun. J'ai considéré qu'était un "visage" une image figurant au moins un visage humain, peu importe le type de représentation : il pouvait s'agir de photos, mais aussi de dessins, d'objets ou de sculptures. Chaque moteur affichant par défaut 20 résultats, ce sont donc 600 images qui ont été testées pour chaque, assez je pense pour que le test soit fiable (les experts en statistiques me corrigeront au besoin).

Lors de ce test, Google a retourné 16 faux positifs, soit un taux d'echec moyen d'environ 2.7%. Exalead s'est avéré nettement moins performant, avec 60 faux positifs, soit un taux d'echec de 10%. Google semble donc 2.7 fois plus efficace qu'Exalead quand il s'agit de reconnaître un visage.

29/06/2007

Digimind publie un livre blanc sur le Web 2.0 et la recherche d'informations

Société française spécialiste de la veille, Digimind vient de publier un livre blanc de 113 pages téléchargeable gratuitement, intitulé "Le Web 2.0 pour la veille et la recherche d'informations".

Le document tente d'abord de définir ce qu'est le Web 2.0, pour ensuite faire le tour de ses apports en matière de recherche d'information et de veille. Le propos y est très équilibré, reconnaissant à la fois l'interêt de ces applications sans pour autant céder au sirènes d'un nouveau web, ce qui en fait une très bonne synthèse pour les étudiants et les "travailleurs du savoir".

Extrait de la conclusion : "Le Web 2.0 : ce mot qui génère énormément de buzz, d'écrits et de blogs spécialisés n'est-il qu'un terme marketing, un courant de mode ? Il est probable que bientôt, on ne l'emploiera plus pour désigner ces nouvelles applications qui seront devenues la norme. Toutefois, ce terme, sorte de parapluie conceptuel qui recouvre les différentes tendances du web nouvelle génération, a le mérite de mettre un nom simple sur un courant du net novateur. Le Web 2.0 n'est pas une révolution ou une rupture technologique mais plus certainement une évolution qui permet de replacer l'utilisateur au centre des réseaux. Cela n'est certes pas très nouveau : Usenet, l'un des plus anciens protocoles de l'internet, bien antérieur au Web, offrait du contenu en ligne créé par l'internaute via les Newsgroups dès les années 1980. Mais les progrès technologiques ont permis d'intensifier cette tendance et de démocratiser l'accès à la création de contenu en ligne et à sa diffusion au plus grand nombre. Potentiellement, tout internaute peut maintenant diffuser ses publications tant les outils sont devenus simples"

29/05/2007

La version 2 de Géoportail en beta

Géoportail, le portail d'information géographique de l'IGN, se dote d'une nouvelle version, proposée en beta.

L'interface a été entièrement revue de façon à afficher plus d'information. Il est ainsi possible de masquer les éléments dont on n'a pas besoin, et d'afficher le site dans en "plein écran" (en fait en exploitant toute la surface d'affichage du navigateur). Les coordonnées géographiques du curseur de la souris sont désormais affichées dans le bas de l'écran.

Mais la grande nouveauté réside surtout dans la sélection et l'affichage de couches d'informations, faisant de Geoportail un véritable SIG : Géoportail est ainsi capable d'afficher en plus des vues aeriennes les cartes IGN, le relief, les limites administratives et cadastrales, les surfaces bâties, le réseau routier et ferroviaire, le réseau hydrographique, les noms et informations sur les communes, les risques naturels... d'autres couches, actuellement en grisé, devraient être mises à disposition par la suite.

On peut cependant regretter la compression un peu forte des images, qui les rend peu agréables à regarder (chose d'autant plus surprenante ques les Pages Jaunes, utilisant les données de l'IGN, affichent une meilleure qualité d'image), et la non possibilité d'exporter les cartes obtenues en format Jpg ou Acrobat.

18/05/2007

Google dévoile sa recherche universelle

Marissa Meyer, vice-présidente des produits de recherche et de l'expérience utilisateur chez Google a présenté lors de la conférence Searchology le concept de "recherche universelle". Selon Marissa,"le but ultime de la recherche universelle est de faire tomber les silos de l'information qui existent sur le web, et fournir la meilleure réponse chaque fois qu'un utilisateur interroge notre moteur. La vision qu'a Google de la recherche universelle est de chercher à travers toutes les sources de contenus indexées, de comparer et d'ordonner cette masse d'informations en temps réel, et de délivrer une page unique de résultats qui offre à l'utilisateur précisément ce qu'il recherche".

Une recherche via l'interface principale de Google n'affichera donc désormais plus uniquement des résultats web , mais aussi des images, des videos ou des dépêches d'actualités, ainsi que des raccourcis contextuels vers les services de recherche spécialisés (exemple : recherche sur "Cheech and Chong"). Pour certaines recherche c'était déjà le cas, mais là, Google généralise et étend le système.

Est-ce un progrès ? J'ai de sérieux doutes. Si les discrets raccourcis de recherche vers les services de recherche spécialisés sont bienvenus, l'affichage de données autres que les pages web n'est lui pas vraiment utile et n'apporte à mon avis que de la confusion. Google prétend fournir "la meilleure réponse", mais Google ne fait ici qu'afficher une plus grand variété de réponses. Où est la "précision" quand on ajoute de l'information ? La précision n'est-elle pas justement dans ces "silos de l'information" qui permettent de mieux définir le perimètre de sa recherche ?

Il ne faut pas se faire d'illusions : si cette recherche est qualifiée d'"universelle", ce n'est pas tant qu'elle donne accès à plus d'information. C'est surtout qu'elle vise à maintenir l'utilisateur le plus longtemps possible dans l'univers Google...

A lire également sur le sujet, le billet d'Olivier Ertzscheid.

10/04/2007

7 raisons pour lesquelles le meta-monde est une utopie

Découvert via le blog de Tom Foremski, "Metacrap" est un essai critique de Cory Doctorow sur les meta-données. Pour l'auteur, "un monde de meta-données à la fois exhaustif et fiable est une utopie. C'est une chimère, basée sur l'aveuglement, la prétention démesurée de quelques geeks et l'opportunisme commercial". L'article date de 2001 et concernait surtout les balises meta, qui ont connu le destin que l'on sait. Mais la reflexion est tout aussi pertinente concernant les systèmes de tags (surtout concernant les points 1, 2, 3 et 7 évoqués plus bas).

7 raisons pourquoi le meta-monde est une utopie :

  • Les gens mentent.
  • Les gens sont paresseux.
  • Les gens sont stupides.
  • Il est difficile de se décrire soi-même.
  • Les classifications ne sont pas neutres.
  • L'unité de mesure retenue influence les résultats.
  • Il y a plusieurs façons de décrire une même chose.

1 2 3 4 5 6 >