Référencement, Design et Cie

Attention ce blog a déménagé et est en lecture seule. Cliquez ici pour accéder à mon nouveau blog SEO

Aller au contenu | Aller au menu | Aller à la recherche © Sébastien Billard

24/11/2011

Davantage de mémoire pour XML Sitemaps (Sitemap Generator)

Si comme moi vous êtes un utilisateur régulier de l'application Sitemap Generator d'AuditmyPC, vous avez probablement déjà été confronté à des messages "memory low" lors de crawls importants (plusieurs dizaines de milliers d'URLs). La faute en incombe non pas à la quantité de RAM de votre machine, mais à la quantité de mémoire allouée à la machine virtuelle Java. Heureusement, il est possible d'augmenter cette quantité de mémoire allouée !

Pour cela (sous Windows 7) rendez-vous dans le panneau de configuration, double-cliquez sur l'icône Java, cliquez sur l'onglet "Java" puis sur le bouton "Afficher" correspondant aux paramètres de l'applet Java Runtime. Dans les paramètres d'exécution, ajoutez "-Xmx300m" (sans les guillemets), cliquez sur OK, quittez le panneau de configuration et redémarrez votre navigateur. Avec 300 Mo de mémoire, XML Sitemaps devrait voir ses capacités de crawl décuplées, 66 Mo étant par défaut alloué à Java.

Note : le chiffre "300" du paramètre "-Xmx300m" correspond au nombre de Mo alloués à l'applet. Vous pouvez revoir cette valeur à la hausse ou à la baisse en fonction de votre système. Pour vérifier que la bonne quantité de mémoire a bien été allouée, dans Sitemap generator cliquez sur le bouton "System" et regardez la rubrique "memory Usage". La valeur "Max memory" doit correspondre à quelques mega-octets près à la valeur que vous avez spécifié.

13/08/2010

85% des internautes préfèrent HTML à Flash !

A l'occasion de mon dernier billet, j'ai pu ressentir combien la mauvaise prise en compte des sites Flash par les moteurs était ressentie comme une frustration par de nombreux webmasters et designers. Mais au dela de l'aspect "bridage de la créativité" je me suis posé la question de savoir la relation qu'entretenaient les internautes avec les sites Flash. En effet un site est en principe conçu avant tout pour ses visiteurs. Il est donc pertinent de s'interroger sur le format de publication qu'ils tendent à privilégier à priori quand ils en ont le choix.

J'ai donc posé cette simple question via Twitter : "Vous arrivez sur une page d'accueil vous proposant deux versions d'un site : Flash ou HTML. Sur quel version cliquez-vous ?". Au final, il s'avère que 85% des répondants favorisent d'emblée la version HTML.

Alors certes l'échantillon est restreint (213 votes) et pas forcement représentatif. Mais quand même, cela fait beaucoup de personnes qui ont un a priori négatif vis-à-vis des sites Flash. D'autant plus que parmi les votants, du fait de la thématique de ce blog, beaucoup sont probablement des geeks, béneficiant de hauts débits et rompus à l'internet...

Alors oui la créativité peut être bridée par les limitations des moteurs. Mais la question à se poser n'est-elle pas alors : "pour qui crée-t-on et quel objectif vise-t-on" ?

21/07/2010

Google "dégueulasse"-t-il le web ?

Dans un billet intitulé "Google dégueulasse le web" l'auteur du blog Froggylink avance la thèse selon laquelle Google "pourrirait" le web en bridant la créativité des webmasters. Pour ma part je ne suis pas vraiment d'accord avec cette affirmation, et je vais tenter de m'en expliquer.

Premièrement, les guidelines Google ne constituent en rien une révolution par rapport aux guidelines antérieures. Tout au plus Google adopte-t-il un ton plus évangélique. De plus, les guidelines actuelles ne diffèrent pas substantiellement des celles des autres moteurs comme Yahoo ou Bing. Ce qu'il faut comprendre, c'est que celles-ci ne sont que la conséquence du fait que la technologie est ce qu'elle est, avec ses limitations. Un moteur de recherche est une machine à indexer du texte, c'est une sorte de loi naturelle et universelle (aujourd'hui du moins). S'insurger du fait que les moteurs ont besoin de texte pour évaluer un contenu, c'est un peu comme s'insurger contre la loi de la gravité qui limite la créativité des ingénieurs en ne permettant pas de faire voler des enclumes. Il est donc à mon avis faux de décrire un Google décrétant d'autorité la façon correcte de construire un site. D'autant plus que Google n'impose pas mais conseille : "En suivant les conseils ci-dessous, vous permettrez à Google de trouver, d'indexer et de classer plus facilement votre site".

Deuxièmement, Google n'a pas inventé HTML et la balise <h1>. Quand il communique, Google ne fait que rappeler le bon usage des balises définies par le W3C au gré des versions successives de HTML (la version 1 datant de 1993), ainsi que les bonnes pratiques en matière d'accessibilité, elles aussi établies par le W3C. Mais peut-être est-ce le W3C qui pourrit le web ? ;)

Troisièmement, coder un site respectueux des standards et accessible n'est en rien incompatible avec une expérience visuelle de qualité. Il suffit de parcourir CSS Zen Garden ou d'autres galeries CSS pour s'en apercevoir. Il est parfaitement possible d'avoir un site graphiquement évolué à partir du moment où l'information est accessible soit sous forme de textes soit sous formes d'attributs alt.

Cela dit, je dois bien admettre que Google a quand même d'une certaine façon contribué à "dégueulasser le web". Mais c'est au travers de son programme Adsense : avant on créait des sites que l'on cherchait éventuellement à monétiser. Maintenant on cherche à monétiser, puis on se pose ensuite la question de comment créer un site en faisant le moins d'efforts possible...

4/05/2010

Les moteurs de recherche représenteraient 10% des pages vues sur le web

Décidemment, Yahoo nous gâte : dans mon précédent billet, j'évoquais les résultats de l'enquête Search Academy, montrant l'importance des moteurs de recherche pour les internautes. D'autres chiffres, présentés par Ravi Kumar et Andrew Tomkins lors de conférence WWW2010 et tirés de l'étude "A Characterization of Online Search Behavior" (PDF) confirment encore le poids des moteurs de recherche dans notre vie électronique. L'expression "moteur de recherche" est ici à entendre au sens large : les auteurs englobent sous ce terme les moteurs de recherche web, les moteurs de recherche multimedia et les moteurs de recherche d'items type Ebay, Amazon etc.

Selon les auteurs de cette étude, 10% des pages vues sur le web seraient des pages de moteurs de recherche, toutes catégories confondues. Les pages de moteurs de recherche web représenteraient 6.2% de l'ensemble des pages vues, les pages de moteurs de recherche multimedia 1.4% et les pages de moteurs de recherche d'items 1.4% également.

Au total, les moteurs seraient directement et indirectement à l'origine de 21% des pages vues sur le web. 8.9% des pages vues auraient pour referer direct un moteur de recherche, auquel s'ajoute 3.5% de pages vues ayant pour referer indirect un moteur.

Autre donnée intéressante pour les e-commerçants : 20.1% des affichages de pages "panier" auraient pour origine directe ou indirecte un moteur de recherche.

16/04/2010

SMO et SEO sont dans un bateau. SMO tombe à l'eau. Qui est-ce qui reste ?

Intéressante étude que celle menée par Scanblog et OpenedMind sur la relation qu'entretiennent les français (les vrais, pas les blogueurs et les SEO) avec les médias sociaux.

A en croire les résultats de l'enquête, si le web en tant que media a su gagner les faveurs des internautes, toutes les sources d'informations qui s'y trouvent ne jouissent pas du même degré de confiance, au moins en ce qui concerne les achats. Les moteurs de recherche apparaissent aux yeux des français comme des sources d'une fiablilité comparable à celle des utilisateurs de produits ou des experts. Le web social par contre est perçu comme étant moins digne de confiance. Même les sites de marques sont vus comme étant plus crédibles que les forums, les réseaux sociaux et les blogs.

Je rejoins donc tout à fait la conclusion de l'étude : "la suprématie des moteurs de recherche incite plus à un bon SEO qu'à un buzz". Facebook n'est pas prêt de remplacer Google en tant que porte d'entrée dans le web (celà dit, un peu de SMO en complément de votre SEO ne peut pas faire de mal, et il faut envisager les réseaux sociaux comme un prolongement de votre communication).

17/11/2009

Surveillez votre réputation dans Google Sidewiki via RSS

Le site SEOmofo donne une astuce intéressante pour surveiller les commentaires Sidewiki relatifs à votre site web, en utilisant les API dédiées. Pour cela, abonnez-vous simplement à ce flux RSS, en remplaçant "www.YOURDOMAIN.com" par votre domaine :

http://www.google.com/sidewiki/feeds/entries/domainpath/www.YOURDOMAIN.com%2F/default?sortorder=updated&includeLessUseful=true

Il est important de conserver le "%2F" après le domaine. Notez qu'en l'absence de spécification du "www" ce seront tous les résultats pour le domaine qui remonteront, y compris ceux relatifs aux sous-domaines.

Le paramètre "includeLessUseful=true" sert à inclure les commentaires considérés comme étant de mauvaise qualité (ce sont souvent les plus dommageables). Le paramètre "sortorder=updated" sert lui à trier les éléments du flux par ordre de fraîcheur. Vous pouvez également ajouter le paramètre "max-results=150", 150 étant le nombre maximal de résultats autorisé par Google (le nombre de résultats affiché par défaut est de 10).

30/10/2009

Le comble de l'humilité

Parmi toutes les pages du web, les pages 404 sont les plus humbles :
Alors même qu'elles s'offrent à votre regard,
Elles soutiendront par leurs entêtes qu'elles n'existent pas.

7/09/2009

Statistiques : le e-commerce toujours en progression

Les données publiées aujourd'hui par Comscore semblent montrer que la fréquentation des sites e-commerce se porte bien malgré la crise (ou grâce à elle ?) : ainsi, la fréquentation des sites marchands audités a augmenté de 21% par rapport à l'année dernière, alors que la progression habituelle est plutôt de l'ordre de 5%. Le secteur de l'habillement est le grand gagnant du shopping virtuel.

14/08/2009

Essai de cartographie des blogs SEO francophones

Une esquisse de cartographie des principaux blogs SEO francophones (Png). Le tout a été réalisé avec Navicrawler et Gephi. Chaque noeud représente un blog, et chaque trait un lien. La taille des noeuds est fonction du nombre de liens entrants émanant du réseau : leur taille n'est donc pas forcément représentative de la popularité à l'échelle du web.

Pour qui connaît la SEOsphère francophone, on distingue bien 2 pôles, avec d'un coté des blogs un peu plus "white" et "corporate" (en haut à gauche) et de l'autre des blogs un peu plus "black" et "funky" (en bas à droite) On note aussi quelques blogs orphelins, apparament déconnectés du réseau.

Il ne s'agit que d'un essai et non d'une cartographie définitive, histoire d'apprendre à utiliser ces outils (Gephi est encore bien buggé). Quelques erreurs sont possibles. J'essaierai de vous faire un didacticiel ultérieurement quand je maîtriserai bien Gephi ;)

31/03/2009

Comment j'ai cassé Google

... Simplement en me rendant sur cette page, équipé de Firefox, ou mieux encore, de Google Chrome ;)

(Page officielle)

9/03/2009

Journée Idemmatic sur les contenus web et le référencement

La journée Idemmatic organisée par les étudiants du Master IDEMM de l'université Lille 3 le 13 mars prochain sera consacrée cette année au référencement, à la rédaction web, et aux contenus numériques. J'y interviendrai en compagnie d'Alexandre Villeneuve et de Yann Lemort à l'occasion de l'atelier "Web analytique et référencement" animé par Damien Selosse.

Plusieurs sujets seront traités au cours des différents ateliers et tables rondes de la journée :

  • Web analytique et référencement ?
  • L'importance de l'image sur le web
  • De la plaquette à une écriture web
  • La télé numérique, la télé d'aujourd'hui ?
  • Internet, une révolution dans le monde de l'information
  • La communication d'entreprise par les réseaux : seul canal?
  • Tous producteurs de l'information : pour quel contenu?

Enfin, l'apéro Blog en Nord organisé au Café citoyen viendra clore cette journée.

Pour vous inscrire, c'est par ici.

28/10/2008

Vérifier l'insertion des tags Google Analytics sur son site

Besoin de vérifier l'insertion des codes de tracking Google Analytics sur l'ensemble de votre site web ?

Deux méthodes au moins s'offrent à vous : la première (repérée chez Captain Commerce) consiste à utiliser le service Sitescanga. C'est assurément la plus simple. La seconde, décrite par le googler John Mueller, consiste à utiliser Wget et Unxtools. Certes, c'est un tout petit peu plus technique et autrement plus geek, mais bien plus puissant également puisqu'il est possible d'adapter la méthode à tout type de tags, et de détecter plein d'autres choses, comme des balises <title> ou <meta> manquantes.

A vous de choisir ;)

17/09/2008

Etude Ipsos sur les usages du web en 2008

L'étude Profiling 2008 menée par Ipsos fournit des statistiques intéressantes sur les usages du web en France.

J'en retiens principalement que la recherche d'information constitue toujours le premier usage d'internet : 77% des internautes affirment ainsi avoir recherché des informations pratiques au cours des 30 derniers jours, et 74% des informations en rapport avec l'actualité. La recherche d'informations liées à l'actualité est d'ailleurs en forte progression depuis 2 ans (+23 points).

2/09/2008

Google sur le point de lancer son navigateur Chrome

Le sujet était évoqué régulièrement, certains y croyant, d'autre étant plus sceptiques (dont moi, je dois bien l'avouer). Mais Google s'apprète bien à lancer son navigateur, en version beta et en open-source, dans 100 pays.

En lisant la BD d'introduction à Chrome, on y apprend un certain nombre de choses très intéressantes : ainsi, le moteur de Chrome est basé sur Webkit, un navigateur open-source également utilisé dans Safari. Etant donné que javascript est une technologie abondamment utilisée aujourd'hui pour les interface web, Chrome bénéficie d'une machine virtuelle javascript écrite à partir de zéro, et spécialement optimisée pour les applications javascript complexes. Ainsi au lieu d'interprêter le code javascript et de l'exécuter, Chrome le compile à la volée en langage machine, ce qui permet son éxécution directe par le CPU, d'où une plus grande rapidité

Un gros accent a été mis sur la stabilité : chaque page web et chaque javascript sont exécutés dans des processus séparés, ce qui permet une meilleure gestion de la mémoire, de meilleurs temps de réponses, et surtout permet en cas de bug de fermer uniquement le processus defectueux au lieu de planter le navigateur.

En ce qui concerne l'interface, les onglets sont un concept clé de Chrome, au point que ceux-ci ont été placé au sommet du navigateur. Il est possible de les déplacer d'une fenêtre à une autre, et chaque onglet comprend ses propres controles (barre d'adresse , boutons précédent / suivant ...). La barre d'adresse va au delà de la simple gestion des URLs et a été baptisée "Omnibox". On y retrouve toutes sortes d'informations : suggestions de recherches, historique des recherches et des visites etc.

La plupart des navigateurs proposent une page par défaut, qui peut être une page blanche ou une URL spécifiée par l'utilisateur. Google Chrome propose une page par défaut générée dynamiquement, qui affiche les 9 sites les plus visités, et les formulaires de recherche les plus utilisés.

Un mode "incognito" a également été implémenté, qui permet d'ouvrir une fenêtre ou rien, ni historique no cookies, ne sera enregistré sur la machine. Enfin, Chrome comprend plusieurs dispositifs destinés à protégér l'utilisateurs des malware et du phishing.

Une dernière chose à noter est que si le navigateur est en version beta, les versions de développement on été testées... par des machines ! Utilisant son infrastructure informatique, Google est ainsi capable dans les 20 à 30 minutes de tester chaque release sur des dizaines de milliers de pages différentes fréquemment visitées par les internautes. Même le rendu des pages a été testé de façon automatique, et Chrome est capable de passer avec succès plus de 99% des tests de rendu de Webkit.

A lire également sur l'impact vis-à-vis de Firefox : "A propos de Google Chrome et du reste" par Tristan Nitot. Et quelques captures d'écran et vidéos sur Techcrunch.

Edit : on peut désormais télécharger Google Chrome.

4/03/2008

Une journée dédiée au contenu web le 18 mars à Lille

Dans le cadre de leur projet de fin d'année, les étudiants du master IDEMM de Lille 3 organisent le 18 mars une journée complète consacrée aux contenus web et multimédias. Lors de cette journée, différents ateliers seront proposés, suivis d'une table ronde à 13h30 sur les enjeux et avenirs des contenus web.

Si vous êtes libre à cette date, ne manquez pas cette journée qui mine de rien réunira une belle brochette d'intervenants de qualité : Gille Klein, David Abiker, Marina Aubert, Christophe Deschamps, Muriel Vandermeulen, Joël Ronez, Jean-Marc Hardy...

Je participerai pour ma part à l'atelier "référencement et contenu éditorial" en compagnie de Damien Selosse, Willy Tenalleau, et Alix Lassaigne.

Pour s'inscrire, c'est par ici.

1 2 3 >