fastclemmy.com

Le petit monde de la mesure d'audience s'est agité dernièrement avec la publication d'un communiqué de Nielsen//NetRatings (PDF) annonçant l'apparition de la notion de "minutes totales de visite" comme indicateur important pour mesurer l'audience d'un site. C'est un peu l'apparition des stats 2.0, et c'est tout dire...

Jusque-là, les parangons de la statistique web étaient la page vue ou le visiteur unique. Ces deux unités de mesure étaient toutefois déjà sujettes à caution. En effet, les pages vues étaient gonflées artificiellement avec différents stratagèmes plus ou moins grossiers (rafraîchissement automatique des pages, framesets, cheminement de navigation conçus pour multiplier le nombre de pages à afficher, etc.). De même pour les visiteurs uniques, dont aucune définition ne fait l'unanimité, notamment sur la période de temps pendant laquelle le visiteur est considéré comme "unique".

Et voilà donc que Nielsen//Ratings remet sur le devant de la scène une unité de mesure bien connue : le temps de visite (en minutes). Et le communiqué de presse de mettre en avant les changements induits par l'auto-proclamé web 2.0, une "implication" des internautes qui serait plus grande, parce que les gens passeraient plus de temps à regarder des vidéos sur Youtube... Exit la page vue, bonjour les minutes !

Seulement cette mesure s'avère encore plus aléatoire que les précédentes : comment mesurer l'audience de quelqu'un qui a 15 onglets d'ouverts en permanence ? Comment garantir qu'une page est consultée alors que l'internaute est peut-être parti faire autre chose en laissant son ordinateur allumé ? En réalité, un internaute qui passe peu de temps sur chaque page de votre site est peut-être beaucoup plus "impliqué" que quelqu'un qui ouvre une page et met une minute à en lire son contenu car il sera distrait par autre chose... Tout cela ressemble plus à de la mystification qu'à de la rationalisation statistique.

On est bien loin en réalité d'un tracking ultra-précis des internautes, mais cela, Nielsen//Netratings se gardera bien de vous le dire. Les problèmes techniques (internautes sans javascript, multiplication des robots, imprécision des adresses IP, etc.) font que la promesse d'une analyse d'audience ultra-précise est un mythe. Il y a autant de types d'utilisation d'un site web que d'utilisateurs. Tout au plus pouvons-nous déduire des grandes tendances et des dynamiques dans la vie d'un site.

S'il ne faut jamais faire confiance à ses utilisateurs, il faut encore moins faire confiance à ceux qui prétendent les connaître !

#webMarketing

L'un des freins potentiels à l'achat en ligne, c'est le service client. Sans boutique physique, difficile de se déplacer pour faire des réclamations. On est donc obligé de compter sur la bonne volonté du service client a fortiori par email. J'ai pour ma part été bluffé par la qualité et l'efficacité de celui d'Amazon.fr.

  1. Vendredi 9h02, je vais à la Poste pour récupérer ma commande (5 livres)
  2. Vendredi 9h26, je déballe le colis et m'aperçois que les couvertures de 2 livres sont un peu enfoncées. Dommage, car si j'achète en ligne c'est justement pour éviter les livres abîmés en librairie.
  3. Vendredi 14h30, j'envoie un email au service client via le formulaire adéquat pour leur indiquer que je suis un peu déçu que la marchandise livrée soit détériorée (malgré l'excellent état général du conditionnement)
  4. Vendredi 18h59, je reçois un e-mail d'Amazon me proposant au choix un remboursement de 10% de ma commande directement sur mon compte bancaire ou une procédure de renvoi des produits pour remboursement intégral
  5. Lundi 14h03, je clique sur le premier lien de l'email et remplis un rapide formulaire pour confirmer que j'accepte le remboursement de 10%.
  6. Lundi 14h21, je reçois un e-mail d'Amazon qui me confirme que ma demande a été prise en compte
  7. Mardi 8h06, je reçois un dernier mail me confirmant que le virement a bien été effectué sur mon compte

Voilà ce que j'appelle une relation client efficace ! Simplicité de la procédure, réactivité, remboursement direct (pas de bon à valoir sur un prochain achat), les concurrents d'Amazon peuvent en prendre de la graine !

#webMarketing

Tandis que certains s'escriment encore à blablater sur l'éculé Web 2.0, d'autres se lâchent pour que l'on siffle la fin de la récréation. C'est le cas de Nova Spivack sur son blog dans un billet d'humeur dont vous trouverez ci-dessous la traduction, avec son aimable autorisation.

Alors que tout le monde se demande ce que pourrait bien recouvrir le terme "Web 3.0", pourrait-on déjà arrêter de tout appeler "Web 2.0" ? J'en ai tellement marre du Web 2.0 !

Le Web 2.0 est un mythe, le web 2.0 n'existe pas. C'est toujours le même web, avec plus de fonctions collaboratives, plus de tags, plus d'AJAX. Jusqu'à présent, le Web 2.0 n'a rien amené de bien spectaculaire. En plus, la plupart des applications web 2.0 qui inondent le marché auront disparu d'ici quelques années. A peu près n'importe qui peut mettre de l'AJAX dans une page, ajouter quelques tags et faire une belle interface. Mais ce n'est pas suffisant pour créer de la valeur sur le long terme.

J'ai déjà vécu ça, c'était il y a à peine 10 ans à l'époque de l'émergence des applets Java. J'en sais quelque chose, j'avais lancé http://www.gamelan.com, LE portail des applications Java. Hé bien devinez quoi, 10 ans plus tard que reste-t-il de ces applets Java ? Pas les centaines de milliers de petites applets que les gens avaient faites (bien que certaines étaient vraiment formidables). Non. Elles ont presque toutes disparues. Ce qui reste et qui continue à croître, c'est la plateforme Java elle-même, les grosses plateformes applicatives Java et les outils de développement. C'est ça la vraie valeur.

Il en va de même aujourd'hui. Nous touchons à la fin de la période de fascination pour AJAX et les technologies Web 2.0. Préparez-vous à des spasmes puis des morts violentes. Seules les plateformes robustes et les applications d'envergure survivront. Et devinez quoi ? Ces systèmes n'ont pas été créés en un week-end par 2 types avec un budget de 100 dollars. Ils ont nécessité des efforts importants, à long terme en termes d'investissement et de travail. On parle ici de dizaines si ce n'est de centaines de programmeurs. Le mythe perpétué du Web 2.0 de coûts extraordinairement réduits pour produire des logiciels de qualité se résume à ça : un mythe. Fabriquer un bon logiciel est toujours aussi compliqué, que vous utilisiez Ruby on Rails, C# ou Java, et ça vous coûte aussi le même prix. La possibilité de réutiliser du code open-source est intéressante, mais vous devrez toujours réussir à construire quelque chose de différenciant et de significatif par-dessus tout ça. Et ça, ça demande encore du travail. Et puis franchement, racomoder des petits bouts d'outils open-source parfois inaboutis ou buggués pour faire un système cohérent n'est pas aussi simple qu'il en paraît au départ.

En ce qui concerne les services en ligne, exception faite des coups d'éclat de ceux qui grossissent et se font racheter avant de dépenser vraiment de l'argent, la plupart des sites qui grossissent sont aussi une grosse source de dépense (parmi les coûts : dimensionnement, bande passante, service client, sécurité, maintenance, internationalisation, intégration, API, amendes, etc.). Il n'est en rien plus facile de lancer un site d'envergure aujourd'hui qu'il y a 10 ans. En fait, en faire une réussite commerciale est même plus compliquée : il y a plus d'utilisateurs, de compétiteurs et les attentes des utilisateurs sont plus élevées.

Beaucoup de gens m'ont dit cette semaine qu'ils ne trouvent pas le "Web 2.0" si impressionnant jusqu'à présent et qu'ils espèrent vraiment qu'un nouveau web se prépare, quelle que soit son appellation. La conférence Web 2.0 qui s'est tenue à San Francisco a été décrite comme une grande réussite, il s'est surtout agi d'une séance d'auto-congratulation entre grands noms (récemment rachetés) du secteur. Où est l'innovation ? Où sont les perspectives d'avenir ? Il en est ressorti une conférence centrée sur ce qui s'est passé l'an dernier, pas sur ce qui va survenir l'an prochain.

Mais ce qui s'est passé l'an dernier est déjà tellement dépassé. Et franchement, il manque beaucoup de choses au Web 2.0. Quand Tim Berners-Lee a pensé le Web Sémantique, c'était pour que le web libère son plein potentiel. Le Web 2.0 ne craint pas complètement, juste un peu. Il y a vraiment des idées utiles et apporte du sang neuf par rapport à ce que nous connaissions jusqu'à présent. Mais il pourrait faire tellement mieux !

Soyons francs, au bout du 500e site communautaire en AJAX bourré de tags, on se lasse un peu et on commence à se demander quelle sera la suite. Montrez-moi quelque chose de vraiment nouveau, pas quelque chose que j'ai déjà vu 500 fois. Si c'est si simple de créer une application Web 2.0, quel est vraiment leur intérêt ? La plupart de ces sites fonctionnent la curiosité, une fois passée, jamais nous n'y retournerons.

En ce qui concerne les technologies du Web 2.0, en dehors d'AJAX, de l'idée de mixer des applications (les mash-ups), de faire des widgets, quelle technologie réellement nouvelle est apparue ? Pas grand chose, vraiment. AJAX présentait un intérêt l'année ou elle est apparue, et il est toujours sympa de rendre les interfaces utilisateur plus riches. Mais les questions qui se posent maintenant sont les suivantes : que fait au juste cette belle application AJAX, en quoi est-elle différente de ses 500 concurrentes, est-elle vraiment utile ? L'emballement général pour AJAX est en train de s'essouffler. Nous savons maintenant tous que nous pouvons faire du drag'n'drop, bouger des widgets, réarranger du contenu. YOUPIIIII! Et maintenant ?

Le contenu généré par les utilisateurs, c'est super, et nous nous le répétons tous les soirs avant de nous coucher. Mission accomplie, grands gourous du logiciel communautaire ! RSS et ATOM sont également de merveilleux systèmes de notification et de syndication. Très bien, nous allons tous pouvoir intégrer cela dans nos applications et nos services maintenant. Ca, c'est fait. C'est tout ?

L'aspect collaboratif, c'est important et on aime tous ça. Mais à part pour trouver du travail, recruter ou faire des rencontres (parfois les 2 à la fois), en quoi est-ce VRAIMENT utile ?

Bloguer, c'est sympa et même parfois utile. Très bien, mais les blogs ce n'est que le début, pas le but ultime pour mettre mon contenu sur le web. La publication personnelle n'a pas encore atteint le niveau de sophistication de la bureautique façon 1989. Non seulement les outils d'édition sont primitifs, mais le formatage ou la mise en page des éléments relèvent du fantasme (le petit éditeur de texte où j'écris ne fait pas exception).

MySpace et Youtube sont des succès et des centaines de suiveurs essayent maintenant de les imiter. Je ne sais pas ce que vous en pensez, mais en quoi MySpace est-il différent de Geocities (un service tellement Web 1.0) ? Pour ce qui est de la vidéo, je ne vois pas la révolution à pouvoir voir une vidéo dans une fenêtre et pouvoir envoyer l'URL à mes amis. Certes, c'est joli, mais encore ? On pouvait faire tout ça en 1997. En quoi est-ce fondamentalement différent ou mieux aujourd'hui ? C'est hébergé quelque part ? C'est plus rapide ? Il n'y a pas de plugin à télécharger ? Il y a plus de contenu illégalement mis en ligne pour moi par des entreprises qui valent des milliards ? C'est plus simple à télécharger ? Rien de tout cela ne m'impresionne. On pourrait faire tellement plus avec la vidéo sur le web que de simplement la télécharger et la jouer.

En ce qui concerne le partage de photos, Flickr est super. Nous sommes tous d'accord. Ainsi les deux douzaines de sites de partages de photos. D'accord ? C'était super l'an dernier, et maintenant ?

Parlons des wikis, je les adore, je les utilise, mais j'espère vraiment qu'il ne s'agit pas du processus ultime de collaboration humaine, parce que c'est vraiment primitif et encore très technique (raison pour laquelle les entreprises promouvant les wikis n'ont pas encore réussi à les rendre grand public). Mais il n'y a pas que les wikis, aucune application Web 2.0 n'a réussi à atteindre le niveau d'adoption, de fonctionnalités, d'utilité que les bons vieux produits des années 1980/1990 tels que Lotus Notes. C'est pourquoi malgré un marché potentiel de 100 millions d'entreprises, même des outils comme BaseCamp (l'un de meilleurs outils collaboratifs 2.0) ne comptent qu'un million d'utilisateurs. Il y a encore du chemin à faire !

Regardons du côté de la vente en ligne. Le Web 2.0 a apporté très peu d'innovation. Ebay, Paypal et Amazon sont sensiblement les mêmes depuis des années. Le Web 2.0 n'a pas apporté grand chose au e-commerce d'après ce que j'en sais, à part rajouter un peu d'AJAX et des tags bien sûr. Oh, j'allais oublier, certains sites récupèrent des petites annonces sur plusieurs sites et les centralisent. Devinez quoi les amis, WhizBang! faisait ça dans les années 90. Rien de neuf de ce côté non plus.

J'en ai vraiment assez que le Web 2.0 (terme qui n'a jamais été clairement défini) soit considéré comme "cool", juste parce que... c'est l'étape suivant le Web 1.0. J'ai déjà vu un nombre incalculable de fois toutes les astuces du Web 2.0, maintenant je voudrais voir quelque chose de fondamentalement différent. J'ai vu des multitudes de fonctionnalités simulant des applications et je peux vous prédire que la plupart d'entre elles vont disparaître. Mais quelle sera la valeur qui restera ? C'est ça qui m'intéresse. Il est vrai qu'il y a beaucoup de possibilités d'améliorer le Web 2.0, mais j'en vois déjà les limites et je m'intéresse à ce qu'il y a au-delà de ces limites.

Je veux arriver à une nouvelle frontière. Je veux des outils, des contenus plus intelligents, une expérience web plus riche, plus intégrée, plus unifiée, plus connectée. Un web plus intelligent. Je veux être en mesure de faire des choses que je ne peux pas faire maintenant, pas ce que je peux déjà faire avec quelques tags en plus. Je veux le prochain web, pas le web d'hier, pas toutes les applications "MoiAussi2.0". Je veux le web de demain ou, mieux, le web d'après-demain quoi que vous l'appeliez (ou pas). Faites-moi une faveur, s'il vous plait. Quand le prochain web arrivera, vous ne voudrez peut-être pas l'appeler Web 3.0, mais au moins ne l'appelez pas Web 2.0.

#webMarketing

Vous connaissez tous le Super Bowl, cet incontournable événement sportivo-télévisuel américain qui draine tellement de téléspectateurs que les marques conçoivent des spots spécialement pour l'occasion ?

Et bien figurez-vous qu'un article d'Advertising Age nous apprend que le clip viral Dove Evolution a ramené 3 fois plus de trafic sur le site web de la campagne que le spot diffusé pendant le Super Bowl. Vous avez dit "mass media" ?

#webMarketing

Pas un jour ne se passe sans que l'on ne parle de l'un des phénomènes estampillés "Web 2.0" du moment : Youtube. Son succès fulgurant fait réapparaître en creux 2 enjeux majeurs du web : le modèle économique et la légalité des contenus soumis par les utilisateurs.

Les raisons d'un phénomène

Lancé en février 2005, Youtube permet aux internautes de mettre en ligne et de partager très facilement des contenus vidéo. Simplicité est sans doute le maître-mot de ce service qui a connu un succès quasi-immédiat. Jusque-là, les blagues et les images drôles étaient les reines du contenu que l'on se transmettait par e-mail. A cause de leur poids, de leur format plus ou moins exotiques, la diffusion des vidéos restait marginale.

Youtube a changé la donne en les hébergeant sur ses serveurs et en les diffusant au sein d'un player Flash maison. Coup de maître, en permettant de diffuser les vidéos sur son blog en copiant/collant un petit bout de code, Youtube a bénéficié de l'explosion des blogs sur la toile. Les chiffres sont édifiants : 100 millions de vidéos diffusées par jour, 60% du contenu vidéo disponible sur le web, valorisation possible du site jusqu'à 1 milliard de dollars... Les suiveurs ne se sont pas faits attendre : DailyMotion, Google Video, par exemple. D'autres services équivalents existaient avant Youtube, comme Metacafe, mais Youtube est le service qui semble avoir "pris" et caracole en tête des classements.

Une nécessité absolue : dégager des sources de revenus

Les chiffres d'audience impressionnants s'accompagnent d'un autre, qui l'est tout autant. 1 million de dollars par mois. C'est ce qui partirait en fumée mensuellement pour payer le trafic généré; pas très étonnant car la vidéo est un média gourmand en bande passante.

Comme tous les sites web, Youtube doit faire face à une problématique de rentabilité. Sauf que dans son cas particulier, ce n'est pas le contenu du site qui coûte (puisque ce sont les utilisateurs qui le fournissent gratuitement !), mais l'infrastructure qui le soutient. Et ce n'est pas avec son modèle initial du "tout gratuit" que le site va survivre, ni en brûlant les capitaux injectés par les investisseurs.

Premières pistes explorées par Youtube : des "chaînes" sponsorisées, comme celle de la sulfureuse et indigente Paris Hilton (espérons au passage que cela fonctionnera mieux que son disque). En espérant que cette dose de publicité au milieu du contenu habituel ne fasse pas fuir les visiteurs... A moins que cette manoeuvre ne soit avant tout destinée à un but moins avouable encore : se présenter sous un meilleur jour auprès d'éventuels candidats au rachat.

Une épée de Damoclès : une majorité de contenus illégaux

Le paradoxe qui accompagne le développement phénoménal de Youtube est le fait que celui-ci repose en grande partie sur des contenus illégaux. Car le fond de catalogue de Youtube se décompose en 3 grandes catégories :

  • des extraits de contenus diffusés à la télévision (émissions de télévision, publicités...)
  • des vidéos "virales" (conçues plus ou moins habilement par les annonceurs pour profiter de l'effet boule de neige d'Internet)
  • des vidéos souvent parodiques conçues par des internautes

Ce sont essentiellement les contenus de la première catégorie qui posent problème, d'autant qu'ils sont majoritaires sur Youtube. Si les vidéos mises en ligne ne peuvent pas excéder 10 minutes, il n'en reste pas moins qu'elles violent manifestement les lois du copyright. Youtube et ses concurrents affichent tous la même posture : ils s'engagent à retirer a posteriori les contenus à la demande des ayants-droits. Drôle d'idée que l'on pourrait comparer à un marchand de contrefaçons qui ne retirerait ses faux sacs Louis Vuitton que quand la marque viendrait lui faire la remarque sur le stand de son marché...

Quelques diffuseurs ont bien fait valoir leurs droits pour faire retirer des extraits de leurs émissions de télévision, mais on peut encore estimer à 80% le taux de contenus illicites sur le site. Youtube doit ainsi faire face à un enjeu majeur du web 2.0 : le contrôle de la légalité du "user-generated content". A la merci de poursuites judiciaires, tel Napster à son apogée, Youtube pourrait ainsi être en sursis, servant de cobaye de la vidéo sur le net, en attendant que les grands groupes audiovisuels prennent leur virage radical sur Internet et prennent dans le même temps les mesures qui s'imposent... pour éliminer Youtube.

#webMarketing