mercredi, août 30, 2006

Le Web 2.0 (1/2). (9.10.2005)

Organisée sous la houlette de Tim O'Reilly, le gourou techno-médiatique reconnu du Web, la seconde édition de la conférence "Web 2.0" vient de s'achever à guichets fermés à San Francisco. Elle fait suite à sa première édition début 2004 qui, simplement inspirée par un "brainstorm" entre Tim O'Reilly et John Batelle -- une autre figure tutélaire de l'analyse des évolutions du Web et qui vient de publier aux Etats-Unis un best-seller sur Google "vu de l'intérieur" -- avait seulement réuni quelques curieux et technophiles. En à peine plus d'un an les idées agitées par ce petit groupe ont été largement reprises et amplifiées, donnant naissance à un vrai courant d'intérêt et de développements de toute sorte.


Il est même devenu urgent de délimiter l'étendue du terme "Web 2.0" déjà très débattu, les uns le considérant comme le nouveau buzzword marketing à la mode et lui prédisant une disparition précoce sous les quolibets, les autres comme l'alpha et l'omega des nouveaux modèles de développement du Web. C'était là le thème fédérateur de cette conférence "Web 2.0", version d'octobre 2005.


Précisant que Web 2.0 ne désigne pas une technologie particulière, ni un service spécifique, Tim O'Reilly résume ainsi le coeur des compétences des sociétés Web 2.0 :

- elles proposent des services, par opposition à des progiciels, utilisables même à très grande échelle (dont la valeur même augmente avec le volume de leur usage effectif) ;

- elles contrôlent des données uniques, difficiles et coûteuses à reproduire, qui s'enrichissent avec la croissance du nombre de leurs utilisateurs ;

- elles font confiance à leurs utilisateurs pour co-développer ces services ;

- elles orchestrent le savoir-faire collectif de communautés d'utilisateurs ;

- elles mettent à profit l'effet dit "the long tail" (la viabilité sur le Web d'une longue série de marchés de niche hétérogènes, par opposition aux grands marchés homogènes et grand public du monde réel) ; elles offrent à leurs utilisateurs des services "en kit" leur permettant de créer ces niches commerciales ;

- elles développent des solutions logiciel indépendantes des terminaux des utilisateurs (PC, téléphones, PDA, lecteurs audio-vidéo, etc.) ;

- elles mettent en oeuvre des interfaces utilisateur dites légères, fondées sur les nouveaux standards et protocoles du Web (XML, Javascript, etc.), et des méthodes de développement rapides voire "continues" -- joliment appelées "la Beta perpétuelle".


Recette d'un pot-pourri ou bien nouvelle vulgate des business models du Web ? Il est indéniable, et tous les conférenciers l'ont d'ailleurs volontiers reconnu, que le succès de l'IPO de Google à l'été 2004 et la livraison, à rythme rapide, de services innovants depuis lors, marquent un de ces instants critiques dans l'industrie -- comme l'IPO de Netscape en 1994 l'avait fait à l'époque (Web 1.0). Bousculant les positions établies dans l'industrie du logiciel et ouvrant constamment la voie à de nouveaux usages et de nouvelles formes de développements techniques et commerciaux, Google est devenu, au cours de ces deux dernières années, un modèle et une source d'inspiration. C'est souvent en comparant la manière de faire de Google (et de quelques autres sociétés moins médiatisées comme DoubleClick ou Akamai) avec celles de ses prédécesseurs de l'industrie logicielle et du Web, de Microsoft à Netscape, que la "communauté O'Reilly" tente d'identifier les nouvelles grilles de lecture du Web 2.0.


I. Au centre du Web 2.0, l'utilisateur, tout à la fois consommateur et producteur d'information


In cauda fortuna. "The Long Tail" ou la longue série, est l'idée rendue populaire par un célèbre article de Wired écrit l'année dernière par Chris Anderson à propos des média numériques et des comportements d'achat et de téléchargement des internautes. Chris Anderson notait que si, jusqu'à maintenant, toute l'industrie du spectacle s'était organisée pour s'assurer que quelques titres, en touchant la plus grande masse du public (les "hits"), deviennent des vaches à lait pour les revenus des droits associés et publicitaires, la banalisation du Web et le coût, en chute libre, des lecteurs audio-vidéo, du remixage et de la constitution de playlists par les auditeurs eux-mêmes, permettait maintenant de servir individuellement tous les goûts à moindre coût. (Steve Jobs vient de le démontrer brillamment avec le succès mondial de la combinaison iPod/iTunes.) La collection des appétits individuels, devenue directement adressable et exploitable grâce aux avancées technologiques, constitue alors un marché encore plus vaste que celui des hits grand public. "The Long Tail" décrit ce phénomène, la longue asymptote de la courbe de consommation des titres : à une extrémité, beaucoup de gens consomment le même titre, le "hit", mais à l'autre, bien plus longue, une série d'innombrables petites communautés de gens consomment une longue série de titres spécialisés, moins populaires.


Des succès comme celui d'eBay et celui d'Amazon dont les revenus, pour ce dernier, viennent autant de la vente des best-sellers que de celle de la multitude de titres spécifiques ou confidentiels disponibles sur son site illustrent parfaitement ce principe. Dans un autre domaine, celui de la publicité en ligne, Overture et surtout Google avec AdSense permettent d'utiliser pratiquement n'importe quel site comme espace publicitaire alors que leur prédecesseur DoubleClick, qui vend un progiciel, ne peut offrir que l'espace publicitaire, forcément plus restreint, même si plus visité, du réseau de ses seuls sites client.


De manière analogue on peut comparer Akamai dont le réseau de serveurs de cache permet d'accélerer la diffusion des pages les plus demandées, les hits, et BitTorrent (et les autres programmes peer-to-peer) qui accélèrent la diffusion de toutes les pages, en jouant simultanément le rôle de client et de serveur dans une forme de mémoire distribuée.

La référence aux réseaux de pair à pair nous amène à une seconde notion importante dans l'élaboration du Web 2.0 : la sagesse des multitudes.


Au vu du développement rapide des communautés d'usage du Web, dont le dernier exemple en date est à chercher dans le fantastique développement des blogs (plus de 10 millions recensés à ce jour), l'idée que le nombre et, plus précisément, la multitude pouvait avoir plus de valeur que la somme des individus a repris corps auprès des observateurs. Un large groupe d'individus, organisé en réseau, peut résoudre de manière pratique et peu coûteuse des problèmes dont la complexité dépasserait l'expertise individuelle de tout spécialiste. Cette notion apparemment contre-intuitive se trouve illustrée dans le livre "Wisdom of Crowds", de James Surowiecki, par de nombreuses références dans les domaines politique, économique et social. Reprise par les technophiles et appliquée au Web, cette doctrine sert à légitimer quelques grandes priorités guidant la prise en compte la position centrale de l'utilisateur dans le nouveau Web 2.0 :

- ce sont les utilisateurs qui créent de la valeur ajoutée : le succès d'un service Web 2.0 repose sur le fait que ses utilisateurs ajoutent eux-mêmes information et données au service en question. Exemples : les revues et les listes d'Amazon, le scoring d'eBay, l'algorithme PageRank de Google et dans les versions modernes, des services Web 2.0 comme Wikipedia, del.icio.us et graph.icio.us, Flickr, Cloudmark, etc.

- faciliter l'effet réseau, décrit originellement par Kevin Kelly, l'apôtre de la "Nouvelle économie" (cf. son livre "New Rules for the New Economy") que l'on ne se lasse pas de réinventer et qui sera peut-être reconnu comme un précurseur. Sachant que seule une minorité d'utilisateurs prendront effectivement le temps d'ajouter des données, c'est donc le service lui-même qui doit automatiser l'agrégation de ces précieuses données comme simple effet de bord de son utilisation. Exemples : Technorati collectant des statistiques sur les blogs dont les auteurs n'ont rien de plus à faire qu'y adjoindre quelques "tags" ou mots-clés, RSS (Real Simple Syndication) qui en automatisant la syndication simplifie et encourage la réutilisation et la diffusion de l'informaiton, les "microformats" de Technorati, etc.).


Enfin, les services Web 2.0 se doivent d'être superbes et faciles d'usage pour attirer le plus grand nombre d'utilisateurs : une de leurs caractéristiques essentielles est donc une interface utilisateur riche et particulièrement interactive. Dans la section suivante nous verrons les implications techniques de cette nécessité sur l'architecture Web 2.0, mais signalons tout de suite que les versions actuelles des navigateurs Web embarquent suffisamment de nouvelles fonctions pour le rendu d'interfaces graphiques de très grande qualité et comparables aux applications client traditionnelles type Windows, Gnome/KDE et Macintosh. Des services comme Google Maps, TiddlyWiki, Writely pour l'édition de textes en ligne, Backpack pour la gestion en groupe de projets, Rojo pour la lecture et l'annotation des flux RSS, démontrent amplement le niveau d'interactivité aujourd'hui accessible. Les équivalents de Flash, comme le logiciel libre Open Lazslo, les formats ouverts de dessin vectoriel comme SVG, contribuent également à la généralisation d'interfaces Web riches et interactives.


Tout doit être fait dans le Web 2.0 pour venir vers l'utilisateur et le faire venir aux nouvelles applications, considérées comme des services. Son rôle est doublement essentiel : l'utilisateur 2.0 est bien sûr consommateur de services, comme il l'était comme utilisateur 1.0, mais il a maintenant son mot à dire, son tag à laisser, son clic à faire enregistrer, son blog à publier. En consommant les services Web 2.0, il en est également incrémentalement le producteur, en les bonifiant, en les enrichissant et en les composant pour en créer de nouveaux, de façon pratiquement continue, progressive au rythme d'un renouvellement incessant.

ShareThis