Le Web 2.0 (2/2). (12.10.2005)
II. Le Web comme plate-forme
L'autre face du Web 2.0 est la révolution technique qui le rend possible aujourd'hui. Le Web 2.0 met en avant une nouvelle architecture pour les applications Web, un nouveau mode de développement et de déploiement du logiciel et, peut-être, à terme une redéfinition des droits de propriété intellectuelle associés à ces nouveaux services.
AJAX est le nouveau sésame technologique ouvrant les portes des salons, ou plutôt des séminaires techniques des "geeks" et autres "hackers" comme FooCamp et BarCamp. Mis en oeuvre brillamment dans les services GMail et Google Maps - encore Google ! - AJAX est un terme générique qui recouvre des recettes variées de programmation, mêlant avec bonheur XML et Javascript (devenus disponibles sur tout navigateur Web digne de ce nom). AJAX vise deux objectifs : doter les services Web d'interfaces utilisateurs riches et interactives, d'une part, et améliorer la perception des utilisateurs de la fluidité de l'exécution de ces services, d'autre part. Pour atteindre le premier objectif, on utilise Javascript dans les pages Web en combinaison avec DOM (Document Object Model), XHTML et les feuilles de style pour ajouter interactivité et visualisations diverses aux services Web. Pour atteindre le second objectif, on utilise des requêtes (en XML) dites asynchrones vers le serveur, qui, exécutées à l'arrière plan, donnent à l'utilisateur impression de rapidité, voire d'instantanéité, dans les traitements.
Des développements récents, et en particulier autour de Firefox, le navigateur de la fondation Mozilla, rendent même à l'utilisateur lui-même les outils de redessin des pages Web, pour lui permettre d'individualiser au vol leur affichage dans le navigateur (cf. GreaseMonkey). Couplé au dispositif de requêtes asynchrone XML, AJAX rend très simple la constitution dynamique de nouvelles applications en "collant ensemble" des pages et des services Web de provenance extérieure. Les prosélytes du Web 2.0 ont inventé un nouveau terme pour cette architecture et ce style de programmation, copier-coller à l'échelle du Web, les "mashups" -- terme repris d'ailleurs la semaine dernière dans le très sérieux The Economist, comme annonciateur de la nouvelle tendance des applications Web. Le mashup qui avait été le sujet d'une première théorisation par David Weinberger, dans "Small Pieces Loosely Joined", est depuis lors devenu une forme répandue de programmation de nouveaux services Web par simple composition et juxtaposition d'autres services Web 2.0.
Exemple : le site HousingMaps qui localise sur une carte GoogleMaps les petites annonces immobilières du très populaire site Craig's List, créé par Paul Rademacher en quelques juxtapositions de Javascript. (Plusieurs sites suivent quotidiennement la floraison de nouvelles applications basées sur GoogleMaps, c'est la GoogleMaps mania !)
Derrière le mashup, deux considérations importantes sous-tendent le nouveau style architectural, que O'Reilly contracte en deux formules bien trouvées : "The Perpetual Beta", la version Beta perpétuelle, et "Data is the Next 'Intel Inside'", ou sous les services, les données !
Avec la programmation légère, façon Ajax, le logiciel considéré comme service -- une idée déjà répandue avec des succès comme Salesforce.com et avec la généralisation des offres ASP -- prend tout son sens. La mutation des logiciels qui les transforme aujourd'hui de produits en services (souvent dénotée par les acronymes ASP pour Application Service Provider, fournisseur de service applicatifs, ou SaaS pour Software as a Service) entraîne, à son tour, quelques changements importants dans le business model des sociétés Web 2.0 :
- le rôle d'opérateur est au coeur du métier de la société Web 2.0 : l'expertise en recherche et développement d'un Yahoo! ou d'un Google n'a d'égale que leur savoir-faire d'opérateurs de serveurs, de systèmes et de services. La valeur de Google repose sur la capacité du moteur à indexer incessamment le Web et à accumuler les résultats de cette collecte ininterrompue dans des bases de données servant les requêtes des internautes avec un temps de réponse acceptable. La maintenance et la continuité de ces processus est indispensable au fonctionnement du logiciel Google considéré comme un service. Les secrets de fabrique de Google sont probablement dans l'administration système, l'équilibrage de charge, la maintenance et la répartition des serveurs plus que dans l'algorithme de recherche lui-même.
- l'utilisateur devient lui-même co-développeur : le suivi en quasi temps réel du comportement des utilisateurs face au flux presque continu des évolutions des services permet aux fournisseurs de les adapter pratiquement au vol aux réactions du marché. La maxime du logiciel libre, "construire des releases tôt et fréquemment", est appliquée ici à plein pour modifier et enrichir de façon continue les services Web 2.0 qui vivent, du coup, perpétuellement en Beta. (Tous les nouveaux services de Google, par exemple, sont toujours qualifiés de Beta sur leur page d'accueil et les nouvelles versions se substituent invisiblement aux anciennes en permanence.) Il y a accélération brutale du rythme de l'innovation ; une accélération rendue possible par le coût très faible des améliorations (programmation légère type Ajax, réduisant temps et coûts de développement, combinée à la notion de service, qui libère fournisseurs et utilisateurs des boulets de la diffusion et de l'installation des upgrades et des versions de maintenance).
À ce jour toutes les applications significatives du Web, exemplaires du Web 2.0, sont articulées autour d'une banque de données spécialisée. Exemples : les index de Google, les répertoires et les taxonomies de Yahoo! et de DMOZ, le catalogue, les pages numérisées, les annotations et les revues des acheteurs d'Amazon, la base des transactions (tous les prix !) et celles des acheteurs-vendeurs d'eBay, les cartes de MapQuest, l'archive des pages Web depuis 1996 pour Alexa, etc. La gestion de banques de données immenses, à l'échelle du Web, est évidemment une compétence indispensable de la société Web 2.0.
À l'ère des API (Application Programming Interface) ouvertes et standards -- de XML à RSS, de HTTP à RDF -- la détention du contenu, des données, est plus importante que le contrôle de l'accès. Que l'on jette un coup d'oeil aux notices de copyright des cartes si familières de MapQuest, maps.yahoo.com, maps.google.com ou maps.msn.com -- quelle uniformité d'ailleurs dans les noms de domaine, une jolie preuve de l'acuité de la concurrence entre ces trois là ! -- et l'on remarquera infailliblement le nom de NavTeq ou de TeleAtlas. Sur celles des cartes satellites, le dernier cri des applications Web 2.0, on trouvera DigitalGlobe (et bientôt IGN avec la startup Zoomorama). Remise au goût du jour de la stratégie employée avec succès en son temps par Dolby et, plus récemment, par LucasFilm avec THX, ou par Intel avec le fameux label 'Intel Inside' qui figure toujours en bonne place sur le PC avec lequel cette chronique est rédigée, la question cruciale vient vite à l'esprit : à qui appartiennent et appartiendront donc les données ?
La course à la propriété des données est déjà engagée. Dans le domaine de l'identité et des contacts des utilisateurs, voyez PayPal, acquis par eBay, voyez le "one-click" d'Amazon, le "SkypeID" du spécialiste de la voix sur IP également racheté par eBay, voyez le numéro de téléphone portable que vous avez mémorisé, voyez l'identifiant GMail réutilisable pour Google Talk, voyez LinkedIn et Orkut, les examples prolifèrent. Dans le domaine du calendrier, EVDB est une première tentative de construire le plus grand calendrier partagé du Web suivant une architecture collaborative de type Wiki. Dans le domaine spatial, c'est à celui qui le premier construira la banque mondiale des tags géolocalisés.
Poussons un cran plus loin le raisonnement et considérons la question attenante de la propriété intellectuelle de ces données de grande valeur. Dans le Web 2.0 l'utilisateur contribue volontairement (Wiki, par exemple) à l'enrichissement des données ou cette contribution est un simple effet de bord de la consommation du service Web 2.0 (annotation d'un blog ou d'une page Web par un tag, par exemple). Les données résultent dès lors de la participation collective d'utilisateurs-auteurs. Les analyses du mouvement du Logiciel Libre sont tout à fait pertinentes sur ce point (cf. "Coase's Penguin" de Yochai Benkler, par exemple) et la réflexion légale qui entoure aujourd'hui ces développements peut également apporter un éclairage essentiel -- à ce sujet, il est indispensable que soit traduit en français "Free Culture" de l'avocat Lawrence Lessig, à l'époque où, en France, on s'alarme en haut lieu de projets comme Google Print, exemplaire de cette course au contenu.
Dans le logiciel libre, en effet, le "code" est également le résultat d'un effort collectif et d'un projet divisé en petites quantités -- même si chacune peut représenter nombre de nuits blanches ! -- et des solutions spécifiques, les licences comme GPL et ses dérivées, ont été mises au point pour en tenir compte dans son exploitation ultérieure. Tout l'argument de Lessig, avec CreativeCommons.org (dont le mot d'ordre est "Some Rights Reserved", certains droits réservés et non "tous droits réservés"), est de considérer les principes ayant abouti à ces solutions viables, avec le succès du logiciel libre que l'on connaît aujourd'hui, comme pertinents pour ces nouveaux corpus de données essentiels aux applications Web 2.0.
N'est-il pas en effet normal que Google, qui croît et embellit finalement en recensant les hyperliens que chacun d'entre nous manie librement lorsqu'il ou elle publie une page sur le Web et en comptant nos fréquentations de tel ou tel site, redistribue un accès libre à ces données sous forme d'API simples que nous même emploierons à construire nos propres mashups ? La boucle est bouclée : Google est un immense transformateur redistribuant à chacun, à la demande, l'information collective, plus riche que la somme des données individuelles.
Certains services Web 2.0 opérent déjà en ayant importé ces principes qui guident la communauté des développeurs du Logiciel Libre. Dans d'autres domaines, ces transformateurs de valeur individuelle en valeur collective redistribuée ensuite à la communautés fournissent des exemples d'avant garde du Web 2.0 que Tim O'Reilly et tous les conférenciers de la semaine dernière à San Francisco (et tous leurs alter ego sur le Web, bien plus nombreux, qui lisent et commentent les blogs, les photos, les chats et autres Wikis des premiers) appellent de leurs voeux. Slashdot, par exemple, est une véritable agence de news à destination des "geeks" et des maniaques de la technologie. S'appuyant sur un dispositif sophistiqué de scoring, ce sont les lecteurs qui notent les actualités publiées par d'autres lecteurs qui les ont repérées dans leurs sources préférées (en ligne ou hors ligne), le "réseau de réputation" aboutissant à la sélection collective de la dizaine de communiqués qui intéressera chaque jour le plus la communauté au sens large des lecteurs. Dans le domaine littéraire, en particulier pour les nouvelles, les essais et les récits courts, Kuro5hin fournit un service comparable.
Enfin, la révolution du Web 2.0 ne sera certainement pas limitée au seul PC. La remise au coeur du Web 2.0 d'un utilisateur, lecteur-auteur et consommateur-producteur, entraînera inévitablement la prise en compte de tous les autres "devices" et équipements divers qui l'accompagnent dans sa vie privée, publique et professionnelle. Le trafic SMS et MMS sur les réseaux cellulaires est considérable : il constitue en soi une formidable source de données pour des services Web 2.0. Avec des générations, maintenant livrées à un rythme annuel, de nouveaux équipements effaçant les frontières entre communications audio, téléphonique, photo et vidéo on imagine sans peine qu'ils s'intègreront rapidement au Web 2.0. Les exemples de DoCoMo au Japon et l'extraordinaire succès du lecteur iPod d'Apple couplé au service iTunes viennent illustrer le déploiement explosif du Web 2.0 sur des terminaux non-PC.
Depuis l'explosion de la bulle Internet, observateurs et analystes s'interrogeaient sur quelle pourrait être la nouvelle vague technologique après la succession des trois décades prodigieuses qui avaient précédé le changement de siècle. Et si finalement, après le Web, la nouvelle révolution était tout simplement... le Web. Mais dans sa version 2.0, raffinée et revue, tournée vers des utilisateurs jouant décidément tous les rôles dans une généralisation des échanges et une amplification inédite de la communication.
Références :
http://battellemedia.com/ le blog de John Battelle, auteur du nouveau livre sur Google : The Search, How Google and Its Rivals Rewrote the Rules of Business and Transformed Our Culture.
http://www.web2con.com/pub/w/40/coverage.html le site Web de la conférence O'Reilly, Web 2.0 2005.
http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html un essai de définition du Web 2.0 écrit par Tim O'Reilly en préliminaire à la conférence.
http://www.wired.com/wired/archive/12.10/tail.html The Long Tail écrit par Chris Anderson.
http://longtail.typepad.com/the_long_tail/ Son blog.
http://www.randomhouse.com/features/wisdomofcrowds/ The Wisdom of Crowds écrit par James Surowiecki
http://www.benkler.org/CoasesPenguin.html Coase's Penguin, de Yochai Benkler
http://eventful.com/ EVDB
http://www.housingmaps.com/ Un mashup de Craig's List et de GoogleMaps
http://inlogicalbearer.blogspot.com/2005/05/google-maps-timeline.html et
http://googlemapsmania.blogspot.com/ la GoogleMaps Mania se répand !