mercredi, août 30, 2006

Libertés individuelles, Internet et P2P : de mal en pis. (30.11.205)


Indice n°1 : Filtrage sur le moteur de recherche de Kazaa


Le 25 novembre dernier, le juge Wilcox de la cour fédérale d'Australie a intimé l'ordre à Sharman Networks, l'opérateur actuel du réseau peer-to-peer Kazaa, de filtrer certains mots clés de son moteur de recherche de façon à interdire l'accès à des morceaux tombant sous le régime du copyright. L'industrie des media, plaignante dans l'affaire, propose actuellement une liste de 10.000 mots clés (noms d'artistes ou de titres) qu'elle veut voir inconditionnellement retirés de l'indexation du moteur de recherches Kazaa. Cette première injonction en vise 3.000 pour l'instant.

Sharman Networks avait originellement proposé d'employer plus de technologie pour donner quelques gages de bonnes intentions à la partie adverse, en faisant appel à la technique dite de marquage ("fingerprinting") par signature pour distinguer le contenu sous copyright du reste et en contrôler l'échange. Pour ce faire, Sharman se propose d'utiliser les boîtiers de la société américaine Audible Magic qui écoutent le traffic sur le réseau et comparent les signatures du contenu ainsi repéré à une base de données de signatures d'oeuvres sous copyright. Paradoxalement, dans le cas australien, c'est l'industrie même des media qui affirmait l'insuffisance de ces mesures seulement technologiques et insistait pour la suppression pure et simple de l'usage des mots clés dans le moteur de recherches.

C'est cette même industrie qui, par la voix de la toute puissante RIAA (Recording Industry Association of America), vantait naguère les mérites d'Audible Magic et lui ouvrait quelques portes à Washington. En fait, l'argument selon lequel les boîtiers d'Audible Magic pourraient, le cas échéant, écouter les flux chiffrés de certains opérateurs de réseaux peer-to-peer au nom de la protection des droits mais en violation du Digital Millenium Copyright Act (DMCA) adopté aux USA en 1998, a peut-être découragé certains de ses supporters de la première heure.

Indice n°2 : Il n'est pas interdit d'interdire Skype dans les Universités


Depuis quelques jours une campagne de publicité en ligne et de courriers électroniques nous invitent avec insistance à nous tourner vers le Pays Basque, et vers Bidart, pour trouver protection efficace contre ce que certains qualifient de "nouveau fléau", Skype. Le "SkypeKiller" est arrivé, quelques semaines après l'interdiction solennelle du Ministère de la Recherche faite aux universités et aux administrations d'installer et d'employer le logiciel de voix sur IP.

Interdiction elle même chargée de relents protectionnistes depuis que Skype est tombé dans le giron de l'américain eBay -- à moi les patriotes économiques ! (À force de gérer par décret de listes d'éléments inadmissibles - à quand l'OPML (Outline Processor Markup Language) républicain ? -, compagnies aériennes interdites de décollage, technologies d'intérêt national désormais sous contrôle, URLs et sites Web "inappropriés" dans le contrôle parental imposé aux FAI, applications et logiciels autorisée et interdits dans les agences gouvernementales, la France devrait bientôt briller au classement de Reporters sans frontières aux côtés de la Chine et de l'Iran ! Enfin un retour aux premières places d'un classement mondial !)


Indice n°3 : Entente "cordiale" entre Bram Cohen et la MPAA

Dans le même esprit, le 23 novembre dernier, Bram Cohen, le fondateur et architecte de BitTorrent s'accordait avec la Motion Picture Association of America (MPAA), le démiurge hollywoodien dont la largeur de vue ne cède en rien à celle de la RIAA, pour interdire l'accès depuis son site à des contenus vidéo sous copyright. BitTorrent, un nouveau protocole d'échange de contenu pour réseaux peer-to-peer a connu un succès fulgurant parce que techniquement mieux adapté aux téléchargements de très gros fichiers, comme -- mais ne le répétez pas -- les "rips" de DVD et autres films aux formats DivX ou Xvid. La MPAA avait auparavant réussi à faire fermer le site LokiTorrent, un hôte BitTorrent, et se faire communiquer les noms et les logs du trafic de tous ses utilisateurs, ainsi qu'à obtenir gain de cause contre d'autres relais BitTorrent aux USA. On imagine l'aimable bras de fer qui a opposé Cohen et la MPAA pour que le premier en arrive à capituler sans condition sous l'amicale pression de l'organisation professionnelle !

Grokster et Morpheus qui voulurent en leur temps faire de la résistance n'ont, eux, pas survécu ! Même si BitTorrent est en train de perdre des parts de marché au profit de eDonkey dans le trafic P2P, qui représente, rappelons le, plus de 60 % du trafic des FAI dans le monde, il n'en est pas moins devenu un des plus grand réseau d'échange sur Internet (cf. étude CacheLogic d'août 2005). Evidemment toutes ces campagnes successives de lobbying et de recours légaux sont complaisamment relayées par la presse, en particulier par la presse en ligne, et amplifiées, comme il se doit, par des media qui sont parties prenantes dans la plupart des cas.


Indice n°4 : Dormez tranquille, on vous surveille

À la veille du Sommet mondial sur la société de l'information à Tunis, les Etats-Unis obtenaient à l'arraché un statu quo préservant leur mainmise sur la gouvernance d'Internet et, plus particulièrement, sur le contrôle des noms de domaine et des annuaires de routage du coeur du réseau via ICANN, une société apparemment de droit privé mais contrôlée de près par le gouvernement américain. Implicitement, les pays les plus répressifs en terme de contrôle d'Internet n'étaient en revanche pas inquiétés et laissés à leurs vélléités d'édification de réseaux-forteresses centralisés et surveillés.


En fait, dans la formidable contre-attaque des propriétaires américains de copyrights contre ceux qualifiés de nouveaux pirates, les opérateurs de protocoles propriétaires et fermés tournés vers les consommateurs, on assiste au développement d'un véritable nouveau réseau, superposé à l'ancien et utilisant à son profit les mêmes ressources qu'Internet ; un "nouveau réseau de surveillance" comme l'identifie Sonia Katyal, professeur de droit à la Fordham University.

L'émergence d'un réseau de surveillance montre la nature paradoxale d'Internet : lieu infini d'expression pour les créateurs et les consommateurs il offre également toutes les facilités pour établir une surveillance tous azimuts (le panopticon de Bentham revu par Michel Foucault). C'est ce paradoxe qui exarcerbe la tension, de plus en plus sensible actuellement, entre propriété intellectuelle et respects des droits privés individuels. Le DMCA aus Etats-Unis, en particulier, a été un formidable encouragement aux propriétaires de copyrights dans le développement de technologies et de méthodes extrajudiciaires de détection, de dissuasion et de contrôle des droits de propriétés intellectuelles.

La mésaventure très récente de Sony BMG illustre parfaitement cette dérive. Depuis plus d'un an, certains des CD commercialisés par Sony BMG installaient, lorsqu'ils étaient joués sur un PC, un petit programme système qui communiquait au site de Sony les informations personnelles relatives à l'ordinateur en question. Ce programme système (rootkit) est doublement critiquable :
(i) il est particulièrement agressif, car si l'utilisateur averti retire le programme "mouchard", son Windows est corrompu et ne reboote plus ! et,
(ii) il est installé à l'insu de l'utilisateur, derrière un autre process Windows qui masque son existence. Cette seconde caractéristique crée une nouvelle vulnérabilité et tôt après sa diffusion, déjà de nouvelles souches de virus exploitaient le masquage Sony pour se cacher à la vue des outils classiques anti-virus.

Révélé par des blogs, ce nouvel excès s'est rapidement trouvé au centre d'une polémique confrontant la blogosphère et l'éditeur de musique qui vit, contre toute attente, le géant japonais reculer et fournir des outils de "déverminage" avant d'annoncer l'abandon de ce système de protection de droits numériques.


Le panopticon numérique, ce nouveau réseau de surveillance émergent sur Internet, sans réel contre-pouvoir est, plus généralement, dans de l'air du temps. Que ce soit dans le "principe de précaution" devenu constitutionnel en France, ou dans la soumission européenne sans discussion, au motif de la guerre contre le terrorisme, à la première sommation des Etats-Unis de transmettre des données personnelles des voyageurs aériens, et de mettre en place de fichiers centralisés d'indications biométriques de ses citoyens venant doubler, tripler ou quadrupler la surveillance déjà active des flux financiers, des plus grands hedge funds aux simples paiements par carte bancaire, les réseaux de surveillance sont déjà multiples, institutionalisés et, au final, demandés et acceptés par ceux-là même dont ils restreignent les droits individuels. (Le sociologue Ulrich Beck, dans son livre La société du risque, avait il y bien longtemps reconnu tous les signes avant-coureurs de ce changement.)


Pour revenir à Internet, il faut conclure aujourd'hui que la menace réelle est que le réseau de surveillance, que tel ou tel événement inopiné permet de relever et d'identifier aujourd'hui, ne devienne le régime normal, la seule modalité de publication et de consommation de contenus numériques. L'artiste Madonna et sa maison d'édition ont signé un accord de partenariat exclusif avec France Telecom pour la diffusion, en avant-première de la sortie mondiale de son nouvel album, de clips diffusés sur le réseau de téléphonie mobile de l'opérateur.

VirginMega, le magasin de vente en ligne de musique de Virgin, a immédiatement acheté la chanson Hung Up sur Wanadoo et l'a remise en vente sur son propre magasin en ligne, voulant signifier son opposition à l'arrivée sur le terrain de la distribution musicale classique des opérateurs de téléphonie et de réseaux. Notons que VirginMega avait déjà eu maille à partir avec Apple sur les formats iTunes et MP3 reconnus par l'iPod et que le Conseil de la concurrence a interdit à Virgin de vendre sur ses sites. L'iPod, qui n'accepte pas les systèmes de DRM, comme celui de Microsoft, généralement adoptés par les distributeurs en ligne, se vend donc d'une certaine façon grâce à la banalisation des MP3 piratés (et ceux, bien sûr, parfaitement légaux du site iTunes dont le catalogue a été dument négocié et payé aux majors). L'histoire ne précise pas comment France Telecom a immédiatement découvert la présence du fichier incriminant sur le site de Virgin, mais gageons que quelques signatures électroniques et autres "bots" en baguenaude commandée ont du détecter ce détournement de droits.


À l'heure où disparaissent Grokster, Morpheus, où Kazaa et BitTorrent se font museler - pour combien de temps ? - par l'industrie, où iMesh arrive en France, où Sony s'imagine qu'il a un droit imprescriptible de contrôle sur nos PC, et où Apple triomphe avec iTunes, on est en bon droit de s'interroger sur l'équilibre réel des droits et des responsabilités sur Internet !
En quoi le RSS bidirectionnel peut-il bien me concerner ? (23.11.2005)

Derrière une annonce particulièrement technique de Microsoft, à propos de RSS, se cache peut-être l’amorce d’un mouvement architectural plus profond illustrant l’impact du Web sur la gestion des données.


RSS qui signifie, selon les uns, Really Simple Syndication (une syndication vraiment simple), et selon les autres Rich Site Summary (résumé complet d’un site) ou encore RDF Site Summary (le RDF étant lui-même un format XML sanctifié par le W3C pour la description de ressources en général), désigne un format XML véhiculant un condensé des informations publiées sur un site Web, sous forme d’un flux qui est réactualisé lorsque sont publiées de nouvelles informations.


On parle aussi de « lecteur RSS » qui sont des programmes, soit indépendants, soit de plus en plus souvent intégrés aux versions courantes des navigateurs Web, décodant, filtrant éventuellement, et affichant « en temps réel » ce format soit seul, soit sur une autre page Web (d’où l’idée de syndication). Ces flux RSS qui circulent sur le Web sont dès lors particulièrement bien adaptés aux fils d’actualités et aux blogs, dont ils permettent, par exemple, une lecture rapide et une agrégation par centres d’intérêt (ce que propose, entre autres, la startup Rojo Networks sous une forme hébergée). Il existe également de nombreux annuaires RSS qui recensent les flux disponibles suivant un classement thématique. Enfin, on trouve aujourd'hui des moteurs de recherche spécialisés dans la recherche dans les flux RSS, comme Feedster et Technorati.


La spécification RSS en est actuellement à la version 2.0 (http://blogs.law.harvard.edu/tech/rss) mais c’est un standard plutôt "de facto" puisque historiquement proposé par des éditeurs comme Netscape et Userland, puis repris progressivement par « contagion » par d’autres éditeurs et par des sociétés de l’industrie des média. Il existe aussi d’autres dialectes XML destinés à la syndication de contenus changeant périodiquement comme Atom mais celui-ci n’est pas fondamentalement différent de RSS et, en pratique, les lecteurs de flux décodent l’un comme l’autre. Dans la même sphère de standards, OPML, Outline Processor Markup Language, au départ développé par le même Userland pour regrouper et identifier les titres d’un texte, a vu son usage amplifié comme standard d’échange de liste de flux RSS ou Atom entre acteurs de l’agrégation et de la syndication de contenus. (Les billets de cette chronique peuvent, par exemple, être lus sous forme de flux RSS à l’adresse URL suivante http://del.icio.us/rss/itrmanagertribune/)


L’annonce de Microsoft est intéressante à double titre. D’abord, et c’est une première, Microsoft propose une extension des formats RSS et OPML, appelée SSE, pour Simple Sharing Extensions, sous le régime de la licence Creative Commons. Cette licence, élaborée par l’organisation à but non lucratif du même nom, se présente comme une alternative au régime légal du copyright américain, dont, et c’est toute la saveur de cette annonce, la rédaction avait été suscitée à l’époque par le procès fait à Microsoft sur sa politique de gestion des droits de ses logiciels. (Lawrence Lessig l’avocat rendu fameux par son rôle dans ces procès Microsoft et auteur de divers pamphlets attaquant le régime actuel du copyright américain – lire « Free Culture », par exemple – est un des promoteurs actifs de Creative Commons.) Mais comme c’est Ray Ozzie en personne, le nouveau CTO de Microsoft, fondateur de Notes chez Lotus, puis de Groove, racheté par Microsoft, expert reconnu sur ces sujets d’agrégation/syndication et de travail collaboratif et, surtout, au positionnement plus « ouvert » que la moyenne des porte-parole de Microsoft qui est l’auteur de l’annonce SSE, on s’en étonnera déjà un peu moins.


Mais l’intérêt réside aussi dans le contenu technique de l’annonce, ces fameuses extensions du format RSS. Positionné par Microsoft comme simplifiant la circulation des flux RSS, en particulier relatifs aux événements des calendriers et aux contacts personnels, entre applications ; il s’agit d’un dispositif de synchronisation de flux RSS, même lorsqu’ils dépendent les uns des autres. L’exemple du partage des rendez-vous sur un calendrier commun est l’archétype de ce type de synchronisation. La spécification SSE propose donc de rajouter un historique des changements aux flux RSS (création, modification et destruction des publications individuelles dans le flux). Ainsi avec SSE, le flux RSS peut être considéré comme une base de données, chaque publication atomique RSS jouant le rôle d’un enregistrement dans une table d’une base de données relationnelle, avec toutes ses opérations de création, de sélection, de mise à jour et de destruction.


Adam Bosworth, un ancien de Microsoft – où il travaillait déjà sur XML – devenu Chief Architect de BEA Systems avant d’être recruté par Google en 2004 comme VP Engineering, s’interrogeait en octobre dernier sur cette même question : s’il est facile de publier (INSERT), lire et filtrer (SELECT) les publications dans le flux RSS, comment fait-on pour les actualiser (UPDATE) ou les effacer (DELETE) dans ce même flux ? Google proposait alors, par sa voix, de mettre en œuvre un mécanisme déjà contenu dans le standard Atom pour actualiser ou modifier les flux Atom (et RSS par analogie) via les déclinaisons moins connues du protocole HTTP. Pour rester bref, le protocole HTTP définit les commandes « GET » et « POST » pour télécharger des pages Web ou envoyer des formulaires : ce sont les plus connues et les plus utilisées. Mais il existe deux autres commandes, « PUT » et « DELETE », pour actualiser et détruire, respectivement, une ressource sur le Web, qui sont si peu usitées qu’en règle générale elles sont mal ou pas implémentées par les serveurs Web. Le « Atom Publishing Protocol », une spécification pour le moment à l’état de draft de l’IETF, propose d’employer ces commandes pour éditer en temps réel, via le simple protocole HTTP, les flux RSS et les rendre ainsi véritablement bidirectionnels.


Pour Microsoft, le RSS bidirectionnel est le moyen de partage d’informations élémentaires entre applications faiblement couplées, relativement indépendantes les unes de autres ; pour Google le RSS bidirectionnel permet de transformer les flux RSS en véritables bases de données munies de toutes les opérations élémentaires de transactions.


Le RSS bidirectionnel, s’il finit par être largement adopté, est tout simplement une proposition assez révolutionnaire de gestion partagée des multiples fragments d’information devenus indispensables dans nos vies professionnelle et quotidienne : contacts, noms, adresses, événements, rendez-vous, réunions, news, opinions, blogs etc. en permanence classés et reclassés selon nos catégories personnelles et incessamment produits et reproduits par diverses applications sur différentes machines (du téléphone portable au PDA et au PC). Le dispositif technique promet une synchronisation généralisée (et sans douleur : heureux sont ceux qui ignorent les subtilités de la synchronisation ActiveSync !) de ces données émiettées mais devenues indispensables.


Et il est heureux de voir que Microsoft choisisse les auspices de Creative Commons pour engager la discussion technique sur ce sujet.
Nouveaux réseaux, mêmes affrontements entre architectures ouverte et fermée. (22.11.2005)

Le débat entre les partisans d’une infrastructure ouverte et ceux prônant une infrastructure fermée trouve aujourd’hui d’autres domaines où s’étendre. Prenons, par exemple, l’annonce récente de la mise en commun des réseaux de messagerie instantanée de Microsoft et de Yahoo!, permettant enfin aux utilisateurs de l’un de dialoguer avec ceux de l’autre : voilà l’illustration d’une stratégie d’ouverture forcée par la présence, au sommet de la chaîne, d’un acteur fermé, bien plus gros, AOL.


La publication en ligne Red Herring a publié les chiffres précis ayant entraîné ces mouvements stratégiques. AOL a enregistré une croissance de 6 % du nombre d’utilisations de sa messagerie instantanée aux USA (en comparant mois sur mois identique l’année précédente) le portant à 49 millions. Microsoft et Yahoo!, en revanche, perdaient respectivement leurs fréquentation à hauteur de 1 % à 24,4 millions pour le premier et de 25,5 à 22 millions pour le second. Il ne restait alors au n°2 et au n°3 qu’à faire alliance et ouvrir leurs réseaux pour lutter contre le n°1, toujours arc-bouté sur une architecture propriétaire.


L’utilisateur trouvera toujours bénéfice à participer à un réseau ouvert. La valeur qu’il perçoit dépend du nombre de personnes avec lesquelles le réseau lui permet d’entrer en relation et du nombre de personnes qui peuvent entrer en relation avec lui ; plus grands sont ces nombres plus grande est la valeur qu’on attribue à sa participation au réseau. (Il y a derrière ces truismes quelques jolies formules mathématiques résumées dans la Loi de Metcalfe qui dit que la valeur pour un utilisateur est proportionnelle au carré du nombre d’utilisateurs du réseau. Plus encore, en ces temps de communautés Web et de « social computing » on peut même légitimer la Loi de Reed qui dit que, si, de plus, on prend en considération la capacité à former des groupes d’intérêts communs sur le réseau, la valeur perçue par un utilisateur est en 2^N où N est le nombre d’utilisateurs qui, pour ceux dont les maths sont bien lointaines, croît beaucoup – mais vraiment beaucoup – plus vite que le carré de N !) Il n’est donc pas étonnant que la demande pousse à l’adoption d’une infrastructure ouverte.


Par contre, pour l’opérateur de réseau en position de leadership (en nombre d’utilisateurs) l’intérêt est opposé. Si cette position a été acquise via un réseau fermé, il est de son intérêt bien compris de conserver son architecture propriétaire et ce malgré l’intérêt individuel de chaque utilisateur. L’exemple de Skype vient à l’esprit dans le nouveau champ de bataille que représente la voix sur IP. On a reproché mille fois à Skype d’avoir choisi et mis en œuvre un protocole propriétaire. On a glosé sur le réveil annoncé des grands opérateurs de réseaux téléphoniques historiques (qui ont vécu cette même révolution il y a fort longtemps lorsqu’il a bien fallu interconnecter les réseaux téléphoniques nationaux et adopter des protocoles communs) et de l’unisson dans lequel ils se sont précipitamment ralliés au protocole SIP pour faire face au nouvel enfant terrible. On s’est interrogé sans fin sur la valorisation de Skype acceptée par eBay lors de son rachat par le géant des ventes aux enchères en ligne. Skype étant le plus gros réseau actuellement, pour un utilisateur qui veut téléphoner en IP vers le plus grand nombre de correspondants, l’incitation économique initiale à rejoindre un réseau, il n’y a pas vraiment de décision à prendre : Skype s’impose, par le nombre. Et c’est un utilisateur de plus et un incrément de la valeur de Skype ! (Il y a, évidemment, d’autres jolies formules mathématiques qui modélisent le phénomène. Dans les réseaux qui croissent par agglomération successive de nouveaux liens et utilisateurs, se forment naturellement des « hubs », points de passage obligés entre paires d’utilisateurs choisis au hasard. Ces réseaux sont sujets à de nombreuses études, sous le nom « scale-free networks », et ont été trouvés dans l’infrastructure du Web, dans l’usage des « tags » dans les sites de « social bookmarking » et même dans les réseaux de relations chimiques des protéines dans la cellule !) Et il est intéressant de noter que eBay-Skype se vante de ses 40 millions d’utilisateurs – comparable à la fréquentation mensuelle de la messagerie instantanée d’AOL.


Dans le cas de Microsoft et Yahoo!, l’annonce faite précise que les deux réseaux vont être liés mais, pour l’instant, pas fusionnés. Chacun essaye de rester le plus propriétaire possible mais de s’ouvrir quand même, gymnastique laborieuse reflétant la tension entre architectures, et « business model », propriétaire et ouverte.
Quand la Chine change le Web. (17.11.2005)

Dans son livre "Comment la Chine change le monde", Erik Israëlewicz argumente et développe la thèse que la formidable croissance économique de la Chine - jamais un pays si peuplé, 1,3 milliards d'habitants, n'avait connu une croissance économique aussi forte, 8 % par an en moyenne, pendant si longtemps, 25 ans - change le monde au moins aussi profondément et durablement que le monde à changé la Chine dans le dernier quart de siècle. La démesure, l'appétit, les moyens et l'état d'esprit qui caractérisent cet essor ont pour résultat de faire basculer les grands équilibres économiques de la planète du côté du consommateur plutôt que de celui du producteur. C'est la demande qui pilote ces renversements de puissance et non plus l'offre que le consumérisme de masse avait établie avec la forme américaine du capitalisme au XXe siècle.

La Chine s'intéresse aussi de très près au monde virtuel. Sur Internet aussi ses 130 millions d'internautes - un nombre en croissance lui aussi hyper-rapide - représentent une "super puissance". Cependant, comme le note le rapport de Reporters sans frontières sur la gouvernance d'Internet, opportunément publié au moment où s'ouvre le Sommet mondial sur la société de l'information, la Chine fait partie de la liste "noire" des pays où la liberté sur Internet est la plus limitée. Mais contrairement à la fameuse liste noire des compagnies aériennes que M. De Villepin ne veut pas voir atterrir en France, qui comportait cinq noms parfaitement inconnus, celle de RSF en revanche en comporte quinze et se lit comme du Bush-Cheney dans le texte : Chine, Corée du Nord, Cuba, Iran, Lybie, Népal, Belarus, Birmanie, Arabie Saoudite, Ouzbékistan, Iran, Syrie, Tunisie, Turkménistan et Vietnam. Que le sommet se passe à Tunis, dans un pays que le rapport qualifie de cyber-répressif, et se déroule dans des rumeurs persistantes d'opération de propagande des autorités et dans des soupçons, apparemment étayés pas les agressions récentes de journalistes et de représentants de la société de l'information en marge du sommet, d'alibi à une orientation répressive de la politique intérieure du pays laisse à penser que rien de concret n'a des chances de déboucher de ces débats.


Où plutôt si : le maintien du statu quo avec l'accord obtenu à l'arraché, la veille même de l'ouverture du sommet, entre Américains et Européens sur la gestion du réseau des réseaux. Une semaine de négociation très tendue n'a abouti que tardivement à un accord assez vide de substance : Washington conserve le contrôle de l'adressage - les fameux serveurs DNS et la cartographie des noms de domaine - au travers d'une société de droit privé, ICANN, qui bien qu'elle clame son indépendance, reste en vérité dans l'ombre politique du ministère américain du commerce (qui siège massivement à son Conseil d'administration). De la proposition de l'Union Européenne visant la mise en place d'un nouveau modèle de coopération qui intégrerait les gouvernements pour les questions de noms, de numérotage et d'adresses sur Internet, il ne reste aujourd'hui que la promesse de la création d'un "forum" international où les questions de gouvernance ne relevant pas strictement de la gestion des noms de domaine et de l'adressage, comme la cyber-criminalité, la lutte contre le spam et les virus, seront discutées sous l'égide de l'ONU.


Des pays comme la Chine, l'Iran, l'Arabie Saoudite ont quant à eux complètement reconstruit et centralisé l'architecture du réseau sur leurs territoires. Cette centralisation, en opposition avec le développement réparti et la croissance protéiforme pourtant caractéristique de l'Internet, leur permet de construire des îlots "aseptisés" dans l'océan de la Toile et de contrôler qui y a, ou non, accès. L'application de technologies de filtrage, achetées dans un premier temps aux Etats-Unis (par exemple à Secure Computing, Cisco ou Sun qui s'en défendent vivement), permet alors non seulement de bloquer et de contrôler l'accès de l'information entrante (l'Arabie Saoudite revendique fièrement le blocage de 400,000 sites !) mais également de mettre en oeuvre une censure, se doublant parfois d'une répression active.


Et suivant le même argument qu'avance Erik Israëlewicz, la Chine, en particulier, est maintenant en passe de peser sur le comportement du monde sur Internet, comme elle le fait dans l'économie du monde réel. On se rappelle qu'en juin 2005 c'était Microsoft qui se pliait aux exigences chinoises et empêchait les bloggeurs chinois hébérgés sur MSN de publier des contenus n'ayant pas l'aval des autorités ; récemment, Yahoo! Hong-Kong livrait au gouvernement chinois les données permettant de localiser le dissident Shi Tao condamné en avril 2005 à dix ans de prison pour "divulgation illégale de secrets d’Etat à l’étranger". De même la Chine devenant progressivement elle-même fournisseur d'accès pour certains pays voisins comme la Corée du Nord, l'Ouzbékistan ou le Kirgistan, elle exporte ce modèle de filtrage sur le mode "viral" chers aux marketeurs du Web de la première heure, accroissant, cette fois de manière active, le contrôle qu'elle veut exercer sur la Toile.


Et en France nous dira-t-on ? Rappelons que, votée le 15 novembre 2001 en urgence, et quasiment à l’unanimité au terme d’un débat inexistant, la Loi sur la sécurité quotidienne (LSQ) a porté à un an la durée de conservation des archives de toutes les activités en ligne des clients des fournisseurs d’accès à Internet. Elle autorise par ailleurs les juges à recourir aux "moyens de l’Etat soumis au secret de la Défense nationale" pour décrypter les messages. Le projet de loi sur l’économie numérique (LEN), présenté par le gouvernement en janvier 2003, a vocation à transposer en droit français la Directive européenne de 2000 sur le commerce électronique. La LEN introduit une clause sur la responsabilité civile et pénale des prestataires techniques. Et en septembre 2005, Dominique de Villepin avait tranché: les logiciels de filtrage et de contrôle parental vont devenir une fonction intégrée à l’accès internet. Si les modalités restent à fixer, les FAI devraient donc fournir et activer automatiquement ces dispositifs. (C'était avant les émeutes, du temps où le contrôle parental n'évoquait qu'un icone supplémentaire dans la guirlande ornant le coin inférieur droit de nos écrans...)


Du coup, entre les exigences maximalistes, et lourdes d'intentions masquées, de la Chine et de l'Iran qui voulaient transférer le contrôle de l'Internet aux Etats via l'ONU et les Etats-Unis, inamovibles dans leur mainmise sur l'Internet, il n'y avait de toute manière guère de place que pour le statu quo.
Moteurs de recherche : Service ou Application ? (15.11.2005)

Au moment où les deux géants des moteurs de recherche « d�entreprise », Autonomy et Verity, fusionnent, de nouvelles startups, moteurs de recherche « verticaux », ne cessent d�apparaître à l�autre extrémité du marché. Trulia pour l�immobilier, SimplyHired pour les offres d�emploi, Healthline pour la santé, Truveo pour la video � à noter que sur ce segment, Autonomy avait déjà racheté Virage en 2003 � et bien d'autres sont autant d'illustrations de ce nouvel angle d�attaque du marché, décidément hyperactif, de la recherche.


À un récent forum (tenu sur le campus de Microsoft dans la Silicon Valley, un de ces rares nouveaux centres de recherche et développement situé hors de son siège près de Seattle), les fondateurs de ces nouveaux moteurs de recherche verticaux ont tous été interrogés sur leur perception de celui qui, pour l�instant, définit complètement le champ de bataille, Google, dans la concurrence acharnée qu�il livre à Yahoo! et à Microsoft.


Une des réponses les plus remarquables, aux yeux même de John Batelle, auteur du livre de référence sur l�ascension vertigineuse de Google (« The Search: How Google and Its Rivals Rewrote the Rules of Business and Transformed our Culture »), fut que si Google sait très bien exécuter des recherches sur le Web, il n�est pas prouvé qu�il soit un très bon éditeur d�applications logicielles. Ce commentaire entraîne naturellement la réflexion vers d'autres questions : quelle est, en effet, le c�ur logiciel (ou progiciel) de compétences de Google (et par extension de ses concurrents Yahoo! et Microsoft) ? Comment cela éclaire-t-il éventuellement leur stratégie de développement et la succession rapide de leurs annonces récentes ? Et, bien sûr, pourquoi ces nouvelles startup se considèrent-elles franchement du côté des applications d�entreprise alors que le débat application versus « Software As A Service » traverse toute l�industrie, provoquant parfois des basculements stratégiques, même chez les plus grands (comme Microsoft qui vient de présenter Windows Live et Office Live) ?


Cette contradiction apparente repose au final sur des acceptions différentes du rôle du moteur de recherche. D�abord, notons que Google sait faire quelques très belles applications comme GMail pour le courrier électronique, GoogleEarth pour la géolocalisation et Blogger pour les auteurs et les lecteurs de blogs (celle-ci résultant cependant de l�acquisition de Pyra Labs), mais la recherche, au sens strict, n�y joue finalement qu�un rôle réduit. Et quand ces grands moteurs généraux de recherche livrent des versions « desktop » de leurs moteurs dans les barres d�outils de nos navigateurs, le résultat n�est pas tellement plus intéressant que celui que l�on obtiendrait avec une indexation « full-text » de moteurs de recherche d�entreprise comme Verity et de nombreux autres. Ces nouvelles startups défendent précisément l�idée de la recherche comme application, en la verticalisant et en la dédiant à un métier ou à un domaine précis, pour l�intégrer à un paysage applicatif du système d�information de l�entreprise. Et à ce jeu là, Google et les autres grands, sont, comme ces startup, des nouveaux entrants. (Le cas de Microsoft serait certainement à isoler, puisque ayant bâti son succès sur les applications du PC d�entreprise.)


Ce raisonnement peut éclairer un des axes de développement de Google, comme le signale John Batelle. Pourquoi Google accorde-t-il une telle importance aux développements Ajax, de GMail à GoogleMaps, à Desktop Toolbar, à Accelerator, à Local etc. si ce n�est parce qu�une application doit offrir une interface graphique riche et une interactivité spécifique à ses utilisateurs ? Contrairement à un Service Web qui fait une chose bien et la même pour tout le monde, une application présuppose une interface robuste et une bonne connaissance des intentions et des compétences des utilisateurs auxquels elle s�adresse. C�est dans la résolution de cette tension, qui anime l�industrie du logiciel depuis l�invention de l�architecture client-serveur, que se situe aujourd�hui le grand gisement d�innovations (cf. les startups Web 2.0, par exemple, et, pour s�intéresser un peu aux champions nationaux, le courant linguistique particulièrement fort qui anime nos moteurs de recherche français mentionnés par Alain Garnier dans son récent article sur ce site).


Au moment où Microsoft réalise, avec Live, que les applications d�entreprise vont aussi devenir des Services Web, Google réalise que la prochaine étape de la recherche serait l�application d�entreprise. Ce croisement est d�autant plus intéressant à observer que chacun d�eux part d�une base, visée par l�autre, pour atteindre celle de son concurrent en évitant de cannibaliser ses propres fondations : Microsoft reste prudemment vague sur le contenu réel d�Office Live, soucieux de préserver sa mainmise sur la bureautique, et Google ne semble guère vouloir pour l�instant s�aventurer au-delà du stade « Beta » de ses applications.
Amazon ou la déconstruction de l'objet culturel. (14.11.2005)

Point n’est besoin d’évoquer Derrida, metteur en scène de la philosophie post-moderne de la « déconstruction », pour s’étonner de l’annonce d’Amazon qui se propose de mettre en vente sur son site la consultation des livres « à la page lue ». Probablement inspiré par le succès d’iTunes d’Apple Computer, qui a bouleversé l’industrie de la musique en ligne en « déconstruisant » les albums par la mise en vente de chansons à l’unité, Amazon a annoncé, la semaine dernière, deux nouveaux services dans un ambitieux programme dit « Innovative Digital Book Program » –– programme d’innovation pour un livre numérique. Le premier, Amazon Pages, permettra, selon le communiqué de presse, aux lecteurs et aux consommateurs de n’acheter que les pages des livres dont ils ont besoin (sic), à la page, à la section, au chapitre ou à la totalité de l’ouvrage. Le second, Amazon Upgrade, complètera ou doublera, en fait, l’acquisition d’un livre sur le site par un accès en ligne complet à son contenu sur Amazon.


Amazon proposait déjà un service en ligne, que ceux que fascine, comme moi, la culture de l’écrit trouvaient extraordinaire à savoir Search Inside qui permet de chercher le contenu même des livres proposés en vente sur le site, dont ces nouveaux services sont présentés comme le prolongement. Déjà assez ébahis par l’idée qu’avec d’un côté Google, pour la recherche instantanée dans le monde virtuel de l’écrit sur le Web, du présent moderne et immédiat, et Search Inside d’Amazon, de l’autre, pour la recherche dans le monde physique de l’écrit, du passé riche, ancien et érudit, nous disposions d’une bonne implémentation de la Bibliothèque de Babel imaginée par J.L. Borges (sans parler de la mémoire de l’immédiat proposée par The Wayback Machine d’Alexa), je dois dire que cette nouveauté nous arrive comme une étrange surprise.


Évidemment l’annonce n’est pas innocente : elle arrive au moment précis où Google Print est arrêté net dans les starting blocks par des considérations juridiques liées au copyright et aux droits d’auteur (Industrie traditionnelle : 1 – Web : 0) mais aussi où Apple, avec la combinaison iPod/iTunes, a fait voler en éclat la mainmise des éditeurs, et de manière retentissante, dans le domaine de la musique (Industrie traditionnelle :0 – Web : 1). Les réactions sont, on l’imagine, nettement scindées en deux catégories. Pour les uns il est difficile, voire inconcevable, d’envisager à quel besoin répondrait l’achat du seul paragraphe 77b du Ménon de Socrate ; pour les autres, au contraire, la perspective de n’acheter que la recette n°3 du livre de cuisine, ou le chapitre 17 de Beginning Programming with Java for Dummies, représente une alternative très séduisante au pensum (supposé ou réel) de la lecture de l’ouvrage.


Sans entrer dans un débat, assez spécieux au fond, il est néanmoins remarquable de constater que cette idée du « livre numérique personnalisé » est une nouvelle illustration d’une notion qui prend corps dans différentes autres sphères liées à la culture et à la transmission des connaissances selon laquelle le « lecteur » ne peut plus se contenter de simplement « lire » (cf. Une Histoire de la lecture d’Alberto Manguel, un précurseur du genre) mais doit devenir à son tour auteur. Mais là aussi, un « auteur » bien particulier, aussi éloigné de « l’écrivain » que peut l’être aujourd’hui le lecteur silencieux du livre au texte figé en comparaison de l’auditeur absorbé par la récitation à voix haute du rhapsode antique déclamant une épopée vivante et improvisée mais néanmoins fidèle à la transmission orale. Ce nouveau lecteur-auteur moderne recompose son ouvrage numérique personnel de bric et de broc, de fragments épars glanés ici et là, de résultats de recherches précises et ordonnées (maintenant outillées avec les moteurs de recherche à l’indexation jamais rassasiée) et de collisions laissées au hasard d’une navigation portée de lien hypertexte en lien hypertexte.


Déjà le « zapping » télévisuel a préparé une génération entière à une forme fragmentée, instantanée, de consommation et de remâchage de l’information. Le clip audio et vidéo, qui fit la fortune de MTV, déborde aujourd’hui sur les mobiles – ironie McLuhannienne, un grand opérateur de téléphonie mobile se payait la semaine dernière encore une pleine page de publicité (écrite !) dans un grand quotidien du soir de la presse nationale pour annoncer un service de diffusion de clip vidéo sur les micro-écrans de nos téléphones cellulaires. La « playlist » devient l’alpha et l’omega de la musique devenue numérique. Le blog débite les opinions et les réactions en petits articles d’une ou de quelques pages. Pour cette même génération la communication personnelle devient aussi obligatoirement immédiate, le SMS supplante le courrier électronique et le téléphone : 160 caractères maximum là où les correspondances entre Mme Sévigné et sa fille s’épanchaient sur des dizaines d’années et des volumes entiers (d’ailleurs indexés, la boucle est bouclée, dans le Search Inside d’Amazon – en anglais !). Dès lors, le pas supplémentaire vers des remix de livres numériques se place en droite ligne de cet éparpillement annoncé et, peut-être, tout à fait "naturel".
Le cas Skype, trompe l'oeil du capital risque européen. (8.11.2005)

Une excitation trépidante agitait la communauté du capital risque européen en transhumance sur la route du pèlerinage annuel vers la conférence ETRE (European Technology Round-table and Exhibition) organisée par Alex Vieux. Ne venait-elle pas, en effet, d’être secouée de sa léthargie par le coup de tonnerre du rachat de Skype par eBay, il y a à peine quelques semaines ? Enfin la « vieille Europe », furent-ils prompts à clamer, pouvait en remontrer sur son propre terrain aux américains ! Désormais, il fallait compter avec les géants du capital-risque « made in Europe » –– et singulièrement « made in Luxembourg » – pour bouleverser le classement des investisseurs mondiaux en haute technologie ! Taïaut ! Le magazine « Real Deals », (« Europe’s private equity and venture capital magazine » dans l’ours, mais quand même entièrement rédigé à Londres par des journalistes anglais…) célébrait en première page les « billion dollar boys » qui avait su redonner confiance au capital risque européen et, je cite, « valider le modèle européen de l’amorçage et de l’early-stage » ! C’est beau comme du Villepin !


Car enfin, soyons sérieux, et sans remettre en cause la performance financière de Mangrove ni le talent de ses gestionnaires à accompagner les fondateurs de Skype, Niklas Zennström et Janus Friis (ex-fondateurs du célèbre Kazaa), l’histoire de l’incubation et de développement de Skype est au contraire porteuse d’une toute autre leçon pour le venture capital européen que cette débauche d’auto-célébration incantatoire ! Si Skype défraya la chronique, au-delà même de la célébrité reconnue de ses fondateurs acquise dans leurs précédentes incursions dans le monde de la technologie et de la finance, c’est aussi et surtout parce que le légendaire Tim Draper, une figure du capital risque de la Silicon Valley, l’excentrique (et fortuné) héritier d’une solide tradition familiale d’investissement en private equity (son père et son grand-père pratiquèrent ce métier avant lui, ce dernier ayant mis en place les plans de reconstruction du Japon et de l’Allemagne après 1945), fondateur en 1985 de Draper, Fisher et Juvertson une firme de capital risque maintes fois couronnée de succès financiers, s’est intéressé tout de suite à l’idée originale d’offrir de la voix sur IP selon le modèle Kazaa. Et c’est bien au travers d’un fonds, basé en Europe, mais gérant une partie de son patrimoine personnel que Tim Draper a fait investir à l’origine dans Skype. Puis que, s’emparant du sujet, il a profité des nombreuses tribunes où il est invité pour se livrer à une promotion incessante de la jeune startup et, plus généralement, de la voix sur IP comme élément déstabilisant du monopole des telcos.


Zennström lui-même raconte que la façon d’analyser une opportunité d’investissement pratiquée par les investisseurs européens qu’il a pu rencontrer aux débuts de Skype est précisément l’antithèse de ce comportement, apparemment plus intuitif, de prise de risque illustré par celui de leur protecteur Tim Draper. Ceux-là se contentaient d’imaginer la valeur présente de la société sur la base d’une « discounted cash flow analysis » avec un taux de 25 % sur 5 ans, d’en déduire une valeur nette présente et terminale pour calculer le taux de rendement interne de la ligne et le comparer à celui promis (parfois de manière hasardeuse) à leur « limited partners ». Si l’évaluation financière est certes importante – quoiqu’on puisse s’interroger sur la validité de méthodes s’appuyant sur des flux de trésorerie pour une jeune startup de quelques années d’âge, mais passons – en faire le seul critère de décision c’est confondre gestion de fonds et risque d’investissement.


Du coup, la leçon est peut-être à nouveau celle du « venture capital » à l’américaine (par opposition à la gestion de fonds en Europe) triomphant de la Silicon Valley, même quand il se niche dans un douillet anonymat luxembourgeois ! Ce point à peine reconnu, apparaissent soudain d’autres exemples récents allant à l’encontre de que les financiers européens aimeraient appeler « l’effet Skype ».


Tournons nos yeux à nouveau vers les USA et observons par exemple des parcours tout aussi fulgurants que celui de Flickr, site de partage de photos en ligne, racheté par Yahoo! Pour $25m il y a quelque mois. Lancé il y à peine un an au Canada par M. et Mme Butterfield, littéralement depuis leur cuisine, Flickr est construit avec des logiciels libres, ou commerciaux mais à bas prix, sur des PC également à prix cassés et avec un effectif restreint et clairsemé. L’estimation de Steve Butterfield est que le lancement du site et ses premiers développements ont coûté un grand maximum de $200.000. La chute vertigineuse des coûts du matériel, des logiciels et, dans certains cas, la banalisation de développements logiciels off-shore à bas prix, réduisent les coûts de démarrage des startup du Web dans des proportions qui pourraient réellement impacter la communauté des investisseurs en capital risque – en tout cas sur ces sujets Internet.


On peut construire aujourd’hui une société Web de services aux entreprises (le logiciel comme service : « Software As A Service », SaaS, nouvelle mantra des zélateurs des Services Web auxquels même Microsoft annonce des concessions par les temps qui courent avec Office Live) ou bien d’animation de communautés (tags, blogs, wikis qui prennent pied dans nos sources quotidiennes d’information et, bientôt, d’opinion) pour une fraction des coûts d’il y a encore quelques années. De l’idée à la réalisation et à la mise en ligne, les coûts sont devenus littéralement « non significatifs », comme le dit Evan Williams, fondateur de Blogger/Pyra Labs racheté par Google en 2003, en démarrant dans un nouveau projet, Odeo, dans le domaine du podcasting.


Alors que faire ? se demande le capital risqueur américain, qui, conjoncturellement, se trouve dans une bien meilleure situation que dans les années 2001-2003 puisqu’avec des coffres récemment remplis par des levées de fonds réussies, dans un climat de confiance retrouvée dans la high-tech, du moins aux USA (parce qu’en Europe, au vu des derniers indicateurs Chausson Finance et autres baromètres Ernst & Young, ça déprime noir dans le secteur !). Si même les jeunes pousses « branchées » ne veulent plus avoir recours au capital risque et s’en vantent dans la blogosphère, c’est à désespérer…


Qui faut-il suivre ? L’effet Skype sera-t-il le catalyseur d’une industrie du venture capital européen en voie de disparition, ou bien les Flickr, Blogger, Odeo, Smugmug et autre anti-Skype de la génération « 2.0 » turbulente du Web sont-ils les nouveaux modèles, à méditer en Europe, qui court-circuitent les schémas traditionnels ?
Le bureau virtuel à la recherche d'une nouvelle métaphore. (7.11.2005)

En janvier 1984, une nouvelle « métaphore » faisait une retentissante apparition dans le (petit à l’époque mais en expansion rapide) univers de l’ordinateur que l’on qualifiait alors de personnel. Avec le Macintosh, Apple Computer rendait instantanément populaire (« for the rest of us » scandait leur slogan) l’idée du « bureau » comme représentation des interactions avec l’ordinateur. Si ces idées étaient à l’origine en germe au Xerox Parc (cf. le livre de Michael Hiltzig, « Dealers of Lightning: Xerox PARC and the Dawn of the Computer Age » qui raconte comme un roman policier l’imbroglio politico-technologique du think-tank dans les années 70 et 80), c’est bien Apple qui réussit le tour de force de les rendre si accessibles que les notions de fenêtre, d’icône, de document, de pointer-cliquer et de glisser-déposer à la souris semblent parfaitement naturelles aujourd’hui. Le développement ultérieur de Windows, qui, comme pour Internet Explorer il y a dix ans, devait, bien que parti avec retard, laisser sur place les alternatives graphiques pour PC bien oubliées aujourd’hui (VisiOn de VisiCorp, Desq de QuarterDeck, TopView d’IBM, GEM de Digital Research, etc.), finissait d’ancrer la métaphore dans les esprits et dans les systèmes d’exploitation. (Microsoft n’est jamais plus fort que lorsqu’il est malmené sur ses propres marchés par des concurrents agiles et innovants, partis en avance dans le déploiement de nouvelles idées.)


Sur cette base, la bureautique connut un développement foudroyant : se mettaient rapidement en place la boîte à outil du travail au bureau (traitement de texte, tableur, puis logiciel de présentation, courrier électronique et travail collaboratif), toujours dans le même cadre « métaphorique » du « bureau dans l’ordinateur ». Hier, novembre 2005 – exactement vingt ans, peu l’ont noté, après le lancement initial de Windows ; plusieurs fois repoussé, il date en effet de novembre 1985 – Microsoft mettait en ligne www.live.com, Windows Live, et annonçait Office Live, une offre bureautique en ligne diffusée sous forme d’un service Web. Ces nouveautés peuvent être analysées sous deux angles : au plan local et tactique, ainsi certains analystes se sont empressés de les juger, comme une offre dirigée essentiellement vers les petites et moyennes entreprises réticentes aux remaniements de tarification de Windows Office des années passées ; ou au plan global et stratégique comme une possible inflexion du géant de Redmond vers de nouvelles métaphores, à la fois inspirées par et rendues nécessaires pour sortir de l’ombre portée croissante des jeunes géants de l’Internet comme Yahoo ! et Google.


D’abord il n’est pas surprenant que Bill Gates, après ses vacances en pays conquis au Pavillon Gabriel, ait choisi d’être accompagné par Ray Ozzie pour la conférence de presse de San Francisco présentant Windows Live et Office Live – avant aujourd’hui qui ne savait d’ailleurs qu’aucun de ces deux produits n’était vraiment « live », mais d’authentiques zombies dont la vie crépusculaire ne s’étendait qu’entre deux reboots ? Plus sérieusement, Ray Ozzie, pour ceux qui commencent à avoir quelques cheveux blancs parmi nous, est connu pour avoir écrit Lotus Notes après avoir contribué au succès de Visicalc et de Symphony. En 1997, Ray Ozzie avait fondé Groove Networks qui propose un « bureau virtuel » sur le Web, un site sur lequel des groupes d’utilisateurs peuvent partager des documents, les éditer et les relire en commun. Après un investissement initial dans Groove, Microsoft devait finalement racheter l’entreprise en mars de cette année et promouvoir Ray Ozzie au poste de Chief Technology Officer de Microsoft. Il faut lire les annonces d’hier comme les premiers résultats de cette intégration poussée entre SharePoint et Groove Networks (nom de code « Mojo » pour l’instant) dans le contexte de l’hébergement d’applications bureautiques que d’autres, dans d’autres domaines, comme Salesforce.com, ont également rendu populaire. Ayant, de plus, pris une leçon des pages du manuel Google/Yahoo!, Microsoft indiquait que si l’hébergement de contenu et d’infrastructure de courrier électronique pour les petites entreprises serait gratuit, Office Live vivrait de ses revenus publicitaires.


Mais il est peut-être plus plaisant d’imaginer que Microsoft est à nouveau sur la sellette, poussé dans ses derniers retranchements à sa droite par un Google, triomphant au NASDAQ (capitalisation de 106,2 milliards de dollars hier soir, tout à fait abracadabrantesque, diraient certains qui ne tiennent apparemment pas l’éditeur en très haute estime), et qui a vraiment remis au goût du jour l’idée d’innovation dans le secteur du logiciel ; à sa gauche par un Yahoo! (seulement 53,5 milliards de dollars !), ayant opté pour une stratégie hollywoodienne de salut par le média et les contenus ; et, inlassablement, derrière par une nouvelle génération de startup enthousiastes (BlogLines, Odeo, Fyuze, Webnote, NumSum, Ning, Zimbra, SocialText, elles fleurissent de toute part) et téméraires qui se sont emparées des outils modernes du Web, de Linux à Apache et de XML à JavaScript et PHP, pour défendre de nouvelles formes d’applications et de nouveaux usages aux noms résonants comme des cris de guerre, Wiki, Blog, Ajax, RSS, tag… Et qu’ainsi plaqué dos au mur, Microsoft est en train d’entamer une réaction de grande ampleur comme celle de 1985 avec Windows, et celle de 1995 avec Internet Explorer.


Si c’est le cas, les temps n’en deviendront que plus intéressants. L’arrivée du réseau local dans les années 90 avait déjà remis en question la métaphore de l’ordinateur personnel comme bureau dans la mesure où les serveurs de fichiers puis les serveurs de bases de données « dépersonnalisaient » brutalement le fameux bureau. C’est d’ailleurs cet arrachement qui est ritualisé dans l’architecture dite client-serveur et ses variations, explorées par le célèbre graphique avant-gardiste du Gartner Group. Le Web démultiplie évidemment cette délocalisation généralisée en virtualisant tout : personnel, partagé, privé, public, l’architecture client-serveur éclate elle-même en Services Web, tentatives de modernisation du rite et de modération de cette fragmentation explosive par l’invention de nouveaux standards et protocoles à base de XML, et, plus récemment, en « mashups » et autres applications AJAX/Web2.0, à l’inverse, embrassant frontalement la pulvérisation des applications sur le réseau mondial.


Première illustration : Google démontre l’inanité de la notion de répertoire dans l’univers atomisé du Web. Dans la métaphore du bureau personnel on retrouve un document par sa position, on sait où il « est » dans un arbre de répertoires et de sous-répertoires. Sur le Web, la « position » n’est plus tellement pertinente (on ne sait pas vraiment où sont les documents), mais on les retrouve par leur contenu. Il suffit de se rappeler de quoi il est question et de le taper dans le champ de recherche de Google. En est-on mieux loti au final ? Est-il plus facile de se souvenir de l’endroit (virtuel) où l’on a rangé un document ou bien de se rappeler, même incorrectement ou incomplètement, de son contenu ?


Seconde illustration : les sites de « social bookmarking » (del.icio.us, Flickr pour ne citer que les plus connus), par exemple, tentent de montrer que les classifications hiérarchiques, qualifiées de rigides et d’édictées ab initio par des experts, sont inopérantes dans le monde en permanente et rapide évolution de la circulation d’information sur le Web. Clay Shirky (http://www.shirky.com/) est un excellent vulgarisateur de cette vision du Web comme formidable moyen d’expression, renversant les catégories et les classifications établies devenues insuffisantes alors que le très simple jeu des « tags », pourvu qu’il soit joué par une communauté de lexteurs-auteurs en très grand nombre, reflète de bien plus près et en temps quasi réel les courants d’opinion dans ce nouveau média que n’importe quelle classification a priori.


On le voit, nous n’en sommes peut-être qu’au début d’un nouveau changement important dans les formes et les usages que nous donnerons collectivement aux processus et aux interactions avec cet ordinateur qui de personnel est franchement devenu virtuel.
Technorati, champion de l'holophrastique ! (29.10.2005)

Le succès de Technorati est une nouvelle illustration d’une des idées fortes de Yochai Benkler qui, dans l’article « Coase’s Penguin » (dont je ne peux cesser d’encourager la lecture : http://www.benkler.org/CoasesPenguin.html), voyait dans le fonctionnement de la communauté Open Source qui avait donné naissance à Linux rien moins qu’un troisième modèle de « production » après celui de la firme et celui du marché, tous deux bien connus des économistes. Son analyse part du constat que sur le Web, le « bien » produit est le même que le bien consommé, l’information ; dont les coûts de production (individuelle ou institutionnelle) et les coûts d’échange ont été massivement réduits à l’ère du Web ; et dont la composante humaine, le talent créatif, est hautement variable et inégalement réparti. Dans ce contexte spécifique, nous dit Benkler, la « production collective » (ou peer production) permet des gains d’information et une optimisation de la répartition de cette information qui dépassent, pour peu qu’un grand nombre d’agents puissent librement échanger à bas coût une information riche, les coûts supplémentaires engendrés par l’absence de contrats (la firme) ou de propriété (le marché). Ainsi dans la communauté du développement Linux, observe-t-il, le gain représenté par la disponibilité généralisée d’un système d’exploitation utilisable par tous pour des applications les plus variées, l’emporte largement sur les dépenses, prises individuellement, consenties (temps, efforts, code source produit, infrastructure d’accréditation et de validation) par chacun des développeurs. (Le modèle n’est pas sans ses problèmes non plus, comme, d’ailleurs dans les cas de la firme et du marché ; nous y reviendrons plus loin.)


Wikipedia fonctionne suivant le même modèle. L’encyclopédie collective est le résultat de contributions individuelles d’un très grand nombre d’agents, motivés à fournir, corriger ou valider de l’information pour des raisons plutôt socio-psychologiques (la « réputation », incitative à produire une information de qualité reconnue par ses pairs, comme dans les milieux académiques de la recherche, par exemple) que financières. Le coût total de ces perso-contributions est finalement trivial comparé aux gains que représente l’accessibilité pour tout un chacun d’une telle richesse de connaissances. Ici encore, on constate que les clés permettant au dispositif de fonctionner sont bien la variabilité du talent à produire le bien considéré, ici de l’information ou plus précisément des entrées dans l’encyclopédie, le grand nombre de producteurs et de relecteurs, combiné au faible coût de cette production, de cette relecture et des échanges qu’ils provoquent.


L’idée géniale de David Sifry, le fondateur de Technorati, a été de considérer l’acte de poster un billet sur un blog exactement comme une de ces perso-contributions à l’élaboration d’un « holos », d’un « tout » collectif dont la valeur est bien supérieure à la dépense demandée à chacun des blogueurs. Et quel est ce tout collectif si précieux ? Sifry l’appelle « the global conversation », la conversation généralisée qui à tout instant anime la toile, sur tous les sujets, du plus anodin au plus dramatique : une illumination, à la lecture du livre « The Cluetrain Manifesto » (http://www.cluetrain.com/) de Christopher Locke, Rick Levine, Doc Searles et David Weinberger – ce dernier, par ailleurs, auteur du non moins excellent « Small Pieces Loosely Joined », dont la lecture pendant ce week-end prolongé de Toussaint qui s’annonce est, dois-je le préciser, in-dis-pen-sa-ble.


Pour participer à la conversation généralisée, une fois l’enregistrement terminé sur le site Technorati, le blogueur installe un simple script dans son blog qui notifie Technorati de chaque nouveau texte publié. (Depuis peu, on peut même y ajouter ses propres tags qui sont également pris en compte par Technorati.) Les services de Technorati indexent alors automatiquement le nouveau billet pratiquement au moment même de sa publication, et intègrent les tags correspondants à une « folksonomy » en perpétuelle évolution. En retour – le « give back », mot d’ordre de la communauté du logiciel libre –, Technorati offre au public un moteur de recherche dans les blogs se basant sur cet index et donc capable de montrer en temps quasi-réel ce que le Web dit, au travers des blogs, ici et maintenant de l’objet de la recherche.


Contrastant vivement avec les moteurs de recherche traditionnels comme Yahoo! et Google dont les robots collectent périodiquement les pages Web pour les indexer (c’est encore comme ça que fonctionne le moteur de recherche dans les blogs de Google, blogsearch.google.com, dont l’accueil fut plutôt mitigé), ce sont les sources d’information elles-mêmes qui signalent à Technorati leur existence et leur contenu. Ainsi les résultats d’une recherche n’évoluent plus au rythme (ralentissant avec le nombre) des passages des chaluts de Google et de Yahoo!, mais bien à celui, instantané, de la création même de l’information. Hier soir, Technorati suivait 20,2 millions de sites et offrait 1,6 milliards de liens et pointeurs…


Technorati offre ensuite de nombreux services mettant en avant (ou rendus possibles par) cette instantanéité. Des « watch lists » peuvent ainsi être établies sur le site pour surveiller en permanence ce qui se dit sur tel ou tel sujet. L’indexation concomitante à la publication permet également d’établir des classements des sujets, des sites, des tags, des livres, des actualités, des films les plus populaires, le « top 50 » de tout ce qui est publié, par catégorie. (Combien donneraient ainsi tout pour se retrouver dans le Technorati Top 100, actualisé en temps réel ! Le système de réputation dans toute sa splendeur) Bref, Technorati, spectaculaire et spéculaire, renvoie l’image globale des millions de conversations qui défilent sur la toile, gardien des communications éphémères entre des auteurs qui lisent et des lecteurs qui écrivent.


Tantek Celik, le CTO de Technorati, est allé plus loin encore, en proposant une architecture technique pour la collecte de ces perso-contributions dans le cadre le plus général. Chef de file de l’équipe technique d’Open Doc chez Apple Computer au début des années 90 (rien ne se perd, rien ne se crée : le Mac a tout inventé !), et après être passé chez Microsoft, Tantek Celik, spécialiste de XHTML, a rejoint Technorati en 2004 et a lancé l’initiative « microformats » (cf. http://microformats.org/). Les microformats sont un jeu de standards ouverts et simples permettant d’annoter le contenu que l’on publie sur le Web de données supplémentaires. Souvent opposé au Web Sémantique (avec majuscules), les standards sur lesquels travaille le W3C, les microformats se réclament d’un web sémantique (en minuscules), et ont été conçus pour coller à la réalité des usages qui sont faits de l’information dans les blogs et les wikis. Il existe des microformats pour les gens et les organisations (hCard), les événements (hCalendar), les opinions et les scores (VoteLink, hReview), les réseaux sociaux (XFN), les licences et les droits d’utilisation (relLicense), les tags et les catégories (relTag), les listes et les plans (XOXO), les adresses (adr), la géolocalisation (geo), etc. Par exemple, en ajoutant « rel="license" » à un lien hypertexte, on indique tout simplement que la page pointée par le lien est la licence d’utilisation régissant la page de départ ; en ajoutant « rel="tag" » à un lien hypertexte, on indique qu’un fragment d’une page Web est annoté par le tag vers lequel ce lien pointe.


Un des objectifs de ce groupe animé par Celik et quelques autres est d’affiner et d’enrichir ces spécifications pour les soumettre au bout du compte à un organisme de standardisation comme le W3C et IETF et à promouvoir leur adoption dans les outils de publication et de collecte de meta-données dans les efforts collectifs de production d’information.


Car, pour revenir à notre inspirateur Benkler, la production collective présente également son lot spécifique de problèmes éventuels. Quel mécanisme de qualification des perso-contributions et de maintien de l’intégrité du contenu collectivement édité faut-il mettre en place ? Quel mécanisme d’intégration de ces perso-contributions fonctionne-t-il ? (C’est d’ailleurs le point sur lequel porte le débat entre le camp des taggers et celui des partisans des taxonomies hiérarchiques, plus rigides.) Des obstacles peuvent rendre difficile cette intégration elle-même, si, par exemple, elle requiert des ressources réglementées pour être réalisée : c’est le cas aujourd’hui si l’on aborde d’autre types de media que le texte, comme la musique ou la vidéo dont les droits sont âprement défendus par les associations professionnelles de producteurs. Mais d’autres obstacles existent qui menacent la motivation à participer à l’effort collectif : l’appropriation de l’information par certains, par exemple, peut-être ressentie par d’autres comme un frein à leur envie de contribuer ; ou encore les difficultés et les échecs d’intégration peuvent être diversement ressentis par les contributeurs (que l’on se réfère à la dramaturgie des « forks » dans le développement des logiciels libres, par exemple), etc.


Nous n’en sommes donc qu’au début d’une éventuelle généralisation des principes socio-économiques dont le logiciel libre fut naguère le révélateur – et qui sont encore sujets à discussion dans de nombreux cercles. Le développement ultra-rapide, l’hyperdéveloppement pourrait-on dire, de nouveaux services Web comme Technorati, mais aussi de ses concurrents et imitateurs, DayPop, IceRocket, Bloglines, etc., ou bien encore des Wikipedia, Flickr, Revver, Odeo, et d’outils comme Flock, le tout nouveau sujet d’excitation des technophiles, Wikimedia, WordPress, SocialText et tant d’autres, montrent que ces mêmes principes peuvent prendre racine ailleurs que dans la communauté Open Source et donner naissance à d’autres formes de collaboration sur le Web, voire, selon certains, à influer même sur son développement à venir.
L'édition de logiciel en France, vue du Pavillon Gabriel. (25.10.2005)

"Tout le monde par le portique, un par un !", hurle une sorte de culturiste exaspéré à l'entrée du Pavillon Gabriel. Je m'approche, intrigué, pour lire l'insigne cousu sur le polo musclé : Microsoft Security. "Une nouvelle technologie anti-spam ?" demandé-je (faussement) ingénument. "Ouvrez votre sac !" aboie-t-on en réponse.


C'est donc dans une atmosphère bon enfant que Microsoft, Dassault Systèmes et Cegid recevaient lundi après-midi sur les Champs-Elysées pour une journée thématique sur "L'Édition de logiciel en France". Dans une série de présentations qui formaient un intéressant contrepoint à celles du récent OSCON, la conférence Open Source tenue la semaine dernière à Amsterdam, d’éminents représentants de l’industrie du logiciel étaient venus rendre hommage en déclamant, tel le chœur antique, les lamentations d’usage sur notre rang national insignifiant dans cette industrie, au mythique Bill Gates venu faire deux apparitions courtoises et minutées.


Le ministre délégué à l’Industrie, François Loos, s’escrimait, en introduction, à rassurer l’auditoire sur la pérennité et le rayonnement français dans la société de la connaissance, appelée des vœux de l’Europe réunie à Lisbonne en 2000. Lisant mécaniquement un discours dont il était apparent qu’il ne comprenait pas le contenu, annonçant sans sourciller que l’industrie du logiciel français comptait 30.000 personnes dont 80.000 cadres, le ministre se réjouissait de la généralisation du haut débit – qui doit, comme chacun sait, absolument tout aux mesures visionnaires prises par le gouvernement Raffarin – et de la fière et audacieuse réponse franco-européenne à l’intolérable arrogance de Google avec Quaero, le moteur de recherche européen, pour lequel des millions ont d’ores et déjà été réservés par l’Agence de l’innovation industrielle, fer de lance, sans nul doute, du « patriotisme économique ».


Le cofondateur de Staff & Line, Jamal Labed, tout à l’excitation de l’IPO de sa société rappelait alors très opportunément quelques chiffres têtus, dans le sillage du lancement des associations ESA (European Software Alliance) et AFDEL (Association française des éditeurs de logiciels). La France compte plus de 3.000 éditeurs de logiciels, représentant au total un marché de €2,8 Mds, soit à peine 10 % d’un seul des grands éditeurs américains, que sur ces 3.000, les trois premiers actifs en France en représentent 58 %, soit une incroyable fragmentation sur un marché lui-même de taille relativement réduite !


Il était d’ailleurs cocasse d’observer les orateurs de cette journée, assis en demi-cercle sur l’estrade entourant avec révérence le siège central vide, réservé à Bill Gates, attendu tel le messie dans l’espoir qu’il consentirait éclairer cette industrie française du logiciel, du dire de tous, injustement reconnue à sa vraie valeur.


Et de valeur il fut vite question avec l’intervention de Gilles Kahn, président de l’INRIA, qui dressait un portrait inimaginablement centralisateur d’une conception étatique et bureaucratique de la recherche fondamentale. « L’Institut » décide en effet des problèmes techniques de fond qui sont importants (dans l’absolu), puis forme et recrute des chercheurs qu’il « place » sur ces problèmes assurant ainsi, certes, un rôle dans la recherche scientifique de base indispensable dans une « grande nation » comme la France, mais sans aucune vue pratique ni de marché – une décision d’ailleurs explicitement prise par son prédécesseur Alain Bensoussan, nous précisait-il, qui avait choisi de ne pas valoriser à l’INRIA les retombées éventuelles des recherches du laboratoire. Gilles Kahn se félicitait que sur les 80 ou quelques spin-offs de l’INRIA dans le logiciel, 40 étaient encore en vie et regrettait un certain nombre d’échecs majeurs qui ont vu s’envoler dans l’éclatement de la bulle Internet des recherches longuement mûries, parfois plus de dix ans, dans ses murs.


De valeur il était encore question avec Eric Archambeau, associé de Wellington Partners, un fonds de VC allemand (malgré son nom britannique) qui entamait la litanie assez surréaliste qui, au final, caractérisait cette après-midi dans l'attente docile que Bill Gates condescendit à occuper ce fauteuil désespérément vide au milieu de la scène, mêlant auto-célébration des capacités intellectuelles inégalées des chercheurs français et complaisance dans les critiques râleuses et expiatoires devant les bien pitoyables résultats du « modèle français ». Eric Archambeau commençait en effet par nous resservir le « manque d’ambition » des entrepreneurs français à comparer à celle des américains, la prépondérance que nous accorderions à la technologie plutôt qu’à « l’exécution » - un anglicisme désignant l’efficacité dans la réalisation d’un plan et non le couperet d’une guillotine républicaine -, le manque d’incitation à allouer des fonds au private equity et à l’amorçage, (un plaidoyer pro domo auquel j’adhère évidemment !), et la trop grande pusillanimité du gouvernement (tiens ce n’est pas ce que disait le ministre délégué !) dans l’accompagnement réglementaire de l’industrie. Jean-Michel Aulas, P-D.G. fondateur de CEGID et, probablement, le plus expérimenté des entrepreneurs de l’industrie du logiciel, renchérissait en fustigeant « l’hyper réglementation » actuelle (CEGID subit aujourd’hui les foudres des autorités dans une affaire d’acquisition d’une société européenne que ces mêmes autorités avaient approuvé des deux mains il y a dix huit mois), en se plaignant de la sous-capitalisation des sociétés cotées en Europe et de l’absence d’incitations fiscales à investir dans ces secteurs, portant clamés haut et fort comme essentiels.


Du coup, Bernard Charlès, le charismatique CEO de Dassault Systèmes détonait, illuminé qu'il était de la passion et de l’obstination qui l’animent à faire de l’éditeur le promoteur, le champion et le leader du logiciel considéré comme « environnement collectif 3D », ferment de l’innovation et de la production industrielle. Partant de la conception et de la simulation, nous promettait-il, les logiciels de Dassault Systèmes permettraient rapidement de vivre jusqu’à l’expérience même de l’utilisateur de tout produit industriel, ce qu’il appelait le « réalisme », étape ultime de la simulation. Après une brillante démonstration des possibilités de « visite virtuelle » offerte par les logiciels de l’éditeur – et en particulier de ceux de sa récente acquisition, Virtools, startup française, insista-t-il – Bernard Charlès concluait malgré tout dans l’esprit de la réunion en regrettant que les directives européennes sur les brevets logiciels ne protégeassent pas plus strictement la propriété intellectuelle du logiciel – une vue controversée évidemment mais sans surprise de la part des grands éditeurs commerciaux de logiciels.


Cette note critique était d’autant plus savoureuse que si Bill Gates était en France et nous accordait quelques minutes de son temps, c’était pour finaliser des accords de recherche jointe avec l’INRIA précisément selon lesquels Microsoft payait rubis sur l’ongle un nouveau laboratoire à l’INRIA, chercheurs inclus – l’Institut est faut-il le rappeler bien impécunieux en ces temps de disette ! – en échange de quoi le géant de Redmond pourra piller, pardon commercialiser, sans vergogne les résultats de ces travaux pourvu que ces codes sources soit librement – au sens de logiciel libre – publiés, une grande nouveauté pour Microsoft présentée en France comme une victoire de la rationalité française des Lumières sur le dogmatisme anglo-saxon ! Que l’on puisse présenter cet accord sous l’angle d’une quelconque avancée pour l’industrie française du logiciel ou d’une reconnaissance de l’excellence de son centralisme bureaucratique, alors que Microsoft ne fait peut-être que s’acheter à bon prix une légitimité pour faire face au courroux de Bruxelles, en laisse long à penser sur l’état de ladite industrie.


C’est encore l’industrie américaine triomphante et Bill Gates qui devait à nouveau mettre tout le monde d’accord. Il concluait cette journée en livrant un discours consensuel sur la diffusion généralisée et l’importance des technologies de l’information pour l’avenir et sur la nécessité de poursuivre des efforts incessants dans l’amélioration de l’enseignement et de la formation sur ces matières. Et tout le monde de se séparer sous ces auspices « réalistes et optimistes » convaincu par cet exercice d’autosatisfaction grognon, que l’on est sur la bonne voie puisque Bill Gates lui-même a distribué des bons points…
EURO OSCON 2005. (19.10.2005)

De retour de la convention européenne de l’Open Source (Euro OSCON), qui s’est déroulée en début de semaine à Amsterdam – le premier événement du genre en Europe, organisé par O’Reilly – la présentation de Paul Everitt, CEO de Digital Creations et membre de l’équipe originelle de Zope me trotte dans la tête pendant que le Thalys zèbre le plat pays. Chiffres à l’appui, dont certains assez surprenants, Paul Everitt démontre, en effet, que malgré les pieuses invocations de la Commission européenne – et en particulier de l’ambitieux « programme de Lisbonne » qui vise à faire de l’Europe le leader de l’économie de la connaissance en 2010 (et que nous brocardons régulièrement dans cette tribune, mais pour la bonne cause !) – les USA augmentent bel et bien leur hégémonie sur l’industrie du logiciel.


Cette évolution présente aux yeux du fondateur de Zope un caractère paradoxal lorsque l’on sait qu’une grande partie des logiciels libres ont une origine européenne (que l’on songe à Linux, Cocoon, MySQL, JBoss et ceux réunis sous la bannière d’ObjectWeb, par exemple), et que, toujours d’après Everitt, aujourd’hui 70 % des développeurs Open Source sont européens (si ce chiffre est avéré, c’est phénoménal !). Cependant, un rapide examen montre qu’aujourd’hui parmi les 12 ou 13 logiciels libres d’origine européenne les plus répandus, plus de 10 sont aujourd’hui « réinstallés » aux USA et principalement guidé par une communauté de « maintainers » américains.


Cette constatation de Paul Everitt, qui, tout américain qu’il soit, vit en France, peut également être lue à l’éclairage de la présentation, le jour précédent, d’Alexandre Zapolsky le P-DG fondateur de Linagora, basée à Paris. L’inventeur de la SS2L, société de services en logiciel libre, venait témoigner de l’importance prise, en France en particulier, par le logiciel libre et expliquait comment Linagora, emmenant Cap Gemini et Bull, avait décroché le plus grand engagement européen sur l’Open Source avec une grande administration française. La directive sur la brevetabilité logicielle et la position nettement antagoniste de la Commission européenne face à Microsoft – Steve Ballmer déjeunait encore avec Neelie Kroes, le Comissaire à la concurrence, à Bruxelles, il y a à peine une dizaine de jours – encouragent probablement les administrations et les collectivités à prendre en considération l’Open Source dans leurs développements et leurs déploiements d’applications informatiques. Il y a certainement là une piste à suivre pour encourager les entrepreneurs de l’industrie du logiciel de toute l’Europe à ne pas partir à la conquête du monde découragés d’avance par la mainmise américaine.


De Microsoft il fut aussi question dans la série d’annonces présentées par Jason Matusow, le directeur de Shared Source, une initiative peu connue du géant de Redmond (http://www.microsoft.com/resources/sharedsource/default.mspx). Shared Source est un programme récent, via lequel Microsoft livre en Open Source certains éléments de ses innombrables codes source. Invité à parler à une convention Open Source, devant une assemblée de prosélytes et de zélateurs du logiciel libre, Maturow n’affrontait pas une tâche facile. D’autant plus que l’on a le sentiment, à bien l’écouter, qu’à Microsoft il est tout autant contraint à défendre pied à pied sa vision d’un « juste milieu » entre le logiciel libre au sens des puristes et la vision caricaturalement commerciale que l’on prête systématiquement à l’éditeur. Au final, après avoir annoncé que Microsoft continuerait à livrer à la communauté (et aux « gouvernements » précise le site Web) du code sous trois licences inspirées des licences BSD et MPL très employées dans le monde du libre, Jason Matusow a été cordialement applaudi. Encourageant.


Pour terminer cette revue rapide de cette journée à OSCON, il faut noter la présentation de Michael Tiemann de Red Hat (et ancien fondateur de Cygnus, la vraie première société de logiciel libre) qui propose d’en revenir aux réflexions sur la qualité totale du début des années 1980 (les « cercles de qualité » que décrivait Hervé Seyriex en France, et dont Edwards Deming était l’acteur au Japon et aux Etats-Unis après la seconde guerre mondiale) et de les appliquer de manière disciplinée au problème de la qualité des logiciels. Appelant à gommer la distinction entre « designer » et « utilisateur » il appelle de ses vœux un changement massif de comportement dans le développement des applications et le recours systématique, et à grande échelle, au système communautaire qui fonctionne si bien pour le logiciel libre. C’est à ces conditions, d’après lui, que l’on pourra s’approcher de la qualité totale dans l’industrie du logiciel. (Cet appel est à rapprocher, me semble-t-il, de la nécessité d’une réflexion « systémique » dans le domaine de la lutte anti-spam, sujet d’un précédent billet dans cette même tribune : les sources d’inspiration issues de la théorie des systèmes ou/et des systèmes biomoléculaires me semblent fonctionner à plein rendement depuis quelques années pour alimenter les points de vues sur l’industrie du logiciel – une intéressante évolution.)


Enfin, Rael Dornfest d’O’Reilly faisait remarquer que « l’agrégation », devenue la tarte à la crème des business plans des jeunes pousses de la Nouvelle nouvelle économie (ou de la Nouvelle économie ressuscitée par l’extra-terrestre Google) tournait au cauchemar. Qui lit vraiment les 36.256 « postings » en retard sur les 146 fils soigneusement triés dans notre lecteur RSS favori ? Qui lit vraiment les 456 messages de la boîte aux lettres électroniques, en attente depuis hier, parmi lesquels bien sûr de nombreux leurres sont habilement disposés par les « spammers » et autres retors du « phishing » ? Dornfest reprenait à son compte l’analyse classique de la parade à l’avalanche d’information dont le Web nous submerge chaque jour davantage et suggérait de développer des outils « d’atténuation » (Attenuation is the new Aggregation) permettant à terme aux utilisateurs de réduire eux-mêmes l’impact de la surinformation. Il pointait, en particulier, vers la startup 37Signals qui héberge une suite d’outils élémentaires mais efficaces (BaseCamp, BackPack, WriteBoard et Ta-Da List) destinés à simplifier l’organisation des individus, des communautés et des petites et moyennes entreprises dans des tâches quotidiennes ou répétitives. À suivre : « l’atténuation » devrait être l’un des thèmes de la prochaine Emerging Technologies Conférence d’O’Reilly en mars 2006.


Aux Etats-Unis, pas en Europe cette fois…
Vos bookmarks nous intéressent ! (18.10.2005)

Comme les blogs, qui connurent un démarrage fulgurant - on en compte plus de 15 millions aujourd'hui, même s'ils ne sont pas tous régulièrement actualisés par leurs auteurs -, le "social bookmarking", l'annotation collective, est une activité qui se développe aujourd'hui à grande vitesse sur le Web.


L'idée originelle est parfaitement illustrée par le plus ancien, quoique jeune (2003), des sites d'annotation collective : del.icio.us - "délicieux" en anglais. Au travers d'une interface dont la sobriété et le minimalisme sont assez glaciaux (un "outil froid" au sens de http://www.outilsfroids.net/), l'utilisateur y mémorise ses favoris et ses sites préférés d'un clic. Au passage on lui demande d'annoter ce favori avec quelques mots clés, une simple liste de termes libres qu'il ou elle associe à ce site : ce sont les fameux "tags", les étiquettes.


C'est dans ce bien faible effort supplémentaire que l'on attend de l'utilisateur que réside l'intérêt du social bookmarking. En effet, une fois étiquetés il devient possible de rechercher les sites en fonction de leur tags, les siens bien sûr mais également tous les autres, car les tags sont publics et partagés. On se déplace alors dans un univers d'annotations d'une page Web donnée qui reflète finalement une forme d'opinion publique sur son contenu. Ce nuage d'annotations ("tagcloud") évolue évidemment au cours du temps, reflétant en cela les fluctuations d'intérêt pour le contenu annoté. (La notion que d'un effort individuel minime demandé à un agent il soit payé en retour par une information résultant du traitement collectif de ces contributions individuelles est essentielle dans l'analyse que font des économistes comme Jean Tirole, Josh Lerner ou Yochai Benkler - dont je recommande les papiers - du phénomène Open Source et Linux, considéré au plan économique.)


Qui plus est, le partage des tags permet d'identifier rapidement les autres utilisateurs qui partagent les mêmes mots-clés ou les même sites favoris. Il est alors intéressant de découvrir quels sont les autres sites que ces utilisateurs ont eux-mêmes annotés, et quelles sont leurs annotations. On peut également voir quels sont les tags les plus utilisés à un moment donné (le "buzz" !). Les sites de social bookmarking permettent en fait de dérouler un fil d'Ariane dans le labyrinthe des publications Web sur la base des termes préférés de chacun.


Cette seconde notion de découverte est bien illustrée par un autre site qui a défrayé la chronique, Flickr. Sur Flickr, racheté entre temps par Yahoo!, on poste ses photos numériques et on les étiquete avec, là aussi, ses propres tags. Le moteur de recherche Flickr permet ensuite les croisements et les recherches via ces tags dans l'univers photographique collectif.


Plus récemment encore Yahoo! a livré son nouveau service MyWeb 2.0, un moteur de recherche sur des tags que les utilisateurs peuvent librement associer à n'importe quelle page Web, construisant ainsi dans Yahoo! un univers nouveau d'annotations collectives dont le portail peut alors alimenter son moteur de recherche classique. Il semble que l'idée que s'en fait Yahoo! est tout simplement que les annotations collectives sont une nouvelle forme (et source) de contenus au même titre que les blogs, les pages Web et les Wikis. Une vision "media" du phénomène parfaitement en ligne avec sa stratégie de développement actuelle.


C'est dès lors un raz de marée d'applications et de sites construits autour des social bookmarks que l'on constate aujourd'hui. Ainsi fleurissent mille sites articulés autour de l'annotation collective : version Open Source avec del.irio.us ; version blog avec Technorati et Rojo qui proposent aux "bloggers" d'ajouter des tags à leurs blogs ; version française non sous-titrée avec blogmarks ; version graphique interactive avec cloudalicious, tagmaps.com, Hublog et des centaines d'autres pour explorer del.icio.us ; version "perdu de vue" avec Tagalag (couplé à GoogleMaps !); version programmeur avec des outils comme simpy et freetag ; version agrégation de contenus avec LiveMarks et GutenTag ; bref, un inventaire à la Prévert qui s'allonge quotidiennement, tel est le succès du "tagging".


Parmi les cognoscenti le débat sur les tags est très animé (par exemple, à la récente conférence Web 2.0 d'O'Reilly). D'une part les tenants de l'individualisme absolu insistent sur le caractère essentiel de l'effet de désorganisation résultant de l'hétérogénéité de cette collection de tags, d'autre part les prosélytes du Semantic Web, héritiers des encyclopédistes, y voient précisément les limites du phénomène, qui irait, selon eux, à l'encontre des classifications traditionnelles.


Il faut distinguer plusieurs axes dans ce débat, comme l'a fait Clay Shirky dans un article dévastateur ("Ontology is Overrated: Categories, Links, and Tags") qui décrète la supériorité des "foksonomies" (taxonomies créées par le public) sur les "ontologies" (les classifications mûries par les experts et les spécialistes de chaque domaine). Un premier axe distingue la notion que seul le groupe des experts/spécialistes est qualifié pour classer et ordonner les connaissances, s'opposant à celle qui institue tous et chacun, le public lui-même comme le mieux qualifié pour classer et ordonner. Cette distinction plonge évidemment des racines profondes dans la réflexion politique, économique et sociale. Mais finalement, le Web ou les blogs, qu'est-ce d'autre ?


Un autre axe de réflexion, partiellement lié au précédent, est technique. Les tags doivent ils rester de simples étiquettes dans un monde "plat" ou bien doit on classer les tags dans une hiérarchie, et le cas échéant, cette hiérarchie est-elle prédéterminée ou elle-même émergente ? Quand j'étiquete "avocat", qu'est ce que je veux dire ? Dénoté-je un fruit frais oléagineux renfermant de nombreuses graisses insaturées ou bien un mammifère bipède en robe noire, dûment formé et assermenté (peut-être aussi, mais pas nécessairement, oléagineux renfermant de nombreuses graisses insaturées) ? Et comment réconcilier cette interrogation avec les étiquettes "Persea Americana" et "guacamole" peut-être utilisées par d'autres ? (Notons que la réponse à cette question qui consisterait à allonger la liste des étiquettes pour préciser le sens voulu peut parfois échouer, en effet, que penser de la liste d'étiquettes "avocat marron" par exemple ?)


Comme le constate un observateur pointu comme Cyril Fievet : "Du reste, malgré une apparente uniformité, tous les tags ne sont pas identiques. Sur Technorati, les tags indexés sont ceux choisis par les bloggers et fonction du contenu qu’ils ont eux-mêmes publiés. Sur del.icio.us, en revanche, ce sont les internautes qui taguent le contenu des pages qu’ils conservent dans leurs signets. Il est donc tout à fait possible (et même courant) qu’un même billet de blog ne soit pas tagué par les mêmes mots sur Technorati et sur del.icio.us. Sous leur forme actuelle, il paraît difficile, de prime abord, de trouver un intérêt réel aux tags. Souvent trop vagues, sujets à interprétation ou à orthographe multiples, les tags ne prennent leur sens que sur des expressions très spécifiques, notamment liées à l’actualité ou à des événement précis". Comme le Web au début, comme les blogs il y a peu, le social bookmarking prend comme un feu de prairie parce qu'il en appelle directement à la personalisation du commentaire.


Le retour à la recherche d'un certain ordre dans le bouillonnement émergent des tags est l'un des thèmes qui s'annonce comme important, voire critique, à l'étape où est en est arrivé le phénomène du social bookmarking. Les premiers signes de ce retour de balancier apparaissent aujourd'hui : del.icio.us permet des "clusters", des agrégats de tags ; comme Rojo, Tagsy permet d'agréger les contenus en fonction de leurs tags, facetious de Siderean organise les tags de del.icio.us en rubriques ; Flickr, devant l'abondance de son contenu, propose de grouper les mots-clés ; Tagyu suggère et recommande des tags en fonction du contenu, etc. Technorati a lancé l'initiative "microformats" pour simplifier le groupement des annotations par grande catégorie. Il s'agit de simplement glisser les tags directement dans les pages Web à l'aide d'un nouvel attribut, "rel-tag", s'appliquant à n'importe quel forme de contenu pour le rattacher à des catégories dont technorati pourrait être un référentiel. Cette initiative est un analogue "soft" à l'idée plus "hard" du Semantic Web promue par le W3C, qui vise à automatiser le plus complètement possible l'annotation et la méta-description du contenu du Web.


Sans présager de l'avenir de la notion de social bookmarking, on peut considérer qu'elle se trouve déjà à la croisée des chemins, suscitant un intérêt à la fois technique, marketing et commercial de beaucoup d'acteurs, établis ou jeunes startups.


Parodions un slogan commercial d'une banque qui fit naguère flores : vos bookmarks nous intéressent !
Le Web 2.0 (2/2). (12.10.2005)

II. Le Web comme plate-forme


L'autre face du Web 2.0 est la révolution technique qui le rend possible aujourd'hui. Le Web 2.0 met en avant une nouvelle architecture pour les applications Web, un nouveau mode de développement et de déploiement du logiciel et, peut-être, à terme une redéfinition des droits de propriété intellectuelle associés à ces nouveaux services.


AJAX est le nouveau sésame technologique ouvrant les portes des salons, ou plutôt des séminaires techniques des "geeks" et autres "hackers" comme FooCamp et BarCamp. Mis en oeuvre brillamment dans les services GMail et Google Maps - encore Google ! - AJAX est un terme générique qui recouvre des recettes variées de programmation, mêlant avec bonheur XML et Javascript (devenus disponibles sur tout navigateur Web digne de ce nom). AJAX vise deux objectifs : doter les services Web d'interfaces utilisateurs riches et interactives, d'une part, et améliorer la perception des utilisateurs de la fluidité de l'exécution de ces services, d'autre part. Pour atteindre le premier objectif, on utilise Javascript dans les pages Web en combinaison avec DOM (Document Object Model), XHTML et les feuilles de style pour ajouter interactivité et visualisations diverses aux services Web. Pour atteindre le second objectif, on utilise des requêtes (en XML) dites asynchrones vers le serveur, qui, exécutées à l'arrière plan, donnent à l'utilisateur impression de rapidité, voire d'instantanéité, dans les traitements.


Des développements récents, et en particulier autour de Firefox, le navigateur de la fondation Mozilla, rendent même à l'utilisateur lui-même les outils de redessin des pages Web, pour lui permettre d'individualiser au vol leur affichage dans le navigateur (cf. GreaseMonkey). Couplé au dispositif de requêtes asynchrone XML, AJAX rend très simple la constitution dynamique de nouvelles applications en "collant ensemble" des pages et des services Web de provenance extérieure. Les prosélytes du Web 2.0 ont inventé un nouveau terme pour cette architecture et ce style de programmation, copier-coller à l'échelle du Web, les "mashups" -- terme repris d'ailleurs la semaine dernière dans le très sérieux The Economist, comme annonciateur de la nouvelle tendance des applications Web. Le mashup qui avait été le sujet d'une première théorisation par David Weinberger, dans "Small Pieces Loosely Joined", est depuis lors devenu une forme répandue de programmation de nouveaux services Web par simple composition et juxtaposition d'autres services Web 2.0.

Exemple : le site HousingMaps qui localise sur une carte GoogleMaps les petites annonces immobilières du très populaire site Craig's List, créé par Paul Rademacher en quelques juxtapositions de Javascript. (Plusieurs sites suivent quotidiennement la floraison de nouvelles applications basées sur GoogleMaps, c'est la GoogleMaps mania !)


Derrière le mashup, deux considérations importantes sous-tendent le nouveau style architectural, que O'Reilly contracte en deux formules bien trouvées : "The Perpetual Beta", la version Beta perpétuelle, et "Data is the Next 'Intel Inside'", ou sous les services, les données !


Avec la programmation légère, façon Ajax, le logiciel considéré comme service -- une idée déjà répandue avec des succès comme Salesforce.com et avec la généralisation des offres ASP -- prend tout son sens. La mutation des logiciels qui les transforme aujourd'hui de produits en services (souvent dénotée par les acronymes ASP pour Application Service Provider, fournisseur de service applicatifs, ou SaaS pour Software as a Service) entraîne, à son tour, quelques changements importants dans le business model des sociétés Web 2.0 :

- le rôle d'opérateur est au coeur du métier de la société Web 2.0 : l'expertise en recherche et développement d'un Yahoo! ou d'un Google n'a d'égale que leur savoir-faire d'opérateurs de serveurs, de systèmes et de services. La valeur de Google repose sur la capacité du moteur à indexer incessamment le Web et à accumuler les résultats de cette collecte ininterrompue dans des bases de données servant les requêtes des internautes avec un temps de réponse acceptable. La maintenance et la continuité de ces processus est indispensable au fonctionnement du logiciel Google considéré comme un service. Les secrets de fabrique de Google sont probablement dans l'administration système, l'équilibrage de charge, la maintenance et la répartition des serveurs plus que dans l'algorithme de recherche lui-même.

- l'utilisateur devient lui-même co-développeur : le suivi en quasi temps réel du comportement des utilisateurs face au flux presque continu des évolutions des services permet aux fournisseurs de les adapter pratiquement au vol aux réactions du marché. La maxime du logiciel libre, "construire des releases tôt et fréquemment", est appliquée ici à plein pour modifier et enrichir de façon continue les services Web 2.0 qui vivent, du coup, perpétuellement en Beta. (Tous les nouveaux services de Google, par exemple, sont toujours qualifiés de Beta sur leur page d'accueil et les nouvelles versions se substituent invisiblement aux anciennes en permanence.) Il y a accélération brutale du rythme de l'innovation ; une accélération rendue possible par le coût très faible des améliorations (programmation légère type Ajax, réduisant temps et coûts de développement, combinée à la notion de service, qui libère fournisseurs et utilisateurs des boulets de la diffusion et de l'installation des upgrades et des versions de maintenance).


À ce jour toutes les applications significatives du Web, exemplaires du Web 2.0, sont articulées autour d'une banque de données spécialisée. Exemples : les index de Google, les répertoires et les taxonomies de Yahoo! et de DMOZ, le catalogue, les pages numérisées, les annotations et les revues des acheteurs d'Amazon, la base des transactions (tous les prix !) et celles des acheteurs-vendeurs d'eBay, les cartes de MapQuest, l'archive des pages Web depuis 1996 pour Alexa, etc. La gestion de banques de données immenses, à l'échelle du Web, est évidemment une compétence indispensable de la société Web 2.0.


À l'ère des API (Application Programming Interface) ouvertes et standards -- de XML à RSS, de HTTP à RDF -- la détention du contenu, des données, est plus importante que le contrôle de l'accès. Que l'on jette un coup d'oeil aux notices de copyright des cartes si familières de MapQuest, maps.yahoo.com, maps.google.com ou maps.msn.com -- quelle uniformité d'ailleurs dans les noms de domaine, une jolie preuve de l'acuité de la concurrence entre ces trois là ! -- et l'on remarquera infailliblement le nom de NavTeq ou de TeleAtlas. Sur celles des cartes satellites, le dernier cri des applications Web 2.0, on trouvera DigitalGlobe (et bientôt IGN avec la startup Zoomorama). Remise au goût du jour de la stratégie employée avec succès en son temps par Dolby et, plus récemment, par LucasFilm avec THX, ou par Intel avec le fameux label 'Intel Inside' qui figure toujours en bonne place sur le PC avec lequel cette chronique est rédigée, la question cruciale vient vite à l'esprit : à qui appartiennent et appartiendront donc les données ?


La course à la propriété des données est déjà engagée. Dans le domaine de l'identité et des contacts des utilisateurs, voyez PayPal, acquis par eBay, voyez le "one-click" d'Amazon, le "SkypeID" du spécialiste de la voix sur IP également racheté par eBay, voyez le numéro de téléphone portable que vous avez mémorisé, voyez l'identifiant GMail réutilisable pour Google Talk, voyez LinkedIn et Orkut, les examples prolifèrent. Dans le domaine du calendrier, EVDB est une première tentative de construire le plus grand calendrier partagé du Web suivant une architecture collaborative de type Wiki. Dans le domaine spatial, c'est à celui qui le premier construira la banque mondiale des tags géolocalisés.


Poussons un cran plus loin le raisonnement et considérons la question attenante de la propriété intellectuelle de ces données de grande valeur. Dans le Web 2.0 l'utilisateur contribue volontairement (Wiki, par exemple) à l'enrichissement des données ou cette contribution est un simple effet de bord de la consommation du service Web 2.0 (annotation d'un blog ou d'une page Web par un tag, par exemple). Les données résultent dès lors de la participation collective d'utilisateurs-auteurs. Les analyses du mouvement du Logiciel Libre sont tout à fait pertinentes sur ce point (cf. "Coase's Penguin" de Yochai Benkler, par exemple) et la réflexion légale qui entoure aujourd'hui ces développements peut également apporter un éclairage essentiel -- à ce sujet, il est indispensable que soit traduit en français "Free Culture" de l'avocat Lawrence Lessig, à l'époque où, en France, on s'alarme en haut lieu de projets comme Google Print, exemplaire de cette course au contenu.


Dans le logiciel libre, en effet, le "code" est également le résultat d'un effort collectif et d'un projet divisé en petites quantités -- même si chacune peut représenter nombre de nuits blanches ! -- et des solutions spécifiques, les licences comme GPL et ses dérivées, ont été mises au point pour en tenir compte dans son exploitation ultérieure. Tout l'argument de Lessig, avec CreativeCommons.org (dont le mot d'ordre est "Some Rights Reserved", certains droits réservés et non "tous droits réservés"), est de considérer les principes ayant abouti à ces solutions viables, avec le succès du logiciel libre que l'on connaît aujourd'hui, comme pertinents pour ces nouveaux corpus de données essentiels aux applications Web 2.0.

N'est-il pas en effet normal que Google, qui croît et embellit finalement en recensant les hyperliens que chacun d'entre nous manie librement lorsqu'il ou elle publie une page sur le Web et en comptant nos fréquentations de tel ou tel site, redistribue un accès libre à ces données sous forme d'API simples que nous même emploierons à construire nos propres mashups ? La boucle est bouclée : Google est un immense transformateur redistribuant à chacun, à la demande, l'information collective, plus riche que la somme des données individuelles.


Certains services Web 2.0 opérent déjà en ayant importé ces principes qui guident la communauté des développeurs du Logiciel Libre. Dans d'autres domaines, ces transformateurs de valeur individuelle en valeur collective redistribuée ensuite à la communautés fournissent des exemples d'avant garde du Web 2.0 que Tim O'Reilly et tous les conférenciers de la semaine dernière à San Francisco (et tous leurs alter ego sur le Web, bien plus nombreux, qui lisent et commentent les blogs, les photos, les chats et autres Wikis des premiers) appellent de leurs voeux. Slashdot, par exemple, est une véritable agence de news à destination des "geeks" et des maniaques de la technologie. S'appuyant sur un dispositif sophistiqué de scoring, ce sont les lecteurs qui notent les actualités publiées par d'autres lecteurs qui les ont repérées dans leurs sources préférées (en ligne ou hors ligne), le "réseau de réputation" aboutissant à la sélection collective de la dizaine de communiqués qui intéressera chaque jour le plus la communauté au sens large des lecteurs. Dans le domaine littéraire, en particulier pour les nouvelles, les essais et les récits courts, Kuro5hin fournit un service comparable.


Enfin, la révolution du Web 2.0 ne sera certainement pas limitée au seul PC. La remise au coeur du Web 2.0 d'un utilisateur, lecteur-auteur et consommateur-producteur, entraînera inévitablement la prise en compte de tous les autres "devices" et équipements divers qui l'accompagnent dans sa vie privée, publique et professionnelle. Le trafic SMS et MMS sur les réseaux cellulaires est considérable : il constitue en soi une formidable source de données pour des services Web 2.0. Avec des générations, maintenant livrées à un rythme annuel, de nouveaux équipements effaçant les frontières entre communications audio, téléphonique, photo et vidéo on imagine sans peine qu'ils s'intègreront rapidement au Web 2.0. Les exemples de DoCoMo au Japon et l'extraordinaire succès du lecteur iPod d'Apple couplé au service iTunes viennent illustrer le déploiement explosif du Web 2.0 sur des terminaux non-PC.


Depuis l'explosion de la bulle Internet, observateurs et analystes s'interrogeaient sur quelle pourrait être la nouvelle vague technologique après la succession des trois décades prodigieuses qui avaient précédé le changement de siècle. Et si finalement, après le Web, la nouvelle révolution était tout simplement... le Web. Mais dans sa version 2.0, raffinée et revue, tournée vers des utilisateurs jouant décidément tous les rôles dans une généralisation des échanges et une amplification inédite de la communication.





Références :

http://battellemedia.com/ le blog de John Battelle, auteur du nouveau livre sur Google : The Search, How Google and Its Rivals Rewrote the Rules of Business and Transformed Our Culture.

http://www.web2con.com/pub/w/40/coverage.html le site Web de la conférence O'Reilly, Web 2.0 2005.

http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html un essai de définition du Web 2.0 écrit par Tim O'Reilly en préliminaire à la conférence.

http://www.wired.com/wired/archive/12.10/tail.html The Long Tail écrit par Chris Anderson.
http://longtail.typepad.com/the_long_tail/ Son blog.

http://www.randomhouse.com/features/wisdomofcrowds/ The Wisdom of Crowds écrit par James Surowiecki

http://www.benkler.org/CoasesPenguin.html Coase's Penguin, de Yochai Benkler

http://eventful.com/ EVDB

http://www.housingmaps.com/ Un mashup de Craig's List et de GoogleMaps
http://inlogicalbearer.blogspot.com/2005/05/google-maps-timeline.html et
http://googlemapsmania.blogspot.com/ la GoogleMaps Mania se répand !

ShareThis