jeudi, mai 29, 2008

Le retour en grâce des langages de programmation dynamiques

L'équipe de développement de Webkit, l'implémentation Open Source du navigateur Web qui est au coeur de Safari sous OS X, vient d'annoncer un moteur Javascript aux performances impressionnantes, SquirrelFish. Il existe déjà depuis quelques années plusieurs variétés d'implémentations complètes d'interpréteurs et de compilateurs du langage : dans le monde .NET, un compilateur vers la machine virtuelle CLI, ailleurs SpiderMonkey, l'interpréteur écrit en C intégré à Mozilla et Firefox, Tamarin, un projet Open Source de moteur Javascript haute performance pour la nouvelle version du standard ECMAScript (4ème édition, ES4) développé à l'origine pour ActionScript par Adobe et maintenant logé à la Fondation Mozilla, ou Rhino une implémentation en java du langage Javascript. Ce renouveau d'intérêt pour les langages « dynamiques » est porté par la vague de l'architecture nouvelles des applications Web dans laquelle — retour de balancier — le client dispose d'une capacité autonome de calcul et de présentation tout en communiquant avec des services Web distants.

Y a-t-il, à proprement parler, une définition formelle et généralement acceptée de ces langages de programmation dynamiques ? Javascript en est aujourd'hui l'exemple emblématique. Pas tout à fait orienté objet, au sens canonique de système de classes avec héritage, mais offrant néanmoins de véritables objets sur le modèle de « prototypes », Javascript présente des types dynamiques, des « closures » et de nombreuses caractéristiques de langages dynamiques antérieurs comme Smalltalk, Lisp voire Prolog et Self. Aujourd'hui on songerait plus naturellement à des langages employés dans l'univers des applications Web comme Ruby, PHP, Perl, Python, Lua, etc.

Depuis longtemps les langages dynamiques souffrent d'une image de marque déplorable, sorte de sceau de l'ostracisme qui les frappe dès qu'ils sont comparés à des langages de programmation comme C/C++ ou Java, pour ne citer qu'eux. La vulgate enseigne que les langages dynamiques sont peu performants et lents à l'exécution d'une part et ne disposent pas de tout l'outillage et l'instrumentation sophistiquée qui existe pour les autres langages et dont il est indéniable qu'elle joue un rôle crucial dans leur succès industriel et commercial.

Mais ce manque de prestige actuel de cette classe de langages de programmation est plutôt le résultat des circonstances historiques que l'expression d'une nature propre, rétive ou trop absconse. Jadis — en tous cas à ceux pour qui les mots comme CLOS, ML, Smalltalk ou Scheme évoquent passagèrement de lointains mais persistants maux de crâne — des langages dynamiques comme Common Lisp disposaient de compilateurs et d'outils très avancés dont les performances avaient finalement peu à envier à leurs jeunes concurrents typés et statiques de l'époque. À peu près contemporains des précédents, les efforts des équipes de Parc Place et de Digitalk visaient, avec un certain succès, à améliorer les performances et l'outillage du langage Smalltalk (Dave Griswold, Gilad Bracha). Ceux du Sun Microsystems Lab (David Ungar, Randall Smith) sur le langage basé sur les objets-prototypes, Self, et les innovations apportées à son compilateur par Urs Hölzle — dont les travaux sont également utilisés dans la machine virtuelle HotSpot — devaient aussi croiser Smalltalk au milieu des années 1990 sur le projet Strongtalk, emporté comme quelques autres sous la déferlante Java à partir de 1995, et survivant aujourd'hui dans le domaine de l'Open Source. Toutes ces explorations avaient mis au jour de nombreuses techniques de représentation et de compilation des langages dynamiques qui rendaient comparable leur usage à celui des langages, devenus depuis classiques, comme C et C++. Elles n'ont pas eu l'écho industriel et commercial qu'elles attendaient, victimes probablement d'un manque de marketing au moment où explosait Internet sur le devant de la scène.

Le passé, pas si lointain, nous enseignerait donc plutôt que les langages dynamiques devraient pouvoir afficher de bonnes performances à l'exécution comme leurs cousins statiques et typés. Et si l'histoire récente est conseillère, il faudrait plutôt chercher à inventer interpréteurs et compilateurs hors des canons généralement convenus et affinés pour ces langages typés et statiques. (Comme le remarque un papier de UCLA Irvine sur ces sujets, un compilateur écrit en suivant scrupuleusement les règles du fameux Dragon Book ne peut que s'étrangler devant un fragment de Javascript comme celui-ci : x = 0; for( i = 0; i < 500000; i++ ){ x = x + i; if( i == 499999 ) x = "oops!"; } dans lequel la gestion des types révèle quelques surprises.) Qu'en est-il des autres outils habituels du programmeur ?

La barre est placée assez haut. Les « Integrated Development Environments » du jour offrent tous pléthore d'assistants, d'auto-completion, de liens vers les définitions et la documentation des objets et des fonctions, de refactoring, de navigateurs, de représentations arborescentes, de compilation au vol ou incrémentale, etc. Les environnement modernes de développement pour Java ou pour C/C++ sont de bons exemples du niveau qu'il faut aujourd'hui atteindre pour prétendre à outiller correctement un langage de programmation. Au point que ces IDE tendent à se détacher des langages de programmation eux-mêmes et se transformer en plates-formes génériques de conception et de développement de programmes utilisables dans la plus grande variété de circonstances et de scénarios de production de code.

La bonne stratégie consiste alors à doter les langages de programmation dynamiques des caractéristiques nécessaire à leur intégration la plus indolore possible dans ces IDE-plates-formes dont l'emploi se généralise. La JSR 223, par exemple, « Scripting for the Java Platform » va dans ce sens. Cette spécification définit comment échanger données et information entre Java et des langages de script comme PHP, Ruby, Javascript, etc. au sein d'une même application hybride Java/script.

De même les innovations découvertes hors des sentiers battus des compilateurs traditionnels constituent probablement la prochaine étape dans l'évolution des outils et des langages de programmation dynamiques. L'équipe de recherche de Michael Franz à UCLA Irvine ont, par exemple, récemment publiés une série de papiers sur la compilation de langages dynamiques et l'optimisation de la performance à l'exécution. D'abord, même si elle est plus laborieuse, l'analyse statique des programmes écrits dans un langage de programmation dynamique reste possible et inférer le type des variables d'après le texte du programme donne de bons résultats dans la grande majorité des cas. Une autre technique — dont le nom savant, Polymorphic Inline Caching, vous permettra de briller dans les foocamps et autres barcamps — permet de contourner le problème difficile de la détermination simultanée des types de la fonction appelante et de la fonction appelée lorsque toutes deux attendent des arguments aux types variables suivant les objets. Une technique similaire dite des « arbres de trace » consiste à utiliser un interpréteur et enregistrer les chemins les plus souvent parcourus à l'exécution en fonction du type des variables sur lesquelles les choix de parcours sont faits (par exemple dans les boucles ou dans les instructions conditionnelles) et compiler chacune des branches de ces arbres de trace en appliquant les optimisations appropriées au type des variables qui figurent dans chaque branche.

Dans ces deux dernières techniques, notons qu'on emploie un tandem formé d'un interpréteur et d'un compilateur pour le langage de programmation dynamique concerné. L'interpréteur exécute le programme et collecte simultanément une information sur la statistique de l'exécution ; ces données sont examinées par le compilateur qui produit des versions optimales (code machine) pour les différents agrégats statistiques identifiés, parfois plusieurs pour le même fragment de code source, en fonction du type des variables employées.

De plus, ces techniques semblent bien adaptées aux générations actuelles et à venir de puces multicoeurs. À l'heure où beaucoup s'interrogent sur les nouveaux usages auxquels consacrer ce surcroît de capacité de calcul des postes clients — c'est un des chevaux de bataille de Craig Mundie, le patron de la recherche à Microsoft — la structure même des nouvelles techniques d'optimisation des compilateurs de langages dynamiques se projette assez bien sur ces architectures matérielles. Pourrait-on imaginer un compilateur JIT qui répartisse au vol le calcul des branches distinctes de l'arbre de trace précédent sur les différents coeurs de la machine ? L'optimisation apparaîtrait alors comme quasi simultanée aux premières exécutions du programme à laquelle elle pourrait se substituer tôt, chaque coeur exécutant une version « optimisée par les types » du même code.

On le voit les perspectives sont assez ouvertes. Alors que les programmeurs s'intéressent de plus en plus aux langages de programmation dynamiques pour leur productivité et leur flexibilité devenues indispensables pour les applications Web, chercheurs, laboratoires industriels et communautés Open Source manifestent un regain d'intérêt pour toutes sortes d'innovations techniques qui faillirent être oubliées dans la brillante génération antérieure délaissée par les haruspices du marketing.

mardi, mai 06, 2008

Le Surplus cognitif : du gin et des sitcoms à Web 2.0 Expo !

Pour Clay Shirky, professeur à NYU et essayiste renommé sur tous les sujets relatifs au Web, qui s'exprimait dans la grande salle du Moscone West à l'occasion de l'exposition Web 2.0 à San Francisco, l'explication de l'état actuel du Web « social » est à chercher dans le gin et les « sitcoms » ! Lors de la révolution industrielle, en Grande Bretagne en particulier, le transformation de la vie rurale en trépidation urbaine fut si soudaine, brusque et traumatisante, argumente Shirky, qu'une génération complète n'a trouvé d'autre issue psychologique que de se noyer dans le gin. Et ce n'est qu'en sortant de cette stupeur sociale massive que la société anglaise de l'époque a su mettre en place les structures économiques et les organisations d'une « société dite industrialisée ». L'argumentation est étayée et développée dans le livre qu'il vient de publier aux Etats-Unis, Here Comes Everybody, dont le thème affiché sur la jaquette est « organiser sans les organisations ».

Quel rapport avec les centres d'intérêt de cette foule juvénile et attentive venue nombreuse à la conférence et exposition Web 2.0, grand-messe annuelle - et bientôt semestrielle - de Tim O'Reilly, notre authentique « beatnik » du Web ? Selon Clay Shirky, les révolutions technologiques du XXe siècle ont provoqué un effet stupéfiant comparable, le temps de loisir massivement libéré trouvant à s'épuiser dans la télévision et le formidable développement - aux Etats-Unis en tout cas - du sitcom. Le « surplus cognitif » gaspillé dans l'absorption passive et béate des heures de sitcoms rappelle sans nul doute le fameux « temps de cerveau », marchandise naguère vantée par certain directeur de chaîne de télévision privée. Comment, continue Shirky, peut-on s'étonner de voir tant de gens consacrer tant de temps et d'énergie à Wikipedia, par exemple, quand on met en perspective les 100 millions d'heures de travail qu'a requis l'élaboration du site dans l'état actuel aux 200 milliards d'heures passées par les américains devant le poste de télévision par an : 2 000 Wikipedia actuels par an ! Ou bien les 100 millions d'heures par week-end à regarder les publicités télévisées : 1 Wikipedia actuel par week-end !

Ce gigantesque surplus cognitif est donc à peine employé dans les balbutiements actuels du Web 2.0, considéré comme amplificateur de communications, auxquels nous assistons depuis quelques années. Le keynote finissait en appel aux bonnes volontés et au « sursaut cognitif » : refuser toute expérience non-participative qui serait malencontreusement proposée sur le Web ! Travailler sans relâche à exploiter le surplus cognitif à enrichir la noosphère !

Voilà qui détonait singulièrement au milieu des effets d'annonces et des présentations commerciales qui émaillaient la conférence plénière. Mais on était plutôt venu pour l'exposition aux proportions encore plus pharaoniques que l'année dernière, baromètre infaillible de l'innovation technologique et de son écosystème dans la Silicon Valley et South-of-Market à San Francisco. Plus d'exposants, plus de monde, plus de couverture presse ainsi que dans les blogs et wikis, plus de meetings, un débordement annoncé de la conférence/exposition sur la Côte Est dès septembre, à Berlin en octobre et à Tokyo au Japon : le moteur innovation tourne à plein régime ! Même si les capitaux-risqueurs se plaisaient à prétendre publiquement voir les signes avant-coureurs d'une « bulle » dans la multiplication des financements de startups Web 2.0, après avoir évidemment contribué avec empressement à ces opérations les années passées, et poursuivre néanmoins comme un seul homme la distribution mimétique de capitaux à tout ce qui affiche une connotation « sociale » dans un rayon de 30 miles autour de Menlo Park, la santé du secteur apparaît florissante. Au point même que d'emblée, à l'entrée même de l'immense halle d'exposition, la différence tranchait avec l'édition 2007 : la présence massive des poids lourds de l'industrie, Microsoft, Yahoo!, Oracle, IBM, Disney (!), Google - mais avec un stand plus petit qui semblait vouloir jouer le jeu des startups - ne veulent d'évidence plus laisser le terrain aux seules jeunes pousses.

À la rubrique cocorico, notons cette année encore la présence des vaillants Yoono, un service de favoris partagés communautaire, et de DreamFace Interactive, le projet Open Source de plateforme de mashups interactifs d'entreprise, accompagné de Twinsoft, spécialiste de l'intégration du SOA, des applications patrimoniales et du Web. Mais il y avait également quelques autres voix européennes dans ce concert essentiellement américain de startups.

À voir l'activité bourdonnante autour des stands des petits et des grands acteurs du Web social, l'idée qui vient à l'esprit est un retour sur l'analogie avec la révolution industrielle évoquée par Shirky. Le plan de l'édition 2008 de l'exposition Web 2.0 semblait désormais distinguer les exploitants du surplus cognitifs, innombrables et proliférantes startups proposant produits et services Web innovants, des candidats opérateurs à venir du surplus cognitifs, les géants comme Google, Microsoft, Yahoo!, Amazon occupés à rendre rapidement publiques les API ouvrant l'accès à leurs immenses datacenters et leurs ressources inépuisables de calcul.

vendredi, avril 18, 2008

Microsoft : REMIX 08 dans la Silicon Valley

Au programme de cette journée ensoleillée sur le campus de Microsoft dans la Silicon Valley - cinq bâtiments ultramodernes installés à Mountain View le long de la 101 freeway - REMIX 08, la session de rattrapage de la grand-messe MIX O8 du mois dernier à Las Vegas. Se présentant comme un « best of » condensé des deux journées de la conférence originale du Nevada, la journée était inaugurée par une présentation de la version 2 de Silverlight par Scott Guthrie. Accompagné sur scène des premiers intégrateurs et auteurs d'époustouflantes réalisations pour le site NBC des Jeux Olympiques de Pékin (Schematic, basé à New York) ou pour le Hard Rock Café (Vertigo) - avec, dans cette dernière application, une incroyable démonstration de « DeepZoom » avec Silverlight sur la collection unique d'articles de rock and roll des Hard Rock cafés autour du monde ; ce sont les fameuses interfaces « zoomables » dont Franklin Servan-Schreiber est l'incontestable pionnier français avec Zoomorama.

Mais l'excitation retombait un peu lors des « breakout » sessions, plus techniques, au cours desquelles on comprenait malgré tout l'énorme quantité de travail que représente la réalisation de telles applications Web, même si l'intégration de Visual Studio 2008 et Expression avec Silverlight est parfaite. Le panel « The Open Question » sur l'Open Source laissait ensuite un peu sur sa faim devant la teneur consensuelle des propos tenus sous la férule attentive de Sam Ramji, Directeur de la stratégie « Platform Technology », devant qui on ne peut, de toute évidence, tout dire... Suivait une présentation (trop) rapide de SQL Server Data Services, le précurseur probable d'une migration massive de l'offre du géant de Redmond vers les services hébergés, ici baptisés « Cloud Services » - rien à voir avec la météo, « cloud », le nuage, désignant familièrement Internet ou le Web dans le jargon du geek, un terme employé à l'origine par les opérateurs télécoms. Même message pas très subliminal avec Windows Live Platform, l'itération courante des services communautaires grand public de Microsoft.

Était échue au panel de la fin de journée la lourde tâche d'anticiper « le futur des réseaux sociaux ». Le débat, un peu plus animé que celui, certes plus délicat, qui l'avait précédé sur les modèles Open Source, restait, on l'imagine, assez peu visionnaire. On constatait, sans grande nouveauté, que la question de confiance, êtes vous prêt à livrer des détails personnels en échange de la promesse d'une meilleure qualité de service ? était toujours autant au coeur de la problématique. Un contrepoint, cependant, en forme de boutade prononcée par Dave McClure (ex Paypal et SimplyHired) mais, comme souvent, empreint d'une forme de réalisme : « le principal obstacle à l'expansion des réseaux sociaux n'est pas que les utilisateurs craignent de révéler des informations personnelles mais qu'ils sont incapables de se rappeler de leur mot de passe ! ». Ryan McIntyre, investisseur en capital risque chez Mobius Venture Capital puis chez Foundry Group, appelait à des API ouvertes - l'enfermement propriétaire des réseaux sociaux géants comme Facebook en confrontation directe avec l'initiative d'interopérabilité lancée par Google et d'autres avec Open Social est aujourd'hui le principal sujet de friction entre les différentes chapelles du « graphe social ». Chaque API publiée, disait-il en substance, est un nouveau canal potentiel de distribution, « que fleurissent les API » !

« Que fleurissent harmonieusement les cent fleurs, que rivalisent bruyamment les cent écoles » préconisait déjà le Grand Thimonnier en 1957, sans en imaginer cette nouvelle déclinaison toute virtuelle : alors, attention au Grand bond en avant des réseaux sociaux...

D’ailleurs, le bond en avant n'était peut-être pas à chercher à REMIX 08 mais bien plutôt à l'écart du grand auditorium du bâtiment 1, dans le bâtiment 5 du campus qui héberge les transfuges de Medstory, le moteur de recherche vertical dans le secteur de la santé fondé par Alain Rappaport et acquis par Microsoft en février 2007. C'est ici, qu'en liaison directe avec Craig Mundie à Seattle, s'élaborent la stratégie et les développements de Health Vault, la vision de Microsoft du dossier médical électronique. Le jour même du REMIX 08, le vénérable et on ne peut plus sérieux New England Journal of Medicine publiait deux articles dans une « Perspective » inédite sur Google Health et Health Vault, « the next big thing in medical care », la grande nouveauté dans le suivi médical. Le journal de médecine pose le débat sous les mêmes termes, pratiquement mot pour mot, que les panélistes de REMIX. Les bénéfices attendus d'un dossier médical électronique, sous le contrôle total de l'utilisateur - ce point étant à l'évidence essentiel - contrebalanceraient, d'après les promoteurs de ces initiatives, largement les craintes de certains à l'idée de sauvegarder sur le Web ces données par essence personnelles. HealthVault est disponible seulement aux Etats-Unis et offre le moteur de recherches Medstory, un service où l'on peut envoyer quelques données médicales de base (utiles aux urgences, par exemple), et un service de lecture et d'archivage automatique des résultats de tests issus de certains appareils de diagnostic compatibles (tension, rythme cardiaque, niveau de glucose, etc.). Le New York Presbyterian Hospital travaille avec Microsoft sur l'échange sécurisé de données en vue de l'élaboration d'un prototype et de formats standard. Google Health n'est pas encore disponible ; seul un programme pilote est en cours avec la Cleveland Clinic.

Le NEJM est prompt à remarquer que si l'on attend de tels systèmes des économies dans les systèmes de santé et que l'on espère une meilleure qualité du suivi des soins - sous nos cieux hexagonaux le sénateur UMP Gérard Larcher vient de remettre à Nicolas Sarkozy un nouveau rapport proposant également une rationalisation du système français de soins hospitaliers - ces Health Web Services ne sont pas sans poser de nouveaux problèmes. (Notamment que ces données, sauvegardées hors des systèmes de santé à proprement parler, ne tombent donc pas sous l'aile protectrice des données personnelles établie par le HIPAA, Health Insurance Portability and Accountability Act, la réglementation fédérale qui régit l'usage des données médicales.) Menace ou promesse, la question de la confiance se pose également et peut-être de manière plus aiguë encore dans cette forme de réseau social de santé.

mardi, avril 08, 2008

Vos applications nous intéressent !

Tandis que la danse de salon lancée par Microsoft autour de Yahoo! tourne au battle rap aigre-doux, Google vient d'annoncer le lancement imminent de « BigTable », un nouveau service d'hébergement d'applications et de mise à disposition des ressources pléthoriques du géant de la recherche en ligne. On ne peut plus clairement délimiter les enjeux actuels du contrôle du Web !

Après l'acquisition de Fast, Microsoft avait ouvert le feu, confirmant des rumeurs diverses et variées qui circulaient depuis des années en fait, en se lançant dans un offre non sollicitée d'acquisition de Yahoo! fin janvier 2008. Jouant les vertus effarouchées Yahoo! pratiquait d'abord l'indifférence étudiée devant cette avance de Redmond. Pendant un trimestre nous avons alors assisté au spectacle surréaliste de nos deux acteurs poursuivant leurs business as usual comme si l'OPA n'était pas le sujet du jour. « Pendant l'OPA, les acquisitions continuent ! » semblait-on devoir se dire à la lecture de la poursuite par Microsoft et par Yahoo! de leur stratégie d'acquisitions de startups annoncée par voie de presse (FoxyTunes, Maven Networks pour Yahoo! ; Danger, Inc., Rapt, Komoku, Credentica pour Microsoft). En même temps Yahoo! dévoilait début avril son nouveau système de gestion de publicités en ligne, AMP, « still months away from being ready » (à des mois d'être prêt) précisait quand même le communiqué. Mais toujours un bon argument en réponse à l'acquisition récente de DoubleClick par Google, et sûrement un solide atout dans la discussion de la valorisation de l'offre de Microsoft.

Inévitablement le ton est monté et Steve Ballmer - connu pour son sens de la mesure et sa délicatesse - envoyait une lettre en forme d'ultimatum à Yahoo!. « Si nous n'avons pas conclu un accord d'ici trois semaines, nous serons obligés de prendre contact directement avec vos actionnaires, voire d'engager avec eux l'ouverture d'une procédure pour faire élire un autre conseil d'administration », écrivit-il aux dirigeants de Yahoo, dans une lettre datée du 5 avril, avant de rappeler que, pendant les deux mois qui ont suivi l'offre de l'éditeur de Redmond, les parts de marché de Yahoo se sont effritées, dans un contexte économique de plus en plus morose, histoire d'enfoncer le clou.

Hier le Conseil d'administration de Yahoo! a rendu publique sa réponse officielle, réitérant son refus de principe mais laissant ouverte l'option si la valorisation était revue à la hausse. (Trente-cinq phrases courtoises et vénéneuses dans lequel l'expression « maximize stockholders value » apparaît quand même neuf fois.) On attend avec jubilation les réactions de Microsoft...

Et pendant ce temps-là, le cours de Google continue de s'effondrer : près de $700 au début janvier 2008, $476.82 au closing hier soir. Pas d'affolement : la capitalisation frise les 150 milliards de dollars malgré cette chute ! Le 2 avril dernier, Google annonçait le plus grand licenciement de sa jeune carrière de prodige du Web. 300 personnes issues de DoubleClick, pourtant acquise le mois dernier seulement pour 3,24 milliards de dollars vont partir. (On imagine l'affaire si Google avait été français ! Bien heureusement les efforts nationaux se concentrent à nouveau sur Quaero, qui vient de récupérer 100M€ après avoir été misérablement lâché par nos amis allemands, la prometteuse concurrence hexagonale à l'impérialisme libéral mondialisant de Mountain View, voulue et décrétée par Jeanneney-Chirac !) On pouvait s'inquiéter à juste titre : Microsoft, même empêtré dans l'OPA sur Yahoo!, arriverait-il néanmoins à ses fins de manière indirecte en provoquant le déclin et la chute de l'Empire Google ?

L'annonce de BigTable - qui, rappelons le, est dans la droite lignée de la série entamée il y a quelques années avec GMail, l'hébergement d'applications de bureautique, Google Web Toolkit pour les programmeurs, etc. - est-elle une réaction à la farandole impromptue Microsoft-Yahoo! ?

Il est évident que ce service viendra concurrencer directement les fameux Web Services d'Amazon (aux noms évocateurs comme S3, EC2, SimpleDB...) et AppExchange de SalesForce.com, tous deux salués à l'époque de leurs lancements respectifs comme pionniers des nouveaux services Web. Notons que l'idée commence également à se répandre ; avec la livraison du nouveau SDK pour l'iPhone, Apple a bien précisé que, comme pour iTunes, les applications iPhone ne seraient vendues qu'au travers de la plateforme propriétaire à laquelle les développeurs eux-mêmes sont également priés de s'abonner.

De fait, Google laisse depuis longtemps filtrer progressivement des informations sur les joyaux de sa couronne : son système de fichiers, le Google File System, son algorithme de répartition de tâches (MapReduce) et met depuis longtemps en avant les capacités des ses datacenters. Autant de signaux envoyés à la communauté des développeurs.

Mais plus généralement c'est, d'une certaine manière, le retour de la centralisation propriétaire (le « walled garden » que l'on a un temps reproché aux fournisseurs d'accès Internet). Dans sa version moderne, également incarnée par Facebook, par exemple, les troupeaux de développeurs sont cornaqués vers les enclos propriétaires où toute l'instrumentation et la gadgeterie moderne est à leur disposition pour s'ébattre : gigaoctets (6,6 sur mon compte GMail et « plus à venir » clame la page d'accueil !), APIs (10 rubriques représentant des milliers d'API en libre service), des programmes Open Source, des « summers of code » festifs pour les privilégiés, un référentiel gratuit et des milliers de projets sur code.google.com.

Plus intéressant encore, si la tarification est faible - voire gratuite - l'effet d'opportunité jouerait à plein et de nombreuses startups devraient alors se précipiter sur l'occasion d'externaliser leurs coûts d'infrastructure. Du coup, on peut imaginer que Google en bénéficie indirectement mais efficacement en diminuant significativement le coût de ses acquisitions si celles-ci sont déjà hébergées sur BigTable. Pas de migration et pas d'intégration : la startup en prêt à porter. Pour les mêmes raisons d'ailleurs, Microsoft pourrait bénéficier du même effet en rachetant Yahoo! qui est fondé sur une plateforme Open Source, réputée plus facile à intégrer.

La bataille pour la domination du Web bat son plein !

mardi, avril 01, 2008

Microsoft livre tous ses logiciels à la communauté Open Source

Dans un revirement incroyablement surprenant pour qui a pu suivre les déclarations réitérées de son CEO, Steve Ballmer, Microsoft vient d'annoncer la mise à disposition complète et totale de l'ensemble des codes source de la gamme Windows et de la gamme Office à la communauté Open Source. Le code source de tous les produits logiciels de Microsoft a été mis en ligne à l'URL opensource.microsoft.com, provoquant un engorgement massif des lignes de communications Internet et un ralentissement planétaire des échanges sur la Toile.

Les trouvailles des innombrables moteurs de recherche qui ont été lancés sur le nouvel URL dès ce matin tôt font la joie des blogueurs, des observateurs et de la presse informatique en ligne du jour. En effet, dans les commentaires du code, fontaines inépuisables de merveilles et puits de vérité, miroirs de la vie quotidienne du programmeur de Redmond, les mots qui apparaissent le plus souvent (en ordre de fréquence) sont : « moron » (« taré », pour ne pas dire pire), « hack », « BUGBUG » et l’inénarrable « undocumented ». Voici quelques perles tirées des bonnes feuilles (de code) :

Le fichier private\ntos\rtl\heap.c, datant de 1989, nous dit :

// The specific idiot in this case is Office95, which likes

// to free a random pointer when you start Word95 from a desktop

// shortcut.

Le fichier private\ntos\w32\ntuser\kernel\swp.c du 11-Jul-1991 est très clair :

* for idiots like MS-Access 2.0 who SetWindowPos( SWP_BOZO

* and blow away themselves on the shell, then lets

* just ignore their plea to be removed from the tray

Parmi les nombreux « morons », un aveu bouleversant dans private\genx\shell\inc\prsht.w:

// we are such morons. Wiz97 underwent a redesign between IE4 and IE5

Et dans private\shell\shdoc401\unicpp\desktop.cpp:

// We are morons. We changed the IDeskTray interface between IE4 and IE5

Quant aux « hacks » ils sont trop nombreux pour tous les citer :

private/ntos/w32/ntuser/kernel/sendmsg.c: * This hack prevents DDE apps from locking up because some

private/ntos/w32/ntuser/kernel/sendmsg.c: // Added by Chicago: HACK ALERT:

private/ntos/w32/ntuser/kernel/validate.c: ((pti->rpdesk != NULL && // hack so console initialization works.

private/ntos/w32/ntuser/kernel/mnsel.c: * We must be hacking or passing valid things.

private/ntos/w32/ntuser/kernel/mnsel.c: * Hack so we can send MenuSelect messages with MFMWFP_MAINMENU

private/ntos/w32/ntuser/kernel/ntstubs.c: * Bummer, this has never been shipped and it's hacked already

Bref le code, maintenant libre, s'il ne se distingue guère par sa haute tenue littéraire, est généralement de très bonne qualité, d'après les spécialistes, qui en poursuivent néanmoins l'analyse détaillée à la recherche, sans doute, de traces, même délétères, de contrefaçons externes. Mais là n'est probablement pas l'impact le plus à craindre de la décision l'éditeur de logiciels pour l’instant.

Dès ce matin, des rumeurs répandues sur les blogs faisaient état de coupures massives de courant dans la région d'Irkoutsk, en Sibérie, où le géant de Redmond a élevé l'année dernière un datacenter aux proportions soviétiques. Il apparait que les millions de pages du code sont partiellement servies depuis ces serveurs sibériens. Les eaux de la rivière Angara, qui sont abondamment pompées pour l’indispensable refroidissement du blockhaus bétonné, auraient vu leur température augmenter de plus de dix degrés en quelques heures, provoquant de ce fait une atteinte caractérisée à la faune et à la flore subaquatique locale. Les dégagements de chaleur du datacenter de Quincy, dans l'état de Washington, font, quant à eux, craindre une catastrophe environnementale d'ampleur inégalée à proximité de la rivière Columbia. Michael Manos, responsable Datacenter Services chez Microsoft, était d'ailleurs injoignable ce matin.

La Commission européenne se réunit en urgence aujourd'hui pour juger de l'opportunité d'une nouvelle amende pour non-respect de l'environnement qui viendrait s'ajouter à celle récemment votée, confirmant le jugement de 2004 d'abus de position dominante. Le Commissaire Neelie Kroes, visiblement excédée par la colère, à déclaré que « l'Europe ne saurait laisser un champion américain de la mondialisation libérale impunément menacer ainsi le développement durable de la société numérique en portant atteinte à l’environnement ».

De son côté, Al Gore, qui a de son propre aveu « inventé l’Internet », récent Prix Nobel de la paix 2007, a élevé la voix contre toute tentative de remise en cause du protocole de Kyoto et propose d’appliquer une « taxe de pollution » à tous les opérateurs et sites Web dont le succès entraînerait le dépassement d’un seuil de consommation d’énergie non-renouvelable.

Le gouvernement convoqué en hâte au PC de crise de l’Elysée, le studio d’enregistrement de Mme Sarkozy discrètement aménagé au sous-sol du pavillon de la Lanterne à Versailles, en appelle à un sursaut du « patriotisme économique » et une stricte application du « principe de précaution » dans une vidéo musicale postée sur YouTube – et déjà téléchargée d’office dans toutes les écoles, les mairies et les conseils régionaux.

Cependant, ans un communiqué de presse lapidaire, Ray Ozzie et Craig Mundie expliquent qu'en continuité avec la politique « d'ouverture et d'interopérabilité » annoncée en février dernier, Microsoft avait tiré toutes les conclusions de son initiative Shared Source et décidé de marquer avec force sa détermination à poursuivre dans la voie de l'Open Source. « Software Is Now A Service » est désormais la bannière sous laquelle sont distribués librement les produits logiciel de la société. On est, par ailleurs, sans nouvelle de Brad Smith, qui, d’après la Pravda, aurait rejoint le nouveau Ministère de la Justice à Moscou comme conseiller juridique de Dmitri Medvedev.

De sa retraite caritative, Bill Gates, dans une conférence de presse improvisée aux bureaux de sa fondation -- dont les rumeurs persistantes dans les milieux financiers informés indiquent qu'elle s'apprêterait à racheter l'Europe continentale, en joint-venture avec Warren Buffet, pour la transformer en musée historique, dans la plus grosse opération de LBO jamais réalisée -- a rappelé qu'il avait lui-même inventé le modèle Open Source dès 1980.

Nonobstant les protestations du contraire de hackers notoires comme Eric Raymond, Michael Tiemann, Todd Anderson, John Hall, Larry Augustin, Sam Ockman ou encore Linus Torvalds et Richard Stallman (qui se sont tous exprimés ce matin), a-t-il, en substance, commenté « c'est bien moi qui ai inventé l'Open Source ». À preuve, Bill Gates rappelle que le concept d'architecture ouverte doit tout à ses efforts héroïques et ceux de Paul Allen à l'automne 1980. En effet, se rappelle-t-il, c'est devant leur insistance qu'IBM aurait décidé de publier les interfaces du BIOS (Basic Input/Output System) développé par David Bradley d'IBM dans le cadre d'un contrat de conseil avec Microsoft signé en août 1980. Ainsi, Microsoft fut et reste le pionnier visionnaire des architectures ouvertes depuis l'origine. (Et peu importe qu'IBM, qui avait en effet mis sous copyright l'architecture matérielle de la puce BIOS, ait réfuté cette présentation des faits en insistant sur la propre politique délibérée d'ouverture du constructeur, pratiquée à l'époque pour agréger le plus grand nombre possible d'intégrateurs et de vendeurs de périphériques autour du lancement de leur nouvelle machine !)

Steve Ballmer a concomitamment annoncé l'acquisition de la société Alluvial Software, de Monte Davidoff qui est nommé COO de Microsoft (Chief OpenSource Officer) à dater de ce jour. Davidoff a fait partie de l'équipe originale qui a développé Microsoft BASIC et s'est ensuite orienté vers Unix. Il est maintenant chargé de s'assurer du respect de la toute nouvelle Microsoft Public License (MSFTPL) ouverte sous laquelle Redmond publie tout son code source. La licence interdit l'utilisation de logiciels sous MSFTPL dans des applications non Open Source sous MSFTPL. Notons qu'une partie du code de gestion du stack TCP/IP, à l'origine acquis par Microsoft auprès de la société Spider (en remplacement de Netbeui) avant d'être finalement complètement réécrit pour NT3.5, a néanmoins importé de nombreux fragments de programmes utilitaires sous licence BSD, toujours présents dans la base de code Windows. En conséquence, les termes de la nouvelle licence MSFTPL précisent que tout logiciel Open Source, sous licence BSD (et dérivées), devient de facto subsumé par la nouvelle licence. Davidoff, se prévalant de MSFTPL, a déjà menacé certaines sociétés comme Google et IBM d'empiètement volontaire sur les droits de Microsoft et se dit prêt à déclencher les foudres juridiques si un remède n'était pas trouvé rapidement à cette situation. Au NASDAQ, le cours de Microsoft (MSFT) s'est envolé de 10%.

mercredi, mars 26, 2008

Les habits neufs des applications : les widgets et le mashup

Le développement d'applications est une nouvelle fois en train de chercher une définition qui prenne en compte le caractère changeant et volatil de l'infrastructure des ressources informatiques qu'elles doivent mettre en œuvre. À AjaxWorld, la semaine dernière à New York, rien n'était plus évident que cette recherche renouvelée d'un point d'équilibre entre trois pôles de développement d'applications : pour le Web, pour le PC, et, à défaut de meilleure qualification, pour les « mobiles » - fourre-tout, pour l'instant, d'une nouvelle génération de terminaux qui va du téléphone cellulaire multifonctions jusqu'aux lecteurs de MP3, livres électroniques et assistants électroniques personnels.

C'est réellement un nouveau cycle de réflexion « existentielle » sur le comment et le pourquoi des applications, dites d'entreprise ou qualifiées de services Web pour le grand public, qui s'amorce sous nos yeux.

Pour ce qui est du premier axe de polarisation, le Web, sa banalisation accélérée, tant à la maison (avec l'ADSL et bientôt la fibre optique, en particulier) que dans l'entreprise (la substitution subreptice et progressive de TCP/IP à tous les autres protocoles spécifiques) a constitué le terreau ô combien fertile à la croissance des champions de ce que Nicholas Carr dans son nouveau livre, « The Big Switch », appelle « cloud computing » - faisant écho au slogan ancien et visionnaire de Sun Microsystems, « the network is the computer ». Il y développe la métaphore de la puissance calculatoire fournie par le Web, comme le réseau électrique fournit la puissance électrique et pronostique pour ses fournisseurs la même évolution que la consolidation de l'industrie électrique au début du XXe siècle. Et l'on constate en effet aujourd'hui l'émergence d'acteurs géants comme Google et Amazon (avec les services EC2 et S3) qui viennent immédiatement à l'esprit comme pivots de cette consolidation, engagés qu'ils sont dans une concurrence effrénée dans le BTP, la consommation électrique et l'impact sur l'environnement autour des datacenters proprement pharaoniques qu'ils bâtissent autour du monde. Pour les applications informatiques, les approches vantées naguère par Oracle (« thin client ») et par Citrix semblent même timides aujourd'hui au regard des positions de SalesForce.com ou des annonces d'EMC autour de sa gamme de produits Fortress. Ces acteurs et d'autres pionniers démontrent quotidiennement que dans le modèle « software as a service », le logiciel diffusé et consommé comme un service (à la demande et à l'usage), les applications informatiques sont plus faciles à déployer, à actualiser et, dans bien des cas, à utiliser. La conjugaison de l'arrivée à maturité concomitante des technologies de virtualisation, de stockage, de répartition de charge - voire de peer-to-peer -, de la fonctionnalité accrue des navigateurs Web - comme avec Firefox 3 et IE 8 qui présentent une nouvelle étape significative de l'enrichissement du client logiciel universel que constitue le navigateur Web - perturbent les certitudes acquises par les développeurs pendant les quinze dernières années du modèle dominant du client-serveur.

Quelques abstractions sont aujourd'hui élevées à un rôle dominant dans l'architecture de ces nouvelles applications/services pour le Web. On parle de SOA pour Service Oriented Architecture, architecture orientée service, dans laquelle la fonctionnalité globale des applications est découpée en services fonctionnels, individuellement identifiés et habillés d'une interface relativement homogène permettant de les découvrir, de s'y connecter et de les utiliser via les protocoles et les standards rendus populaires par le Web (HTT et XML en particulier). Les vétérans aguerris auront évidemment reconnus des principes bien connus que l'on (re)découvrait déjà au début des années 1990 dans des cénacles comme l'Object Management Group (OMG) et sur lesquels il convenait de se quereller avec Digital Equipment, Microsoft ou IBM (COM ou Corba ?). Mutatis mutandi appelons un objet un service Web, un ORB l'infrastructure TCP/IP + HTTP, malgré sa sobriété, et employons XML comme IDL : nous voici pratiquement dans les habits modernes de la SOA. Bien sûr, il existe des finesses techniques : comme celles, par exemple, qui différencient les services Web fondés sur SOAP et WSDL (et la farandole de spécifications XML que ces fondations ont elles-mêmes permis d'ériger en une Tour de Babel-XML) de ceux imbus de la pureté de l'architecture REST (REpresentational State Transfer), visant à diffuser la simplicité du protocole HTTP (mais tout le protocole) vers les couches supérieures des applications/services.

Autres abstractions dont la prévalence s'affermit de jour en jour et qui jouent un rôle dual de celui des applications/services dans le pôle Web, les « widgets » et le « mashup ». Ici on est du côté utilisateur plutôt que du côté serveur mais on cherche de la même manière à fragmenter l'interface utilisateur en composants, de préférences visuellement attractifs - c'est bon pour la publicité en ligne -, consommateurs de données en temps quasi-réel - c'est bon pour la facturation à l'usage -, et, pour combien de temps encore, souvent propriétaires - c'est bon pour le verrouillage des internautes dans le « walled garden », le jardin bien clôturé d'un site ou d'un service Web. Car en effet si la SOA sur le serveur permet d'agréger les applications informatiques et les services distants, existants ou nouveaux, en une composition bien intégrée directement utilisable depuis le Web, quelle est l'abstraction qui joue ce même rôle pour les utilisateurs et, dans un renversement spéculaire, leur permet de constituer leur tableau de bord applicatif, graphique et personnel indifféremment plaqué sur les services Web et les applications d'entreprises ? C'est le « mashup » ! Rendons-le facile à partager et échanger, et nous voilà dans le « social computing » et le « Web 2.0 d'entreprise » (sic).

Techniquement, ce sont ici les idées de conteneur et de composant que l'on recycle abondamment. Les nostalgiques de la gestion de documents du Xerox Star, d'OpenDOC (Apple puis IBM et WordPerfect), d'OLE (Microsoft déjà !), retrouveront dans le mashup-conteneur et le widget-composant toutes leurs marques. Et quoi de plus logique : à l'époque les « documents » devenaient multimédia, enrichis grâce aux capacités croissantes de stockage et de calcul des PC et des systèmes d'exploitation, et il fallait donner aux éditeurs de logiciels une place dans la bureautique naissante centrée sur le document, chacun s'investissant dans le « composant » dont il était le spécialiste assuré qu'il était de son intégration dans le document ou sur le desktop. La même logique est à l'œuvre aujourd'hui qui voit la bureautique centrée sur le document laisser la place à un recentrage sur la page Web servie, c'est la nouveauté, à distance par l'application/service Web.

Habitués que nous étions aux applets Java, la transition aux widgets est toute naturelle et la machine virtuelle, ici Javascript et XML, s'est fondue dans le navigateur Web. Comme il y a vingt ans, les systèmes propriétaires sont les premiers à émerger : iGoogle, Microsoft Live, Yahoo! Widgets, Facebook, Adobe et tant d'autres proposent tous leurs propres composants et conteneurs modernes pour applications/services Web. Ils rencontrent un tel succès que se pose à nouveau le problème de l'interopérabilité et de la compatibilité du triptyque navigateur-conteneur-composant. En marge d'AjaxWorld, opportunément organisé par IBM, se tenait sur ce sujet une réunion du groupe OpenAjax Alliance qui rassemble régulièrement tous les grands acteurs de cette industrie naissante dans une réflexion autour des questions d'interopérabilité. Au vingt et unième étage de la tour IBM, sur Madison à New York, on pouvait ainsi retrouver dans une salle de réunion discrète des représentants d'IBM, de Yahoo!, de Microsoft - l'équipe de développement de IE 8, rien moins -, de Tibco et de quelques startups prometteuses comme Nexaweb, OpenSpot, Dojo et le (seul !) français DreamFace Interactive pour travailler à un standard d'interopérabilité (OpenHub) et pour formuler des demandes d'évolution des navigateurs Web vers une meilleure prise en compte des mashups.

Mais les pages Web ne sont déjà plus le seul écosystème dans lequel prolifèrent les widgets. Le desktop de nos PC menace d'être envahi lui-aussi. C'est d'ailleurs la stratégie de contournement qu'ont choisi les actuels détenteurs de parts de marchés sur le PC comme Microsoft et Adobe pour contrer l'attaque frontale des acteurs du Web comme Google (Google Gears, Google Desktop), Yahoo! et d'autres qui ont vite proposé leurs widgets Web, en mode déconnecté, sur le desktop. On parle souvent de RIA (Rich Internet Application) pour désigner ces applications issues du pôle Web qui visent à reproduire dans le navigateur et sur le desktop, au prix de l'installation d'une machine virtuelle ad hoc, la richesse des applications classiques du PC. Silverlight de Microsoft et AIR d'Adobe, récemment annoncé, sont en concurrence frontale entre eux et avec les offres des acteurs du Web, notablement XUL de Mozilla (Firefox) ou encore JavaFX de Sun. Chacun s'aligne avec ses forces, ses faiblesses et son historique (.NET chez Microsoft, Java chez Sun, Flash et Flex chez Adobe) pour, s'appuyant sur leur base installée du pôle PC, s'appliquer à prendre des parts de marché sur le pôle Web.

Enfin le pôle mobile avait aussi droit aux honneurs d'un Developer Summit à AjaxWorld intéressants les développeurs d'applications pour l'iPhone. Apple a annoncé au début du mois la disponibilité du kit de développement d'applications pour son téléphone best-seller. Le modèle business est à la fois original dans cet univers et conforme à la stratégie de contrôle voulue par Apple (qui la sert si bien pour l'iPod et iTunes) : le firmware 2.0 bêta est accessible à tous les développeurs qui s’inscriront au programme. Le SDK lui est disponible gratuitement. L’intérêt du programme de développement est qu’il leur fournira un cadre de distribution entièrement gratuit de leurs créations : l’App Store. L’Application Store sera accessible directement à partir d’un iPhone et permettra de télécharger, et de payer des applications pour iPhone. Apple prendra en charge tous les coûts d’hébergement. À titre individuel, l’inscription coûte 100 $ par an ; 299 $ par an pour une entreprise. Tarif auquel il faut ajouter les 30 % que prélèvera Apple sur le montant des ventes réalisées via l’App Store. Un dispositif assez fermé où programmeurs et utilisateurs payent pour le logiciel, contrant celui qu'en 2007 l'ingénieuse communauté Open Source avait mis en place pour développer librement des applications mobiles pour l'iPhone.

Si Nokia offre un service propriétaire (widsets) sur les mobiles de la marque, notons que des startups françaises travaillent précisément à la fluidité du passage des applications du pôle Web au pôle mobile : Goojet, sur une base Java pour les mobiles, permet de créer son propre bureau avec des petites applications se connectant aux services Web populaires comme Flickr, Twitter et aux flux RSS ; ViaMobility va plus loin en proposant tout simplement le faire tourner directement sur le mobile les mêmes widgets que celles qui tournent sur le Web, iGoogle, Yahoo! et autres, ceci quelque soit le mobile Windows CE ou Symbian : un exploit !

Comme le matériel, les applications se virtualisent ! Aujourd'hui confinées à l'un des pôles architecturaux, Web, PC ou mobile, elles sont poussées à s'étendre aux autres pôles par les champions sectoriels avides de nouvelles parts de marché. Widgets et mashups sont les pierres du gigantesque jeu de go dans lequel sont engagés à la fois les grands acteurs et les startups innovantes du Web, pour délimiter les frontières fluctuantes des nouveaux territoires des applications informatiques.

jeudi, mars 13, 2008

Ethique et TIC ?

Est-ce l'année électorale qui bat son plein aux Etats-Unis ou bien est-ce le mantra de Google, « Do No Evil », qui s'empare progressivement des esprits, toujours est-il que la conférence prononcée par Larry Lessig devant une audience de programmeurs et technologues de tout poil, début mars à la conférence Emerging Technologies (ETech pour les happy few) organisée par Tim O'Reilly, avait de quoi surprendre.

Larry Lessig est professeur de droit à Stanford ; autant dire l’incarnation séculière de l’Essence universelle du juriste. Il s'est surtout illustré, il y a maintenant dix ans, dans le procès en abus de position contre Microsoft lancé par le Department of Justice (DOJ) américain qui vit le modeste constitutionaliste aux petites lunettes cerclées se transformer en dragon, farouche défenseur des valeurs d'Internet, vomissant flammes et anathèmes sur l'impérialisme allégué de Redmond. Au point même que la Cour fédérale d'appel lui retirait l'affaire illico, après la publication de ses remarques liminaires.

Ce coup d'éclat le couvrit alors d'une célébrité instantanée et constitua sans doute le point de départ d'une fulgurante carrière « digitale » toute entière passée dans l'exploration et la reconnaissance des terres inexplorées, aux nouvelles frontières de la Loi et d'Internet. Ses livres, « Code », « The Future of Ideas », « Free Culture », sont parmi les exposés les plus lucides de la complexité des problèmes de droits et de protection à l'ère d'Internet. Analyste et observateur sans concession de la collision inévitable des nouveaux usages d'Internet et des systèmes juridiques hérités de pratiques antérieures et censés les encadrer, il n'a eu de cesse de proposer avec une opiniâtreté rare des solutions radicales à ces questions.

Alors qu'ici le rapport Olivennes -- au fait, on en parle déjà beaucoup moins aujourd'hui que naguère -- cédant peut-être à des lobbys qu'il est politiquement incorrect de nommer, recommande une évolution vers le « tout répressif », outre-Atlantique, Larry Lessig fait partie des fondateurs de l'organisation Creative Commons, un projet à l'ambition pharaonique d'offrir un référentiel ouvert à tous les travaux artistiques et productions intellectuelles dégagées de l'encombrement juridique des lois sur le copyright. Une sorte d'Open Source de la littérature, de l'image et de la musique, ou chacun délimite les droits et les privilèges accordés aux utilisateurs des contenus qu’il produit.

Tout de sombre vêtu, veste noire sur tee-shirt ras du cou noir également, le professeur de droit apparut sur scène avec l'allure du prêcheur évangélique. Elmer Gantry des temps modernes il appelait solennellement les « geeks » à rejoindre sa croisade contre la corruption à Washington. Avec une véritable homélie, dont le titre « Coding Against Corruption » interloque : « Les codeurs contre les corrompus » ou bien « Programmer pour lutter contre la corruption » ? Lessig explique qu'il entend persuader le Congrès de mettre fin aux pratiques qui entretiennent l’influence des lobbies et des intérêts particuliers sur les politiques publiques au dépend du bien commun. Et que, pour ce faire, l'aide des programmeurs, développeurs et codeurs de tous horizons lui est indispensable !

Comme pour Creative Commons, Lessig veut ainsi créer des marques de bonne conduite pour les sites des candidats à tous les postes officiels -- en particulier, au Congrès, auquel, pendant un temps, on a prêté à Lessig l'intention de présenter sa candidature -- en fonction de l'affichage de leurs intentions et de leur transparence sur l'origine de leurs fonds de campagne. Les citoyens pourraient ainsi orienter leurs dons pour le financement des campagnes électorales en fonction de ces vœux symbolisés par le nouveau marquage. L'activisme « numérique » sur l'argent et la politique est appelé à se développer pronostique-t-il, pointant des sites comme MAPLight.org (dont il a rejoint le conseil d’administration) et Sunlight Foundation.

« C’est à cause de la corruption à Washington que nos politiques publiques sont aberrantes. Tant que cela n’est pas résolu, rien ne pourra être résolu », a-t-il déclaré, reprenant des propos tenus au début de l'année à l’université de Stanford. L'affirmation qui concerne entre autres, bien entendu, la législation sur la propriété intellectuelle des produits culturels au format numérique. « Le changement ne viendra pas de la Maison Blanche ni de la Cour Suprême, mais du Congrès » a-t-il ajouté. Les rôle d'initiateur et d'entraînement joués par les développeurs de Web, de code, de programmes et de bases de données sont critiques pour élever les premiers sites « Vigilance et Propreté 2.0 » de ce nouveau réseau public d'alerte et d’information.

L'appel aux claviers citoyens sera-t-il entendu ? Le triomphe des « geeks » et autres « hackers » politiquement responsables triomphera-t-il d'une classe jugée trop politicienne par certains ? Alors qu'en notre douce France les tractations effrénées, les sourdes conspirations, les arrangements sordides et pitoyables de l'entre-deux tours des municipales défrayent la chronique, offerts comme en pâture à l’avidité du prime time, le sacerdoce de Larry Lessig laisse un peu rêveur...

ShareThis