dimanche, janvier 30, 2011

Que la Chaire est verte !


Nous étions revenus — avec nostalgie — du campus de l'École polytechnique en juin 2009, à l'occasion de l'inauguration en fanfare de la Chaire « Optimisation et Développement Durable » (OSD) de Microsoft, du CNRS et de l'X, en nous interrogeant sur l'intitulé même de ce projet commun de développement de la recherche. Rappelons que la chaire OSD est animée par Philippe Baptiste, chercheur CNRS et à l'époque directeur du Laboratoire de recherche informatique de l'École Polytechnique (unité mixte de recherche CNRS / École Polytechnique) et par Youssef Hamadi, responsable du « Constraint Reasoning Group » à Microsoft Research Cambridge, UK, et co-responsable du projet « Adaptative Combinatorial Search » au sein du Centre de Recherche Commun INRIA-Microsoft Research. Le gratin de la recherche française en informatique et recherche opérationnelle, donc, s'alliant avec Microsoft pour réfléchir à la conciliation du numérique et du développement durable, des thématiques en apparence éloignées l'une de l'autre.



Au plan épistémologique, pas besoin d'être un constructiviste radical pour concevoir que le développement durable, s'inquiétant de l'attrition des ressources « environnementales », depuis peu considérées comme finies, ait à voir avec l'optimisation dès qu'il s'agit de répondre à cette inquiétude par un usage rationnel des dites ressources. Au plan scientifique, en revanche, les méthodes qui viseraient, d'une part, à étendre le champ applicatif de la boîte à outils hétéroclite de la recherche opérationnelle aux problèmes du développement durable, et, d'autre part en retour, à acclimater au numérique —
digitize — un environnement dit naturel dont notre perception est plutôt analogique, n'apparaissent plus aussi clairement.



Le grand mérite de la conférence-bilan à mi-étape des travaux de la Chaire OSD, tenue le 27 janvier dernier dans le green building somptueux de Microsoft à Issy-les-Moulineaux, fut précisément d'en montrer des résultats pratiques, d'usage immédiat pour des bénéfices concrets et mesurables. Dans une phase d'introduction assez convenue, Eric Boustouller se réjouissait que le Premier ministre François Fillon, flanqué pour bien faire de Nadine Morano et de Xavier Bertand, soit venu chez Microsoft le matin même rencontrer des créateurs d'entreprises et des djeunes — qu'est ce qui se passe, ils n'en ont pas à la maison, nos ministres, des djeunes ? Et pourquoi diable chez Microsoft, alors qu'on pensait que la grande expo. de djeunes désoeuvrés et sans emploi, c'était plutôt dans le neuf-trois ? Microsoft est exemplaire au plan de l'alternance et de l'emploi des jeunes, au plan de la contribution à la recherche scientifique nationale et patriotique, tout autant qu'au plan du développement durable, c'est entendu ! C'est ce que nous confirmait évidemment Xavier Michel, général Directeur-général de l'Ecole polytechnique, qui vantait le programme des Chaires ouvrant aux partenariats avec des industriels prestigieux (Renault, Total, Arcelor-Mittal, Orange, Dassault Systèmes, Valeo, Saint Gobain, Lafarge, Samsung, EDF, EADS, Société Générale, CaLyon, Microsoft, etc.), des fondations et des établissement d'enseignement. Au fait, le partenariat avec l'industrie fait-il partie des critères de classement de l'Université de Jiaotong de Shanghai ? Voilà un beau problème d'optimisation auto-référentiel !



Il revenait ensuite à MM. Hamadi et Liberti la tâche difficile d'expliquer comment l'innovation viendrait donc au secours de la planète. Pour être juste, le titre de la conférence « L'innovation au secours de la planète ? » précisément, comportait un salutaire point d'interrogation hautement significatif à nos yeux ! Dans un exposé assez passionnant, mais trop court à notre goût, étaient en effet présentés des projets concrets illustrant les applications de la programmation par contraintes multi-objectifs et stochastique la plus sophistiquée à des problèmes sociétaux courants de grande ampleur. Qu'on en juge : optimisation des transport multi-modaux, c'est-à-dire qui mêlent terre, air, mer et fer — sujet relativement classique de RO dans les secteurs de la logistique — ; réconcilitation des préférences et des pratiques des différentes organisations impliquées dans l'élaboration de politiques foncières et agricoles (affectation des parcelles, répartition des ressources, accès à l'eau, etc.), pour une problématique mêlant finance et prise de décision au regard de leur impact environnemental.



Mais un des projets phares de la Chaire OSD vise, tout à fait dans le prolongement du plan Bâtiment Grenelle en France, à déployer ces avancées algorithmiques dans le domaine de l'optimisation de la gestion de l'énergie dans les bâtiments. Quand on sait, comme le rappelait Youssef Hamadi, que ce budget énergie pour les bâtiments représente 40% de l'énergie mondiale, supérieur même à celui des transports, dont seulement 20% pour les phases de construction et de destruction, on mesure l'enjeu de la maîtrise et de la diminution des 80% massifs que représente le coût énergétique opérationnel de ces bâtiments. Rob Bernard, le très officiel Chief Environmental Strategist de Microsoft — une responsabilité que certains de nos propres grands industriels du CAC 40 seraient peut-être bien inspirés d'instaurer eux-aussi — venait confirmer l'importance cruciale de ces techniques. Et pas uniquement pour les datacenters, ces mausolées pharaoniques modernes où l'on momifie des volumes toujours croissants de données, que seule maintenant une poignée de titans fournisseurs et éditeurs de services Web peut se permettre d'ériger, mais également, précisait Rob Bernard, pour les centaines de buildings de bureaux de Microsoft à travers le monde où bourdonnent ses 89 000 employés.



L'approche originale de la Chaire OSD consiste à coupler ses recherches informatiques en programmation par contraintes à l'une des meilleures simulations de consommation énergétique des buildings, EnergyPlus, un outil Open Source développé par le Lawrence Berkeley National Laboratory sous les auspices du US Department of Energy et qui est au coeur d'une communauté hyperactive de développeurs tiers et de partenaires industriels. Ainsi la simulation numérique, qui permit déjà d'abaisser significativement les coûts de conception, devient maintenant une véritable aide à la décision dans le secteur du bâtiment, se doublant de la capacité à recommander des modifications au regard des contraintes opérationnelles environnementales. (Dans la veine de l'Intelligence Artificielle moderne, chère à mon coeur, ces travaux emploient des algorithmes génétiques à explorer l'espace des designs possible des buildings, sous les contraintes environnementales à respecter.) À l'heure où les grandes résolutions d'inspiration écologique du début du septennat patinent, confrontées qu'elles sont au principe de réalité du financement dans une économie récessive, faut-il encore qu'on ne puisse puiser qu'aux Etat-Unis — Microsoft Research, US DoE, Berkeley — des pistes d'innovation dans la simulation numérique alors que le champion toutes catégories du sujet est d'origine française ? Il semblerait urgent que Dassault Systèmes et cette Chaire OSD prennent langue et trouvent une forme à imaginer de partenariat sur la base de ces développements originaux empruntant aux meilleures sources matière grise scientifique et technologies appliquées.



Arrivaient ensuite sur scène les gagnants du Challenge ROADEF/EURO de la Société française de Recherche Opérationnelle et Aide à la Décision, dans sa septième édition sponsorisée par EDF. Il s'agissait de travailler à la planification des arrêts de maintenance de centrales nucléaires en minimisant l'impact sur la production, compte-tenu d'une demande (volatile) et des contraintes d'opération du réseau électrique. L'équipe issue du projet Sysmo du Laboratoire d'informatique de l'X, où travaille un chercheur rattaché à la Chaire OSD, présentait de manière fort décontractée sa progression dans la résolution du problème posé. Un petit courant de fraîcheur bienvenue dans la succession des présentations dans une mise en scène par ailleurs sérieuse et très explicitement concernée : nos jeunes têtes chercheuses avouaient, hilares, que le programme vainqueur du défi comportait seulement 5 000 lignes de code « et encore ! Pas toutes utilisées... ».



On redescendait hélas rapidement au ras des paquerettes avec le panel qui concluait cette conférence. D'une part, Marc Julien du FSI, le Fonds stratégique d'investissement, dernier rempart du patriotisme économique souverain, venait complaisamment expliquer à quel point le développement durable était au centre des préoccupations de ses investisseurs — ce qui est bien apparent dans la constitution de son portefeuille où figurent de grands industriels amis de la Nature ; il est vrai que dans son style grammatical inimitable, le président lui-même précisait : « l'environnement, ça commence à bien faire ! ». D'autre part Francoise Gaill, directrice de l'Institut écologie et environnement (INEE), nous alarmait sur l'érosion de la biodiversité, et Christian Golllier, un des auteurs principaux du 5ième rapport du GIEC, membre de la Toulouse School of Economics (TSE) — et pourquoi en anglais ? L'Escola Econòmica de Tolosa, comme dirait un majoral du félibrige natif, ça ne ferait pas assez sérieux ? — prophétisait théâtralement l'inéluctabilité du retour de la taxe carbone à 100 Euros la tonne, qui fut naguère balayée d'un revers de la main présidentiel devant son impopularité indiscutable — il y a si loin de la coupe aux lèvres. Bref, de quoi ramener la sobriété après l'euphorie des premiers résultats présentés précédemment. Au final un bon exercice illustratif de l'un de ses propres articles de recherche, Optimal choice and beliefs with ex ante savoring and ex post disappointment, dont on ne saurait trop recommande la lecture. Il faut en conclure que l'optimisation a encore bien du travail à faire au service du développement durable !



samedi, janvier 22, 2011

La Révélation Javascripturaire


Le phénomène de la « Mode » fleurit dans la période dans l'entre-deux-guerres, marquant durablement l'évolution de la haute couture parisienne. Dans la ganterie, industrie encore provinciale au début du siècle dernier — comme à Grenoble ou à Millau —, les maisons Perrin, Neyret, Reynier s'installèrent à Paris pour y lancer « le gant à la mode », le gant modèle, complément indispensable à la grande couture. Neyret, notamment, érigeait au fond d'un XIIIe arrondissement encore ouvrier, mais récemment arraché aux communes de Gentilly et d'Ivry, une nouvelle manufacture moderniste. Le bâtiment fut cédé en 1934 à l'École Supérieure des Postes & Télégraphes (ESPT), création d'une Troisième République toute acquise au progrès scientifique de la France et saisie par l'essor du télégraphe électrique — l'Internet de l'époque. (L'école s'appelait à l'origine l'École Supérieure de Télégraphie puis devint l'École Professionnelle Supérieure des Postes & Télégraphes.) Devenue, au gré des orientations politiques et des affirmations progressistes du patriotisme scientifique, l'École nationale supérieure des postes, télégraphes et téléphones, dont la scission pendant la guerre donna naissance à l'École nationale supérieure des Télécommunications — l'une de mes almae matres — puis, après la libéralisation du marché des télécommunications, au Groupe des écoles des télécommunications (GET) sous le nom Telecom Paris, eux-mêmes à nouveau rebaptisés en 2008 Institut Télécom et Télécom ParisTech.



Ainsi donc il était parfaitement naturel que, le 20 janvier dernier, dans le cadre du programme Ambition PME, le Groupe Thématique Logiciel libre du Pôle de compétitivité Systematic eût choisi cet auguste établissement pour organiser un événement sur le thème « Javascript en entreprise ». Et il est effectivement question de « Mode » et de nouvelles technologies : en 2010, Javascript est passé devant Perl et Python comme langage de programmation le plus fréquemment utilisé sur le dépôt public GitHub, en seconde place derrière le nippon Ruby. Il y a donc un véritable effet de mode autour de Javascript, dont l'histoire tourmentée reflète les atermoiements et les intérêts industriels qui sourdent des méandres de l'évolution des navigateurs Web depuis l'idée originale de Brendan Eich dans Netscape 2.0 en 1995.



Dénigré à ses modestes débuts, entaché qu'il était aux yeux des puristes de l'amateurisme prêté aux auteurs de pages Web — comparés à l'élite de la grande prêtrise des real programmerspeu notèrent à quel point Javascript était adapté à la programmation fonctionnelle. (Les LISPeurs aux tempes grisonnantes dont l'agilité parenthétique sclérosait lentement dans le désoeuvrement des années 1990 ne pouvaient manquer de s'en apercevoir.) On le crut fourvoyé dans le marais bureaucratique et doctrinaire de la standardisation à l'ECMA ; son retour à la scène n'en fut que plus triomphal dans les orchestrations Ajax et jQuery qui ont largement contribué à son succès actuel.



Du coup, Javascript intéresse, passionne, déclenche des vocations, entretient d'ardentes polémiques et suscite de nombreuses initiatives comme on pouvait le sentir durant cette longue après-midi dans l'amphi B310 bondé comme rarement — en tout cas certainement plus que lorsque j'y usais mes fonds de pantalon... Il y avait longtemps que cette rafraîchissante excitation avait déserté les plus traditionnels user groups ; ce courant d'air frais est bienvenu et mérite d'être salué !




Cloud Computing




Ce panorama de l'examen de la maturité de Javascript pour les applications dites d'entreprise doit commencer par les remarquables progrès des interpréteurs (et des compilateurs) auxquels la fondation Mozilla et Google ont largement contribués. SpiderMonkey utilisé par Firefox, écrit en C, et Rhino pour la machine virtuelle Java sortent des laboratoires de Mozilla. V8 écrit en C++ par Google est utilisé dans Chrome et dans Node.js sur lequel nous reviendrons. Il y a même Narcissus un interpréteur de Javascript (méta-circulaire) écrit en Javascript. Au registre de l'amélioration des performances, les compilateurs JIT (Just In Time) traduisent le code Javascript à la volée en code natif comme TraceMonkey ou Tamarin, une contribution d'Adobe à la fondation Mozilla. Ces plateformes intégrées aux navigateurs permettent désormais de développer de véritables applications sur l'infrastructure des pages Web.



Cette intégration aux navigateurs a rapidement donné lieu à une prolifération de bibliothèques, toolkits et frameworks Javascript pour assister le développeur dans la construction d'applications Web du type interface utilisateur graphique pour l'entreprise. Parmi les plus employés et originaux citons jQuery, Dojo, Prototype, Ext.js, MooTools, Yahoo! YUI, Google GWT, DreamFace Interactive. À l'occasion de la conférence, Sergey Ilinksky présentait son toolkit Open Source Ample SDK qui illustrait parfaitement ce courant des activités de développement Javascript. En conséquence, Javascript dans le navigateur devient une option de plus en plus professionnelle pour l'interface utilisateur des applications cloud computing. D'ailleurs de nombreux clodoaldiens d'obédience libre étaient présents dont les éminents organisateurs, les normalo-clodoaldiens primi inter pares Jean-Paul Smets (Nexedi et Free Cloud Alliance) et Stéfane Fermigier (Nuxeo et OSS4CLOUD).



Mais pour le cloud computing, 2011 pourrait être l'année de Javascript sur les serveurs, libéré du cadre client du navigateur Web. Mentionnons quelques projets en plein essor qui visent à donner à Javascript ses lettres de noblesse également sur les serveurs pour les applications d'entreprises. Reprenant V8, le projet Node.js est au coeur d'une communauté croissante qui connaît ces derniers mois une activité frénétique. Du simpliste mais complet serveur Web en six lignes — en fait, une suffirait — de Javascript :




var http = require('http');
http.createServer(function (req, res) {
res.writeHead(200, {'Content-Type': 'text/plain'});
res.end('Hello World\n');
}).listen(8124, "127.0.0.1");
console.log('Server running at http://127.0.0.1:8124/');


aux applications les plus complexes, Node.js promet de devenir la plateforme de développement de services et d'applications Web du côté du serveur. RingoJS, basé sur Rhino, et Narwhal sont également des plateformes visant les développements sur le serveur.



Du côté des données, même antienne : MongoDB et CouchDB deux superbes exemples de bases de données NoSQL utilisent déjà Javascript, et CouchDB intensivement, avec des profils parfaitement adaptés au cloud computing.




Les Applications Mobiles




Second grand domaine d'applications Javascript lié à l'entreprise : les apps mobiles pour les martphones. Stéfane Fermigier dressait un tableau comparatif du développement natif et de l'emploi de Javascript avec les environnements modernes comme Titanium d'Apcelerator et PhoneGap de Nitobi. Javascript promet, comme aux temps protohistoriques de la confrontation héroïque des GUIs (vous rappelez-vous encore les acrimonieuses escarmouches Motif vs. NeWS vs. Presentation Manager vs. NeXTSTEP vs. X-Window vs Windows et j'en oublie certainement !), de mitiger le risque de fragmentation du développement d'applications mobiles.



On peut d'ailleurs également citer Wink de la fondation Dojo, jqTouch un plugin jQuery orienté navigateurs Webkit, XUI ou encore Sencha Touch : l'outillage devient pléthorique.




Le Développement en Javascript




Le signe peut-être le plus probant de la maturité croissante de Javascript pour les applications d'entreprise est sans doute à lire dans l'apparition d'une instrumentation et d'un appareillage conséquent du cycle de développement et de déploiement des applications.



À la conférence, le buzz était créé lors de la présentation par Ajax.org de son IDE complet pour le développement d'applications Javascript, Cloud0 IDE, lui-même en codé en Javascript insistait l'orateur. Embarquant Node.js c'est bien plus qu'un éditeur extensible de code optimisé pour Javascript — qui, en cela, fait irrésistiblement penser à l'éblouissante architecture de l'immarcescible Emacs (une curiosité : Ymacs !) — c'est une véritable plateforme de développement, de déboguage et de configuration d'applications Javascript. À l'occasion de cette conférence, Ajax.org annonçait que l'éditeur de Cloud9 IDE, le projet Ace, fusionnait avec le projet expérimental BeSpin de Mozilla qui, lancé en 2008, puis rebaptisé SkyWriter pour l'habiller aux couleurs du cloud computing cherchait encore sa voie. De même, pour les applications mobiles, signalons l'acquisition, la semaine passée, d'Aptana par Apcelertor qui acquiert ainsi un IDE complet.



On vit également Daniel Glazman, récemment primé à l'édition 2010 des Open Innovation Awards, présenter BlueGriffon, un éditeur complet HTML5 et CSS3, une cathédrale de 150.000 lignes de source Javascript élevée par un génial artisan sur les fondements XULRunner de Mozilla. Somptueux et exemplaire !



Mais il y a déjà bien plus au registre de l'instrumentation ; qu'on en juge par les sujets abordés :




  • Node.js dispose de son dépôt public et d'une gestion de modules, npm, comptant d'innombrables projets, extensions et autres composants logiciels Javascript prêts à l'emploi ;


  • les outils de test professionnels sont légion, comme Patr, Vows ou Zombie.js ;


  • la gestion du dessin vectoriel avec SVG-edit un éditeur complet pour SVG en Javascript ;


  • au-delà de MongoDB et de CouchDB, on ne manque d'aucun driver pour les bases de données MySQL ou NoSQL comme Redis — voire d'une prometteuse réimplémentation de Redis en Javascript : Awesome ;


  • des middlewares orienté messages comme Tungunska sont disponibles ;


  • les prémices d'un environnement de runtime interopérable émerge actuellement, avec un jeu complet de bibliothèques : CommonJS  déjà présent dans plusieurs implémentations ;


  • sécurité et authentification pour les applications Javascript ne sont pas laissées pour compte. C'est le sujet abordé par Giulio Cesare avec ClipperZ et par Ori Pekelman qui parlait des serveurs OAuth de AF83 ;


  • au plan des progiciels, notons les premières applications collaboratives et bureautique ouvertes comme UNG Docs de la Free Cloud Alliance qui étaient présentées par Jean-Paul Smets et Gabriel Monnerat ;


  • enfin, les options d'hébergement cloud des applications Javascript se multiplient, simplifiant le déploiement de services et d'applications Web.



Bref une communauté croissante de développeurs s'active à faire naître un écosystème complet favorisant l'adoption et la généralisation de Javascript dans l'informatique d'entreprise. Cet épanouissement n'était certainement pas étranger à la présence discrète mais attentive dans la salle des meilleurs architectes IT de Cap Gemini et de Sage, exfiltrés en catimini de leurs DSI pour évaluer les best practices du Javascript moderne.




Des avancées théoriques




Javascript devient, semble-t-il, aussi un outil théorique dans l'étude des langages de programmation et du parallélisme. Ses caractères de langage de programmation fonctionnelle et d'asynchronisme en font une matière première adaptée à l'expérimentation de nouvelles idées et à l'exploration de nouvelles notions. Quelques initiatives, en vrac, évoquées lors de cette réunion :




  • Mentionné à la conférence, le projet Resilience est lié à l'étude théorique de la coordination décentralisée dans les smart grids.


  • De nombreux travaux sur la gestion du parallélisme dans Javascript remettent au goût du jour les travaux de recherche antérieurs sur les langages de programmation fonctionnelle. Citons, par exemple, jwacs, Narrative Javascript, StratifiedJS, ou encore Streamline.js, qui visent à simplifier la programmation asynchrone pour le développeur quelque peu cristallisé dans ses habitudes séquentielles et synchrones, tout en s'appuyant sur des bases théoriques solides de gestion disciplinée de continuations et de coroutines. (Ces abstractions font l'objet de recherches actives dans d'autres langages de programmation comme Scala, Ruby, Scheme bien sûr, et haskell.)


  • Des variations ou des recherches sur le langage Javascript lui-même, au-delà des évolutions prévues par l'ECMA et Brendan Eich, comme la syntaxe de CoffeeScript, ou la génération de code de Emscripten qui compile le bitcode LLVM (produit par tout front-end LLVM comme Clang) en Javascript. Mentionnons le Closure Compiler qui optimise le code source Javascript ainsi que le fait que les JIT Javascript utilisent les derniers développement de la théorie de compilateurs (comme les arbres de traces).



Un écosystème en pleine ébullition, théorique et pratique, des outils et instruments de plus en plus nombreux, une communauté d'utilisateurs et de développeurs qui s'aguerrit de jour en jour, une atmosphère Open Source pour la grande majorité des projets, 2011 promet décidément d'être une année charnière pour le développement de Javascript.



dimanche, janvier 09, 2011

Le Grand Méchant Méta-Marché


N'est-il pas singulier qu'à peine sortis que nous soyons des premiers séismes de la crise financière, brutalement annoncée par la chute spectaculaire de Lehman Brothers (1850 - 2008), les marchés redeviennent si tôt l'objet de suspicions « systémiques » ? Oh ! bien sûr, tous les dirigeants politiques de la planète s'empressaient de forger l'union sacrée pour terrasser l'Hydre de Lerne moderne de la Finance sous le poids d'une réglementation révisée, reserrée et tout particulièrement intrusive.

 



« Plus jamais ça ! » entonnait en choeur l'administration Obama : lancé précipitamment par Bush fin 2008, puis repris et amplifié par la nouvelle administration, le Troubled Assets Relief Program avait été autorisé à dépenser 700 milliards de dollars pour étouffer le Monstre. Les marchés — rusés et éternellement inventifs — ont montré une telle résilience devant cette détermination politique, nous dit-on aujourd'hui, que le coût total pour le contribuable américain ne s'élèverait qu'à une pâle trentaine de milliards de dollars.

 



De ce côté de l'Atlantique aussi, la surenchère à la réglementation obsidionale bat son plein depuis trois ans. Dès 2009, le G20 de Londres s'auto-décernait les félicitations pour avoir réussi à « discipliner la finance mondiale » : la fermeté des déclarations assénées dans la pompe des sommets internationaux devait peut-être redorer le blason d'un politique qui regrettait, sans doute un peu tard, de s'être laissé surprendre par les conséquences de sa complaisance antérieure pour le monde financier.

 



Ce tableau guerrier du politique retrouvant avec bonheur son rôle historique de créateur et de régulateur du marché n'est malheureusement pas sans écaille. Déjà en 2001, Michel Henochsberg rappelait que ce sont bien l'Etat et les institutions, ceux-là même qui se donnaient le beau rôle dans un unanimisme édifiant à dénoncer l'apocalypse financière, qui sont à l'origine historique de la création des marchés pour contenir et encadrer l'économie. Loin d'être une aire de liberté fondée par le commerce, comme le soutient une curieuse collusion hétéroclites d'intérêts qui va des business angels jusqu'aux gouvernements libéraux, le marché n'a cessé de se développer en complémentarité et non en opposition avec l'Etat depuis que, comme dit Fernand Braudel, au Moyen-Âge « saisis par les villes, les marchés grandissent avec elles ».

 



Aux États-Unis, l'influence occulte et subreptice de l'idée de marché sur les esprits oeuvrait peut-être chez mêmes ceux qui étaient appelés à gouverner la Finance et elle infiltrait insidieusement leurs propres organisations. C'est du moins ce que laisse à penser les témoignages nombreux de l'ombre planante de Goldman Sachs sur la politique économique et financière de l'administration Obama. Sous nos cieux, hier encore, on se réjouissait d'avoir « en l'espace de cinq sommets sauvé le système financier mondial ». Nouvelle régulation, stress tests, protection accrue de l'intégrité des marchés, circuit breakers imposés par la SEC, lutte contre les paradis fiscaux (horresco referens, bouc émissaire des maux de la mondialisation à sacrifier sans délai pour augurer, sans doute, du retour tellement souhaitable de l'enfer fiscal !), toutes les offrandes propitiatoires furent pieusement et médiatiquement agitées devant les foules anxieuses pour les rasséréner (à leurs frais d'ailleurs).

 



Mais la physique des marchés relève de la thermodynamique, et tels les gaz parfaits, la pression régulatoire accrue ne fait qu'en déplacer les masses, hypertrophier les volumes et surchauffer les températures.

 



Ainsi, lovées dans les profondeurs subterranéennes des marais salés et des pinèdes du New Jersey, discrètement retirées dans les banlieues industrielles anodines et obscures de Mahwah, Secaucus, Weehawken ou Carteret — qui fleurent bon encore les colonies de la Nouvelle Hollande et de la Nouvelle Suède établies sur les méandres du fleuve Delaware — des forces telluriques redessinent les marchés. Dans ces datacenters pharaoniques, les sarcophages réfrigérés sont aujourd'hui des super-calculateurs pilotés à vitesse optoélectronique par les algorithmes de High Frequency Trading. (À l'heure de la longue marche glorieuse de TianHe, l'Europe a du souci supplémentaire à se faire.)

 



L'Algorithme de HFT est la dernière créature en date de la chaîne évolutive qui relie, ténu fil historique, le larron des foires médiévales de Saint-Denis au trader de la génération 2000, hypnotisé par son laptop et son iPhone.

 



Sur la plupart des marchés mondiaux, les transactions sont en effet conduites entre ordinateurs communiquant à vitesse très élevée. Les programmes ont depuis longtemps remplacé les négociateurs époumonnés à la criée autour de la corbeille. Du coup l'hégémonie jusqu'alors inattaquable du New York Stock Exchange (NYSE, 1817), le Big Board, s'effaçait progressivement devant la concurrence bourgeonnante des marchés purement électroniques des années 1970 et 1980, NASDAQ (1971) en tête. Dans une mise en abyme qui en dit long sur l'abstraction de marché elle-même, le NASDAQ est opéré par une entreprise elle-même cotée depuis 2002 sur son propre marché. NASDAQ et NYSE, emportés par la révolution informatique, se mirent alors à afficher et à exécuter les ordres de Bourse en temps quasi-réel, à des prix bien plus bas qu'auparavant, ouvrant ainsi l'accès aux marchés à une population bien plus nombreuse. Le second tsunami de la généralisation de l'Internet devait encore élargir soudainement la population accessible et, en conséquence, le volume des transactions.

 



La rapidité accrue de l'accès à l'information et de l'exécution des transactions favorise les structures de marché agiles, rapides et moins chères. La réglementation de la SEC des années 1990 et 2000 visant à encourager la compétition entre marchés, conçue comme bénéfique au consommateur, par l'abaissement forcé des coûts de transaction — reflétant simplement la diminution des coûts d'une transaction électronique comparés à ceux d'une transaction intermédiée par un négociateur de naguère — entraîna l'émergence d'une nouvelle classe de marchés électroniques postés aux aguets à la périphérie des NYSE et NASDAQ. Ces derniers ne restèrent pas sans réplique devant cette nouvelle concurrence. Le NASDAQ, par exemple, renforcé par sa propre IPO, fit l'acquisition de certains de ces nouveaux rivaux comme BRUT. Mais les sociétés de Bourse et les traders craignant qu'un duopole NASDAQ/NYSE aboutissent à une nouvelle centralisation se lancèrent elles-aussi dans la création de leurs marchés électroniques. Avec des coûts d'entrée de plus en plus faibles, les nouveaux entrants comme DirectEdge et BATS se déchirent pour la troisième place. Soutenus par Goldman Sachs — tiens, tiens ! —, Knight Capital, Citadel Securities, International Securities Exchange et JPMorgan, les nouveaux marchés ont recours aux algorithmes HFT pour se différencier dans cette course de vitesse à la transaction boursière. Ils gèrent aujourd'hui pas moins de 10% des échanges d'actions aux États-Unis.

 



Et l'Algorithme de HFT est bien notre Hydre de Lerne contemporaine ! S'épanouissant dans les vastes ressources promises par le cloud computing, dopé à la nouvelle business intelligence de l'ère Hadoop, l'Algorithme, Golem calculatoire omnivore à l'appétit insatiable pour les données de tous ordres, est le très précieux ADN des nouveaux financiers. Leur succès dépend de leur capacité à être les tout premiers à réagir aux événements et à élaborer stratégies et contre-stratégies d'investissement en millisecondes et secondes, plutôt qu'en heures et journées. Leurs nouvelles puissances de calcul leur permet, par exemple, de « lire » et d'interpréter automatiquement les communiqués de presse et des agences d'actualités, tout autant que les messages sur Twitter en temps réel, pour décider au vol de leurs transactions. Chaque microseconde gagnée est un trophée chèrement disputé.

 



La menace de l'Algorithme de HFT est apparue à l'oeil du régulateur — qui malgré ses protestations du contraire (« Vigilance et Propreté » !) pensait pouvoir s'assoupir sereinement son devoir vertueusement accompli après les gesticulations aux Sommets — lors du flash crash du 6 mai 2010 généralement attribué à la course de vitesse mortifère des algorithmes de HFT. Mais le Monstre est cette fois bien plus problématique pour le régulateur que l'Hydre des grands banquiers d'investissement dont il crut triompher ces dernières années : Nouveau Monde, Nouveau Capitalisme... en vérité !

 



En premier lieu, l'animal est hors de proportions. La crainte de la volatilité exacerbée des marchés, particulièrement illustrée par le flash crash de 2010, a conduit les investisseurs habituels des marchés à retirer de toute urgence leur argent des fonds mutuels américains — à hauteur de 90 milliards de dollars depuis mai 2010, trois fois plus que le coût estimé du plan anti-crise. En second lieu, ne faudrait-il pas au régulateur des compétences et une puissance de calcul au moins comparables à celles des opérateurs d'algorithmes HFT et de marchés électroniques de nouvelle génération ? Les restrictions de budget des gouvernements impécunieux ne le permettent guère ni à la SEC ni à l'AMF... Enfin, le HFT est devenu un terrain de jeu phénoménal pour les hackers.

 



Curieusement, l'Algorithme de HFT n'est pas une malédiction pour tout le monde. Outre leurs opérateurs, les secteurs du BTP et des télécommunications bénéficient de ses exigences pour une infrastructure massive. Le Chicago Mercantile Exchange s'est lancé dans la construction d'un nouveau datacenter dédié au HFT, pour accueillir à son tour l'Algorithme et le nourrir des transactions sur les produits dérivés comme complément nutritif aux marchés actions. Spread Networks a cisaillé la Pennsylvanie historique de fibre optique à très haut débit entre Chicago et Carteret pour assurer l'aller-retour des ordres de marché en 13,33 millisecondes ! euNetworks annonce Londres Stockholm et retour en 22,4 millisecondes ; Hibernia Atlantic vante Newark Toronto sous les 10 millisecondes et promet, via un câble long haul transatlantique, New York Londres et retour en 60 millisecondes... Nous voilà revenu aux temps de Jules Verne !

 



Et l'on ne parle là que de titres de sociétés précisément... cotées. La SEC qui impose aux sociétés américaines de plus de 500 actionnaires de publier leurs comptes comme le ferait une société cotée sur un marché réglementé, entraînant en général une IPO de la société en question, a fort affaire ces jours-ci du côté du private equity. La règle des 500 actionnaires est une des multiples raisons pour lesquelles Google fit son entrée au NASDAQ en 2004. Le dernier investissement conjoint du russe Digital Sky Technologies (de Yuri Milner, coté à Londres et propriétaire de mail.ru, de Forticom et déjà de 10% de Facebook) et de Goldman Sachs dans le réseau social Facebook, un total de $500m pour une valorisation de 50 millards de dollars a tôt fait de relancer les spéculations sur une prochaine IPO de Facebook. Des calculs spécieux, fondés sur le peu d'information financière qui ait filtré de Goldman Sachs à l'occasion de cet investissement, projettent des revenus stratosphériques de 5 milliards de dollars et un bénéfice de, tenons-nous bien, 1 milliard de dollars pour 2011 ! Pas mal en sept ans d'existence...

 



Mais le plus intéressant est la structure mise au point par Goldman Sachs — maître Sith en la matière — pour cet investissement emblématique. Le banquier d'affaires est au coeur d'un véritable marché secondaire organisé pour les titres non-cotés de Facebook. Ces marchés secondaires occultes et non-réglementés se sont multipliés ces dernières années pour répondre à l'appétit des boursicoteurs individuels pour les actions des sociétés du Web 2.0, LinkedIn, Twitter, Groupon, Facebook et consoeurs. LinkedIn, en particulier, poussé par l'investissement de Goldman Sachs dans Facebook, est la première à franchir le pas et annonce une prochaine IPO (conduite, selon toute vraisemblance, par JPMorgan). Groupon, qui vient de lever $500m sur un total de $950m prévu en vendant des titres sur ces marchés « obscurs » non-réglementés, devrait suivre la même route vers le côté éclairé des marchés.

 



Et de fait, les places de marché privés pour les titres non-cotés se multiplient discrètement pour à la fois satisfaire la soif inextinguible des investisseurs individuels et assurer, à leur frais, la liquidité indispensable aux business angels ou aux fonds de capital-risque, premiers investisseurs (chronologiquement) au capital de ces jeunes pousses. Sur mon compte SharesPost, par exemple, on me propose aujourd'hui d'acheter des actions Facebook à une valorisation de 136 milliards de dollars ! Ou, si le coeur m'en dit, du Twitter pour une valorisation de 5 milliards de dollars... Sur SecondMarket aussi on propose du Facebook, du Twitter et plus de deux cent autres sociétés privées. Secondcap en Europe prépare une offre similaire.

 



Les marchés innovent donc en réponse aux contraintes que les autorités politiques en viennent à leur imposer. Ces ballets croisés des régulateurs et des marchés sont ils annonciateurs de nouvelles crises, mettant bas l'édifice de la finance, péniblement ravalé à grand frais ces dernières années, ou bien, au final, ne sont ils que les tableaux variés de la pantomime d'un authentique méta-marché ?

 



ShareThis