vendredi, mars 13, 2009

Deux commémorations et une annonce : de l'intelligence dans le Web ?


Une fois n'est pas coutume, le Turing Award — un peu le prix Nobel de
l'informatique — vient d'être décerné à une pionnière des langages de
programmation et des systèmes distribués, Barbara Liskov. L'honneur
d'être la première femme à recevoir le prix Turing, depuis sa création
en 1966, lui avait été soufflé il y a deux ans par Frances Allen. Mais
elle fut la première femme à obtenir un PhD en Computer Science aux
Etats-Unis. Elle dirige aujourd'hui le groupe Méthodologie de
programmation du Computer Science and Artificial Intelligence
Laboratory
du MIT — le fameux CSAIL.



Ses contributions aux sciences théorique et appliquée de
l'informatique sont nombreuses. Les premières implémentations de
concepts, devenus au fil des années indispensables et inséparables de
tout langage de programmation et de tout système d'exploitation, comme
le timesharing et les types abstraits de données se trouvent dans ses
premiers travaux de recherche le système d'exploitation Venus et le
langage de programmation novateur CLU, respectivement. Son
développement ultérieur du langage et système réparti Argus, toujours
au MIT, devint la référence originelle de tous les travaux ultérieurs
sur les systèmes distribués dont la filiation s'étend de nos jours
jusqu'aux gigantesques datacenters qui servent le Web.



Ce qui tombe à point nommé, puisque par une intéressante concomitance
des commémorations, c'est en mars 1989 — il y a exactement vingt ans
— qu'un consultant informatique au CERN soumettait un document
modestement titré: « *Information Management: A Proposal* » par Tim
Berners-Lee. Je trouve d'ailleurs fascinant dans le schéma hâtivement
griffonné sur la première page, façon croquis à main levée sur un
revers de nappe, une bulle dans laquelle trône en haut à gauche
« Hypercard », le premier logiciel ayant popularisé les liens
hypertexte originalement conçu par Bill Atkinson chez Apple Computer
vers 1987. (Votre serviteur avait d'ailleurs eu, dans sa toute prime
jeunesse californienne, la chance de montrer à ces maîtres de l'équipe
du Mac, les premiers développements de systèmes experts graphiques
réalisés à la NASA sur Macintosh, avec Nexpert — voyez en particulier
la Figure 2 à la fin du document.) Ce vendredi 13 mars 2009, Sir
Berners-Lee était de retour au CERN pour fêter dignement cet
anniversaire d'une « proposition » qui a véritablement changé le
paysage de l'informatique d'aujourd'hui.



Si l'on me permet encore une brève anecdote commémorative, c'est au
début des années 1990, alors que Berners-Lee mettait au point sur sa
machine NeXT toute neuve le premier navigateur-éditeur Web, que dans
une salle voisine je travaillais avec M. De Jonghe à
l'interface graphique de EDH, l'application phare de gestion de
documents du CERN (cette fois avec « Open Interface Toolkit »).
J'aurais peut-être du passer plus de temps à la machine à café...



C'est cependant un autre britannique qui défraye la chronique, Stephen
Wolfram dont l'annonce, publiée la semaine dernière, d'un nouveau
moteur de recherches, Wolfram Alpha, ferait trembler Google ! Wolfram,
plus connu par son génie précoce des mathématiques, concentré dans son
opus major, A New Kind of Science publié en 2002, et par sa fortune
construite sur le logiciel Mathematica, met en émoi la blogosphère en
promettant pour mai un moteur de recherches qui, contrairement à
Google, calculerait intelligemment les réponses aux requêtes plutôt que
de ramener tous les documents pertinents à la
requête. (Taper « quel est le prix du baril de pétrole le 3 février 2007 »
sur Google ramène environ 42.000 réponses alors qu'on n'en veut
qu'une, précisément le prix du baril de pétrole au 3/2/2007, que
Wolfram Alpha serait capable de produire.) Une sorte de Ask Jeeves —
maintenant noyé dans InterActive Corp. depuis 2005— mâtiné de traitement de
langage naturel et d'intelligence artificielle : on trépigne
d'impatience.



dimanche, mars 08, 2009

L'Internet Tabula Rasa

Les temps de crise sont apparemment propices aux réflexions de fond. Il n'y a pas que dans la finance internationale que l'on appelle de toute part à une remoralisation, voire une refondation (du capitalisme). Alors que tous les secteurs industriels des technologies sont maintenant atteints par la crise économique, dont les dévastations s'étendent plus vite encore que les plans de relance à répétition que l'on précipite contre son déferlement, Internet aussi deviendrait en ce moment un thème de refondation et de remoralisation.

Au plan des usages, de tous les quartiers de la recherche industrielle s'élève une demande de réfection de fond en comble de l'architecture matérielle et logicielle des applications à l'ère du Web immanent. La dramaturgie moderne du théâtre technologique baptise du terme de « *cloud computing* », suffisamment métaphorique et abstrait, les discours techniques relevant de cette revendication. Le 24 février dernier, Rick Rashid, Senior VP de Microsoft Research inaugurait une nouvelle entité, Cloud Computing Futures (CCF, acronyme certes malheureux pour nos oreilles françaises), chargée d'oeuvrer à tous moyens de réduire les coûts de fonctionnement des datacenters et leur impact sur l'environnement tout en améliorant leur fiabilité et leur résilience. Dans les thèmes de recherche se manifeste explicitement l'intrusion — que l'on est conduit à penser démagogique, compte tenu de la petitesse de l'enjeu à l'échelle du réchauffement planétaire, mais passons — de l'apologue du développement durable.

Première idée, bâtir des fermes de serveurs basse consommation, pour se substituer à un serveur ultra-rapide, cher et bien trop vorace en énergie. Cette multitude de serveurs peu chers et à la sobriété moralement louable, sera gérée par un nouveau système d'exploitation, Marlowe (en référence, évidemment, à The Big Sleep), qui décidera de la mise en sommeil et du réveil des machines du cluster en fonction de la charge de travail.

Seconde idée, remplacer le réseau interne des datacenters, aujourd'hui construit des mêmes protocoles et équipements qu'Internet, par un nouveau maillage adapté aux caractéristiques spécifiques des fermes de serveurs concentrées en un lieu donné. Poursuivant la recherche sur de nouvelles topologies et des nouveaux algorithmes de routage, entamées il y a une dizaine d'années avec Tempest, par exemple, le projet Monsoon (la mousson), comme SEATTLE, essaye de combiner les avantages d'IP (grande échelle mais cauchemar de configuration et de gestion) et d'Ethernet (petite échelle mais comparativement moins kafkaïen dans la configuration) sans leurs inconvénients respectifs.

Troisième idée, améliorer la résilience du service délivré via le cloud aux défaillances inévitables des programmes et des serveurs sous-jacents. C'est la plateforme logicielle Orleans (sic) pour Azure — un nouveau nom pour l'Azure Fabric Controller semble-t-il — qui assure la continuité du service lors des mises à jour, de la maintenance et des opérations de contrôle. (À mon sens, à mettre également au rang des piques à la concurrence après la défaillance massive, la même semaine, de GMail et de Google App, que Google attribuait à du code bogué malencontreusement introduit dans ses « *datacenters* Européens » — c'est toujours de notre faute, à nous autres, vieux européens.)

Mais il n'y a pas que l'arrière-boutique que l'on modernise et que l'on soumet durablement à la verte bien-pensance, la vitrine également est en cours ! Là aussi, probablement titillé par le navigateur maison de Google, Chrome, sorti l'année dernière, Microsoft annonce travailler sur une nouvelle architecture de navigateur, Gazelle, adaptée à la nouvelle génération d'applications composites sur le Web. Gazelle formalise précisément les niveaux de confiance et la sécurité des interactions entre contenus issus de plusieurs sites distincts et réunis dans la même page Web. Le coeur du navigateur devient un véritable noyau de système d'exploitation qui gère le contenu des sites distants comme des ressources. L'affichage de la page Web devient une application en soi qui tourne au dessus de cet OS. Cette rénovation du navigateur met au premier plan les soucis de sécurité et de sûreté. D'autres intiatives chez Microsoft comme Xax, ou chez le grand concurrent Google, avec NativeClient, rivalisent d'ingéniosité pour parer à la prolifération des vulnérabilités (et de leur exploitation) des navigateurs et des protocoles de communication. Bref, on rénove à tous les étages.

Mais tous n'apparaissent que comme des Valerie-Damidot de l'interior design du Web comparé à la radicalité proprement politique des chercheurs de l'université de Stanford, généreusement stipendiés par les géants industriels du réseau (Cisco, Docomo, Deutsche Telekom, NEC, Xilinx, Ericsson et la National Science Foundation — le contribuable américain). Le projet Clean Slate n'émeut pas encore les masses, mais il vise tout simplement à réinventer Internet en faisant table rase du passé. L'intitulé du projet évoque d'une part « les déficiences significatives » d'Internet et « l'ossification » de son infrastructure ! Sur le premier point, on soupçonne que le bug majeur identifié il y a quelques années par Dan Kaminsky au coeur de l'architecture Internet a été le déclencheur de cet inédit « principe de précaution » que l'on érigerait dans l'Internet Nouveau.

Sur le second point, la réponse orthodoxe du hacker, comme celle d'Ed Felten est de suggérer qu'il se cache peut-être le mécompte, qui aurait tendance à se répandre de nos jours, selon lequel les problèmes actuels de sécurité seraient dus à la faiblesse du réseau lui-même. Ces défaillances de sécurité, bien réelles comme en témoignent maintenant régulièrement la presse et la blogosphère, ne sont-elles pas plutôt attribuables à des problèmes à la périphérie du réseau, dans les stations de travail, les mobiles, les serveurs, les nouveaux équipements que nous connectons constamment, toujours croissant en nombre et en variété, au Net ? Le réseau ne serait pas cassé, mais c'est le comportement des équipements qui s'y attachent qui serait inapproprié.

On reconnaît là une version du mythe fondateur d'Internet, le récit plein de déférence pour les « inventeurs » clairvoyants qui auraient anticipé, à quarante ans d'intervalle, les pratiques et les usages de la Toile. L'idée d'implémenter un « principe de précaution numérique » dans la fabrique même de l'Internet Nouveau évoque inévitablement la généralisation au virtuel (le Web) du débat, devenu typique des temps (actuels), entre protection des droits et des libertés privés, d'une part, et lutte contre toutes les formes nouvelles de terrorisme et de guérillas, d'autre part. Rebâtir un Internet Nouveau en mettant la sécurité au coeur de son architecture, comme le propose le projet Clean Slate, imposera nécessairement des bornes à la flexibilité et la « permissivité » du Web, sources inépuisables d'innovation et de surprises. Mais la romantisation larmoyante d'un Internet original autant qu'utopique n'est évidemment pas non plus satisfaisante.

L'analogie avec la critique contemporaine mais simpliste du capitalisme en temps de crise économique — dont l'ampleur autorise hélas toutes sortes de théories à se réclamer — est ici à peine voilée.

  • Le succès de l'Internet provient du renouvellement permanent de ses usages par des catégories croissantes de population ; c'est un réservoir inépuisable d'innovation.
  • Cette souplesse d'usage est la conséquence du choix originel d'architecture dite de bout en bout (end-to-end) selon laquelle les protocoles et les standards du Net sont les plus simples et surtout neutres quant au trafic qu'ils permettent de faire circuler : l'intelligence est aux extrémités du réseau.
  • Plus Internet rencontre de succès auprès d'une population de moins en moins technique et de plus en plus attirée par des usages innovants, plus il attire spammers, virus, et pirates de l'information qui bénéficient, de la même manière, de la dite architecture pour se répandre en masse (dernier exemple, 9 millions de PC victimes de Conficker).
  • Lorsque ces menaces passent un seuil critique et mettent en jeu les pratiques populaires du Net, la tendance bascule et l'on cherche de plus en plus la retraite sécurisante d'équipements et de services protégés, puis, la frontière étant si fine, contrôlés et fermés.
  • L'Internet Nouveau de Clean Slate, entièrement contrôlé, surveillé et clos nous promet un degré supplémentaire de sécurité au prix d'un abandon du caractère innovant et inattendu qui nous y avait attiré naguère.

C'est tout le débat, au plan de ces usages innovants, autour de la loi Création et Internet examinée ces jours-ci à l'Assemblée. La future Hadopi aura fort à faire avec la riposte graduée, invention française dont il faut patriotiquement s'enorgueillir si, comme on le susurre l'idée serait copiée aux Etats-Unis (au fond, comme Barack a pompé la stratégie Internet de Ségolène — avec toutefois un succès différent !). La nouvelle surveillance risque néanmoins de coûter bien cher pour des résultats discutables. En Suède on requiert un an ferme pour les fondateurs de PirateBay et le jugement est fixé à mi-avril au pays où depuis mai dernier les écoutes des réseaux (téléphoniques, Net, mobiles...) sont possibles sans aucune autorisation judiciaire au nom de la lutte contre le terrorisme. Les BitTorrents ne trouveront-ils pas d'autres lits pour dévaler vers des disques durs dont les capacités augmentent et les prix diminuent chaque trimestre ? Faudra-t-il donc interdire de les remplir une fois achetés ?

Bricolage et système D ou tabula rasa, l'avenir de l'architecture et des applications du Web oscille entre les deux extrêmes.

ShareThis