Les temps de crise sont apparemment propices aux réflexions de fond. Il n'y a pas que dans la finance internationale que l'on appelle de toute part à une remoralisation, voire une refondation (du capitalisme). Alors que tous les secteurs industriels des technologies sont maintenant atteints par la crise économique, dont les dévastations s'étendent plus vite encore que les plans de relance à répétition que l'on précipite contre son déferlement, Internet aussi deviendrait en ce moment un thème de refondation et de remoralisation.
Au plan des usages, de tous les quartiers de la recherche industrielle s'élève une demande de réfection de fond en comble de l'architecture matérielle et logicielle des applications à l'ère du Web immanent. La dramaturgie moderne du théâtre technologique baptise du terme de « *cloud computing* », suffisamment métaphorique et abstrait, les discours techniques relevant de cette revendication. Le 24 février dernier, Rick Rashid, Senior VP de Microsoft Research inaugurait une nouvelle entité, Cloud Computing Futures (CCF, acronyme certes malheureux pour nos oreilles françaises), chargée d'oeuvrer à tous moyens de réduire les coûts de fonctionnement des datacenters et leur impact sur l'environnement tout en améliorant leur fiabilité et leur résilience. Dans les thèmes de recherche se manifeste explicitement l'intrusion — que l'on est conduit à penser démagogique, compte tenu de la petitesse de l'enjeu à l'échelle du réchauffement planétaire, mais passons — de l'apologue du développement durable.
Première idée, bâtir des fermes de serveurs basse consommation, pour se substituer à un serveur ultra-rapide, cher et bien trop vorace en énergie. Cette multitude de serveurs peu chers et à la sobriété moralement louable, sera gérée par un nouveau système d'exploitation, Marlowe (en référence, évidemment, à The Big Sleep), qui décidera de la mise en sommeil et du réveil des machines du cluster en fonction de la charge de travail.
Seconde idée, remplacer le réseau interne des datacenters, aujourd'hui construit des mêmes protocoles et équipements qu'Internet, par un nouveau maillage adapté aux caractéristiques spécifiques des fermes de serveurs concentrées en un lieu donné. Poursuivant la recherche sur de nouvelles topologies et des nouveaux algorithmes de routage, entamées il y a une dizaine d'années avec Tempest, par exemple, le projet Monsoon (la mousson), comme SEATTLE, essaye de combiner les avantages d'IP (grande échelle mais cauchemar de configuration et de gestion) et d'Ethernet (petite échelle mais comparativement moins kafkaïen dans la configuration) sans leurs inconvénients respectifs.
Troisième idée, améliorer la résilience du service délivré via le cloud aux défaillances inévitables des programmes et des serveurs sous-jacents. C'est la plateforme logicielle Orleans (sic) pour Azure — un nouveau nom pour l'Azure Fabric Controller semble-t-il — qui assure la continuité du service lors des mises à jour, de la maintenance et des opérations de contrôle. (À mon sens, à mettre également au rang des piques à la concurrence après la défaillance massive, la même semaine, de GMail et de Google App, que Google attribuait à du code bogué malencontreusement introduit dans ses « *datacenters* Européens » — c'est toujours de notre faute, à nous autres, vieux européens.)
Mais il n'y a pas que l'arrière-boutique que l'on modernise et que l'on soumet durablement à la verte bien-pensance, la vitrine également est en cours ! Là aussi, probablement titillé par le navigateur maison de Google, Chrome, sorti l'année dernière, Microsoft annonce travailler sur une nouvelle architecture de navigateur, Gazelle, adaptée à la nouvelle génération d'applications composites sur le Web. Gazelle formalise précisément les niveaux de confiance et la sécurité des interactions entre contenus issus de plusieurs sites distincts et réunis dans la même page Web. Le coeur du navigateur devient un véritable noyau de système d'exploitation qui gère le contenu des sites distants comme des ressources. L'affichage de la page Web devient une application en soi qui tourne au dessus de cet OS. Cette rénovation du navigateur met au premier plan les soucis de sécurité et de sûreté. D'autres intiatives chez Microsoft comme Xax, ou chez le grand concurrent Google, avec NativeClient, rivalisent d'ingéniosité pour parer à la prolifération des vulnérabilités (et de leur exploitation) des navigateurs et des protocoles de communication. Bref, on rénove à tous les étages.
Mais tous n'apparaissent que comme des Valerie-Damidot de l'interior design du Web comparé à la radicalité proprement politique des chercheurs de l'université de Stanford, généreusement stipendiés par les géants industriels du réseau (Cisco, Docomo, Deutsche Telekom, NEC, Xilinx, Ericsson et la National Science Foundation — le contribuable américain). Le projet Clean Slate n'émeut pas encore les masses, mais il vise tout simplement à réinventer Internet en faisant table rase du passé. L'intitulé du projet évoque d'une part « les déficiences significatives » d'Internet et « l'ossification » de son infrastructure ! Sur le premier point, on soupçonne que le bug majeur identifié il y a quelques années par Dan Kaminsky au coeur de l'architecture Internet a été le déclencheur de cet inédit « principe de précaution » que l'on érigerait dans l'Internet Nouveau.
Sur le second point, la réponse orthodoxe du hacker, comme celle d'Ed Felten est de suggérer qu'il se cache peut-être le mécompte, qui aurait tendance à se répandre de nos jours, selon lequel les problèmes actuels de sécurité seraient dus à la faiblesse du réseau lui-même. Ces défaillances de sécurité, bien réelles comme en témoignent maintenant régulièrement la presse et la blogosphère, ne sont-elles pas plutôt attribuables à des problèmes à la périphérie du réseau, dans les stations de travail, les mobiles, les serveurs, les nouveaux équipements que nous connectons constamment, toujours croissant en nombre et en variété, au Net ? Le réseau ne serait pas cassé, mais c'est le comportement des équipements qui s'y attachent qui serait inapproprié.
On reconnaît là une version du mythe fondateur d'Internet, le récit plein de déférence pour les « inventeurs » clairvoyants qui auraient anticipé, à quarante ans d'intervalle, les pratiques et les usages de la Toile. L'idée d'implémenter un « principe de précaution numérique » dans la fabrique même de l'Internet Nouveau évoque inévitablement la généralisation au virtuel (le Web) du débat, devenu typique des temps (actuels), entre protection des droits et des libertés privés, d'une part, et lutte contre toutes les formes nouvelles de terrorisme et de guérillas, d'autre part. Rebâtir un Internet Nouveau en mettant la sécurité au coeur de son architecture, comme le propose le projet Clean Slate, imposera nécessairement des bornes à la flexibilité et la « permissivité » du Web, sources inépuisables d'innovation et de surprises. Mais la romantisation larmoyante d'un Internet original autant qu'utopique n'est évidemment pas non plus satisfaisante.
L'analogie avec la critique contemporaine mais simpliste du capitalisme en temps de crise économique — dont l'ampleur autorise hélas toutes sortes de théories à se réclamer — est ici à peine voilée.
- Le succès de l'Internet provient du renouvellement permanent de ses usages par des catégories croissantes de population ; c'est un réservoir inépuisable d'innovation.
- Cette souplesse d'usage est la conséquence du choix originel d'architecture dite de bout en bout (end-to-end) selon laquelle les protocoles et les standards du Net sont les plus simples et surtout neutres quant au trafic qu'ils permettent de faire circuler : l'intelligence est aux extrémités du réseau.
- Plus Internet rencontre de succès auprès d'une population de moins en moins technique et de plus en plus attirée par des usages innovants, plus il attire spammers, virus, et pirates de l'information qui bénéficient, de la même manière, de la dite architecture pour se répandre en masse (dernier exemple, 9 millions de PC victimes de Conficker).
- Lorsque ces menaces passent un seuil critique et mettent en jeu les pratiques populaires du Net, la tendance bascule et l'on cherche de plus en plus la retraite sécurisante d'équipements et de services protégés, puis, la frontière étant si fine, contrôlés et fermés.
- L'Internet Nouveau de Clean Slate, entièrement contrôlé, surveillé et clos nous promet un degré supplémentaire de sécurité au prix d'un abandon du caractère innovant et inattendu qui nous y avait attiré naguère.
C'est tout le débat, au plan de ces usages innovants, autour de la loi Création et Internet examinée ces jours-ci à l'Assemblée. La future Hadopi aura fort à faire avec la riposte graduée, invention française dont il faut patriotiquement s'enorgueillir si, comme on le susurre l'idée serait copiée aux Etats-Unis (au fond, comme Barack a pompé la stratégie Internet de Ségolène — avec toutefois un succès différent !). La nouvelle surveillance risque néanmoins de coûter bien cher pour des résultats discutables. En Suède on requiert un an ferme pour les fondateurs de PirateBay et le jugement est fixé à mi-avril au pays où depuis mai dernier les écoutes des réseaux (téléphoniques, Net, mobiles...) sont possibles sans aucune autorisation judiciaire au nom de la lutte contre le terrorisme. Les BitTorrents ne trouveront-ils pas d'autres lits pour dévaler vers des disques durs dont les capacités augmentent et les prix diminuent chaque trimestre ? Faudra-t-il donc interdire de les remplir une fois achetés ?
Bricolage et système D ou tabula rasa, l'avenir de l'architecture et des applications du Web oscille entre les deux extrêmes.