Coup sur coup, la remarquable introduction au marché de VMWare, la filiale spécialisée dans les logiciels de virtualisation du géant EMC, qui a vu son cours du premier jour de cotation pulvériser sa valeur initiale de $29 pour flirter avec les $60 (une capitalisation de près de 20 milliards de dollars), et le lendemain même le rachat de XenSource, l'hyperviseur Open Source, par Citrix pour $500m montre, s'il en était encore besoin, que la virtualisation est un sujet capital !
Cet engouement des investisseurs pour la virtualisation est également le reflet d'une tendance de fond de l'industrie informatique qui voit la bascule progressive des investissements et des dépenses du matériel vers le logiciel. Le rôle du serveur est en cours de redéfinition depuis la banalisation récente des multi-coeurs et des hyperviseurs de virtualisation. Puisqu'une machine, le serveur physique, peut maintenant héberger plusieurs machines et systèmes d'exploitation, les serveurs virtuels, on déconnecte effectivement la couche « matérielle » de sa superstructure « logicielle » système. De plus, les serveurs virtuels se comportant comme des animaux migrateurs lorsque leur support matériel ne donne plus satisfaction - arrêt ou panne du serveur physique - les applications elles-mêmes sont délocalisées, au gré des transhumances de processus virtuels, sans que l'utilisateur n'ait à subir le contrecoup des défaillances de la couche physique.
Cette recherche obsessive de la productivité des serveurs, cette exploitation exhaustive des moindres ressources disponibles de l'informatique interne est avant tout avantageuse pour l'entreprise. La virtualisation devrait permettre d'optimiser l'usage des serveurs déjà installés et de tirer meilleur parti des nouvelles architectures proposées par les constructeurs : une forme de chasse au gaspillage de la capacité de calcul, la fin du « idle time » dans les cycles de nos microprocesseurs ! La fonction économique d'utilité prend une brutale accélération vers les sommets. De plus, la dépense en énergie, fonction du nombre des serveurs physiques, devient un peu plus maîtrisable - que l'on pense aux datacenters pharaoniques de Google et de Microsoft, pour imaginer ce que représenterait une économie de quelques points sur la facture électrique, par exemple - sans parler du pathos éthique qu'on peut concevoir sur le respect de l'environnement et la durabilité du développement, tous sujets d'actualité morale urgente, par les temps qui courent.
Cette tendance accompagne aussi naturellement celle du « Software As A Service », le fameux SaaS, dont l'idée maîtresse est, du point de vue de l'entreprise, de déconnecter également l'exploitation des applications de la gestion des serveurs physiques, simplement en expédiant ces derniers chez un prestataire. On pourrait croire que n'ayant ainsi plus de serveurs physiques l'entreprise délestée mettrait fin aux espoirs de chiffre d'affaires des éditeurs de logiciels de virtualisation. En fait, il est probable que l'externalisation soit une évolution de plus favorable au développement de la virtualisation, mais du côté du datacenter. Les obligations contractuelles du fournisseur de services, en termes de qualité et de garantie de service (« uptime »), de sécurité et de protection des données, lui font souvent opter pour la virtualisation de ses serveurs qui améliore le modèle économique de l'hébergement et de l'administration système.
Au vu des enjeux économiques, les valorisations insolentes des grands acteurs d'aujourd'hui sur des marchés, par ailleurs en pleine déprime, font finalement pâle figure...