mercredi, août 22, 2007

Le logiciel n'est plus ce qu'il était !

Le combat d'arrière-garde mené par SCO contre Novell sur la propriété des droits d'Unix et d'Unixware s'est arrêté net il y a une dizaine de jours sur la décision du juge de l'Utah (Memorandum of Decision and Order du 10 août dernier) chargé de l'épineux problème. Novell, conclut sans ambages la Cour, possède les droits d'Unix et d'Unixware. Cet arbitrage pèsera certainement dans les autres actions en justice lancées avec agressivité par SCO contre IBM, dans l'espoir de s'approprier une rente sur le développement explosif de l'usage de Linux. Après le changement brutal de direction à la tête de Novell en juin 2006, jugée responsable de la médiocrité des résultats financiers de l'époque, après l'accord médiatique signé avec Microsoft, pour près de 350m de dollars en novembre dernier, qui porte sur le développement de Suse-Linux (acquis par Novell début 2004), Novell marque incontestablement des points sur le marché général de Linux.

Il y a quelques jours, dans une déclaration conjointe SCO et Novell ont indiqué qu'après la décision de la Cour, il restait peu de substance à débattre au procès et, bien que leurs opinions diffèrent évidemment sur le contenu de ces derniers débats, aucune des deux parties n'imaginait prolonger maintenant la dispute au-delà de quelques semaines. Chez Novell on est prompt à se réjouir publiquement : la décision « historique » du juge Dale A. Kimball est dit-on à Provo, Utah - l'établissement historique de la firme - une bonne nouvelle pour la communauté Open Source.

Voire. Ces manifestations expansives sont excusables, qu'il faut attribuer, sans doute, aux effets euphorisants de la décision légale sur le département marketing et Communication de l'éditeur. Cette jurisprudence vient cependant renforcer la position commune de Novell et de Microsoft, définie à l'occasion de leur accord récent. Et cette position ne va pas sans poser elle-même quelques questions. On se rappelle que Novell s'était engagé à payer une forme de « royalty » à Microsoft sur la distribution de logiciels Open Source contenant du code qui tomberait sous la couverture de brevets de Microsoft. En échange Microsoft renonçait à poursuivre Novell et ses clients sur ce point. Du coup, les développeurs de logiciels libres, Open Suse en particulier, sont face au dilemme : contribuer (gratuitement) mais pour Novell seulement ou bien payer, comme Novell, la gabelle à Microsoft, s'ils veulent éviter un risque de poursuite judiciaire sur les brevets.
Un second effet, plus indirect, de cet accord serait également de temporiser les débats en cours sur l'interopérabilité par l'ouverture d'un nouveau volet complet de discussions sur la portée desdits brevets. Plus particulièrement visés : les formats des suites bureautiques (Open Office versus Office 2007) dont l'interopérabilité et l'éventuelle compatibilité font aujourd'hui (houleux) débat. À ce sujet, la Free Software Foundation Europe (FSFE) vient de publier ses objections officielles à la conduite, en Suisse, du vote du 2 août dernier sur l'admissibilité de MS-OOXML, le format XML de la suite bureautique du géant de Redmond, comme standard ISO. L'association SIUG (Swiss Internet User Group) a rejoint la FSFE dans la réclamation que soit invalidé ce compte-rendu préliminaire, menaçant une action en dol contre l'organisme de standardisation.

L'itinéraire choisi par Microsoft pour circonvenir les effets de la GPL (General Public License) de la Free Software Foundation repose donc, entre autres, sur la protection par les brevets. La livraison de produits logiciels comme des services, SaaS (pour Software as a Service), permise par le formidable développement du Web est une autre brèche dans le fonctionnement idéal de la distribution libre de logiciels. C'est une brèche que les concepteurs de la version 3 de la GPL, âprement débattue elle aussi depuis dix-huit mois, ont volontairement laissée ouverte. Le débat, dit du « SaaS loophole », tourne autour de la définition de la « distribution » du logiciel en ces temps de connexion permanente au Web. La version 2 de la GPL, évidemment conçue en ces temps immémoriaux précédant le Web, ne couvre pas la distribution de logiciel sous forme de service, i.e. l'usage hébergé d'applications tel qu'il se généralise sous nos yeux chez les éditeurs mais également chez les prestataires de services et opérateurs de réseaux de tout poil. Certains donc mettent en oeuvre des logiciels Open Source pour fournir un service au public, sans s'astreindre à contribuer, en retour, à la communauté. L'empêcher délibérément, comme il en fut un temps question dans les interventions de Richard Stallman et d'Eben Moglen, les animateurs de la refonte de la rédaction de la GPL, alors qu'entre-temps un écosystème Internet complet avait eu le temps de se mettre en place sur l'idée de SaaS, devenait finalement contradictoire avec l'objectif de populariser l'Open Source et de laisser au consommateur le libre choix.

Dans le même temps, Microsoft ouvrait un site d'hébergement de projets Open Source, Codeplex, cherchant à son tour à attirer les programmeurs du libre vers la palette de technologies et de langages de programmation, qui s'est notablement étendue depuis son lancement en mars 2006. Plus de 1600 projets y ont élu résidence, souvent autour de .NET - la technologie phare de l'éditeur - mais pas uniquement : instant de nostalgie pour mes premiers sujets d'intérêt technologiques de jadis, un projet de moteur d'intelligence artificielle pour la XBox (il serait temps !); plus curieux, en revanche, le « Vista Battery Saver » qui, d'après la description, économise 70% de vos batteries en désactivant toutes les « features » de Vista, sympas mais consommatrices ! Bref, on le comprend, le public actuel du site est encore éloigné de la population qui fréquente habituellement des sites comme sourceforge ou freshmeat. Mais comme MySpace, qu'on le veuille ou non, le site Codeplex reflète et définit d'une certaine façon les générations actuelles et à venir de développeurs de logiciels.

Que ce soit devant les tribunaux, dans l'affaire SCO-Novell récemment mais également dans les poursuites incessantes de la Commission européenne ou de certains états américains contre Microsoft, devant les organismes de standardisation, comme dans le cas de l'ISO et des formats bureautiques MS-OOXML, voire dans la communauté même des programmeurs et dans l'industrie informatique le software ne cesse pas un instant de poser de nouveaux problèmes et de nouveaux défis. Qu'est que le logiciel ? Qui sont les ayant-droit et les usufruitiers ? Questions incessamment reposées, dont l'impact aujourd'hui s'étend au-delà de leur industrie propre et touche l'économie entière.

Tim O'Reilly, que la polémique n'a jamais retenu, après avoir annoncé, peut-être prématurément, la fin de l'Open Source récidive ces derniers jours en fustigeant les tenants du logiciel libre pour s'être enfermés dans un débat sur le « logiciel » en oubliant le second terme : « libre ». Loin d'être une résurgence des temps hippie, que l'on célèbre aujourd'hui comme une commémoration historique, chez le conférencier qu'il était à l'époque à l'Institut Esalen, la remarque d'O'Reilly est tout à fait d'actualité.

Si, dit-il, le premier âge de l'industrie informatique était caractérisé par le verrouillage des utilisateurs par le matériel (e.g. IBM), le second l'est par le verrouillage par le logiciel propriétaire (e.g. Microsoft). Aujourd'hui, un troisième âge s'ouvrirait dans lequel le verrouillage repose sur le contrôle de bases de données centralisées croissant à la vitesse de l'effet réseau (e.g. Google).

(Attribué à Robert Metcalfe, l'effet réseau se manifeste lorsque la valeur d'un bien ou d'un service pour un utilisateur augmente avec le nombre des autres utilisateurs de ce bien ou service, une « externalité » au sens économique ; pour les plus endurcis d'entre nous, recommandons sur ce sujet Erdos et Renyi, On The Evolution Of Random Graphs, et les travaux dérivés dont Bollobas, Random Graphs, démontrant l'incroyable résultat de l'émergence systématique d'un composant géant complètement connecté dans la croissance de graphes aléatoires, comme celui des liens hypertexte sur le Web, par exemple.)

À l'aube de ce troisième âge il faudrait donc bien plus se préoccuper de « libérer » les données que le logiciel ou le matériel. En ce moment, aux Etats-Unis, un militant de cette nouvelle cause, un hybride de Robin des bois et de Richard M. Stallman, défraye la chronique amplifiée par le relais efficace d'observateurs comme O'Reilly et John Markoff du New York Times. Carl Malamud se lance, seul avec son site http://public.resource.org/, a l'attaque de la mainmise totale de deux entreprises privées sur toutes les annales des publications légales des cours d'état et fédérale aux Etats-Unis. Il a commencé à mettre en ligne, il y a quelques semaines, la jurisprudence fédérale - laborieusement numérisée à partir de microfiches - en flagrante confrontation avec le monopole de fait de Thomson West (Canada) et de LexisNexis, la filiale de l'anglo-néerlandais Reed-Elsevier.

M. Malamud est un dangereux récidiviste ! Il a déjà triomphé dans ce type de bras de fer contre des institutions prestigieuses comme le Smithsonian, la House of Representatives (l'Assemblée nationale) et la SEC (Securities and Exchange Commission, l'autorité des marchés américaine) les amenant à mettre en ligne, gratuitement, tous leurs enregistrements et documents publics. Filant une métaphore familière à nos oreilles, Carl Malamud a déclaré que les « cas et les codes légaux forment un véritable système d'exploitation de la nation » et qu'il n'était que temps que le Linux législatif voie le jour. Si nul n'est censé ignorer la loi, il faut bien y donner accès librement à tous…

Par le passé, cette idéologie poursuivie dans d'autres domaines comme celui de la musique en ligne a provoqué un tollé général et le décès de quelques sites très populaires et la prise d’un maquis semi-clandestin pour d’autres. Le contestataire de tous les monopoles « culturels » outre-Atlantique, Lawrence Lessig, est devenu en quelques années l'apôtre des contrepoids et des contre-mesures à la propriété intellectuelle et aux brevets et, comme Malamud, dénonce ces monopoles de fait. (Son blog et ses livres sont d'une lecture roborative, sans excès à craindre !)

Aujourd'hui, au pays même de « l'exception culturelle », les « lignes commencent à bouger » (pour reprendre une cuistrerie néologique très en vogue depuis mai dernier) : Neuf Cegetel et Universal Music annoncent conjointement une offre de chargement en ligne illimité; pris de vitesse, les autres opérateurs se précipitent pour annoncer incessamment la même chose à la fin de l'année. Le même Universal Music promet une expérimentation de téléchargement de musique sans DRM pendant 6 mois. Les idées font donc progressivement leur chemin dans les esprits.
À quand donc une Free Data Foundation sur le modèle de la Free Software Foundation ?

vendredi, août 17, 2007

La valorisation plus que réelle de la virtualisation

Coup sur coup, la remarquable introduction au marché de VMWare, la filiale spécialisée dans les logiciels de virtualisation du géant EMC, qui a vu son cours du premier jour de cotation pulvériser sa valeur initiale de $29 pour flirter avec les $60 (une capitalisation de près de 20 milliards de dollars), et le lendemain même le rachat de XenSource, l'hyperviseur Open Source, par Citrix pour $500m montre, s'il en était encore besoin, que la virtualisation est un sujet capital !
Cet engouement des investisseurs pour la virtualisation est également le reflet d'une tendance de fond de l'industrie informatique qui voit la bascule progressive des investissements et des dépenses du matériel vers le logiciel. Le rôle du serveur est en cours de redéfinition depuis la banalisation récente des multi-coeurs et des hyperviseurs de virtualisation. Puisqu'une machine, le serveur physique, peut maintenant héberger plusieurs machines et systèmes d'exploitation, les serveurs virtuels, on déconnecte effectivement la couche « matérielle » de sa superstructure « logicielle » système. De plus, les serveurs virtuels se comportant comme des animaux migrateurs lorsque leur support matériel ne donne plus satisfaction - arrêt ou panne du serveur physique - les applications elles-mêmes sont délocalisées, au gré des transhumances de processus virtuels, sans que l'utilisateur n'ait à subir le contrecoup des défaillances de la couche physique.
Cette recherche obsessive de la productivité des serveurs, cette exploitation exhaustive des moindres ressources disponibles de l'informatique interne est avant tout avantageuse pour l'entreprise. La virtualisation devrait permettre d'optimiser l'usage des serveurs déjà installés et de tirer meilleur parti des nouvelles architectures proposées par les constructeurs : une forme de chasse au gaspillage de la capacité de calcul, la fin du « idle time » dans les cycles de nos microprocesseurs ! La fonction économique d'utilité prend une brutale accélération vers les sommets. De plus, la dépense en énergie, fonction du nombre des serveurs physiques, devient un peu plus maîtrisable - que l'on pense aux datacenters pharaoniques de Google et de Microsoft, pour imaginer ce que représenterait une économie de quelques points sur la facture électrique, par exemple - sans parler du pathos éthique qu'on peut concevoir sur le respect de l'environnement et la durabilité du développement, tous sujets d'actualité morale urgente, par les temps qui courent.
Cette tendance accompagne aussi naturellement celle du « Software As A Service », le fameux SaaS, dont l'idée maîtresse est, du point de vue de l'entreprise, de déconnecter également l'exploitation des applications de la gestion des serveurs physiques, simplement en expédiant ces derniers chez un prestataire. On pourrait croire que n'ayant ainsi plus de serveurs physiques l'entreprise délestée mettrait fin aux espoirs de chiffre d'affaires des éditeurs de logiciels de virtualisation. En fait, il est probable que l'externalisation soit une évolution de plus favorable au développement de la virtualisation, mais du côté du datacenter. Les obligations contractuelles du fournisseur de services, en termes de qualité et de garantie de service (« uptime »), de sécurité et de protection des données, lui font souvent opter pour la virtualisation de ses serveurs qui améliore le modèle économique de l'hébergement et de l'administration système.
Au vu des enjeux économiques, les valorisations insolentes des grands acteurs d'aujourd'hui sur des marchés, par ailleurs en pleine déprime, font finalement pâle figure...

dimanche, août 12, 2007

Le système d'exploitation social(e) ?

Depuis la publication de son API (Application Programming Interface) et l'annonce de « Facebook Platform », la plate-forme Facebook, le site de réseau social voit une véritable explosion du nombre des applications mises en lignes par ses quelques 20 millions d'utilisateurs. 65 millions d'applications ont été ainsi créées et installées sur la plate-forme Facebook en un mois.
Ce succès phénoménal et le vocabulaire soigneusement choisi des communiqués de presse de Facebook annonçant la disponibilité puis les premiers résultats de la plate-forme ont vite donné à réfléchier aux observateurs. Facebook affiche l'ambition à peine voilée de fournir non pas une plate-forme de développement d'applications partagées via un réseau social, mais de développer une classe radicalement nouvelles de système d'exploitation à l'échelle du Web. Les analystes ont déjà trouvé le nom de cette nouvelle catégorie : « Social OS », le système d'exploitation social - à noter que l'ambiguïté des termes anglais réapparaît malicieusement en français si l'on écrit « sociale » plutôt que « social ».
C'est, d'une certaine manière, sur cet aspect que se focalise un courant grandissant de critiques des réseaux sociaux qui s’incarnent dans des sites Web aux visées commerciales. Un brûlot de Scott Gilbertson dans une récente édition en ligne de Wired interpelle fraîchement ces sites, de Facebook à MySpace et Bebo. Ce qui leur est reproché ? Leur côté fermé et propriétaire et leur incompatibilité entre eux, pourtant au coeur de leur « business model ». Ces sites Web sont devenus en bien peu de temps l'opium des masses internautiques parce qu'ils simplifient, parfois jusqu'à la trivialité, la gestion des données personnelles et la mise en relation de leurs membres. Mais avant d'en recevoir les bénéfices, il faut bien donner et nourrir ce réseau : photos, vidéos, contacts, agendas, listes diverses et variées, divagations personnelles sur un blog, etc. Résultat : l'effet réseau, vanté naguère par Bob Metcalfe et Kevin Kelly joue à plein. Pour que vos amis voient ces photos et ces vidéos ou partagent ce précieux agenda il leur faut inévitablement, eux aussi, devenir membre du même réseau social. C'est l'histoire récurrente à satiété du verrouillage des utilisateurs, bien connue depuis le rasoir et les lames, les téléphones mobiles et les opérateurs ou encore l'iPod et le service iTunes d'Apple Computer.
Quant au site Facebook, il ne lui reste qu’à vendre à des partenaires cet immense « espace annonceurs » que représentent les pages personnelles de ses millions de membres. Le dividende statistique de la volumétrie énorme de ces millions de micro-contributions personnelles cumulées est un nouvel El Dorado pour les annonceurs et les éditeurs de logiciels de tous ordres. Déjà Zoho, Pownce, Yahoo! Music Videos, iGoogle, eBay et bien d'autres y sont visibles sous la forme d'applications Facebook - développées aussi bien par des utilisateurs versés dans la technique que par les éditeurs eux-mêmes. Des programmeurs inconnus affluent quotidiennement pour y chercher gloire et reconnaissance instantanée - un phénomène que l'on peut déjà voir dans la musique en ligne (Arctic Monkeys) ou dans la vidéo avec YouTube.
En cela Facebook rattrape et dépasse par l'ambition affichée ses prédécesseurs LinkedIn, Orkut acquis par Google, et surtout MySpace et Bebo, qui avaient chacun défrayé la chronique en leur temps. Non que Facebok, d’ailleurs, en soit à son premier éclat dans la presse et dans la blogosphère. En 2006, Facebook aurait refusé deux offres successives de rachat par Viacom puis Yahoo! qui offraient pourtant respectivement $750m et 1 milliard de dollars ! L'arrogance du site devant des chiffres donnant le tournis avait provoqué de forts remous dans les blogs et articles des observateurs.
Fin juillet, Facebook donnait cependant à nouveau corps à ces intentions supposées d'établir un OS Social en rachetant la startup Parakey, créée par Joe Hewitt et Blake Ross qui furent instrumentaux dans le lancement du navigateur Firefox et de l'excellent debugger Javascript Firebug. Parakey, dont les activités restaient pour l'instant secrètes en « stealth mode » - suivant le cliché marketing de la jeune pousse « furtive » - visait, d'après leur page Web, à produire des « applications utiles mais sociales ». On jugera du sous-entendu de cette opposition inédite !
Facebook voudrait être aux applications grand public ce que Salesforce.com s'applique à devenir pour les applications d'entreprise. Salesforce.com, qui s'était à l'origine illustré par son modèle entièrement hébergé pour les applications de gestion de la relation client, fait étalage aujourd'hui, le succès venu, d'ambitions bien plus menaçantes pour les barons établis comme Oracle et SAP. La plate-forme AppExchange de Salesforce permet à tous non seulement de développer ses applications d'entreprise en ligne mais de les y publier et d'en faire commerce dans un véritable marché hébergé et organisé par Salesforce. Le catalogue des applications disponibles est impressionnant, éditeurs reconnus y voisinant avec des développeurs plus obscurs mais débordants de créativité. Pour participer, il faut inévitablement être membre de Salesforce.com.
Autres points de références dans des domaines différents du Web : Amazon qui héberge également des boutiques de ventes complètes de ses membres, dont certains en tirent leur principale source de revenus. Et bien sûr Google qui, au-delà de la régie publicitaire centralisée, offre également une palette d'applications de bureautique tournées vers le grand public et les pages personnelles iGoogle, engagé dans une confrontation frontale avec Microsoft et la déclinaison de ses services « Live ».
Face à ces critiques sur la « fermeture », de nouvelles initiatives voient le jour. Plaxo, par exemple, plus connu pour son site d'organisation de ses contacts et de son agenda, a lancé la semaine dernière sa plate-forme sociale, Pulse. Contraste complet avec Facebook : Pulse est ouvert.
Comme le fait remarquer Dare Obasanjo de Microsoft il existe peut-être plusieurs notions d'ouverture pour un réseau social. Il y a l'ouverture du contenu dont l'utilisateur nourrit le réseau au grand public en général : c'est la question de la protection des données privées et de leur exposition aux moteurs de recherche, par exemple. Pour les raisons, devenus maintenant routinières, de protection contre le spam, les commentaires non sollicités, voire les insultes ou les menaces, un utilisateur peut, par les temps qui courent, préférer poster ses documents sur un site filtrant l'accès à ses seuls membres.
Il y a, ajoute-t-il, l'impossibilité d'exporter ces données une fois publiées sur le site du réseau social. Ce n'est apparemment pas une forte demande : dans la classe d'âge (jeune) qui a d'abord été attirée par ces réseaux, le profil donné est considéré comme éphémère, fluctuant au gré des modes et donc comme ayant peu de valeur pour d'autres réseaux ou applications. Cette valorisation peut changer au fur et à mesure que ces réseaux réussissent à faire évoluer la démographie de leurs membres ; c'est bien, au contraire, le profil qui fait toute la valeur dans un réseau social comme LinkedIn.
Il y a l'idée d'offrir une API de développement d'applications - ont dit « widget » ou « gadget » dans le jargon 2.0 approprié - sur la base de ces données collectées volontairement par les utilisateurs. La question de l'ouverture portant alors sur la possibilité ou non de faire tourner ces applications basées sur des données d'un réseau social sur un autre, voire sur un autre site Web sans connotation sociale.
Il y a, enfin, le point de la compatibilité entre la large palette de sites de réseaux sociaux concourant aujourd'hui à accaparer l'attention des utilisateurs. Débat identique à celui, jadis, sur la compatibilité des messageries instantanées. Faut-il dès lors imaginer des sortes d'accord de « roaming » entre opérateurs de réseaux sociaux comme il en existe entre opérateurs de téléphonie mobile ?
Pour certains observateurs, l'ouverture des réseaux sociaux est inévitable, pour d'autres le modèle propriétaire reste le coeur de leur stratégie de développement. Les temps changent, mais finalement pas tant : dans la préhistoire d'Internet - que quelques néandertaliens comme moi se rappellent tout juste avoir vécu - tous donnaient AOL perdant, à cause de son modèle fermé - le proverbial « walled garden », le jardin enclos -, qui devait triompher au plus fort de la bulle pour n'en chuter que plus bas depuis et renoncer à ce qui avait fait son identité depuis sa création. Arx tarpeia Capitoli proxima.

ShareThis