mercredi, décembre 03, 2008

Lost in translation

L'année dernière nous avions laissé Don Knuth docteur honoris causa de l'Université de Bordeaux. Le père fondateur de l'algorithmique était de retour à Paris ce début décembre pour participer à un colloque festif de mathématiciens de l'art combinatoire pour l'anniversaire de l'un des plus brillants d'entre eux, Philippe Flajolet de l'INRIA. Don Knuth nous invitait à nous « amuser avec la fonction binaire pondérée cachée » (Fun with the hidden weighted bit function), une perspective, convenons-en, irrésistible.

Les présentations de Don Knuth sont des révélations sur les mystères majestueux des nombres entiers, toujours dévoilées dans la perspective du calcul par ordinateur dont son Art of Computer Programming est le magnum opus. Le bestiaire fascinant s'enrichit à chaque occasion de nouvelles espèces inédites ; hier Knuth réussit à apprivoiser la complexité stupéfiante de la fonction binaire pondérée — introduite par Bryant en 1991 dans l'étude des implémentations VLSI des fonctions entières élémentaires (comme la multiplication), la hidden weighted bit function est l'une des plus simples à présenter une croissance exponentielle de l'arbre binaire qui la représente. D'après le Fascicule 1 du Volume 4 pour 10 variables, la fonction pondérée est représentée par un arbre de décision binaire de plus de 17.530.618.296.680 nœuds — une merveille ! Pour maîtriser un tel monstre, Don Knuth qui, bien qu’ayant inventé le plus raffiné des systèmes de composition et de mise en page scientifique, TeX, s'obstine à présenter des notes manuscrites au feutre baveur sur des transparents d'une densité accablante, nous entraînait dans une farandole de nombres de Pisot, de sommes de coefficients du binôme, de suite de Fibonacci et autres curiosités du zoo binaire dont il est le curateur érudit. Une franche rigolade donc, comme promis...

Dans un style différent, Bob Sedgewick racontait avec verve les arcanes de la composition du best-seller impatiemment attendu, Analytic Combinatorics, co-écrit avec Philippe Flajolet. Puis, en guise d'hommage à l'éminent représentant du Génie Combinatoire français, se sont succédées diverses présentations d'anciens collègues, élèves et disciples du maître qui montraient, au final, à quel point l'école française est avancée sur ce terrain mitoyen de la programmation et des mathématiques pures.

Avec ces talents indiscutables, il est d'autant plus paradoxal que les classements de l'industrie du logiciel, de quelque origine qu'ils proviennent, placent régulièrement la France à des rangs désastreux. L'édition 2008 du palmarès Truffle a beau illustrer les éditeurs méritants de la patrie, le classement EuroSoftware 100, conduit par PwC, PAC, l'Afdel, l'ESA et la Basda, établit les poids respectifs des éditeurs mondiaux sur le marché européen, en se basant sur les ventes de logiciels et de maintenance et support. Là c’est nettement moins brillant. Les acteurs américains y réalisent 52% du chiffre d'affaires total et dominent le classement d'où ne surnagent que les suspects usuels : SAP, Dassault Systèmes et Sage. (La consolidation aidant, ce classement des éditeurs français est probablement amené à se réduire telle la peau de chagrin dans les années qui viennent.)

C'est donc avec une certaine perplexité que nous abordions le même jour, mais à la Maison de la Chimie cette fois, la première édition de l'Open World Forum — Forum mondial du libre, événement anti-Linagora à peine voilé, montrant qu'il n'y a pas que dans le développement de logiciels Open Source que se produisent les forks. Le Forum a d'abord réussi l'exploit d'arracher à Eric Besson qui, maintenant désœuvré était sans doute venu faire un peu de tourisme industriel, la promesse de la mise en place d'un groupe de travail sur la vente liée, une pratique (odieuse !) consistant à imposer l'achat de logiciels lors de l'acquisition d'une machine neuve — date de création du groupe de travail à fixer en 2009, surtout pas de précipitation ! Seconde épiphanie : promesse réitérée de publication du Référentiel général d'interopérabilité (RGI) avant la fin de l'année — ici on veut dire 2008, je pense. On rappelle à ceux qui, prisonniers involontaires à l'aéroport de Bangkok, n'ont pas pu voir le clip de promotion du futur hit du box-office « France Numérique 2012 », le RGI est présenté comme un moyen « d'assurer l'interopérabilité entre administrations et de favoriser le développement de l'écosystème logiciel, et précisément celui du logiciel libre ». Le suspense est intolérable.

Mais, plus significativement, le Forum a produit une véritable feuille de route pour l'évolution du libre : 2020 FLOSS Roadmap. Cette cartographie des douze ans à venir anticipe les développements du libre et en propose une évaluation de l'impact sur l'industrie des technologies de l'information, sur les carrières et les ressources humaines de cette industrie ainsi que sur l'innovation et la gouvernance des organisations et des institutions. Le document met également en avant un certain nombre de recommandations pour favoriser l'épanouissement des logiciels libres et pour que leurs bienfaits se déversent sur le plus grand nombre.

Les esprits inquiets noteront certes que nombre de ces recommandations invoquent et appellent au rôle tutélaire, parfois interventionniste, de la puissance publique. Ce qui serait évidemment louable sur le fond dans un monde harmonieux, mais qui, compte-tenu de la prévalence actuelle en France du réflexe obsidional et de l'esprit « surveiller-et-punir » comme réponse unique aux défis posés par les progrès du numérique — cf. la Loi pour la confiance dans l'économie numérique, Hadopi, et autres bruits de bottes persistants — peut également présenter quelques risques.

D’ailleurs pour ajouter encore à la perplexité devenue donc inquiète, on lit au même moment une analyse de Stuart Cohen, ancien CEO d'Open Source Development Labs, visant à montrer que le modèle Open Source est aujourd'hui tout simplement caduc. La viabilité du modèle « classique » de l'éditeur Open Source vivant du support et de la maintenance est un mythe nous dit-il en substance. Qui plus est, ce paradoxe est au cœur du modèle : la qualité du code écrit dans le modèle communautaire Open Source est telle que les seules activités de support et de maintenance de cette base de code nec plus ultra ne saurait faire vivre une entreprise commerciale, nous explique-t-on. La vertu de l'Open Source est toute à chercher dans la collaboration qu'un projet libre permet de mettre en place et non pas dans son instrumentation en vue d'un avantage purement financier. Là on est moins surpris et notre chauvinisme se trouve quelque peu rassuré : on savait tout ça depuis les travaux pionniers de l'économiste — français — Jean Tirole de l'IDEI.

Moralité — j'espère temporaire —, en France on est bon en algorithmique et en économie du développement logiciel mais nul en software ?

ShareThis