vendredi, mai 03, 2013

Florange Telecom

Il est probablement inutile de charger encore la barque — une patache plutôt qu'un Riva — des improbables duettistes de Bercy, l'austère Mosco et l'impayable Montebourg, parfaits dans leur numéro du « pas particulièrement impliqué » commentant le « vous ne savez pas ce que vous faites ». Elle n'est que la conséquence ironique du labyrinthe doctrinal sur l'entreprise dans lequel nous nous sommes collectivement fourvoyés.

La farce pateline et navale met en scène Marissa Mayer, jeune mère de famille fraîchement exfiltrée de Google à la tête d'un Yahoo! malmené par l'hégémonie de son concurrent. De retour de son congé maternité, celle qui veut opportunément imposer aux employés de Yahoo! de travailler au bureau et plus de chez eux (#) — double surprise dans la Silicon Valley, Olympe de la mâle branchitude 2.0 — elle a certainement reçu de son Board mise en demeure de fixer le cap, du bugalet en l'occurrence plutôt que d'une barque, pour redresser le titre en Bourse et conter le rival de toujours, Google.

De ce côté-ci de l'océan, rappelons que le paquebot Google avait habilement négocié son débarquement à bon port avec le capitaine de pédalo lui-même. Et en grande pompe ! C'est la grande affaire de l'accord historique de février dernier (#) entre le géant de Mountain View et les éditeurs de presse français sous les auspices triomphants de Moi Président lui-même. Le moteur de recherche soldait à bon compte — 60 millions d'euros, quelle infinitésimale part de ses revenus publicitaires ? — la gesticulation burlesque du gouvernement sur un projet de « Taxe Google ». Comme le tweetait Fleur Pellerin : « Heureuse de l'accord historique Google-Presse. Un bel exemple d'intégration constructive ds l'écosystème local » ; elle est en revanche bien avare de mot-dièses aujourd'hui sur le cas Dailymotion.

Enfin, la douane de mer, flingues en pogne, Mosco dit « pas très au courant » et Montebourg dit « ça va pas êt'e possible » nous rejoue la scène de la péniche — évidemment interdite (#) de site, tout particulièrement américain et honni, pour cause d'exception culturelle et de gestion de droits — mais, hélas, le talent en moins. L'homme à la marinière aurait invoqué le « patriotisme économique » et le droit imprescriptible — dès 27 % de détention de capital — de l'Etat à s'affranchir de tout gouvernement d'entreprise indépendante. Alors un crypto-villepiniste au coeur de Bercy (#) ? Tout cela fait furieusement penser à juillet 2005, entre seconde conférence de presse du résident de Matignon et épisode pilote de la série haletante « France Numérique 2012 ». Maître Folace, notaire, nous avertissait pourtant avec une prémonitoire lucidité : « C'est curieux chez les marins ce besoin de faire des phrases ».

Sur la planche, sabre aux reins, pieds et poings liés par l'encombrant actionnariat de l'Etat et par la feuille de route de l'armateur FSI actionnaire à la fois d'Orange et de Dailymotion, acquéreur de 40 % du capital en janvier 2011, puis 100 % en 2012, le président d'Orange — par ailleurs inquiété, alors haut fonctionnaire avant son parachutage chez l'opérateur de télécommunications, avec Mme Lagarde, s'étant pris les pieds dans le Tapie au Crédit Lyonnais. Pourquoi donc se retrouve-t-il ainsi dans cette position pour le moins précaire ? Des méchantes langues, sans doute, signalent que le capitaine aurait mandaté deux banques d'investissement, l'américaine Raine (#), fondée récemment par des vétérans de Goldman Sachs et d'UBS et financée par le tout Hollywood (#), et surtout horresco referens Messier Maris et Associés, la banque d'affaires créée par Jean-Marie Messier, corsaire devenu pirate, fortune de mer abhorrée par le VRP d'Armor-Lux.

Comme à Lépante donc, dernière grande bataille de galères mais n'entraînant finalement pas de grands bouleversements. Yahoo! vire de bord, Dailymotion rentre au port, voilà l'affaire. Joli petit sujet de marine à 500 000 pour la collection hollandaise (sic) M. Guéant, non ?

Ce matin dans les pages de la presse matinale, Stéphane Richard, malgré quelque amertume brièvement exprimée sous le ciré, annonce « reprendre sereinement le processus de recherche d'un partenaire ». « En revanche » ajoute-t-il, « je serai intraitable sur le respect de la gouvernance », à défaut d'avoir main au gouvernail... L'ancre est levée.

Il fut une époque où « barreur de petit temps » était l'une des (courtoises) amabilités que s'échangeaient les caciques du parti.

Ce qui nous amène à « l'art aléatoire de la godille » (#) comme le titrait élégamment hier un grand quotidien du soir à propos des relations entre le gouvernement et les entreprises. Dans l'empressement à vouloir lever les malentendus avec le monde de l'entreprise, c'est-à-dire quand même 6 mois après le désormais célèbre épisode des « pigeons » (#), et opportunément à l'heure où le MEDEF bat la campagne, Moi Président réunissait 300 entrepreneurs pour une kermesse paroissiale dans la salle des fêtes de l'Elysée.

À ce propos, mettons fin tout Net à un début de controverse : il n'y a pas d'affaire Chamboredon ! Intronisé naguère par le New York Times « roi des pigeons » (#) — c'est très bon pour les levées de fonds ça ! — et invité vedette sur Dailymotion (#), il aurait été, au sortir de ces Assises de l'entrepreneuriat du 29 avril, rassuré par les promesses d'ajustement de la fiscalité des plus-values (#) et convaincu de la bonne volonté gouvernementale. Alors félon ou fanfaron, le #geonpi ? Ouf : oral de rattrapage sur Dailymotion, jeudi matin sur BFM Business : « Que ce soit un ministre qui intervienne là-dedans, c'est épouvantable en terme de message envoyé à l'extérieur de la France. Les investisseurs étrangers ne vont plus venir en France, et vont se dire qu'ils ne sont pas libres d'investir ». Faut dire, ça dépend lesquels : l'histoire Dailymotion est loin d'être finie.

(Ceci dit, il est improbable que l'on ait encore recours à Dassault Systèmes, cimetière autoproclamé des éditeurs de logiciels français, à l'heure où son président s'interroge (#) sur la délocalisation de l'entreprise.)

Las ! Le jour même les députés socialistes démentaient cette gesticulation présidentielle en déposant à l'Assemblée nationale une proposition de loi sur la reprise des sites rentables. Ici on parle de sites industriels mais, à l'évidence, la démonstration vient d'être faite qu'elle est applicable aux sites Web.

On pourrait d'ailleurs utilement concrétiser cet arrêté imprescriptible en battant nouvelle monnaie numérique, strictement non convertible en devises étrangèes comme furent le rouble et le renminbi, les Hexacoins, fonctionnant sur le principe cryptographique de Bitcoins — (#) très en vogue actuellement — et exclusivement dédiés aux transactions au capital des sociétés françaises, ces « pépites à vocation mondiale » qu'indubitablement le monde entier nous envie. Un nouvel impôt viendrait taxer toute transaction en Hexacoins suivant les principes du rapport Colin et Collin (#) — son surnom de Taxe Colin-Collin-Hexacoin est tout trouvé : la taxe « coin-coin » ; ce qui aurait au moins le mérite d'élever le débat du pigeon au canard. L'économie, maintenant pratiquement nationalisée de l'investissement en early stage private equity, serait irriguée en Hexacoins et le carried interest, avant abolition, servi en foie gras de canard (#), combinant harmonieusement choc d'intoxication alimentaire et choc de moralisation.

Voilà un message que nos amis investisseurs cosmopolites comprendraient mieux sans doute...

mardi, avril 09, 2013

L'approche radicaliste de l'architecture des applications Web : l'assembleur

Un grand quotidien du soir s'alarmait dans ses colonnes, pourtant rarement ouvertes à la technique, du blocage des cookies tiers par défaut de la nouvelle version du navigateur Web de Mozilla, Firefox 22. Les zélateurs de la publicité ciblée font assaut de promptitude pour faire entendre leur voix. Après Google, fossoyeur de la presse écrite, Apple pourfendeur de la gratuité peccamineuse offerte par nos startups nationales dans le mobile, Mozilla, éradicateur de nos publicitaires culturellement exceptionnels ? Faut-il donc laisser le Web aux mains de quelques architectes programmeurs dont le radicalisme se fait entendre avec une certaine insistance ces derniers temps ?

 

Pour cantonner la réflexion au plan technique, quelques initiatives notables visent aujourd'hui à une redéfinition, à vrai dire plutôt une définition, de l'API du Web. Qu'est-ce à dire  ?

 

Il est utile de rappeler que le Web n'a pas été initialement créé par des programmeurs pour des programmeurs. Aussi surprenant que cela puisse paraître aux yeux de la Génération Y, la « récupération » du Web par les entreprises comme territoire d'expansion est une opération de grande ampleur mais somme toute récente. Cette guerre de prédation primitive qui ne dit pas son nom est à l'origine de certaines des tensions aujourd'hui sensibles dans l'analyse du développement du Net : neutralité, sécurité, accès et contrôle sociétal, données et statistiques, propriété et Open Source, sont tous des sujets qui ont largement débordé des marches de l'empire des directions informatiques d'entreprise pour envahir la discussion globale du Web.

 

Dans un billet récent (#), John Resig, le démiurge du toolkit Javascript JQuery, succès fulgurant chez les développeurs d'applications Web, tresse des louanges que cette auréole JQuery revêt d'une qualité semi-divine à asm.js (#). C'est un projet de la fondation Mozilla visant à une spécification d'un langage assembleur pour les applications Web à partir du langage script Javascript, la lingua franca actuelle des programmeurs Web.

 

Faut-il rappeler à nos jeunes lecteurs que l'assembleur est un séducteur faustien qui apparaît dans la splendeur de la beauté du Diable. Il compense l'expression aride de ses phonèmes gutturaux par une performance d'exécution inégalée : sa proximité concupiscente des instructions machines du hardware emporte ainsi toutes les préventions linguistiques. Prenons, par exemple, ce court fragment de code source assembleur :

 

020252,000178: 35,2000                                          SETLOC   CSI/CDH
020253,000179: 35,2000                                          BANK
020254,000180: 35,2000  E4,1770                                 EBANK=   SUBEXIT
020255,000181: 35,2000                                          COUNT    35/P3474
020256,000182:
020257,000183: 35,2000           04627        P34               TC       AVFLAGA
020258,000184: 35,2001           02003                          TC       P34/P74A
020259,000185: 35,2002           04642        P74               TC       AVFLAGP
020260,000186: 35,2003           04647        P34/P74A          TC       P20FLGON                              #  SET UPDATFLG, TRACKFLG

Même aux âmes les plus rébarbatives cet extrait insufflera une poésie musicale ineffable, et c'est miraculeusement ce même code qui mit en 1969 deux hommes sur la lune (#). Que l'invention géniale du stored program de Von Neumann retrouve à l'ère du Web toute sa portée conceptuelle est une joie toute pascalienne !

 

Car, comme l'indique Resig, un nouveau clan — un Clang pourrait-on dire — d'applications Javascript s'apprête à déferler sur le Web, signant le grand retour du Compilateur. On connaissait le retour en grâce, modeste néanmoins jusqu'à présent, du compilateur dans les navigateurs Web. Ces compilateurs Just In Time (JIT), comme IonMonkey (#) de Mozilla, utilisent les techniques éprouvées de l'indien Sioux en flairant des traces d'exécution des langages dynamiques laissées dans leurs interpréteurs (#) pour optimiser l'exécution ultérieure. Cette compilation JIT n'est pas propre au Web ; elle s'applique tout autant à Javascript qu'à d'autres langages populaires comme Python et qu'à des langages intermédiaires pour machines virtuelles comme CIL chez Microsoft ou le bytecode Java lui-même. Mais dans le cas présent, nous parlons bien du retour de Compilateur Khan, de l'idée pure et essentielle de recompiler des applications classiques et historiques, laborieusement écrites en C et C++ par les vétérans aux catogans grisonnants, vers Javascript, ramenant de facto le navigateur au rang d'environnement runtime.

 

Pour réussir ce retour en force, ces applications C/C++ traversent une nouvelle chaîne de compilation et de génération de code dont les développements, ces dernièes années, ont réussi à laisser quelque peu dans l'ombre le précurseur irrédentiste GNU. Les compilateurs paramétrables LLVM (#), habillés de frontaux comme CLang (#), qui nous avaient déjà esbaudis dans cette chronique (#), produisent un bytecode générique ouvert, que l'extraordinaire Emscripten (#) peut à son tour compiler en Javascript — et faire tourner ainsi sur le client dans le navigateur Web comme sur le serveur avec, par exemple, node.js (#), lui aussi initiateur d'un véritable écosystème Javascript pour le cloud. Dans le cas d'émerveillement évangélisé par Resig, la compilation produit un sous-ensemble de Javascript, appelé asm.js et présenté comme « l'assembleur » des applications Web.

 

Par conception, asm.js est de fonctionnalité limitée, un compromis accepté en échange d'une exécution ultra-rapide. La proximité d'asm.js avec les instructions machines permet en effet — et c'est l'idée directrice de Mozilla — au compilateur JIT Javascript embarqué dans le navigateur de reconnaître du code asm.js et de le passer, pratiquement sans transformation supplémentaire, à l'assembleur machine correspondant.

 

Bien sûr, les poètes d'entre nous ne trouveront peut-être pas dans asm.js :

 

function Vb(d) {
  d = d | 0;
  var e = 0, f = 0, h = 0, j = 0, k = 0, l = 0, m = 0, n = 0,
    o = 0, p = 0, q = 0, r = 0, s = 0;
  e = i;
  i = i + 12 | 0;
  f = e | 0;
  h = d + 12 | 0;
  j = c[h >> 2] | 0;
  if ((j | 0) > 0) {
    c[h >> 2] = 0;
    k = 0
  } else {
    k = j
  }
  j = d + 24 | 0;
  if ((c[j >> 2] | 0) > 0) {
    c[j >> 2] = 0
  }
  l = d + 28 | 0;
  c[l >> 2] = 0;
  c[l + 4 >> 2] = 0;
  l = (c[1384465] | 0) + 3 | 0;
  do {
    if (l >>> 0 < 26) {
      if ((4980736 >>> (l >>> 0) & 1 | 0) == 0) {
      break
    }

le même impair si soluble dans l'air qu'exhale un authentique assembleur S/370 transpirant le cambouis et l'huile de vidange :

 

//IEFBR14  JOB CLASS=A,MSGCLASS=A,RESTART=ASMF
//*--------------------------------------------------------------------
//IEHPROGM EXEC PGM=IEHPROGM
//SYSPRINT  DD SYSOUT=*
//MVS3380   DD UNIT=3380,VOL=SER=MVS809,DISP=SHR
//SYSIN     DD *
 SCRATCH DSNAME=JMM.S370ASM.LOAD,VOL=3380=MVS809
 UNCATLG DSNAME=JMM.S370ASM.LOAD
//*--------------------------------------------------------------------
//ALLOC    EXEC PGM=IEFBR14
//LOAD      DD DSN=JMM.S370ASM.LOAD,
//             UNIT=3380,VOL=SER=MVS809,
//             SPACE=(CYL,(20,0,15)),
//             DCB=(RECFM=U,BLKSIZE=32760),
//             DISP=(,CATLG)
//*--------------------------------------------------------------------
//ASMF     EXEC PGM=IFOX00,REGION=2048K
//SYSLIB    DD DSN=SYS1.AMODGEN,DISP=SHR
//          DD DSN=SYS1.AMACLIB,DISP=SHR
//SYSUT1    DD DISP=(NEW,DELETE),SPACE=(1700,(900,100)),UNIT=SYSDA
//SYSUT2    DD DISP=(NEW,DELETE),SPACE=(1700,(600,100)),UNIT=SYSDA
//SYSUT3    DD DISP=(NEW,DELETE),SPACE=(1700,(600,100)),UNIT=SYSDA
//SYSPRINT  DD SYSOUT=*
//SYSPUNCH  DD DSN=&&OBJ,UNIT=SYSDA,SPACE=(CYL,1),DISP=(,PASS)
//SYSIN     DD *
IEFBR14  CSECT ,
         SLR   15,15
         BR    14
         END   ,
//*-------------------------------------------------------------------
//LKED     EXEC PGM=IEWL,
//             COND=(5,LT,ASMF),
//             PARM='LIST,MAP,XREF,LET,NCAL,RENT'
//SYSPRINT  DD SYSOUT=*
//SYSLMOD   DD DSN=JMM.S370ASM.LOAD,DISP=SHR
//* SLIB    DD DSN=SYS1.LINKLIB,DISP=SHR
//SYSUT1    DD UNIT=SYSDA,SPACE=(TRK,(5,5))
//SYSLIN    DD DSN=&&OBJ,DISP=(OLD,DELETE)
//          DD *
 NAME IEFBR14(R)
//*-------------------------------------------------------------------
//IEFBR14  EXEC PGM=IEFBR14
//STEPLIB   DD DSN=JMM.S370ASM.LOAD,DISP=SHR

mais impossible de mettre en doute l'efficacité du code engendré. Au point que l'éditeur de jeux Epic a réussi le tour de force de porter son moteur de jeux Unreal Engine 3 vers asm.js (#) et à faire tourner les jeux les plus consommateurs de ressources dans le navigateur Firefox et sous WebGL, un rendering pas particulièrement connu pour sa vélocité !

 

Tout ceci ne va pourtant pas sans chagriner quelques gardiens du temple de la Compilation éclairée (#). Pointant en particulier le fait que les compilateurs Javascript modernes sont déjà des fusées à plusieurs étages d'optimisation, comme Crankshaft dans V8 (#) chez Google, l'idée de réduire Javascript à un sous-ensemble n'est-elle pas contradictoire avec celle, devenue presque courante aujourd'hui, de créer plutôt des surensembles de Javascript, bénéficiant de l'empilement d'optimisations de ces compilateurs JIT. (Que l'on pense par exemple à TypeScript (#), CoffeeScript (#), voire à Dart (#), Script# (#) et autre espèces du bestiaire (#) scriptural.)

 

Mais bien plus, arguent ces Quirites contemporains, asm.js ne fait que porter le masque de Javascript. Il ne serait qu'un bytecode vulgum pecus paradant sur les voies impériales et menant ultimement à la confusion des genres. À cacher un bytecode dans un langage de haut niveau, ne court-on pas à la « pollution » du langage de haut niveau de features pertinents pour le seul bytecode de plus bas niveau ? Ce mariage morganatique est-il donc si fâcheux ?

 

Le débat sur l'approche radicaliste de l'architecture Web ne fait que s'ouvrir.

 

lundi, avril 01, 2013

Big Dataxe

Après le rapport sur la fiscalité du secteur numérique, remis le 18 janvier dernier par les homophones Conseiller d'Etat Pierre Collin et Inspecteur des finances Nicolas Colin, le projet de préfiguration de la Loi de finances 2014 promet de s'attaquer aux « graves conséquences pour l'économie nationale de l'inadaptation du cadre fiscal actuel ».

 

Le Président l'a répété dans sa récente interview sur France 2, il y a quelques jours : dans l'optique où les conditions matérielles déterminent les relations de production — notamment les technologies, les inventions et les formes de propriété, lesquelles déterminent à leur tour les formes de gouvernement, les lois, la culture et les principes moraux des organisations sociales — l'évolution quantitative des conditions matérielles conduit à des évolutions qualitatives. Ainsi le progrès technologique conduit à l'émergence des Big Data ; données qui, irriguant de plus en plus l'économie numérique, sont issues des utilisateurs ; elles ont une valeur de mieux en mieux documentée par le marché et ses observateurs, pour reprendre les conclusions du rapport Collin-Colin. (Dont la lecture de la version qui devrait être éditée chez Armand Colin confirme qu'aucun de ses euphoniques auteurs n'a oublié ses cours de matérialisme dialectique et historique.)

 

Si donc « les données valorisées dans l'économie sont majoritairement issues du "travail gratuit" de la multitude des utilisateurs d'applications », il est donc moralement justifié, au sens de Denis Collin cette fois, que la « restitution des données personnelles soit un "contre-modèle" à la fois protecteur des personnes et favorable à l'innovation ». Redistribuer aux masses ce qui est produit par les masses ou comme le disait Mao Tsé-toung — précurseur méconnu de MapReduce — « recueillir les idées des masses, les concentrer et les porter de nouveau aux masses, afin qu'elles les appliquent fermement, et parvenir ainsi à élaborer de justes idées pour le travail de direction : telle est la méthode fondamentale de direction. Les masses populaires sont dotées d'une force créatrice illimitée », c'est bien là le slogan des Amazon, Google, Facebook et autres Twitter. En revanche la primauté chirographaire de l'Etat impose évidemment le combat patriotique et national contre l'abandon de ces tâches essentielles de direction aux laquais du libéralisme économique et zélateurs du capitalisme sauvage précédemment cités.

 

C'est sur ces fondements socio-économiques immarcescibles que la Loi de finances 2014, en cours d'élaboration, devrait jeter les bases morales de la construction fiscale — dont le surnom Big Dataxe court déjà sur le WiFi du Ministère du redressement productif — dans la lutte contre « les effets de la rétractation de la matière imposable ». Collin et Colin, suivant en cela Collin, notent que « les modèles d'intermédiation, qui dominent l'économie numérique, vident la matière imposable de sa substance » donc que « les conséquences de l'inadaptation de la fiscalité sont dramatiques pour l'économie » — il doit s'agir de l'économie nationale, car apparemment ce serait plutôt le contraire outre-Atlantique. Il ne manque que le lyrisme du librettiste Paul Collin sur cette petite musique fiscale.

 

Pour être précis, les deux volets de la Big Dataxe concerneraient les sociétés, avec un aménagement de l'IS, et les particuliers avec des mesures visant l'IR et l'ISF. Les projections de rendement fiscal sont en cours au Ministère des finances qui mettent en oeuvre des simulations financières sur un cluster de l'infrastructure nationale de cloud computing Numergy (« sécurité, éco-responsabilité, simplicité et prix maîtrisé »). Cumulant le bénéfice de familiariser notre administration (que le monde entier nous envie) au Big Data, selon ces clodoaldiens d'obédience dataïstes, adouber Hadoop a doublé le doux padou dont on enrubannera ce paquet fiscal.

 

Pour l'instant seules les grandes lignes de code ont filtré des sources Pig de ces travaux préparatoires.

 

  • Le « choc d'immatérialité », qui pourrait prendre, dit-on de source parallèlement informée, la forme moins polémique et plus doucereuse d'un « pacte de virtualité », serait confié par mandat à la Caisse des données et configurations, une Haute autorité de la rue de l'Université — seul opérateur HDFS/HBase agréé. Sa mission, à vocation européenne (cf. les sept priorités adoptées par la Commission européenne le 18 décembre 2012 : « Initiatives Europe 2020, De la Chiers au Prout ») serait alors d'instrumenter globalement la perception sur tous les flux et sur les stocks de données. Elle disposerait, pour ses propres besoins, de ressources cloud computing souveraines classifiées.
  • Sociétés et particuliers paieraient donc une nouvelle taxe d'accise sur l'émission de données, personnelles ou privées, volontairement ou involontairement produites, dans le cadre dûment réaménagé de l'ordonnance n° 2009-80 du 22 janvier 2009 sur l'Offre au public de titres financiers. Les modalités font précisément l'objet des simulations actuelles du Ministère des finances ; les moyens à dégager pour les vérifications, encaissements et sanctions sont en discussion à Matignon mais, selon toute vraisemblance, ressortiraient à la technique de Freivalds.
  • Dès janvier 2014, chaque PC, smartphone, tablette et laptop vendu ou utilisé sur le territoire français devra être géolocalisé et équipé, sorti d'usine, de la version certifiée par l'ANSSI du code Green Dam Youth Escort Software aimablement fourni par les autorités chinoises — un compteur intelligent de données équipé d'un dispositif de coupure à distance (nom provisoire : Le Fisc est mon ami.).
  • En revanche et suivant la ligne directrice déjà établie par la Loi de finances 2013, il n'est plus question d'un éventuel prélèvement forfaitaire libératoire sur les dividendes des données riches. Les dividendes et intérêts produits par les données riches seront directement assujettis à la taxe de 75 % si ardemment défendue par le candidat et maintenant Président, dès qu'ils excèdent 1 mégaoctet annuellement.
  • Les données personnelles (quantified self) seraient déclaratives mais resteraient propriété de l'Etat qui confierait contractuellement, par le biais de son opérateur la Caisse des données et configurations, à des officines privées de métrologie, préférablement établies en Suisse et dirigées par des députés ou des ministres en exercice (amendement Cahuzac), les tâches d'échantillonnage et d'anonymisation avant restitution dans le cadre du programme national d'Open Data.
  • Les données privées entreraient de plain-pied dans la définition du patrimoine du foyer fiscal et, partant, dans l'assiette du calcul de l'ISF des particuliers. Les déclarations devront ainsi comporter la liste exacte de tous les médias de stockage, amovibles ou non, du foyer fiscal et de leurs contenus (formats et volumes). Un barême progressif applicable au-delà des premiers 1,3Mo, dès 800K selon les formats (binaire, texte, etc.) sera publié dans l'année sur le site bigdataxe.gouv.fr.
  • Pour les sociétés, la Loi de finances 2014 modifierait les règles de calcul de la quote-part de frais et charges dont sont redevables les entreprises soumises à l'impôt sur les sociétés lorsqu'elles réalisent des plus-values de cession de données, (matérialisées par des requêtes SQL, NoSQL, et XML/Json notamment). Chaque requête SQL (ou autre) sera soumise à une Autorisation administrative d'exécution qui déterminera les frais d'optimisation à régler sur une base trimestrielle.
  • De plus, au plan réseau social, les modèles UML et DTD exploités en France seront frappés d'un droit d'accise qui viendra en surcroît des charges réseaux-sociales et des droits de douane lorsque le modèle en exploitation provient d'un fournisseur étranger. De nouveaux moyens seront dégagés pour la lutte contre l'immigration clandestine de données ; les opérateurs de télécommunications seront tenus d'installer des pare-feux agréés par l'Etat sur tous leurs coeurs de réseaux.
  • Une dérogation confiscatoire serait possible, au titre des droits d'auteur dans le cadre (à vocation universelle) de l'exception culturelle française. Seraient ainsi surtaxés tous les médias susceptibles de transporter et de stocker, sous quelque forme et pour quelque durée que ce soit, des données électroniques artistiques de toute nature. En regard, un prix unique du mégaoctet culturel et un régime spécifique pour les intermittents de l'analytique prévaudrait sur tout le territoire national.
  • Les datacenters localisés en France pourraient être, de même, éligibles à une réduction fiscale dans la mesure où ils ouvriraient leur API et leur capital à la Caisse des données et configurations via le Fonds national pour l'intelligence numérique. En revanche aucun bouclier fiscal pour les entrepôts de données ni pour les routeurs n'est prévu.
  • Les opérations transactionnelles des ETL et de data cleansing feraient l'objet d'un enregistrement réglementaire et de l'acquittement de frais de formalité. Toute transformation de données deviendrait également assujettie à la TVA à 19,6 % (retenue à la source ou à l'exécutable selon les options envisagées).
  • Enfin au plan pénal, seraient créés des délits d'abus de bien des données, de recel et d'usage de données fausses ou fallacieuses, d'excès de vitesse de transport de données, de non-conformité à MERISE, et d'incitation à la discrimination des résultats de moteurs de recherche. La compression des données est illégale et punie d'amendes et de peines de prison. Les Autorité de contrôle prudentiel et Autorité de contrôle des marchés verraient leurs prérogatives étendues aux marchés de données (datamarts) et aux amodiations en droit minier (data mining).

Si le détail des mesures résultera des discussions à venir du projet de loi devant les assemblées, on constate néanmoins que le paquet fiscal envisagé pour 2014 illustre doctrine du gouvernement. Comme concluait le Président, dans cette entrevue télévisée allégorique du 28 mars, « Vous m'avez suffisamment interrogé pour savoir que j'ai toujours dit que ce serait difficile pendant deux ans... Pour tout le monde. Pour les plus riches, je pense que cela a été un effort qu'eux-mêmes ont regardé comme significatif, si j'en crois un certain nombre de déclarations. Reportez-vous à certains propos fracassants. Mais c'est plus dur, je l'ai dit, c'est plus dur ! Parce que qu'est-ce que j'avais comme solution quand j'arrive : laissez filer les données ? Etre sanctionné par les marchés ? Bruxelles ? Je m'y suis refusé. Parce que j'ai le sens de l'indépendance de mon pays, de la souveraineté ».

 

dimanche, mars 24, 2013

Does Big Data Require an Epistemological Revolution?

In a paper recently published in Paris Tech Review, Big Data: Farewell to Cartesian Thinking?, Jean-Pierre Malle argues that "Big Data deviates from 'traditional' scientific knowledge". So radical is this deviation that it entails a "cultural revolution" turning into an "industrial revolution" as dramatized by the breakneck speed of technological innovations. And indeed Cartesian Dualism – among other intellectual and religious influences – did prepare the way for modern scientists to think about the world in abstractions. The Newtonian world-view of physics, for instance, was certainly facilitated by Descartes' philosophical system. Before Descartes and Newton such plainly observable phenomena as the falling of an apple from a tree, the rhythm of the tides in the oceans, or the movements of the planets around the sun were separate and distinct events, "raw data" in Malle's view "usually kept for subsequent processes that are not yet determined". Through Newton's abstract conceptualization, however, apples, oceans, and heavenly bodies all became essentially the same: masses attracted by other masses, all moving according to the same laws of gravitation. Malle does not take issue with this however, "for inductive speed algorithms, it is preferable to transform information from a form 'in extension' (eg conservation of all receipts of Mr. Smith [/or records of phenomena/]) to a form 'in comprehension' (eg Mr. Smith buys a loaf all Mondays and sometimes a cake [/or the law of gravitation/]) more manageable and less bulky", as abstraction hardly qualifies as a "farewell" to Cartesian thinking.

In fact, according to the author, the issue lies in the "Western scientific tradition that derives from Descartes" of deductive thinking. Malle's critical point is that Big Data conceptualization and processing, in contrast, demand induction. The metaphor called to illustrate the case in point is illuminating: it goes along the following lines.

  • "Induction, unlike deduction, is a mechanism used by the human brain at almost every moment";
  • "[/Induction/] is particularly relevant when analyzing a situation out of its context";
  • "For example, to apply deductive logics to the decision of crossing a street, you would need to measure all vehicle speeds, locate them in space and calculate, using a set of equations, which is the right time to cross. Needless to say, the slowness of this technique of analysis would be more of an obstacle, compared with the use your own senses and cognitive abilities… In fact, our brain captures the global scene in a comprehensive situation and processes it by using induction. To do this, it generalizes the principles observed in similar situations involving us – or others – that we have observed (other people crossings streets, at any time, with or without light, wet or dry ground, etc.). Our brain is able to integrate a huge number of parameters in a flash and project the results of its inductions on the current scene.";
  • "This is exactly what Big Data processing needs: search instantly for the critical information, process them as a whole without preconditions, reproduce effective mechanisms that have been observed in the past, generate new data that can be used directly in the current situation.";

These are strongly stated epistemological claims which, despite being immediately followed by the inevitable reference to a famous 2008 article by Chris Anderson in Wired to the effect that "the knowledge from Big Data will be produced by 'agnostic' statistics. This lack of ideology is the very condition of their success: in their own way, numbers speak for themselves", are worth investigating further for deeper qualification.

In the analogy offered by the author, the Big Data algorithm – later called an inductive algorithm in the article, plays the role of the human brain confronting a worldly situation in real time. It is a trademark of the current commentary on Big Data that the resurgence of early cybernetics ideas is a source for metaphors. The viewpoint from constructivist empiricism, acknowledged in the article, is then that Big Data repositories and streams constitute the "world" – a Brave New World, possibly – and the Big Data processing constructs the "knowledge", a representation of "reality". In the vein of the cybernetic reasoning lines, what is missing here is proper identification of the closing of the loop, the Wiener-Odobleja notion of feedback. Big Data is not as innocent as that, notwithstanding Anderson. As Hans Jonas remarked, "there is a strong and, it seems, almost irresistible tendency in the human mind to interpret human functions in terms of the artifact that take their place, and artifacts in terms of the replaced human function". Big Data appears to be generally collected, if in unquestionably staggerring volume and blazing speed, to serve a purpose – precisely an analysis in view of, say, a commercial (e-commerce marketing) or a public health (Open Data) objective. Aren't inductive algorithms, singled out as "particularly relevant when analyzing a situation out of its context" and "generat[/ing/] new data that can be used directly in the current situation", reviving the cybernetics attempt to account for purposive behavior without purpose – like behaviorism is an attempt at psychology without the psyche?

Not that, in addition, induction itself isn't fraught with deep questions. Nelson Goodman's Fact, Fiction and Forecast fascinating predicates, grue and bleen, respectively:

  • (grue) applying to all things examined before a time t just in case they are green but to other things just in case they are blue, and
  • (bleen) applying to all things examined before a time t just in case they are blue but to other things just in case they are green;

are illuminating cases in point. They illustrate the new riddle of induction.

Let us start with the Humian old riddle of induction, because it sits at the core of the author's argument in favor of inductive algorithms. Goodman describes Hume's riddle of induction as the problem of the validity of the predictions we make. Since predictions are about what has yet to be observed and because there is no necessary connection between what has been observed and what will be observed, what is the justification for the predictions we make? And indeed, as Malle rightfully argues, we cannot use deductive logic to infer predictions about future observations based on past observations because there are no valid rules of deductive logic for such inferences. In fact there is a very active research community in mathematical logic, since Haskell Curry, which strives at refining further these statements (works by Martin-Löf, Girard, Prawitz seem relevant here). Hume's answer was that our observations of one kind of event following another kind of event result in our minds forming habits of regularity. Goodman's tackles the old riddle by turning to the problem of justifying a system of rules of deduction, for comparison. For Goodman, the validity of a deductive system is justified by their conformity to good deductive practice. The justification of rules of a deductive system then depends on our (individual, group, sociological) judgments about whether to reject or accept specific deductive inferences. Thus, for Goodman, the problem of induction dissolves into the same problem as justifying a deductive system: the problem of confirmation of generalizations.

The new riddle of induction, for Goodman, rests on our ability to distinguish law-like generalizations, required for making predictions, from non-law-like generalizations. Law-like generalizations are capable of confirmation while non-law-like generalization are not. A good inductive algorithm based on a Big Data collection of observations of emeralds should conclude that they are green and not grue, this at whatever time t it is run. How to make sure that it so does?

This is where pragmatical approaches are called for, and after the investigatory detour, we concur – albeit for different reasons – with some of the calls to action in Malle's article. Leo Breiman in Statistical Modeling: The Two Cultures help us reclaim some of these treacherous inductive grounds. Breiman makes Big Data fit in the modest (though mythical) Black Box: "Statistics starts with data. Think of the data as being generated by a black box in which a vector of input variables x (independent variables) go in one side, and on the other side the response variables y come out. Inside the black box, nature functions to associate the predictor variables with the response variables". (Basic settings indeed, which, however, may evoke ominous undertones of a Schrödinger's cat sealed box. Rest reassured gentle reader, we won't go here into Quantum Mechanics alternate interpretations!) Breiman then points out purpose, two goals for the analysis:

  • Prediction: to be able to predict what the responses are going to be to future input variables;
  • Information: to extract some information about how nature is associating the response variables to the input variables.

Earlier remarks on the often underplayed importance of purposes served by collecting and analyzing data and on the hard problem of distinguishing Goodman's projectable predicates from non-law-like generalizations should make Breiman's remark clear enough. Breiman then goes on opposing two cultures to approach both goals.

In the data modeling culture, the analysis begins with assuming a stochastic data model for the inside of the black box. The values of the parameters are estimated from the data and the model then used for information and/or prediction. (One then talks of model validation, goodness-of-fit and so forth.) In the algorithmic modeling culture, the analysis considers the inside of the box complex and unknown. Their approach is to find a function f(x), an algorithm that operates on x to predict the responses y. (One also talks of algorithm validation, but in terms such as predictive accuracy.)

Breiman, a well-informed critic of the prevalence of the data-modeling culture in statistics, calls for a new balance in the discipline, leaning towards the algorithmic modeling approach – a research area where he developed momentous contributions. His conclusion – the paper was published in 2001 – offers the following: "The roots of statistics, as in science, lie in working with data and checking theory against data. I hope in this century our field will return to its roots." The current flurry of research and development, both theoretical and practical, on Big Data representation and algorithms testify that this vow was not pledged in vain.

samedi, mars 16, 2013

Le Big Data individuel

L'Ordinateur individuel (#), dont l'auteur, jeune hacker avant l'heure sortant ébloui de la tente « micro-informatique » (Sicob Micro-Boutique), dressée sur le parvis encore désert de La Défense, en marge du Sicob 1978, se souvient encore avoir serré avec émotion le premier numéro, disparaît ce mois-ci pour devenir 01 Net Magazine. À l'heure même où dans toute l'informatique l'individuel triomphe — smartphone, tablette, profil des réseaux sociaux, recommandations personnalisées des sites d'e-commerce — et parfois là où on l'attend le moins. Le Big Data par exemple.

Aujourd'hui le Big Data, c'est vous ! Nous sommes témoins de la résurrection de la doctrine du Cercle de Vienne (#) mais appliquée, plus d'un siècle plus tard, à soi-même : «  self knowledge by numbers » annonce dogmatiquement le site Quantified Self (#). La qualité de vie par la quantification individuelle ! Voilà le slogan hygiéniste New Age, collision allégorique du développement durable et de la Mécanique quantique ! L'ambiguïté du mot d'ordre dévoile tout : la connaissance de soi par la mesure — plus précisément par l'automesure (#), notamment de ses propres paramètres médicaux avec un objectif de « santé » parfaitement louable — c'est aussi les renseignements personnels en grand nombre — avec une inévitable analogie Big Data, Big Brother d'où sourdent de sombres images.

La miniaturisation des capteurs et leur connexion systématique au Net nous permet, en effet littéralement, de nous habiller d'un tissu de points de mesure communicants, capables d'émettre continûment les flux de nombres qui définiraient votre moi. C'est l'entrée de plain-pied dans le cyberspace, naguère encore territoire de la science-fiction. Et l'inversion de point de vue est toute proche : bientôt vous ne serez pas autre chose que ce cordon de flux de données corrélés, ce brouillard statistique de régressions linéaires en devenir, dernier avatar technique du supplément d'âme bergsonien (#). De la surveillance panoptique de tous vos paramètres vitaux, de votre activité physique quotidienne (#) jusqu'à la cinétique des plus petites molécules (#), de l'apoptose de vos cellules (#) à la carte de votre génome personnel (# en couleurs reconstituées et disponibles en plusieurs formats pratiques et bon marché), tout, vous saurez tout sur vous. L'ordinateur individuel s'efface bien devant l'individu devenu ordinateur.

D'autant plus, que l'ordinateur individuel, quant à lui, met le Big Data à la portée de tous. Une nouvelle génération d'outils informatiques point qui menace de reléguer au rang darwinien de dinosaure les algorithmes fondateurs de la discipline, comme Hadoop (#) et Pregel (#), tous grands prédateurs de l'habitat datacenter. Aujourd'hui tant rapides sont les progrès des technologies de stockage et de parallélisation que plus besoin de teraflop (Teratophoneus Data) pour analyser les Big Data, un simple PC suffit amplement à la tâche (#).

GraphChi (#), par exemple, emploie un algorithme novateur pour effectuer les calculs sur des très grands graphes — de l'ordre du milliard de sommets — sur le simple disque dur ou la mémoire SSD d'un modeste PC actuel. Shark (#) met le turbo à vos requêtes analytiques, 5 à 10 fois plus rapide sur disque que Hive, Hadoop ou que les plus rapides des bases de données massivement parallèles, 100 fois plus véloce sur SSD ! Julia (#) un nouveau langage de programmation pour les applications techniques et scientifiques (#) promettrait de laisser son grand frère R — qui connaît pourtant un succès grandissant, porté par les Big Data — dans les starting blocks. Les tsunamis de trillions de points de séries temporelles sont traités au vol par les nouveaux algorithmes dits de « dynamic time warping » (#) — c'est beau comme du StarTrek ! Bref la panoplie complète du data scientist arrive sur votre PC (#), le Big Data pour tous et à chacun son Big Data.

Nous ne reviendons pas sur la position épistémologique qui sous-tend cette ruée vers le Big Data — nous l'avons déjà évoquée dans ces colonnes (#, #) — mais constatons simplement que l'on n'a pas fini de parler des données et de l'ordinateur toujours aussi individuels après ces trente-cinq premières années.

(Et bon anniversaire à rms, 60 ans aujourd'hui !)

Par Jean-Marie Chauvet. Le 16 mars 2013.

vendredi, février 01, 2013

La comptine du cloud

C'est fort à propos que le maître des cérémonies de cette soirée, Fabrice André, proposait, suivant la formule consacrée, de poursuivre la discussion durant le cocktail, autour d'une flûte de champagne. Car la conférence-débat « Quel avenir pour le cloud français ? » menaçait insidieusement de tourner au pugilat dans les souterrains salpêtrés de Telecom Paris Tech !

Tout avait pourtant bien commencé avec la présentation policée et neutraliste de Patrick Starck, président de Cloudwatt. Le ressassement des arguments cent fois répétés de l'irréversibilité de la vague du cloud, de la proportion croissante des smartphones et des tablettes dans l'accès aux services Web, de la « révolution » du paiement à l'usage, de la confusion persistante entre SaaS et cloud computing, de l'importance nationale de la souveraineté sur les données portaient gentiment à une somnolence antéprandiale. Mais enfin, quel autre argumentaire attendre de Cloudwatt, qui ne pourrait surprendre que ceux qui auraient vécu à l'isolement total dans les plus profondes mines depuis trois décennies ? Dans l'audience de vénérables mineurs, et Starck lui-même, évoquaient d'ailleurs l'époque bénie où les Normerel, CII et autres Logabax s'épanouissaient dans la filière informatique française.

Làs, c'était sans compter les deux startuppers de compétition, Matthieu Hug de RunMyProcess, et Jean-Paul Smets de Nexedi et Vifib, invités à témoigner de la vitalité des jeunes entrepreneurs du Net. Hug rappelait dans un exposé, ciselé à la bigorne acérée, la médiocrité et l'insignifiance de la filière auto-proclamée du logiciel, la déshérence du savoir-faire algorithmique et informatique français, y mêlant tout à la fois le mépris des grands comptes pour les petits éditeurs et la commande publique vétilleuse, l'impécuniosité du financement privé d'amorçage et de capital-risque et le coma avancé des marchés réglementés pour les introductions en bourse, histoire de faire bonne mesure.

Quant à Smets, encore auréolé du slapossage en règle du même Starck — décidément dans le rôle de la victive expiatoire ! — aux États généraux de l'Open Source (si bien abrévié EGOS) lundi dernier, il renchérissait brillamment en appelant à signer la pétition pour le dégroupage du cloud souverain français, une initiative indispensable dans le contexte doctrinal actuel, ouverte à tous et lancée à l'initiative des entreprises Alter Way, Gandi, IELO / Lost-Oasis, If Research, Nexedi, ViFiB et des associations ADULLACT et AFUL. Non sans avoir illustré l'ignorance même de l'industrie pour ses génies inconnus comme Fabrice Bellard à qui l'on doit QEMU, un émulateur de processeur universellement utilisé, un Linux entièrement écrit en Javascript pour tourner dans le navigateur Web, et aujourd'hui une station de base LTE 4G complète sur PC — sans oublier les premières 2700 milliards de décimales de pi ! Connaîtra-t-il lui-aussi le sort d'un Louis Pouzin ? En tout cas, tous méritent d'urgence notre reconnaissance admirative.

C'était à Jamal Labed, dirigeant d'EasyVista (l'ancien Staff & Line) et président de l'AFDEL, qu'échoyait le rôle ingrat d'expliquer les mutations qu'impliquait le passage au cloud computing tant pour les utilisateurs, que pour les directions informatique et pour les éditeurs de logiciels et de services. Car derrière la classification commode en couches superposées IaaS, PaaS et SaaS, qui vous permettra de briller dans les salons où l'on cause, se cachent de véritables ruptures techniques novatrices. Le rapport d'échelle du Google Cloud à un datacenter traditionnel, d'il y a encore à peine cinq ans, est aujourd'hui déjà celui qui sépare ce même datacenter d'un simple PC ! Et en effet, alors qu'Amazon publie des résultats triomphaux, Numergy et Cloudwatt, à peine lancés, suscitent déjà les interrogations résumées par le cabinet Kurt Salmon, qui visent le caractère spécieux des alibis, peut-être assenés avec trop de complaisance, de la souveraineté et de la sécurité.

Mais finalement, plus que le débat sur la légitimité des arguments de souveraineté et de sécurité, qui met en jeu des jugements socio-économiques, par essence, ouverts et discutables à l'envie, ne conviendrait-il pas aussi de s'interroger sur les régimes de contrôle et de surveillance qu'ils appellent dans l'environnement doctrinal actuel que l'on voit en pleine évolution ?

Le lourd silence consterné dans lequel le rapport Colin et Collin a été accueilli par ses commanditaires, quatre ministres de Bercy, témoigne du désarroi numérique en haut lieu. La mission d'expertise sur la fiscalité du numérique a débouché sur un énorme chantier, qui consiste rien de moins qu'à refondre toute la boîte à outils du fisc et à inventer la TVA du XXIe siècle, alors qu'on demandait tacitement aux Col(l)in d'entériner purement et simplement l'arc-réflexe de jalousie peccamineuse de la taxe Google ! Décidément on n'est pas aidé dans le néo-colbertisme marxisant de la structuration des filières à tout prix.

Sujet d'autant plus dogmatiquement sensible qu'à l'heure où l'on nous préfigure un Paris numérique — avatar d'Astérix Numerix, 25 incubateurs, 700 startups, un village gaulois qui résiste ? — Google, qui était naguère accueilli en grande pompe par un précédent président de la République dans ses nouveaux et somptueux locaux lutéciens (joie sans partage de la Mairie de Paris, de la Région Île-de-France, de la France gloire mondiale de l'attractivité du territoire national !), ne vient-elle pas, presque subrepticement comme pour s'acheter une virginité fiscale partout polémique, d'investir un généreux million d'euros — soit quelques minutes de revenus publicitaires défiscalisés — dans un « espace de 1500 mètres carrés », dont le nom provisoire est Grand lieu intégré d'innovation (GLII), situé dans le deuxième arrondissement de la capitale et porté par l'association Silicon Sentier avec la Région Île-de-France et la Ville de Paris ? De la concurrence impérialiste américaine à une filière d'incubateurs française ?

Cela fleure bon le vintage 2005 et la « riposte européenne au moteur de recherches californien » de Jean-Noël Jeanneney. Et à propos, quelles nouvelles de Quaero, le « machin » chiraquien qui devait faire mordre la poussière à Google et à Yahoo! ? Si l'on peut juger avec indulgence les voeux pieux, contemporains, de France Numérique 2012 (re-visionnez l'impayable vidéo), en revanche comment laisser passer la tentation facile de délégation des missions de services publics à des officines privées qui, apparemment, fait office de réflexion en notre belle bureaucratie ? La Hadopi qui confie avec inconséquence la surveillance des téléchargements privés du citoyen à Trident Media Guard — pour une fois qu'une startup française décroche une commande publique ! — la BnF qui délègue la numérisation du patrimoine culturel à ProQuest (UK), Believe Digital (France) et Memnon Archiving Services (Belgique), Bruno Racine digne successeur du même Jean-Noël Jeanneney, paveraient-ils ainsi la voie de l'avènement d'une Nouvelle surveillance en partenariat public-privé ?

Labed se réjouissait, d'autre part, que Fleur Pellerin, ministre déléguée en charge de l'Economie numérique, au cours de ses voeux aux acteurs du numérique, eût confié à l'AFDEL l'amorce d'une réflexion sur la structuration de la filière Big Data française. Une semaine auparavant, c'était aux EGOS qu'un Syntec Numérique se réjouissait également — dans les grincements de dents et les sourires crispés de circonstance du CNLL, dont l'antériorité et la représentativité devraient faire autorité en la matière — que la ministre appelât de ses voeux à la structuration de la filière Open Source française.

Au vu de quoi, je réclame d'être catapulté Commissaire général à la structuration des filières du buzzword françaises. Les besoins sont pressants, l'évidence aveuglante, l'urgence indiscutable, l'intérêt national :

  • Préfiguration de la structuration de la filière *Quantified Self*française ;
  • Préfiguration de la structuration de la filière Web 2.0 française ;
  • Préfiguration de la structuration de la filière NoSQL française ;
  • Préfiguration de la structuration de la filière Open and Linked Data française, en liaison, cela va sans dire, avec Henri Verdier ;
  • Préfiguration de la structuration de la filière Internet of Things française ;
  • Préfiguration de la structuration de la filière Personal Cloud française ;
  • Préfiguration de la structuration de la filière In Memory Flash Computing française ;
  • Préfiguration de la structuration de la filière Javascript/Node.js française ;
  • Préfiguration de la structuration de la filière Social Graph française ;
  • Préfiguration de la structuration de la filière Chiffrement homomorphique française — blague à part, voilà une idée à creuser comme celle des Physical Unclonable Functions.
(Des grands anciens, ingénieurs des télécommunications qui, comme votre serviteur, eurent à connaître des mérites de la pupinisation et des vertus isolantes du gutta-percha me signalent l'impérieuse nécessité du rétablissement d'une filière française du langage de programmation Jovial, dernier rempart à l'invasion des scripts, mais là la situation paraît indéniablement compromise.)

Bref le travail ne manque pas et j'appelle aux bonnes volontés pour produire les indispensables prolégomènes, pétitions, rapports de mission, appels à propositions, appels à manifestations d'intérêt et autres cris d'alarmes ou appels au secours que doivent inspirer cette doxa numérique.

mercredi, janvier 23, 2013

L'Etat généreux de l'Open Source en France

C'est sous le patronage de la Ministre déléguée chargée des PME, de l'innovation et de l'Économie numérique, qu'un monumental pingouin se dressait au petit matin, fort incongru mais doublement de circonstance, dans le froid glacial qui pesait sur le mausolée mortifère à l'architecture stalinienne du Centre Pierre Mendès-France du ministère à Bercy. Il veillait sans doute sur les débats de ces premiers États généraux de l'Open Source convoqués presqu'en catimini par le Comité Open Source du Syntec Numérique, Michel Isnard et Alexandre Zapolsky en maîtres de cérémonie.

 

Au cours de cette journée enneigée, il fut beaucoup question — et peu, ou trop, répondu — de structuration de la filière Open Source en France. C'est à un Boltanski ou à un Debray qu'il faudrait demander de s'interroger sur cette originalité française de l'immixtion de l'État dans l'évolution d'un mouvement qui, précisément, fonde sa réflexion sur les libertés, l'ouverture et l'accès, tant de la multitude que de l'individu. D'ailleurs l'idée même de structuration d'une filière, au sens quasi-industriel, paraîtrait par exemple bien étrange aux États-Unis où les racines libertaires de l'Open Source (cf. The Cathedral and the Bazaar d'Eric Raymond) lui sont consubstantielles.

 

Pour l'illustration immédiate du cadre de pensée, la Ministre, arrivée en retard, débitait précipitamment son discours introductif sur un ton monocorde. Des éléments de langage, que l'on imagine soigneusement pesés, il ressort que l'Open Source appelle naturellement les notions de souveraineté et de sécurité des données, au plan économique. Quant aux aspects sociaux, voire sociétaux, son modèle dans l'imaginaire administratif actuel l'apparente au « bien commun » — les fameux commons chers à Larry Lessig, mais sans le creative — et conjure par conséquent la réglementation de l'État au titre de la doctrine de son rôle × providentiel ». Est-ce donc dans cette vision amèrement réductrice, sans oublier les félicitations auto-décernées à propos du projet cache-misère de Paris Capital Numérique, que s'incarneraient, à l'en croire, les champions nationaux de l'Économie numérique ? Quant à l'administration, c'est prosternée dans la stupeur et le tremblement protocolaires qu'il convient qu'elle reçoive la circulaire du Premier ministre datée du 19 septembre 2012. Ce réjouissant adynaton, qui fut systématiquement invoqué, les larmes aux yeux, comme parole d'évangile par tous ces prédicateurs — soudain Ayrault, notre Stallman hexagonal et en mieux coiffé ? —, il enjoint les « services » de s'inspirer du mouvement du Libre pour moderniser l'action publique. Il y a même une nouvelle structure, le Secrétariat général à la modernisation de l'action publique, énième maillon de la chaîne markovienne des agences administratives (ADI, LOLF, DGME, ADELE, ADAE...) ayant vocation à bureaucratiser jusqu'à suffocation le processus, qui est bien là pour le rappel à l'ordre. Étaient justement présents, arborant les mines approbatrices convenablement compassées, les directeurs fraîchement nommés des DIMAP, DISIC et autres Etalab, peut-être précurseurs des observatoires, des syndicats, des conseils nationaux — déjà installé de novo du vendredi précédent — puis insensiblement des directives, des décrets et des hautes autorités... Signalons que seul Jean-Baptiste Soufron, probablement encore tout à l'inconscience naïve, bien pardonnable, de sa récente nomination de juillet au CNNum, bredouillait, inaudible, quelques mots sur le suicide d'Aaron Swartz.

 

En fait il fallut attendre l'après-midi pour que tentent de percer des interprétations alternatives à ces visions, aux degrés variés de dirigisme, témoignées par leurs initiateurs en Angleterre (Open Standards Principles), en Italie (Ministero dello Sviluppo Economico), et en Chine — où le soutien de l'Open Source a été « pris en main » par le gouvernement populaire. On assista, avec délice, à une tentative de putsch de Jean-Paul Smets — qui n'en est pas à sa première — mettant littéralement sur les genoux de son voisin Patrick Starck la proposition universaliste SlapOS. (On se prend à imaginer le gros titre dans la blogosphère du free software : Smets Slap(O)s Starck!) Patrick Starck a, en effet, récemment pris les rênes rétives de Cloudwatt — un des (innombrables) clouds français souverains que le monde entier, sans nul doute, ne tardera à nous envier — alors que ce futur champion exemplaire de la souveraineté bleu-blanc-rouge va chercher à 10 000 kilomètres des technologies OpenStack ou SugarCRM dont on peut soupçonner qu'elles ne sont guère ancrées dans le territoire national ! Pas un mot, en revanche, sur cet autre cloud souverain, Mercaptan, qui diffusait inopinément depuis sa Normandie qui lui a donné le jour !

 

Plus tard encore, on vit sourdre quelques querelles de préséance et d'antériorité entre les (innombrables) présidents des associations nouant les fibres si ténues du tissu de l'Open Source et du logiciel libre en France. Et c'est bien là, à la lumière de Clément Rosset, lorsque les masques menacèrent de tomber — menacèrent seulement, car, heureusement, l'image consensuelle et la courtoisie restaient primordiales dans les circonstances ici subventionnées par l'industrie et l'État — qu'apparaissaient le réel et son double de l'Open Source en France.

 

Les lecteurs de Lerner et Tirole et des travaux de la Toulouse School of Economics (ni too loose ni to lose en bon français, vous l'aurez rectifié de vous-même) n'eussent guère été surpris. La tentation de la mise au pas, par l'industrie « historique » jouant en défense ou par l'État exprimant, bien que singulièrement impécunieux, sa Wille zur Macht nietzschéenne, peut y puiser sa justification économique ou morale mais toujours intéressée. On ne pouvait mieux choisir le hashtag de la journée : #egos.

 

ShareThis