vendredi, novembre 07, 2014

Extension du domaine de l'anacoluthe

« Les impacts social et sociétal du numérique sont largement positifs », nous disent études sur études. Mais celles qui l'ont naguère salué comme « un facteur de transformation global » nous alertent aussi sur le renvoi au paradoxe de Solow : si les digital natives s'emparent sans frémir du numérique — souvent le fait de startups et de pure players — l'effet macro-économique tarde, en revanche, à se manifester. « Aujourd'hui en effet, ces modèles issus de la culture numérique représentent un incontournable pour être compétitif aux yeux du client », nous assène-t-on sur le ton de l'admonestation : « approches privilégiant le launch and iterate et le trial and error, les organigrammes aplatis » sont les nécessités du focus client renforcé et de la numérisation réussie ! Il y est donné à lire que « les entreprises les plus matures sur le numérique ont effectivement une croissance du chiffre d'affaires 6 fois plus élevée », « un indice de bien-être professionnel 50% plus élevé », « un effet "boule de neige" du numérique sur la performance » ; bref, l'avenir est radieux, « La transformation numérique en cours constitue une chance à saisir pour la France : une opportunité de croissance, une opportunité pour repositionner le savoir-faire des entreprises françaises sur l'échiquier mondial, et une opportunité donnée aux entreprises pour avoir un impact social et sociétal positif ». Il est loin le temps où l'Apache de la Zone effrayait sans pour autant évoquer un serveur Web enfoui dans son datacenter à l'abri des pare-feux !

Que l'innovlangue française se caractérise d'abord par sa pauvreté

Alors qu'une austérité peccamineuse tient aujourd'hui lieu de politique économique, réitérant inlassablement des mêmes causes les mêmes effets, l'innovlangue française — comme nous nommons ce dialecte récemment émergé de la novlangue française naguère défendue et illustrée par Semprun [1] — reflète et même précède, puisqu'elle lui permet d'être exprimée aux masses, l'administration du numérique.

La morale absolutiste prévalente impose ainsi à l'innovlangue sa pauvreté, immédiatement apparente au lecteur qui la découvrirait dans le tweet ou sur le mur Facebook d'un twittos du Ministère. Le Dictionnaire politique d'Internet et du numérique [2] publié en ligne sous le Privilège de Mme Pellerin, alors Ministre déléguée chargée des Petites et Moyennes Entreprises, de l'Innovation et de l'Economie numérique — assorti pour bien faire d'un avant-propos de Mme Kroes, alors vice-Présidente de la Commission européene — n'offre par exemple qu'à peine 95 buzzwords. S'y côtoient des entrées comme adolescent, femme (mais pas homme), amour et art, tous au même markup que les néologismes aplaventristes de l'e-commerce, de la cybersécurité, des données massives, de l'egogratie et de l'Hadopi, démonstration, s'il en était besoin, que le domaine de la régulation déborde bien loin des zones pélagiques du Web, deux, point, zéro (Web : 0 ? le style télégraphique qu'affectionne l'innovlangue française mériterait bien une ponctuation plus raisonnée d'entités de caractère [3]).

La pauvreté du vocabulaire de l'innovlangue se manifeste aussi avec éclat dans l'emprunt systématique à l'anglais. La paronomase maladive de l'administration appelle ainsi un chat un chat — une insulte à la logique doublée d'un défi au sens commun, sans même parler ici des lolcats — là où le clavardage québecois tente au moins la figure poétique. Il est vrai que les fonctionnaires philologues exciperaient, à cet endroit de leurs logs, du courriel ou bien du mél qui évitent à l'email son paronyme émaillé alors que le barbarisme d'un pluriel en emails rate tragiquement l'intéressante homonymie des émaux et des e-mots...

Mais Pace, depuis quelques années les noms de domaines ont embrassé les caractères accentués et les signes diacritiques auxquels les lexicologues archaïques sont attachés, faisant montre d'un bel élan de démocratie numérique. Comme l'avait jadis noté Klemperer [4] le maintien tyrannique de cette pauvreté lexicale n'est finalement qu'une manifestation du caractère inaltérable de la doctrine administrative confrontée à l'envahissement du numérique, innovateur et agent de transformation global, donc menace directe à l'autorité de l'Etat. Les Hautes autorités diverses et innombrables que l'Etat excrète dans cette inquiétante escalade verbale à l'autorité nous répètent encore que le choix des mots est aussi le choix des maux.

Que la terminologie punitive conduit inexorablement à la bien-pensance prescriptive

À une époque où les RFP et les concertations nationales sur le numérique tiennent lieu de justificatif cache-misère à l'absence de réflexion sur le monde qui vient, il importe que leur expression soit rendue absconse par le recours à une terminologie punitive pour le lecteur.

L'innovlangue prolifère depuis que les machines se sont mises à parler ; elle leur dérobe leur lexique sans vergogne. Pour citer l'illustration parfaite choisie par Semprun : « la formation d'un verbe à partir du terme anglo-américain bug, verbe utilisé sous la forme active, et non plus seulement au participe passé, pour dire d'un programme informatique qu'il est bugué. Un enfant qui apprend le piano et fait une fausse note dira ainsi très naturellement : "J'ai bugué." ». Nous faisons progressivement nôtre, sous influence, la terminologie même de cette mécanologie laïque et obligatoire.

Ainsi tiré à la régalade des référentiels de l'IANA :

« La terminologie qui suit a pour but d'éviter toute confusion :

L'étiquette-A est l'élément transmis par le protocole DNS et elle constitue la forme ACE compatible ASCII de la chaîne de caractères IDNA ; par exemple "xn—11b5bs1di".

L'étiquette U est l'élément que va visualiser l'utilisateur et elle constitue la représentation du nom de domaine internationalisé (IDN) en Unicode.

Enfin, l'étiquette LDH désigne uniquement une étiquette entièrement ASCII qui respecte les conventions de "nom de l'hôte" (LDH) et qui n'est pas un IDN ; par exemple "icann" est le nom de domaine d'" icann.org". »

Et encore s'agit-il ici d'un work-in-progress.

Comparaison n'est pas raison mais, affiché au portail de l'Economie et des finances, l'appel suivant :

« Une démarche innovante de démocratie contributive

Elle mobilisera l'ensemble des acteurs de la société civile, des pouvoirs publics et de l'économie dans une logique de communauté transparente et ouverte. La participation des pouvoirs publics et des décideurs politiques permettra d'assurer une interaction constructive : apports d'expertise, échanges d'information, intelligence collective.

Le fonctionnement de la concertation sera réactif. Par leurs contributions et leurs retours, les participants permettront d' améliorer constamment le dispositif.

Chaque contributeur s'engagera à respecter la charte de la concertation élaborée par le Conseil national du numérique. »

De pléonasme irritant, la démocratie numérique semble être transmutée en un algorithme pur dans ce extrait typique de l'hypertexte administratif. Insidieusement le prescriptif efface alors le descriptif étique auquel l'innovlangue avait déjà réduit l'expression des idées. Relisons et insérons les tags — pardon ! mots-dièses — de notre feuille de style en cascade pour déchiffrer le jargon numérique administratif :

« Une démarche innovante de démocratie contributive #crowdsourcing

Elle mobilisera #serious gaming l'ensemble des acteurs de la société civile #guest machine, des pouvoirs publics et de l'économie #VM dans une logique de communauté transparente et ouverte #Linux, #OpenSource. La participation des pouvoirs publics et des décideurs politiques permettra #hypervisor d'assurer une interaction constructive : apports d'expertise #API, échanges d'information, intelligence collective #collaborative tagging, #folksonomy, #crowdsourcing

Le fonctionnement de la concertation sera réactif #reactive programming, #NoSQL. Par leurs contributions et leurs retours, les participants permettront d' améliorer constamment #méthodes agiles le dispositif.

Chaque contributeur s'engagera à respecter la charte de la concertation #creative commons élaborée par le Conseil national du numérique #NSA. »

L'innovlangue recouvrira peu à peu l'ensemble des textes techniques et scientifiques, le langage médiatique dans sa quasi-totalité, les rapports d'experts et écrits divers émanant des institutions nationales comme plus généralement de toutes les équipes de gestionnaires, qu'elles soient gouvernementales ou non. Les mêmes traits sont chaque fois présents : pauvreté lexicale, syntaxe élémentaire, grande fréquence d'expressions toutes faites, termes abstraits n'appelant l'évocation d'aucun contexte précis ou au contraire étroitement déterminés, spécifiques et univoques. L'innovlangue est alors l'instrument prescriptif par excellence d'un mode d'existence technologique [5] qu'elle a vocation à administrer à tous afin de nous réduire et nous tenir aux rôles ancillaires de la gouvernance par la machine [6,7].

Que l'anantapodoton règne... vienne

Remaniée ou abandonnée en cours d'expression la phrase de l'innovlangue est l'anacoluthe au miroir des atermoiements d'une pensée administrative à la fois attirée par ce qui brille dans l'innovation technologique mais raidie dans le dogme de la planification centralisée.

La langue des pôles de compétitivité fournit ainsi tant de coquecigrues que leur énumération relève déjà du Big Data. « Un pôle de compétitivité a vocation à soutenir l'innovation. Les forces en présence au sein d'un pôle de compétitivité sont multiples. Toutes sont nécessaires à l'essor d'écosystèmes dynamiques et créateurs de richesse. Un pôle de compétitivité repose sur un ancrage territorial fort tout en s'appuyant sur les structures existantes (tissu industriel, campus, infrastructures collectives, etc.). » Dans ce savant amalgame métaphorique, les forces multiples, fortement ancrées dans le tissu industriel — sans craindre l'accroc ? — s'appuyant sur des structures pour soutenir l'écosystème, évoqueraient ici les variantes occultes de l'ésotérisme fleurant bon leur début de XXe siècle.

Et que dire des 34 plans pour la Nouvelle France industrielle, vade-mecum du philinnovlogue averti ? Au détour de l'un d'eux, on lit que : «  Le CGI est également sollicité pour appuyer les projets d'investissement, dans le cadre de l' Appel à manifestation d'intérêt "économie circulaire" ». Le CGI, doit-on le rappeler, est le Commissariat général à l'investissement, haute autorité parmi les Hautes Autorités, sorte de comité central dans le système des comités du Parti de l'innovation. Ses méthodes de travail sont irréprochables et visent à inspirer toutes les commissions :

Ayez les « chiffres » en tête. Cela signifie que nous devons prêter attention à l'aspect quantitatif d'une situation ou d'un problème et faire une analyse quantitative fondamentale. Toute qualité se manifeste par une quantité déterminée, et sans quantité il ne peut y avoir de qualité. Aujourd'hui encore, beaucoup de nos camarades ne savent pas qu'ils doivent prêter attention à l'aspect quantitatif des choses — aux statistiques fondamentales, aux principaux pourcentages et aux limites quantitatives qui déterminent les qualités des choses ; ils n'ont de « chiffres » en tête pour rien ; il en résulte qu'ils ne peuvent éviter de faire des erreurs.[8]

car c'est bien de cela qu'il s'agit, nourrir et autoalimenter la machine de chiffres pour que ne cesse la numérisation, qu'elle atteigne enfin à un règne autonome.

Cueillette bibliographiques

anacoluthe-bib
[1] J. Semprun. Défense et illustration de la novlangue française. Encyclopédie des nuisances, 2005. [ bib | http ]
[2] C. Stener. Dictionnaire politique de l'Internet et du numérique. en ligne, 2009. [ bib | .pdf ]
[3] J. Drillon. Traité de la ponctuation française. Number 177 in Tel. Gallimard, 1991. [ bib ]
[4] V. Klemperer. LTI, la langue du IIIe Reich. Albin Michel, 2003. [ bib ]
[5] Gilbert Simondon, John Hart (préfacier), and Yves Deforge auteur d'une postface. Du mode d'existence des objets techniques. L'Invention philosophique. Aubier, Paris, 1989. [ bib ]
[6] G. Anders. L'obsolescence de l'homme. 1956. [ bib ]
[7] E. Sadin. L'humanité augmentée. 2013. [ bib ]
[8] Mao Tsé-toung. Oeuvres choisies. Seuil, 1949. [ bib ]

vendredi, mai 03, 2013

Florange Telecom

Il est probablement inutile de charger encore la barque — une patache plutôt qu'un Riva — des improbables duettistes de Bercy, l'austère Mosco et l'impayable Montebourg, parfaits dans leur numéro du « pas particulièrement impliqué » commentant le « vous ne savez pas ce que vous faites ». Elle n'est que la conséquence ironique du labyrinthe doctrinal sur l'entreprise dans lequel nous nous sommes collectivement fourvoyés.

La farce pateline et navale met en scène Marissa Mayer, jeune mère de famille fraîchement exfiltrée de Google à la tête d'un Yahoo! malmené par l'hégémonie de son concurrent. De retour de son congé maternité, celle qui veut opportunément imposer aux employés de Yahoo! de travailler au bureau et plus de chez eux (#) — double surprise dans la Silicon Valley, Olympe de la mâle branchitude 2.0 — elle a certainement reçu de son Board mise en demeure de fixer le cap, du bugalet en l'occurrence plutôt que d'une barque, pour redresser le titre en Bourse et conter le rival de toujours, Google.

De ce côté-ci de l'océan, rappelons que le paquebot Google avait habilement négocié son débarquement à bon port avec le capitaine de pédalo lui-même. Et en grande pompe ! C'est la grande affaire de l'accord historique de février dernier (#) entre le géant de Mountain View et les éditeurs de presse français sous les auspices triomphants de Moi Président lui-même. Le moteur de recherche soldait à bon compte — 60 millions d'euros, quelle infinitésimale part de ses revenus publicitaires ? — la gesticulation burlesque du gouvernement sur un projet de « Taxe Google ». Comme le tweetait Fleur Pellerin : « Heureuse de l'accord historique Google-Presse. Un bel exemple d'intégration constructive ds l'écosystème local » ; elle est en revanche bien avare de mot-dièses aujourd'hui sur le cas Dailymotion.

Enfin, la douane de mer, flingues en pogne, Mosco dit « pas très au courant » et Montebourg dit « ça va pas êt'e possible » nous rejoue la scène de la péniche — évidemment interdite (#) de site, tout particulièrement américain et honni, pour cause d'exception culturelle et de gestion de droits — mais, hélas, le talent en moins. L'homme à la marinière aurait invoqué le « patriotisme économique » et le droit imprescriptible — dès 27 % de détention de capital — de l'Etat à s'affranchir de tout gouvernement d'entreprise indépendante. Alors un crypto-villepiniste au coeur de Bercy (#) ? Tout cela fait furieusement penser à juillet 2005, entre seconde conférence de presse du résident de Matignon et épisode pilote de la série haletante « France Numérique 2012 ». Maître Folace, notaire, nous avertissait pourtant avec une prémonitoire lucidité : « C'est curieux chez les marins ce besoin de faire des phrases ».

Sur la planche, sabre aux reins, pieds et poings liés par l'encombrant actionnariat de l'Etat et par la feuille de route de l'armateur FSI actionnaire à la fois d'Orange et de Dailymotion, acquéreur de 40 % du capital en janvier 2011, puis 100 % en 2012, le président d'Orange — par ailleurs inquiété, alors haut fonctionnaire avant son parachutage chez l'opérateur de télécommunications, avec Mme Lagarde, s'étant pris les pieds dans le Tapie au Crédit Lyonnais. Pourquoi donc se retrouve-t-il ainsi dans cette position pour le moins précaire ? Des méchantes langues, sans doute, signalent que le capitaine aurait mandaté deux banques d'investissement, l'américaine Raine (#), fondée récemment par des vétérans de Goldman Sachs et d'UBS et financée par le tout Hollywood (#), et surtout horresco referens Messier Maris et Associés, la banque d'affaires créée par Jean-Marie Messier, corsaire devenu pirate, fortune de mer abhorrée par le VRP d'Armor-Lux.

Comme à Lépante donc, dernière grande bataille de galères mais n'entraînant finalement pas de grands bouleversements. Yahoo! vire de bord, Dailymotion rentre au port, voilà l'affaire. Joli petit sujet de marine à 500 000 pour la collection hollandaise (sic) M. Guéant, non ?

Ce matin dans les pages de la presse matinale, Stéphane Richard, malgré quelque amertume brièvement exprimée sous le ciré, annonce « reprendre sereinement le processus de recherche d'un partenaire ». « En revanche » ajoute-t-il, « je serai intraitable sur le respect de la gouvernance », à défaut d'avoir main au gouvernail... L'ancre est levée.

Il fut une époque où « barreur de petit temps » était l'une des (courtoises) amabilités que s'échangeaient les caciques du parti.

Ce qui nous amène à « l'art aléatoire de la godille » (#) comme le titrait élégamment hier un grand quotidien du soir à propos des relations entre le gouvernement et les entreprises. Dans l'empressement à vouloir lever les malentendus avec le monde de l'entreprise, c'est-à-dire quand même 6 mois après le désormais célèbre épisode des « pigeons » (#), et opportunément à l'heure où le MEDEF bat la campagne, Moi Président réunissait 300 entrepreneurs pour une kermesse paroissiale dans la salle des fêtes de l'Elysée.

À ce propos, mettons fin tout Net à un début de controverse : il n'y a pas d'affaire Chamboredon ! Intronisé naguère par le New York Times « roi des pigeons » (#) — c'est très bon pour les levées de fonds ça ! — et invité vedette sur Dailymotion (#), il aurait été, au sortir de ces Assises de l'entrepreneuriat du 29 avril, rassuré par les promesses d'ajustement de la fiscalité des plus-values (#) et convaincu de la bonne volonté gouvernementale. Alors félon ou fanfaron, le #geonpi ? Ouf : oral de rattrapage sur Dailymotion, jeudi matin sur BFM Business : « Que ce soit un ministre qui intervienne là-dedans, c'est épouvantable en terme de message envoyé à l'extérieur de la France. Les investisseurs étrangers ne vont plus venir en France, et vont se dire qu'ils ne sont pas libres d'investir ». Faut dire, ça dépend lesquels : l'histoire Dailymotion est loin d'être finie.

(Ceci dit, il est improbable que l'on ait encore recours à Dassault Systèmes, cimetière autoproclamé des éditeurs de logiciels français, à l'heure où son président s'interroge (#) sur la délocalisation de l'entreprise.)

Las ! Le jour même les députés socialistes démentaient cette gesticulation présidentielle en déposant à l'Assemblée nationale une proposition de loi sur la reprise des sites rentables. Ici on parle de sites industriels mais, à l'évidence, la démonstration vient d'être faite qu'elle est applicable aux sites Web.

On pourrait d'ailleurs utilement concrétiser cet arrêté imprescriptible en battant nouvelle monnaie numérique, strictement non convertible en devises étrangèes comme furent le rouble et le renminbi, les Hexacoins, fonctionnant sur le principe cryptographique de Bitcoins — (#) très en vogue actuellement — et exclusivement dédiés aux transactions au capital des sociétés françaises, ces « pépites à vocation mondiale » qu'indubitablement le monde entier nous envie. Un nouvel impôt viendrait taxer toute transaction en Hexacoins suivant les principes du rapport Colin et Collin (#) — son surnom de Taxe Colin-Collin-Hexacoin est tout trouvé : la taxe « coin-coin » ; ce qui aurait au moins le mérite d'élever le débat du pigeon au canard. L'économie, maintenant pratiquement nationalisée de l'investissement en early stage private equity, serait irriguée en Hexacoins et le carried interest, avant abolition, servi en foie gras de canard (#), combinant harmonieusement choc d'intoxication alimentaire et choc de moralisation.

Voilà un message que nos amis investisseurs cosmopolites comprendraient mieux sans doute...

mardi, avril 09, 2013

L'approche radicaliste de l'architecture des applications Web : l'assembleur

Un grand quotidien du soir s'alarmait dans ses colonnes, pourtant rarement ouvertes à la technique, du blocage des cookies tiers par défaut de la nouvelle version du navigateur Web de Mozilla, Firefox 22. Les zélateurs de la publicité ciblée font assaut de promptitude pour faire entendre leur voix. Après Google, fossoyeur de la presse écrite, Apple pourfendeur de la gratuité peccamineuse offerte par nos startups nationales dans le mobile, Mozilla, éradicateur de nos publicitaires culturellement exceptionnels ? Faut-il donc laisser le Web aux mains de quelques architectes programmeurs dont le radicalisme se fait entendre avec une certaine insistance ces derniers temps ?

 

Pour cantonner la réflexion au plan technique, quelques initiatives notables visent aujourd'hui à une redéfinition, à vrai dire plutôt une définition, de l'API du Web. Qu'est-ce à dire  ?

 

Il est utile de rappeler que le Web n'a pas été initialement créé par des programmeurs pour des programmeurs. Aussi surprenant que cela puisse paraître aux yeux de la Génération Y, la « récupération » du Web par les entreprises comme territoire d'expansion est une opération de grande ampleur mais somme toute récente. Cette guerre de prédation primitive qui ne dit pas son nom est à l'origine de certaines des tensions aujourd'hui sensibles dans l'analyse du développement du Net : neutralité, sécurité, accès et contrôle sociétal, données et statistiques, propriété et Open Source, sont tous des sujets qui ont largement débordé des marches de l'empire des directions informatiques d'entreprise pour envahir la discussion globale du Web.

 

Dans un billet récent (#), John Resig, le démiurge du toolkit Javascript JQuery, succès fulgurant chez les développeurs d'applications Web, tresse des louanges que cette auréole JQuery revêt d'une qualité semi-divine à asm.js (#). C'est un projet de la fondation Mozilla visant à une spécification d'un langage assembleur pour les applications Web à partir du langage script Javascript, la lingua franca actuelle des programmeurs Web.

 

Faut-il rappeler à nos jeunes lecteurs que l'assembleur est un séducteur faustien qui apparaît dans la splendeur de la beauté du Diable. Il compense l'expression aride de ses phonèmes gutturaux par une performance d'exécution inégalée : sa proximité concupiscente des instructions machines du hardware emporte ainsi toutes les préventions linguistiques. Prenons, par exemple, ce court fragment de code source assembleur :

 

020252,000178: 35,2000                                          SETLOC   CSI/CDH
020253,000179: 35,2000                                          BANK
020254,000180: 35,2000  E4,1770                                 EBANK=   SUBEXIT
020255,000181: 35,2000                                          COUNT    35/P3474
020256,000182:
020257,000183: 35,2000           04627        P34               TC       AVFLAGA
020258,000184: 35,2001           02003                          TC       P34/P74A
020259,000185: 35,2002           04642        P74               TC       AVFLAGP
020260,000186: 35,2003           04647        P34/P74A          TC       P20FLGON                              #  SET UPDATFLG, TRACKFLG

Même aux âmes les plus rébarbatives cet extrait insufflera une poésie musicale ineffable, et c'est miraculeusement ce même code qui mit en 1969 deux hommes sur la lune (#). Que l'invention géniale du stored program de Von Neumann retrouve à l'ère du Web toute sa portée conceptuelle est une joie toute pascalienne !

 

Car, comme l'indique Resig, un nouveau clan — un Clang pourrait-on dire — d'applications Javascript s'apprête à déferler sur le Web, signant le grand retour du Compilateur. On connaissait le retour en grâce, modeste néanmoins jusqu'à présent, du compilateur dans les navigateurs Web. Ces compilateurs Just In Time (JIT), comme IonMonkey (#) de Mozilla, utilisent les techniques éprouvées de l'indien Sioux en flairant des traces d'exécution des langages dynamiques laissées dans leurs interpréteurs (#) pour optimiser l'exécution ultérieure. Cette compilation JIT n'est pas propre au Web ; elle s'applique tout autant à Javascript qu'à d'autres langages populaires comme Python et qu'à des langages intermédiaires pour machines virtuelles comme CIL chez Microsoft ou le bytecode Java lui-même. Mais dans le cas présent, nous parlons bien du retour de Compilateur Khan, de l'idée pure et essentielle de recompiler des applications classiques et historiques, laborieusement écrites en C et C++ par les vétérans aux catogans grisonnants, vers Javascript, ramenant de facto le navigateur au rang d'environnement runtime.

 

Pour réussir ce retour en force, ces applications C/C++ traversent une nouvelle chaîne de compilation et de génération de code dont les développements, ces dernièes années, ont réussi à laisser quelque peu dans l'ombre le précurseur irrédentiste GNU. Les compilateurs paramétrables LLVM (#), habillés de frontaux comme CLang (#), qui nous avaient déjà esbaudis dans cette chronique (#), produisent un bytecode générique ouvert, que l'extraordinaire Emscripten (#) peut à son tour compiler en Javascript — et faire tourner ainsi sur le client dans le navigateur Web comme sur le serveur avec, par exemple, node.js (#), lui aussi initiateur d'un véritable écosystème Javascript pour le cloud. Dans le cas d'émerveillement évangélisé par Resig, la compilation produit un sous-ensemble de Javascript, appelé asm.js et présenté comme « l'assembleur » des applications Web.

 

Par conception, asm.js est de fonctionnalité limitée, un compromis accepté en échange d'une exécution ultra-rapide. La proximité d'asm.js avec les instructions machines permet en effet — et c'est l'idée directrice de Mozilla — au compilateur JIT Javascript embarqué dans le navigateur de reconnaître du code asm.js et de le passer, pratiquement sans transformation supplémentaire, à l'assembleur machine correspondant.

 

Bien sûr, les poètes d'entre nous ne trouveront peut-être pas dans asm.js :

 

function Vb(d) {
  d = d | 0;
  var e = 0, f = 0, h = 0, j = 0, k = 0, l = 0, m = 0, n = 0,
    o = 0, p = 0, q = 0, r = 0, s = 0;
  e = i;
  i = i + 12 | 0;
  f = e | 0;
  h = d + 12 | 0;
  j = c[h >> 2] | 0;
  if ((j | 0) > 0) {
    c[h >> 2] = 0;
    k = 0
  } else {
    k = j
  }
  j = d + 24 | 0;
  if ((c[j >> 2] | 0) > 0) {
    c[j >> 2] = 0
  }
  l = d + 28 | 0;
  c[l >> 2] = 0;
  c[l + 4 >> 2] = 0;
  l = (c[1384465] | 0) + 3 | 0;
  do {
    if (l >>> 0 < 26) {
      if ((4980736 >>> (l >>> 0) & 1 | 0) == 0) {
      break
    }

le même impair si soluble dans l'air qu'exhale un authentique assembleur S/370 transpirant le cambouis et l'huile de vidange :

 

//IEFBR14  JOB CLASS=A,MSGCLASS=A,RESTART=ASMF
//*--------------------------------------------------------------------
//IEHPROGM EXEC PGM=IEHPROGM
//SYSPRINT  DD SYSOUT=*
//MVS3380   DD UNIT=3380,VOL=SER=MVS809,DISP=SHR
//SYSIN     DD *
 SCRATCH DSNAME=JMM.S370ASM.LOAD,VOL=3380=MVS809
 UNCATLG DSNAME=JMM.S370ASM.LOAD
//*--------------------------------------------------------------------
//ALLOC    EXEC PGM=IEFBR14
//LOAD      DD DSN=JMM.S370ASM.LOAD,
//             UNIT=3380,VOL=SER=MVS809,
//             SPACE=(CYL,(20,0,15)),
//             DCB=(RECFM=U,BLKSIZE=32760),
//             DISP=(,CATLG)
//*--------------------------------------------------------------------
//ASMF     EXEC PGM=IFOX00,REGION=2048K
//SYSLIB    DD DSN=SYS1.AMODGEN,DISP=SHR
//          DD DSN=SYS1.AMACLIB,DISP=SHR
//SYSUT1    DD DISP=(NEW,DELETE),SPACE=(1700,(900,100)),UNIT=SYSDA
//SYSUT2    DD DISP=(NEW,DELETE),SPACE=(1700,(600,100)),UNIT=SYSDA
//SYSUT3    DD DISP=(NEW,DELETE),SPACE=(1700,(600,100)),UNIT=SYSDA
//SYSPRINT  DD SYSOUT=*
//SYSPUNCH  DD DSN=&&OBJ,UNIT=SYSDA,SPACE=(CYL,1),DISP=(,PASS)
//SYSIN     DD *
IEFBR14  CSECT ,
         SLR   15,15
         BR    14
         END   ,
//*-------------------------------------------------------------------
//LKED     EXEC PGM=IEWL,
//             COND=(5,LT,ASMF),
//             PARM='LIST,MAP,XREF,LET,NCAL,RENT'
//SYSPRINT  DD SYSOUT=*
//SYSLMOD   DD DSN=JMM.S370ASM.LOAD,DISP=SHR
//* SLIB    DD DSN=SYS1.LINKLIB,DISP=SHR
//SYSUT1    DD UNIT=SYSDA,SPACE=(TRK,(5,5))
//SYSLIN    DD DSN=&&OBJ,DISP=(OLD,DELETE)
//          DD *
 NAME IEFBR14(R)
//*-------------------------------------------------------------------
//IEFBR14  EXEC PGM=IEFBR14
//STEPLIB   DD DSN=JMM.S370ASM.LOAD,DISP=SHR

mais impossible de mettre en doute l'efficacité du code engendré. Au point que l'éditeur de jeux Epic a réussi le tour de force de porter son moteur de jeux Unreal Engine 3 vers asm.js (#) et à faire tourner les jeux les plus consommateurs de ressources dans le navigateur Firefox et sous WebGL, un rendering pas particulièrement connu pour sa vélocité !

 

Tout ceci ne va pourtant pas sans chagriner quelques gardiens du temple de la Compilation éclairée (#). Pointant en particulier le fait que les compilateurs Javascript modernes sont déjà des fusées à plusieurs étages d'optimisation, comme Crankshaft dans V8 (#) chez Google, l'idée de réduire Javascript à un sous-ensemble n'est-elle pas contradictoire avec celle, devenue presque courante aujourd'hui, de créer plutôt des surensembles de Javascript, bénéficiant de l'empilement d'optimisations de ces compilateurs JIT. (Que l'on pense par exemple à TypeScript (#), CoffeeScript (#), voire à Dart (#), Script# (#) et autre espèces du bestiaire (#) scriptural.)

 

Mais bien plus, arguent ces Quirites contemporains, asm.js ne fait que porter le masque de Javascript. Il ne serait qu'un bytecode vulgum pecus paradant sur les voies impériales et menant ultimement à la confusion des genres. À cacher un bytecode dans un langage de haut niveau, ne court-on pas à la « pollution » du langage de haut niveau de features pertinents pour le seul bytecode de plus bas niveau ? Ce mariage morganatique est-il donc si fâcheux ?

 

Le débat sur l'approche radicaliste de l'architecture Web ne fait que s'ouvrir.

 

lundi, avril 01, 2013

Big Dataxe

Après le rapport sur la fiscalité du secteur numérique, remis le 18 janvier dernier par les homophones Conseiller d'Etat Pierre Collin et Inspecteur des finances Nicolas Colin, le projet de préfiguration de la Loi de finances 2014 promet de s'attaquer aux « graves conséquences pour l'économie nationale de l'inadaptation du cadre fiscal actuel ».

 

Le Président l'a répété dans sa récente interview sur France 2, il y a quelques jours : dans l'optique où les conditions matérielles déterminent les relations de production — notamment les technologies, les inventions et les formes de propriété, lesquelles déterminent à leur tour les formes de gouvernement, les lois, la culture et les principes moraux des organisations sociales — l'évolution quantitative des conditions matérielles conduit à des évolutions qualitatives. Ainsi le progrès technologique conduit à l'émergence des Big Data ; données qui, irriguant de plus en plus l'économie numérique, sont issues des utilisateurs ; elles ont une valeur de mieux en mieux documentée par le marché et ses observateurs, pour reprendre les conclusions du rapport Collin-Colin. (Dont la lecture de la version qui devrait être éditée chez Armand Colin confirme qu'aucun de ses euphoniques auteurs n'a oublié ses cours de matérialisme dialectique et historique.)

 

Si donc « les données valorisées dans l'économie sont majoritairement issues du "travail gratuit" de la multitude des utilisateurs d'applications », il est donc moralement justifié, au sens de Denis Collin cette fois, que la « restitution des données personnelles soit un "contre-modèle" à la fois protecteur des personnes et favorable à l'innovation ». Redistribuer aux masses ce qui est produit par les masses ou comme le disait Mao Tsé-toung — précurseur méconnu de MapReduce — « recueillir les idées des masses, les concentrer et les porter de nouveau aux masses, afin qu'elles les appliquent fermement, et parvenir ainsi à élaborer de justes idées pour le travail de direction : telle est la méthode fondamentale de direction. Les masses populaires sont dotées d'une force créatrice illimitée », c'est bien là le slogan des Amazon, Google, Facebook et autres Twitter. En revanche la primauté chirographaire de l'Etat impose évidemment le combat patriotique et national contre l'abandon de ces tâches essentielles de direction aux laquais du libéralisme économique et zélateurs du capitalisme sauvage précédemment cités.

 

C'est sur ces fondements socio-économiques immarcescibles que la Loi de finances 2014, en cours d'élaboration, devrait jeter les bases morales de la construction fiscale — dont le surnom Big Dataxe court déjà sur le WiFi du Ministère du redressement productif — dans la lutte contre « les effets de la rétractation de la matière imposable ». Collin et Colin, suivant en cela Collin, notent que « les modèles d'intermédiation, qui dominent l'économie numérique, vident la matière imposable de sa substance » donc que « les conséquences de l'inadaptation de la fiscalité sont dramatiques pour l'économie » — il doit s'agir de l'économie nationale, car apparemment ce serait plutôt le contraire outre-Atlantique. Il ne manque que le lyrisme du librettiste Paul Collin sur cette petite musique fiscale.

 

Pour être précis, les deux volets de la Big Dataxe concerneraient les sociétés, avec un aménagement de l'IS, et les particuliers avec des mesures visant l'IR et l'ISF. Les projections de rendement fiscal sont en cours au Ministère des finances qui mettent en oeuvre des simulations financières sur un cluster de l'infrastructure nationale de cloud computing Numergy (« sécurité, éco-responsabilité, simplicité et prix maîtrisé »). Cumulant le bénéfice de familiariser notre administration (que le monde entier nous envie) au Big Data, selon ces clodoaldiens d'obédience dataïstes, adouber Hadoop a doublé le doux padou dont on enrubannera ce paquet fiscal.

 

Pour l'instant seules les grandes lignes de code ont filtré des sources Pig de ces travaux préparatoires.

 

  • Le « choc d'immatérialité », qui pourrait prendre, dit-on de source parallèlement informée, la forme moins polémique et plus doucereuse d'un « pacte de virtualité », serait confié par mandat à la Caisse des données et configurations, une Haute autorité de la rue de l'Université — seul opérateur HDFS/HBase agréé. Sa mission, à vocation européenne (cf. les sept priorités adoptées par la Commission européenne le 18 décembre 2012 : « Initiatives Europe 2020, De la Chiers au Prout ») serait alors d'instrumenter globalement la perception sur tous les flux et sur les stocks de données. Elle disposerait, pour ses propres besoins, de ressources cloud computing souveraines classifiées.
  • Sociétés et particuliers paieraient donc une nouvelle taxe d'accise sur l'émission de données, personnelles ou privées, volontairement ou involontairement produites, dans le cadre dûment réaménagé de l'ordonnance n° 2009-80 du 22 janvier 2009 sur l'Offre au public de titres financiers. Les modalités font précisément l'objet des simulations actuelles du Ministère des finances ; les moyens à dégager pour les vérifications, encaissements et sanctions sont en discussion à Matignon mais, selon toute vraisemblance, ressortiraient à la technique de Freivalds.
  • Dès janvier 2014, chaque PC, smartphone, tablette et laptop vendu ou utilisé sur le territoire français devra être géolocalisé et équipé, sorti d'usine, de la version certifiée par l'ANSSI du code Green Dam Youth Escort Software aimablement fourni par les autorités chinoises — un compteur intelligent de données équipé d'un dispositif de coupure à distance (nom provisoire : Le Fisc est mon ami.).
  • En revanche et suivant la ligne directrice déjà établie par la Loi de finances 2013, il n'est plus question d'un éventuel prélèvement forfaitaire libératoire sur les dividendes des données riches. Les dividendes et intérêts produits par les données riches seront directement assujettis à la taxe de 75 % si ardemment défendue par le candidat et maintenant Président, dès qu'ils excèdent 1 mégaoctet annuellement.
  • Les données personnelles (quantified self) seraient déclaratives mais resteraient propriété de l'Etat qui confierait contractuellement, par le biais de son opérateur la Caisse des données et configurations, à des officines privées de métrologie, préférablement établies en Suisse et dirigées par des députés ou des ministres en exercice (amendement Cahuzac), les tâches d'échantillonnage et d'anonymisation avant restitution dans le cadre du programme national d'Open Data.
  • Les données privées entreraient de plain-pied dans la définition du patrimoine du foyer fiscal et, partant, dans l'assiette du calcul de l'ISF des particuliers. Les déclarations devront ainsi comporter la liste exacte de tous les médias de stockage, amovibles ou non, du foyer fiscal et de leurs contenus (formats et volumes). Un barême progressif applicable au-delà des premiers 1,3Mo, dès 800K selon les formats (binaire, texte, etc.) sera publié dans l'année sur le site bigdataxe.gouv.fr.
  • Pour les sociétés, la Loi de finances 2014 modifierait les règles de calcul de la quote-part de frais et charges dont sont redevables les entreprises soumises à l'impôt sur les sociétés lorsqu'elles réalisent des plus-values de cession de données, (matérialisées par des requêtes SQL, NoSQL, et XML/Json notamment). Chaque requête SQL (ou autre) sera soumise à une Autorisation administrative d'exécution qui déterminera les frais d'optimisation à régler sur une base trimestrielle.
  • De plus, au plan réseau social, les modèles UML et DTD exploités en France seront frappés d'un droit d'accise qui viendra en surcroît des charges réseaux-sociales et des droits de douane lorsque le modèle en exploitation provient d'un fournisseur étranger. De nouveaux moyens seront dégagés pour la lutte contre l'immigration clandestine de données ; les opérateurs de télécommunications seront tenus d'installer des pare-feux agréés par l'Etat sur tous leurs coeurs de réseaux.
  • Une dérogation confiscatoire serait possible, au titre des droits d'auteur dans le cadre (à vocation universelle) de l'exception culturelle française. Seraient ainsi surtaxés tous les médias susceptibles de transporter et de stocker, sous quelque forme et pour quelque durée que ce soit, des données électroniques artistiques de toute nature. En regard, un prix unique du mégaoctet culturel et un régime spécifique pour les intermittents de l'analytique prévaudrait sur tout le territoire national.
  • Les datacenters localisés en France pourraient être, de même, éligibles à une réduction fiscale dans la mesure où ils ouvriraient leur API et leur capital à la Caisse des données et configurations via le Fonds national pour l'intelligence numérique. En revanche aucun bouclier fiscal pour les entrepôts de données ni pour les routeurs n'est prévu.
  • Les opérations transactionnelles des ETL et de data cleansing feraient l'objet d'un enregistrement réglementaire et de l'acquittement de frais de formalité. Toute transformation de données deviendrait également assujettie à la TVA à 19,6 % (retenue à la source ou à l'exécutable selon les options envisagées).
  • Enfin au plan pénal, seraient créés des délits d'abus de bien des données, de recel et d'usage de données fausses ou fallacieuses, d'excès de vitesse de transport de données, de non-conformité à MERISE, et d'incitation à la discrimination des résultats de moteurs de recherche. La compression des données est illégale et punie d'amendes et de peines de prison. Les Autorité de contrôle prudentiel et Autorité de contrôle des marchés verraient leurs prérogatives étendues aux marchés de données (datamarts) et aux amodiations en droit minier (data mining).

Si le détail des mesures résultera des discussions à venir du projet de loi devant les assemblées, on constate néanmoins que le paquet fiscal envisagé pour 2014 illustre doctrine du gouvernement. Comme concluait le Président, dans cette entrevue télévisée allégorique du 28 mars, « Vous m'avez suffisamment interrogé pour savoir que j'ai toujours dit que ce serait difficile pendant deux ans... Pour tout le monde. Pour les plus riches, je pense que cela a été un effort qu'eux-mêmes ont regardé comme significatif, si j'en crois un certain nombre de déclarations. Reportez-vous à certains propos fracassants. Mais c'est plus dur, je l'ai dit, c'est plus dur ! Parce que qu'est-ce que j'avais comme solution quand j'arrive : laissez filer les données ? Etre sanctionné par les marchés ? Bruxelles ? Je m'y suis refusé. Parce que j'ai le sens de l'indépendance de mon pays, de la souveraineté ».

 

dimanche, mars 24, 2013

Does Big Data Require an Epistemological Revolution?

In a paper recently published in Paris Tech Review, Big Data: Farewell to Cartesian Thinking?, Jean-Pierre Malle argues that "Big Data deviates from 'traditional' scientific knowledge". So radical is this deviation that it entails a "cultural revolution" turning into an "industrial revolution" as dramatized by the breakneck speed of technological innovations. And indeed Cartesian Dualism – among other intellectual and religious influences – did prepare the way for modern scientists to think about the world in abstractions. The Newtonian world-view of physics, for instance, was certainly facilitated by Descartes' philosophical system. Before Descartes and Newton such plainly observable phenomena as the falling of an apple from a tree, the rhythm of the tides in the oceans, or the movements of the planets around the sun were separate and distinct events, "raw data" in Malle's view "usually kept for subsequent processes that are not yet determined". Through Newton's abstract conceptualization, however, apples, oceans, and heavenly bodies all became essentially the same: masses attracted by other masses, all moving according to the same laws of gravitation. Malle does not take issue with this however, "for inductive speed algorithms, it is preferable to transform information from a form 'in extension' (eg conservation of all receipts of Mr. Smith [/or records of phenomena/]) to a form 'in comprehension' (eg Mr. Smith buys a loaf all Mondays and sometimes a cake [/or the law of gravitation/]) more manageable and less bulky", as abstraction hardly qualifies as a "farewell" to Cartesian thinking.

In fact, according to the author, the issue lies in the "Western scientific tradition that derives from Descartes" of deductive thinking. Malle's critical point is that Big Data conceptualization and processing, in contrast, demand induction. The metaphor called to illustrate the case in point is illuminating: it goes along the following lines.

  • "Induction, unlike deduction, is a mechanism used by the human brain at almost every moment";
  • "[/Induction/] is particularly relevant when analyzing a situation out of its context";
  • "For example, to apply deductive logics to the decision of crossing a street, you would need to measure all vehicle speeds, locate them in space and calculate, using a set of equations, which is the right time to cross. Needless to say, the slowness of this technique of analysis would be more of an obstacle, compared with the use your own senses and cognitive abilities… In fact, our brain captures the global scene in a comprehensive situation and processes it by using induction. To do this, it generalizes the principles observed in similar situations involving us – or others – that we have observed (other people crossings streets, at any time, with or without light, wet or dry ground, etc.). Our brain is able to integrate a huge number of parameters in a flash and project the results of its inductions on the current scene.";
  • "This is exactly what Big Data processing needs: search instantly for the critical information, process them as a whole without preconditions, reproduce effective mechanisms that have been observed in the past, generate new data that can be used directly in the current situation.";

These are strongly stated epistemological claims which, despite being immediately followed by the inevitable reference to a famous 2008 article by Chris Anderson in Wired to the effect that "the knowledge from Big Data will be produced by 'agnostic' statistics. This lack of ideology is the very condition of their success: in their own way, numbers speak for themselves", are worth investigating further for deeper qualification.

In the analogy offered by the author, the Big Data algorithm – later called an inductive algorithm in the article, plays the role of the human brain confronting a worldly situation in real time. It is a trademark of the current commentary on Big Data that the resurgence of early cybernetics ideas is a source for metaphors. The viewpoint from constructivist empiricism, acknowledged in the article, is then that Big Data repositories and streams constitute the "world" – a Brave New World, possibly – and the Big Data processing constructs the "knowledge", a representation of "reality". In the vein of the cybernetic reasoning lines, what is missing here is proper identification of the closing of the loop, the Wiener-Odobleja notion of feedback. Big Data is not as innocent as that, notwithstanding Anderson. As Hans Jonas remarked, "there is a strong and, it seems, almost irresistible tendency in the human mind to interpret human functions in terms of the artifact that take their place, and artifacts in terms of the replaced human function". Big Data appears to be generally collected, if in unquestionably staggerring volume and blazing speed, to serve a purpose – precisely an analysis in view of, say, a commercial (e-commerce marketing) or a public health (Open Data) objective. Aren't inductive algorithms, singled out as "particularly relevant when analyzing a situation out of its context" and "generat[/ing/] new data that can be used directly in the current situation", reviving the cybernetics attempt to account for purposive behavior without purpose – like behaviorism is an attempt at psychology without the psyche?

Not that, in addition, induction itself isn't fraught with deep questions. Nelson Goodman's Fact, Fiction and Forecast fascinating predicates, grue and bleen, respectively:

  • (grue) applying to all things examined before a time t just in case they are green but to other things just in case they are blue, and
  • (bleen) applying to all things examined before a time t just in case they are blue but to other things just in case they are green;

are illuminating cases in point. They illustrate the new riddle of induction.

Let us start with the Humian old riddle of induction, because it sits at the core of the author's argument in favor of inductive algorithms. Goodman describes Hume's riddle of induction as the problem of the validity of the predictions we make. Since predictions are about what has yet to be observed and because there is no necessary connection between what has been observed and what will be observed, what is the justification for the predictions we make? And indeed, as Malle rightfully argues, we cannot use deductive logic to infer predictions about future observations based on past observations because there are no valid rules of deductive logic for such inferences. In fact there is a very active research community in mathematical logic, since Haskell Curry, which strives at refining further these statements (works by Martin-Löf, Girard, Prawitz seem relevant here). Hume's answer was that our observations of one kind of event following another kind of event result in our minds forming habits of regularity. Goodman's tackles the old riddle by turning to the problem of justifying a system of rules of deduction, for comparison. For Goodman, the validity of a deductive system is justified by their conformity to good deductive practice. The justification of rules of a deductive system then depends on our (individual, group, sociological) judgments about whether to reject or accept specific deductive inferences. Thus, for Goodman, the problem of induction dissolves into the same problem as justifying a deductive system: the problem of confirmation of generalizations.

The new riddle of induction, for Goodman, rests on our ability to distinguish law-like generalizations, required for making predictions, from non-law-like generalizations. Law-like generalizations are capable of confirmation while non-law-like generalization are not. A good inductive algorithm based on a Big Data collection of observations of emeralds should conclude that they are green and not grue, this at whatever time t it is run. How to make sure that it so does?

This is where pragmatical approaches are called for, and after the investigatory detour, we concur – albeit for different reasons – with some of the calls to action in Malle's article. Leo Breiman in Statistical Modeling: The Two Cultures help us reclaim some of these treacherous inductive grounds. Breiman makes Big Data fit in the modest (though mythical) Black Box: "Statistics starts with data. Think of the data as being generated by a black box in which a vector of input variables x (independent variables) go in one side, and on the other side the response variables y come out. Inside the black box, nature functions to associate the predictor variables with the response variables". (Basic settings indeed, which, however, may evoke ominous undertones of a Schrödinger's cat sealed box. Rest reassured gentle reader, we won't go here into Quantum Mechanics alternate interpretations!) Breiman then points out purpose, two goals for the analysis:

  • Prediction: to be able to predict what the responses are going to be to future input variables;
  • Information: to extract some information about how nature is associating the response variables to the input variables.

Earlier remarks on the often underplayed importance of purposes served by collecting and analyzing data and on the hard problem of distinguishing Goodman's projectable predicates from non-law-like generalizations should make Breiman's remark clear enough. Breiman then goes on opposing two cultures to approach both goals.

In the data modeling culture, the analysis begins with assuming a stochastic data model for the inside of the black box. The values of the parameters are estimated from the data and the model then used for information and/or prediction. (One then talks of model validation, goodness-of-fit and so forth.) In the algorithmic modeling culture, the analysis considers the inside of the box complex and unknown. Their approach is to find a function f(x), an algorithm that operates on x to predict the responses y. (One also talks of algorithm validation, but in terms such as predictive accuracy.)

Breiman, a well-informed critic of the prevalence of the data-modeling culture in statistics, calls for a new balance in the discipline, leaning towards the algorithmic modeling approach – a research area where he developed momentous contributions. His conclusion – the paper was published in 2001 – offers the following: "The roots of statistics, as in science, lie in working with data and checking theory against data. I hope in this century our field will return to its roots." The current flurry of research and development, both theoretical and practical, on Big Data representation and algorithms testify that this vow was not pledged in vain.

samedi, mars 16, 2013

Le Big Data individuel

L'Ordinateur individuel (#), dont l'auteur, jeune hacker avant l'heure sortant ébloui de la tente « micro-informatique » (Sicob Micro-Boutique), dressée sur le parvis encore désert de La Défense, en marge du Sicob 1978, se souvient encore avoir serré avec émotion le premier numéro, disparaît ce mois-ci pour devenir 01 Net Magazine. À l'heure même où dans toute l'informatique l'individuel triomphe — smartphone, tablette, profil des réseaux sociaux, recommandations personnalisées des sites d'e-commerce — et parfois là où on l'attend le moins. Le Big Data par exemple.

Aujourd'hui le Big Data, c'est vous ! Nous sommes témoins de la résurrection de la doctrine du Cercle de Vienne (#) mais appliquée, plus d'un siècle plus tard, à soi-même : «  self knowledge by numbers » annonce dogmatiquement le site Quantified Self (#). La qualité de vie par la quantification individuelle ! Voilà le slogan hygiéniste New Age, collision allégorique du développement durable et de la Mécanique quantique ! L'ambiguïté du mot d'ordre dévoile tout : la connaissance de soi par la mesure — plus précisément par l'automesure (#), notamment de ses propres paramètres médicaux avec un objectif de « santé » parfaitement louable — c'est aussi les renseignements personnels en grand nombre — avec une inévitable analogie Big Data, Big Brother d'où sourdent de sombres images.

La miniaturisation des capteurs et leur connexion systématique au Net nous permet, en effet littéralement, de nous habiller d'un tissu de points de mesure communicants, capables d'émettre continûment les flux de nombres qui définiraient votre moi. C'est l'entrée de plain-pied dans le cyberspace, naguère encore territoire de la science-fiction. Et l'inversion de point de vue est toute proche : bientôt vous ne serez pas autre chose que ce cordon de flux de données corrélés, ce brouillard statistique de régressions linéaires en devenir, dernier avatar technique du supplément d'âme bergsonien (#). De la surveillance panoptique de tous vos paramètres vitaux, de votre activité physique quotidienne (#) jusqu'à la cinétique des plus petites molécules (#), de l'apoptose de vos cellules (#) à la carte de votre génome personnel (# en couleurs reconstituées et disponibles en plusieurs formats pratiques et bon marché), tout, vous saurez tout sur vous. L'ordinateur individuel s'efface bien devant l'individu devenu ordinateur.

D'autant plus, que l'ordinateur individuel, quant à lui, met le Big Data à la portée de tous. Une nouvelle génération d'outils informatiques point qui menace de reléguer au rang darwinien de dinosaure les algorithmes fondateurs de la discipline, comme Hadoop (#) et Pregel (#), tous grands prédateurs de l'habitat datacenter. Aujourd'hui tant rapides sont les progrès des technologies de stockage et de parallélisation que plus besoin de teraflop (Teratophoneus Data) pour analyser les Big Data, un simple PC suffit amplement à la tâche (#).

GraphChi (#), par exemple, emploie un algorithme novateur pour effectuer les calculs sur des très grands graphes — de l'ordre du milliard de sommets — sur le simple disque dur ou la mémoire SSD d'un modeste PC actuel. Shark (#) met le turbo à vos requêtes analytiques, 5 à 10 fois plus rapide sur disque que Hive, Hadoop ou que les plus rapides des bases de données massivement parallèles, 100 fois plus véloce sur SSD ! Julia (#) un nouveau langage de programmation pour les applications techniques et scientifiques (#) promettrait de laisser son grand frère R — qui connaît pourtant un succès grandissant, porté par les Big Data — dans les starting blocks. Les tsunamis de trillions de points de séries temporelles sont traités au vol par les nouveaux algorithmes dits de « dynamic time warping » (#) — c'est beau comme du StarTrek ! Bref la panoplie complète du data scientist arrive sur votre PC (#), le Big Data pour tous et à chacun son Big Data.

Nous ne reviendons pas sur la position épistémologique qui sous-tend cette ruée vers le Big Data — nous l'avons déjà évoquée dans ces colonnes (#, #) — mais constatons simplement que l'on n'a pas fini de parler des données et de l'ordinateur toujours aussi individuels après ces trente-cinq premières années.

(Et bon anniversaire à rms, 60 ans aujourd'hui !)

Par Jean-Marie Chauvet. Le 16 mars 2013.

vendredi, février 01, 2013

La comptine du cloud

C'est fort à propos que le maître des cérémonies de cette soirée, Fabrice André, proposait, suivant la formule consacrée, de poursuivre la discussion durant le cocktail, autour d'une flûte de champagne. Car la conférence-débat « Quel avenir pour le cloud français ? » menaçait insidieusement de tourner au pugilat dans les souterrains salpêtrés de Telecom Paris Tech !

Tout avait pourtant bien commencé avec la présentation policée et neutraliste de Patrick Starck, président de Cloudwatt. Le ressassement des arguments cent fois répétés de l'irréversibilité de la vague du cloud, de la proportion croissante des smartphones et des tablettes dans l'accès aux services Web, de la « révolution » du paiement à l'usage, de la confusion persistante entre SaaS et cloud computing, de l'importance nationale de la souveraineté sur les données portaient gentiment à une somnolence antéprandiale. Mais enfin, quel autre argumentaire attendre de Cloudwatt, qui ne pourrait surprendre que ceux qui auraient vécu à l'isolement total dans les plus profondes mines depuis trois décennies ? Dans l'audience de vénérables mineurs, et Starck lui-même, évoquaient d'ailleurs l'époque bénie où les Normerel, CII et autres Logabax s'épanouissaient dans la filière informatique française.

Làs, c'était sans compter les deux startuppers de compétition, Matthieu Hug de RunMyProcess, et Jean-Paul Smets de Nexedi et Vifib, invités à témoigner de la vitalité des jeunes entrepreneurs du Net. Hug rappelait dans un exposé, ciselé à la bigorne acérée, la médiocrité et l'insignifiance de la filière auto-proclamée du logiciel, la déshérence du savoir-faire algorithmique et informatique français, y mêlant tout à la fois le mépris des grands comptes pour les petits éditeurs et la commande publique vétilleuse, l'impécuniosité du financement privé d'amorçage et de capital-risque et le coma avancé des marchés réglementés pour les introductions en bourse, histoire de faire bonne mesure.

Quant à Smets, encore auréolé du slapossage en règle du même Starck — décidément dans le rôle de la victive expiatoire ! — aux États généraux de l'Open Source (si bien abrévié EGOS) lundi dernier, il renchérissait brillamment en appelant à signer la pétition pour le dégroupage du cloud souverain français, une initiative indispensable dans le contexte doctrinal actuel, ouverte à tous et lancée à l'initiative des entreprises Alter Way, Gandi, IELO / Lost-Oasis, If Research, Nexedi, ViFiB et des associations ADULLACT et AFUL. Non sans avoir illustré l'ignorance même de l'industrie pour ses génies inconnus comme Fabrice Bellard à qui l'on doit QEMU, un émulateur de processeur universellement utilisé, un Linux entièrement écrit en Javascript pour tourner dans le navigateur Web, et aujourd'hui une station de base LTE 4G complète sur PC — sans oublier les premières 2700 milliards de décimales de pi ! Connaîtra-t-il lui-aussi le sort d'un Louis Pouzin ? En tout cas, tous méritent d'urgence notre reconnaissance admirative.

C'était à Jamal Labed, dirigeant d'EasyVista (l'ancien Staff & Line) et président de l'AFDEL, qu'échoyait le rôle ingrat d'expliquer les mutations qu'impliquait le passage au cloud computing tant pour les utilisateurs, que pour les directions informatique et pour les éditeurs de logiciels et de services. Car derrière la classification commode en couches superposées IaaS, PaaS et SaaS, qui vous permettra de briller dans les salons où l'on cause, se cachent de véritables ruptures techniques novatrices. Le rapport d'échelle du Google Cloud à un datacenter traditionnel, d'il y a encore à peine cinq ans, est aujourd'hui déjà celui qui sépare ce même datacenter d'un simple PC ! Et en effet, alors qu'Amazon publie des résultats triomphaux, Numergy et Cloudwatt, à peine lancés, suscitent déjà les interrogations résumées par le cabinet Kurt Salmon, qui visent le caractère spécieux des alibis, peut-être assenés avec trop de complaisance, de la souveraineté et de la sécurité.

Mais finalement, plus que le débat sur la légitimité des arguments de souveraineté et de sécurité, qui met en jeu des jugements socio-économiques, par essence, ouverts et discutables à l'envie, ne conviendrait-il pas aussi de s'interroger sur les régimes de contrôle et de surveillance qu'ils appellent dans l'environnement doctrinal actuel que l'on voit en pleine évolution ?

Le lourd silence consterné dans lequel le rapport Colin et Collin a été accueilli par ses commanditaires, quatre ministres de Bercy, témoigne du désarroi numérique en haut lieu. La mission d'expertise sur la fiscalité du numérique a débouché sur un énorme chantier, qui consiste rien de moins qu'à refondre toute la boîte à outils du fisc et à inventer la TVA du XXIe siècle, alors qu'on demandait tacitement aux Col(l)in d'entériner purement et simplement l'arc-réflexe de jalousie peccamineuse de la taxe Google ! Décidément on n'est pas aidé dans le néo-colbertisme marxisant de la structuration des filières à tout prix.

Sujet d'autant plus dogmatiquement sensible qu'à l'heure où l'on nous préfigure un Paris numérique — avatar d'Astérix Numerix, 25 incubateurs, 700 startups, un village gaulois qui résiste ? — Google, qui était naguère accueilli en grande pompe par un précédent président de la République dans ses nouveaux et somptueux locaux lutéciens (joie sans partage de la Mairie de Paris, de la Région Île-de-France, de la France gloire mondiale de l'attractivité du territoire national !), ne vient-elle pas, presque subrepticement comme pour s'acheter une virginité fiscale partout polémique, d'investir un généreux million d'euros — soit quelques minutes de revenus publicitaires défiscalisés — dans un « espace de 1500 mètres carrés », dont le nom provisoire est Grand lieu intégré d'innovation (GLII), situé dans le deuxième arrondissement de la capitale et porté par l'association Silicon Sentier avec la Région Île-de-France et la Ville de Paris ? De la concurrence impérialiste américaine à une filière d'incubateurs française ?

Cela fleure bon le vintage 2005 et la « riposte européenne au moteur de recherches californien » de Jean-Noël Jeanneney. Et à propos, quelles nouvelles de Quaero, le « machin » chiraquien qui devait faire mordre la poussière à Google et à Yahoo! ? Si l'on peut juger avec indulgence les voeux pieux, contemporains, de France Numérique 2012 (re-visionnez l'impayable vidéo), en revanche comment laisser passer la tentation facile de délégation des missions de services publics à des officines privées qui, apparemment, fait office de réflexion en notre belle bureaucratie ? La Hadopi qui confie avec inconséquence la surveillance des téléchargements privés du citoyen à Trident Media Guard — pour une fois qu'une startup française décroche une commande publique ! — la BnF qui délègue la numérisation du patrimoine culturel à ProQuest (UK), Believe Digital (France) et Memnon Archiving Services (Belgique), Bruno Racine digne successeur du même Jean-Noël Jeanneney, paveraient-ils ainsi la voie de l'avènement d'une Nouvelle surveillance en partenariat public-privé ?

Labed se réjouissait, d'autre part, que Fleur Pellerin, ministre déléguée en charge de l'Economie numérique, au cours de ses voeux aux acteurs du numérique, eût confié à l'AFDEL l'amorce d'une réflexion sur la structuration de la filière Big Data française. Une semaine auparavant, c'était aux EGOS qu'un Syntec Numérique se réjouissait également — dans les grincements de dents et les sourires crispés de circonstance du CNLL, dont l'antériorité et la représentativité devraient faire autorité en la matière — que la ministre appelât de ses voeux à la structuration de la filière Open Source française.

Au vu de quoi, je réclame d'être catapulté Commissaire général à la structuration des filières du buzzword françaises. Les besoins sont pressants, l'évidence aveuglante, l'urgence indiscutable, l'intérêt national :

  • Préfiguration de la structuration de la filière *Quantified Self*française ;
  • Préfiguration de la structuration de la filière Web 2.0 française ;
  • Préfiguration de la structuration de la filière NoSQL française ;
  • Préfiguration de la structuration de la filière Open and Linked Data française, en liaison, cela va sans dire, avec Henri Verdier ;
  • Préfiguration de la structuration de la filière Internet of Things française ;
  • Préfiguration de la structuration de la filière Personal Cloud française ;
  • Préfiguration de la structuration de la filière In Memory Flash Computing française ;
  • Préfiguration de la structuration de la filière Javascript/Node.js française ;
  • Préfiguration de la structuration de la filière Social Graph française ;
  • Préfiguration de la structuration de la filière Chiffrement homomorphique française — blague à part, voilà une idée à creuser comme celle des Physical Unclonable Functions.
(Des grands anciens, ingénieurs des télécommunications qui, comme votre serviteur, eurent à connaître des mérites de la pupinisation et des vertus isolantes du gutta-percha me signalent l'impérieuse nécessité du rétablissement d'une filière française du langage de programmation Jovial, dernier rempart à l'invasion des scripts, mais là la situation paraît indéniablement compromise.)

Bref le travail ne manque pas et j'appelle aux bonnes volontés pour produire les indispensables prolégomènes, pétitions, rapports de mission, appels à propositions, appels à manifestations d'intérêt et autres cris d'alarmes ou appels au secours que doivent inspirer cette doxa numérique.

ShareThis