mercredi, août 26, 2009

Le papier électronique sera-t-il aussi chinois ?


Si la normalisation de la production du papier est codifiée vers 105 après J.C. dans les Annales du Céleste Empire par le ministre de l'Agriculture, Tsaï Lun, son utilisation est attestée depuis la formation de l'Empire Han au IIème siècle avant J.C. Tsaï Lun introduisit peut-être un nouveau procédé, le papier de linge, préconisant en plus du traditionnel chanvre, l'usage du lin, de fibres de bambou et de l'écorce de mûrier. L'art de la fabrication du papier restera chinois et japonais jusqu'au VIIème siècle, où il passe chez les arabes qui petit à petit le diffuseront en Occident.



Avec le papier, les monopoles économiques de la Mésopotamie (plaquettes d'argile et invention de l'écriture) et de l'Egypte (rouleaux de papyrus, ou volumen, et invention de l'alphabet) s'écroulent définitivement. Le parchemin, premier support totalement construit, fabriqué à partir de peau de mouton ou de chèvre dont la souplesse permet l'assemblage en codex, résiste jusqu'au Moyen-âge en Occident.



Le succès du papier est d'emblée lié au prosélytisme. Le monde arabe y reconnaît un instrument de propagation de l'Islam. On trouve des moulins à papier à Bagdad en 793, au Caire en 900, en Espagne en 1056 puis en France au début du XIVème siècle. Vers 1440, nouvelle révolution avec l'invention — en Europe — de l'imprimerie typographique par Johannes Gutenberg. L'augmentation de la demande de papier, en particulier pour assurer la propagande de la nouvelle Eglise réformée, conduit à la généralisation des piles à maillets actionnées par des moulins hydrauliques. La France devient jusqu'à la révocation de l'Édit de Nantes l'une des première nations papetières.



La trituration des chiffons — première étape de la fabrication du papier — bénéficie alors de l'innovation venue des Pays-Bas, le cylindre hollandais, qui se répand en Europe au début du XVIIIème siècle. Cependant, l'innovation diffuse plutôt laborieusement en France, où l'on cherche plutôt des alternatives à la « chiffe » comme matière première. Une étape vers d'autres solutions est franchie par l'introduction du colophane (résine obtenue par gemmage) comme agent de collage, puis par l'introduction de copeaux de bois dans la pâte. Le papier, de qualité médiocre, suffit néanmoins pour l'impression des gazettes et journaux du début du XIXème siècle.



Dans le même temps les glorieux ingénieurs français mettent les arts mécaniques où ils excellent au service de la machine à papier, capable de produire en continu. Louis-Nicolas Robert, jeune inspecteur de la papeterie d’Essonnes, construit en 1798 un prototype. Le procédé consiste à mélanger eau et fibres de cellulose, à rapprocher les fibres en une feuille plate puis à en éliminer l'eau avant de détacher la feuille, de la sécher et de la lisser. Encouragé par le gouvernement — la plus grande partie du papier utilisé par le ministère des finances est fabriqué dans cet établissement et, en 1798, la Convention a de telles difficultés pécuniaires qu’elle pousse à la production intensive des assignats — Louis-Nicolas Robert obtient un brevet le 18 janvier 1799, et une subvention de 3000 francs. (Toute ressemblance à une subordination d'OSEO à Bercy dans un plan de relance économique est évidemment parfaitement fortuite.) Il installe, l'année suivante, près de Rouen une machine qui fabrique 80 feuilles de papier par jour, d’une longueur de près de 6 mètres.



Las ! Apparemment peu au fait des dernières méthodes de marketing ou des rudiments du management de l'innovation, sans pôle de compétitivité sur lequel s'appuyer, notre entrepreneur doit céder l’exploitation de son brevet à M. Didot Saint-Léger, propriétaire de la papeterie d’Essonnes. Ce dernier présente un modèle de la machine en Angleterre. Avec l’ingénieur Bryan Donkin et le financement des frères Fourdrinier, il construit la première machine anglaise à Dartford. Connue sous le nom de « Fourdrinier » ou « machine Didot », elle fonctionnera à Frogmore (Kent) dès 1803. Malgré un procès contre Didot en 1810 à l'issue duquel il obtient la rétrocession tardive de son brevet, ce sont les autres qui tireront profit de son invention.



Dans la deuxième moitié du XIXème siècle, des procédés chimiques sont mis au point pour obtenir des fibres à partir du bois, les pâtes chimiques. Ils permettent d'augmenter considérablement la solidité des papiers et par la même leur vitesse de production. Des développements sont rendus possibles par les travaux des chimistes de l'époque, dont le Français Anselme Payen, qui extrait du bois les fibres cellulosiques à partir desquelles on fabrique du papier. Les fibres de coton ont vécu, l'industrie papetière peut devenir une industrie lourde.



Curieux bégaiement de l'Histoire, le nouvel avatar moderne du papier, l'e-paper, et le contrôle de sa production mondiale, seraient l'objet d'une féroce bataille entre titans asiatiques.



Deux considérations de marché tout d'abord. Le succès indiscuté du Kindle, le lecteur électronique lancé par Amazon fin 2007, a montré aux grincheux — dont certains échaudés par les premières tentatives hasardeuses du milieu des années 1990 — que l'avènement d'Internet et du e-commerce était l'ingrédient manquant des recettes antérieures. Notons que ce succès provoque déjà des interférences intéressantes dans la sphère des contenus et des droits qui leur sont attachés, où l'on a en France des idées fort arrêtées. En juillet 2009, Amazon a décidé, sans accord préalable, de reprendre tous les e-Books de « 1984 » et de « The Animal Farm », de Georges Orwell, installés dans les Kindle de ses clients. (Fascinante collision d'événements, ici aussi, avec l'utopie totalitaire de « 1984 » !) À l'origine de l'opération : ces e-livres avaient été vendus par un marchand n'ayant pas les droits sur les ouvrages. Les clients ont été remboursés mais ce geste a causé un large mouvement de protestation. En filigrane — si on ose dire — la question de la légalité de l'effacement des livres par Amazon s'est même posée, cette action pouvant s'apparenter à une intrusion illégale dans un système informatique. Jeff Bezos, président d'Amazon.com, a présenté quelques jours plus tard ses excuses en vidéo et promis-juré de mieux agir dans le futur...



Second marché en perspective, l'e-paper pour des écrans secondaires intégrés à la coque des téléphones mobiles et des objets nomades ou communicants. Les grands comme Sharp, Nokia, LG Innotek, Samsung ont déjà des projets dans leurs cartons. Au-delà du marché des e-readers, validé par le Kindle, l'e-paper trouverait ainsi une place dans les produits portables.



Les mouvements récents de géants asiatiques, souvent peu connus du grand public, laissent à penser que l'hégémonie sur ces marchés importants à double titre —
devices et, à terme, contenus, comme on le sait depuis la leçon magistrale administrée par Apple avec ses iPod/iTunes et iPhone/AppStore — est devenu l'enjeu d'un « Tigre et Dragon » économique.



Prime View International, un très grand constructeur taïwanais d'écrans TFT-LCD, déjà fournisseur de Sony et d'Amazon pour leurs e-readers respectifs a fait l'acquisition de E-Ink pour $215m le premier juin dernier après avoir acquis la division e-paper du géant hollandais (encore !) Philips en 2005. Cette opération a secoué et continue d'agiter toute l'industrie : E-Ink est une des startups chéries du prestigieux MIT Media Lab, massivement financée depuis 1997 par le gotha du capital risque de la Côte Est et par les industriels asiatiques du LCD, elle fournit Sony, Amazon et Motorola.



La technologie de papier électronique d'E-Ink est un substrat flexible sur lequel est déposé une pellicule d'encre électronique constituée de microcapsules dont une charge électrique permet de contrôler la présence à leurs sommets de particules blanches (pixel blanc) ou sombres (pixel noir) — version réactualisée des travaux pionniers menés au PARC de Xerox dans les années 70.



L'autre technologie de papier électronique est, quant à elle, dominée par une PME française, abandonnée en déshérence dans le Mérantais, telle Louis-Nicolas Robert, ignorée des pôles, des fonds communs à risque ou dans l'innovation, des plans de relance, des fonds stratégique, souverain, ISF, unique interministériel — et j'en passe — du prétendu dispositif d'accompagnement de l'innovation hexagonale. À base de cristaux liquides particuliers, la technologie BiNem met en oeuvre un cristal qui possède deux états stables, l'état uniforme (U) et l'état gauchi ou twisté (T), chacun sélectionné par simple application d'un signal électrique. Une fois l'un ou l'autre état sélectionné (pixel blanc ou noir), il est conservé sans consommer d'énergie.



Le rachat d'E-Ink se produit quelque mois après la prise de contrôle de la société Sipix Imaging, fondée par des anciens de Polaroid et installée en Californie et en Chine, par le généralement peu connu AUO — le résultat de la fusion des producteurs taïwanais de TFT-LCD Unipac Optoelectronics et Acer Display Technology en 2001 (CA 2007 : $14,8 mds). Pour l'anecdote, l'un des pères fondateurs de la technologie d'encre électronique du Xerox PARC, précurseur de celle améliorée par E-Ink, avait rejoint Sipix Imaging en 2007. Un très petit monde.



Ces rapprochements industriels ainsi que le rôle des constructeurs chinois et taïwanais dans le financement des startups américaines du papier électronique indiquent clairement leur ambition de contrôler ce marché naissant de l'e-paper. Si le Japon semble vouloir tourner la page du LCD et se concentrer sur le 3D et les OLED (diodes électroluminescentes organiques) flexibles ou non, les constructeurs coréens sont, en revanche, prêts à en découdre sur le TFT-LCD et ses évolutions vers le papier électronique. Samsung et LG sont particulièrement actifs sur ces sujets : LG Display fournit Apple en écrans plats et pour l'iPhone, par exemple.



Le scénario de la diffusion du papier sera-t-il rejoué à quelques siècles d'intervalles dans une version électronique annonciatrice de bouleversements culturels comparables à ceux provoqués par la généralisation du papier de linge puis de bois ? La route du papier électronique doit-elle repasser par la Chine comme au précédent millénaire ? La sainte alliance contre le programme de numérisation des livres de Google, Open Book Alliance lancée la semaine dernière par le sulfureux avocat anti-trust Gary Reback, qui réunit déjà Microsoft, Yahoo! et Amazon (assagi, c'est promis !) présage en tout cas d'ardents combats pour la bibliothèque électronique universelle et son support e-paper.



jeudi, juillet 09, 2009

Le moteur de recherches


Segundo Funes s'étire sur son siège Zuo Modern, seul devant son écran bleuté dans la pénombre assourdie du grand open space. Il ferme un instant les yeux.


La mémoire, infaillible, l'assaille dans le même instant. Il reconnaît les formes des nuages austraux de l'aube du vingt septembre mille neuf cent quatre vingt cinq et peut les comparer aux volutes de la reliure ancienne d'un livre en papier du Japon, qu'il n'avait regardé qu'une seule fois, le jour de son admission au Mandarinat de Ramos Mejia.


Je me rappelle sa cigarette et comme loin derrière le visage laconique d'indien. Je me rappelle de sa chambre réduite et obscure de la rue Gaona toujours sombre et tapissée de livres, où il m'arrivait de le visiter il y a si longtemps. Je me rappelle distinctement sa voix, la voix aigrie et nasillarde de l'ancien va-nu-pieds des faubourgs. Je ne l'ai vu que deux ou trois fois depuis cette époque, mais il était alors encore un gars de ces faubourgs, fièrement ignorant et incurablement borné pour certaines choses.


À notre première rencontre, fortuite, il courait en pantalon bouffant et espadrilles sur les trottoirs étroits et défoncés de la ville, le visage déjà dur, fuyant l'orage qui commençait de gronder au-dessus des immenses nuages couleur d'ardoise qui avaient caché le ciel. Jeune étudiant, je logeais temporairement chez Maria Clementina Funes, qui élevait seule son deuxième fils, Borges Ireneo Néstor Gregorio Funes, surnommé Segundo Funes après qu'une congestion pulmonaire eût emporté son frère aîné, Ireneo, l'année précédente. On m'avait dit ensuite qu'il ne quittait déjà peu son lit, les yeux fixés sur la page du livre dans la lueur vacillante de la bougie. Au crépuscule, il permettait qu'on l'approchât de la fenêtre ; par deux fois je le vis ainsi derrière la grille forgée qui accentuait sa condition d'éternel prisonnier volontaire : une fois s'étirant puis immobile les yeux fermés, une autre, immobile aussi, plongé dans la lecture d'un petit ouvrage à la reliure craquelée.


Devant lui aujourd'hui, ce souvenir à la netteté cristalline — mais qui suis-je pour dire me souvenir ? — m'a à nouveau frappé. L'art de lire se scindait déjà en trois catégories.


La première, vaste et informe, devenue envahissante et inexorable, est celle de la lecture de distraction, celle du divertissement passager. Elle est aujourd'hui consubstantielle aux télétransmissions sur nos lecteurs électroniques personnels relancés naguère avec le Kindle. Je note qu'elle ne s'accomplit pratiquement plus jamais dans le silence et la concentration : pour une génération, à l'audition irréversiblement transmutée par la modulation des fréquences des codecs MP3, la lecture forcément ponctuelle, superficielle, est indissociable de l'étanchéité fragmentée du déversement musical et sonore direct de l'écouteur vissé à l'oreille. Et ce bruit de fond permanent, ces images d'un petit écran qui dansent au coin du champ de vision, sont mêmes indispensables à cette lecture : il est essentiel au renversement de l'alphabétisme. Cette demi-lecture, demi-perception morcellée, dans une ambiance de distraction doit rendre impossible certains actes essentiels à l'appréhension du texte et à la concentration. Segundo Funes, lugubre figure étique sur son galetas, evoquait ainsi le plus grand hommage qu'un être humain puisse rendre à un texte qu'il adore — rituel rendu non seulement impossible mais illégitime par cette forme contemporaine de lecture —
l'apprendre par coeur. Pas par l'intellect, par coeur : l'expression me sembla cruciale.


Le second type de lecture est d'information, celle que Thomas de Quincey appelait la « littérature de connaissance » pour la distinguer de la fiction, de la poésie et du théâtre. Le Web, le protéiforme Wikipedia, ont concrétisé cette bibliothèque ; ils ont déjà induit chez l'internaute un changement fondamental des structures de l'attention dont les perspectives sont presque incommensurables.


Mais enfin la forme silencieuse et privée de la lecture, jadis seule pratiquée depuis ses schismes innombrables d'avec l'oralité et la déclamation, depuis la Grèce athénienne jusqu'au Moyen-âge chrétien en Occident, constitue la troisième catégorie, évanescente et expiratoire, de l'art de lire. Sous le déferlement du Web, elle est devenue une compétence et une vocation spécialisée ; les Mandarinats Ray Bradbury du silence, ateliers et archives du livre écrit, sont aujourd'hui les lieux de retrait où l'on identifie, recrute et cultive la capacité, et surtout l'envie, de se mesurer à un texte difficile, de maîtriser la grammaire, d'incarner l'art de la mémoire et de la gestion du repos et de la concentration qu'exigent les grands textes. Rares sont les éclairés qui rejoignent leurs rangs.


Lorsque je revis Segundo Funes aujourd'hui, dans l'un des temples de la modernité en pleine Silicon Valley près de trente cinq ans après notre première rencontre, on me mena après un long couloir dans une grande pièce en open space et l'on me dit de ne pas être surpris de le trouver dans l'obscurité qui étouffait les lueurs isolées d'un rectangle au bleu électrique et du point rouge de la cigarette.


J'entendis soudain la voix haute et moqueuse de Segundo. Cette voix (qui venait des ténèbres) articulait avec une traînante délectation un discours, une prière ou une incantation. Les syllabes latines antiques résonnèrent dans l'immense bureau d'architecte ; ma frayeur soudaine les croyait indéchiffrables, interminables ; puis dans l'interminable dialogue de cette nuit artificielle, je sus qu'elles constituaient le dernier paragraphe du ving-quatrième chapitre du livre VII de la Naturalis Historia de Pline l'ancien ; elles s'éteignirent : somno quoque serpente amputatur, ut inanis mens quaerat ubi sit loci.


Sans le moindre changement de voix Segundo me dit alors d'entrer. Il avait les yeux fermés et il ne me semble pas avoir vu son visage avant l'aube. Je crois me rappeler la braise momentanée de la cigarette, le grouillement aléatoire et bref de son écran lorsque s'y affichent les requêtes, innombrables et désolées, comme tombent les feuilles recroquevillées de l'automne. La pièce, vaguement tiède, ronronnait ; je m'assis.


J'en arrive maintenant au point le plus délicat de mon récit. Celui-ci n'a d'autre sujet que ce dialogue vieux déjà de plusieurs mois et je n'essaierai pas d'en reproduire les mots irrécupérables maintenant. Je préfère essayer de résumer la foule de choses que me dit Segundo cette nuit-là. Que l'on me pardonne le style indirect, lointain, mais que l'on imagine les périodes entrecoupées de silence stupéfié qui m'accablèrent toutes ces longues heures.


Segundo avait attiré l'attention des prosélytes du Mandarinat de Ramos Mejia quelques mois à peine après que nous nous fûmes rencontrés il y a si longtemps. Maria Clementina, le coeur brisé, avait accepté de le laisser rejoindre cette adolescence monastique au milieu des livres alors que les bibliothèques privées devenaient aussi rares et exceptionnelles que du temps d'Erasme. Particulièrement doué, l'ignorant malhabile et grossier, y entama des années mutiques de lecture silencieuse. Il progressa, inculte et épais, au chapître de l'élite raréfiée capable de pratiquer une lecture silencieuse et personnelle.


Alors qu'hors les murs, le pouvoir bascule en faveur de ces hommes et de ces femmes, techniquement presque incapables de lire un livre sérieux, mais affranchis du lourd fardeau de l'alphabétisme réel et de ses constantes habitudes référentielles (du fait que presque toutes les grandes littératures se réfèrent à une autre grande littérature), et condamnés à toujours créer de toutes pièces, Segundo servait sans relâche une littérature exigeante, tragique et merveilleuse.


Il me dit : J'ai à moi seul plus de souvenirs que n'en peuvent avoir eu tous les hommes depuis que le monde est monde. Et aussi, vers le milieu de la nuit : Mes rêves, Monsieur, sont comme votre veille.


La voix de Funes continuait à parler du fond de l'obscurité. Les scientifiques célèbrent dans les pages glacées de Nature et de Science la plasticité du système nerveux, comparable aux mille protocoles de la Toile, le réseau complexe et vivant qui finit d'emprisonner routeurs et surfeurs dans les mêmes rets. (Les titans du Web adaptent nos circuits neuronaux à la lecture rapide, au zapping d'une page Web à une autre, au cabotage au long des hyperliens ; la lecture tranquille ou une réflexion lente et concentrée sont bien les dernières choses que ces ogres désirent.)


Voilà les choses qu'il m'a dites ; ni alors ni depuis je ne les ai mises en doute. Locke au XVIIe siècle postula (et infirma) une langue impossible dans laquelle chaque chose individuelle eût un nom propre ; Funes projeta une fois une langue analogue mais il la rejeta parce qu'elle lui semblait trop générale, trop ambiguë. En effet le lecteur Funes se rappelait chaque mot, chaque page, chaque forme de chaque livre qu'il absorbait mais aussi chacune des fois qu'il l'avait vue ou imaginée. Il voulut, me dit-il, réduire chacune de ses journées de lecture à quatre vingt six mille quatre cent souvenirs, qu'il définirait ensuite par des chiffres. Il en fut dissuadé par la conscience que la besogne était interminable ; il pensa qu'à l'heure de sa mort il n'aurait pas même fini de classer les lieux communs de ses lectures d'enfance.


Ce projet de catalogue mental de toutes les images du souvenir est insensé mais révèle une certaine grandeur balbutiante et naïve. Il nous laisse entrevoir le monde vertigineux de Funes, presque incapable d'idées générales, platoniques, abstraites. Il est le lecteur solitaire et lucide d'un monde multiforme, volatil, instantané mais intolérablement précis. L'année deux mille sept il posta plus de vingt quatre mille critiques et commentaires d'autant de livres sur le site Amazon.com, imposant au géant du Web d'enfouir d'urgence un nouveau datacenter aux dimensions pharaoniques dans le verdoyant Oregon. L'année précédente il avait réécrit sept fois, dans son style agreste mais insoutenablement détaillé, de mémoire, la totalité du contenu de Wikipedia. Ces incroyables tours de force attirèrent l'attention d'un autre Titan qui vit dans le jeune homme décharné issu du faubourg sud-américain la révélation oraculaire d'une perpective propice.


Il lui était maintenant très difficile de dormir. Dormir c'est se distraire de la lecture pressante, infatigable, de tous les livres du monde qui convergeaient sur le malheureux Segundo. Il avait appris sans effort l'anglais, le français, le russe, le chinois et F#. Je soupçonne cependant qu'il n'est pas très capable de penser. Penser c'est aussi oublier des différences, c'est généraliser, c'est abstraire. Dans le monde livresque surchargé de Funes, il n'y avait que des détails presque immédiats.


La clarté craintive de l'aube perça faiblement d'un soupirail éloigné. Je vis alors furtivement le visage de la voix qui avait parlé toute la nuit. Segundo a quarante ans : il me parût monumental comme le bronze millénaire, plus ancien que l'Egypte, antérieur aux pyramides, aux prophéties.


Je distinguai sur son écran les requêtes, les quelques mots jetés sur les plages brillantes du monde lu de Funes par le ressac mécanique, cosmopolite et incessant des invocations sourde des internautes. Je restai stupéfié par la danse hystérique des doigts effilés de ses mains faméliques sur le clavier, chaque pression, brutale, rapide et sèche, noyant une requête sous la réponse des lieux communs que tant d'années de lectures silencieuses avaient infailliblement gravées dans sa mémoire. Je fus soudain engourdi par la crainte de multiplier les gestes inutiles et me retirai en titubant.


Aveuglé par la lumière blafarde du soleil maintenant levé, je quittais ce matin là le complexe Microsoft de La Avenida, hébété, désorienté. Pour ce monde, mosaïque agitée, peuplée du brouhaha des analphabètes, si matinal et si lumineux, le nocturne et sombre lecteur Segundo Funes n'est plus que BING.


jeudi, juillet 02, 2009

La Nouvelle surveillance


La plus grande confusion semble régner autour de la dérive « sécuritaire » orchestrée par maintenant deux gouvernements évidemment suspects de phobie d'Internet. Nous nous étions inquiétés dans cette chroniqueplusieurs reprises) des effets de cette dérive sur la libre circulation des idées sur le Net, mais, sujet tout aussi préoccupant à notre sens, sur la mise en place insidieuse des dispositifs privés de « Nouvelle surveillance ».



Le 10 juin dernier, le Conseil constitutionnel a censuré le texte de la loi Hadopi, lui ôtant sa partie portant sur les sanctions, que le gouvernement, piqué au vif, a choisi en urgence de reformuler. C'est ce nouveau texte qui crée aujourd'hui la polémique. Selon La Tribune, le Conseil d'Etat y aurait détecté de nouveaux risques d'inconstitutionnalité, faisant peser le risque d'une nouvelle censure par le Conseil constitutionnel.



Le texte original de la loi Hadopi, directement inspiré du rapport Olivennes, présentait notamment la procédure dite de « riposte graduée » — déjà abondamment critiquée par la Commission européenne à l'automne 2008 — qui, de toute évidence, a coûté son maroquin à Mme Albanel. (Quel splendide isolement du Conseil régional de l'Île de France et de la Mairie de Paris ces vingt dernières années, pour que l'ancienne nègre de Jacques Chirac déclare avec une charmante naïveté : « Internet, c'est compliqué, c'est tout nouveau » ?) Le principal reproche de la Commission portait sur le fait qu'une autorité administrative, et non judiciaire, puisse être à l'origine de ces poursuites contre les internautes.



Le projet initial du rapport Olivennes prévoyait également qu'un spyware, dûment estampillé « sécurité nationale » fut installé sur les machines des internautes pour en collecter les informations de trafic et de flux. Illustration parfaite de la Nouvelle surveillance : il était alors envisagé de sous-traiter ce logiciel à AdVestigo, l'une des startup essaimées de l'INRIA — d'ailleurs quelle preuve plus irréfutable d'objectivité dans cette conjonction favorable de l'excellence académique et universitaire française (que le monde entier nous envie, doit-on le rappeler ?) avec les liens anciens et tenaces au complexe militaro-industriel hexagonal ? En mars dernier, Hologram Industries, coté au Nouveau marché — maintenant Eurolist C — depuis 1998, annonçait le rachat de AdVestigo pour 4,5M Euros en numéraire.



C'est le même principe de spyware que celui retenu par l'administration chinoise pour « Green Dam Youth Escort » dont une directive du Ministère de l'industrie et des technologies de l'information exigeait qu'à partir du 1er juillet 2009 il fut installé sur tous les PC vendus en Chine, y compris ceux importés de l'étranger. (Notons que l'utilisateur n'était pas dans l'obligation de faire tourner le logiciel espion, mais de l'avoir installé, ou reçu pré-installé sur sa machine.) La justification — légitime — évoquée par le gouvernement chinois est la protection de la jeunesse et le contrôle parental ; l'inquiétude évidemment soulevée par le public, les éditeurs de logiciels et les constructeurs devant la matérialisation possible d'une censure bien plus radicale d'Internet a pour l'instant eu raison de l'initiative que le gouvernement chinois a retiré la veille de son entrée en vigueur — mais pour la remettre sine die.



On ne sait pas encore si ce retrait est définitif, la conviction que Green Dam pouvait présenter un danger technique ayant prévalu ou bien qu'il ne se soit agi, au final, que d'un coup d'essai destiné à jauger les réactions à une gouvernance plus explicitement totalitaire d'Internet en Chine. Dans « Réformons notre étude », en mai 1941, Mao déclarait : « Nous devons procéder à des enquêtes et des recherches systématiques et minutieuses sur la réalité environnante en appliquant la théorie et la méthode marxiste-léninistes. Dans notre travail ne nous fions pas à notre seul enthousiasme, mais agissons en unissant l'élan révolutionnaire et le sens pratique comme le dit Staline ».



En France, Green Dam s'appellerait plutôt LOPPSI 2. LOPPSI 2 contient une série de dispositions qui concernent aussi bien la vidéo-surveillance que la lutte contre l’insécurité routière, la protection des agents de renseignement ou encore la réforme de la compétence du préfet de police de Paris. Pour ce qui concerne la lutte contre la cybercriminalité (chapitre II), l’objectif de LOPPSI est de bloquer le contenu des sites pédo-pornographique. Le filtrage des sites sera mis en place par les fournisseurs d’accès à Internet sur la base de listes noires de sites interdits communiquées sous la forme d’un arrêté du ministère de l’Intérieur. La loi ne précise ni les modalités d’élaboration de la liste (administration, autorité indépendante, cabinet du ministre ?), ni les éventuelles possibilités de recours pour un site qui serait bloqué injustement. Les mêmes inquiétudes que celles soulevées par Green Dam devraient certainement agiter le public, les éditeurs de logiciels et les fournisseurs d'accès.



Le deuxième volet de la loi concerne le renforcement de la lutte contre la criminalité (chapitre V) en permettant la surveillance à distance des ordinateurs. L’objectif de cette mesure est de permettre la captation des données informatiques à distance. Concrètement, cela va permettre aux enquêteurs de capter en temps réel les données informatiques telles qu’elles s’affichent à l’écran d’un ordinateur ou telles qu’elles sont contenues dans le disque dur. Cette surveillance pourra s’effectuer à distance, à l’aide d’un logiciel mouchard. (« Art. 706-102-1. Lorsque les nécessités de l'information concernant un crime ou un délit entrant dans le champ d'application de l'article 706-73 l'exigent, le juge d'instruction peut, après avis du procureur de la République, autoriser par ordonnance motivée les officiers et agents de police judiciaire commis sur commission rogatoire à mettre en place un dispositif technique ayant pour objet, sans le consentement des intéressés, d'accéder, en tous lieux, à des données informatiques, de les enregistrer, les conserver et les transmettre, telles qu'elles s'affichent sur un écran pour l'utilisateur d'un système de traitement automatisé de données ou telles qu'il les y introduit par saisie de caractères. Ces opérations sont effectuées sous l'autorité et le contrôle du juge d'instruction »)



Si c'est bien l'autorité judiciaire qui contrôle ici la mise en place et l'exploitation du dispositif —
Pace Bruxelles — on peut cependant s'interroger sur la nature et le fournisseur du fameux « dispositif technique ». Impossible d'imaginer un spyware d'origine autre que française pour cette délation en peer-to-peer généralisée : ce serait faire le lit de l'étranger ! Mais, d'un autre côté, le moindre soupçon de compromission d’un éditeur de produits de sécurité peut rapidement se traduire par une sérieuse perte de chiffre d’affaires. (C'est ce qui se produisit il y a quelques années lorsque Symantec déclara ne pas filtrer l'hypothétique spyware Magic Lantern, attribué au FBI.) Pas fameux, ni pour les filiales françaises des géants américains des logiciels de sécurité, ni pour nos fragiles startups nationales tentant de survivre dans leur ombre étouffante.



Les technophiles imaginatifs échafaudent que les réactions aux premières rétorsions d'Hadopi 2 — Mme Albanel voulait du chiffre, 1 000 sanctions par jour, une toutes les 86 secondes 4 dixièmes ! — pourraient provoquer un recours massif au chiffrement systématique qui, à son tour, augmenterait singulièrement la difficulté à faire fonctionner le « dispositif technique LOPPSI 2 ». En stigmatisant une petite délinquance (celle du téléchargement) avec des moyens disproportionnés - -à supposer qu'ils soient effectifs —, Hadopi pousse les téléchargeurs et surtout les non-téléchargeurs (qui sont, aux termes de cette loi, responsables techniques et pénaux de leurs installations) qui prendraient soin de s'informer, à renforcer leurs protection et donc noyer les services d’écoutes sous un déluge de bruit crypté. Il y aurait un « avant Hadopi » où l’on pouvait distinguer les communications protégées des entreprises, des services d’Etat (aisément identifiables) et les autres, suspects par nature — comme c'est le cas aujourd'hui. Il y aurait, d'après cette argumentation, un « après Hadopi », où la confusion technique provoquée par la surprotection des informations interdirait alors toute discrimination des flux à surveiller, et renforcerait ainsi le camouflage des réseaux contre lesquels on voulait initialement lutter.



Malheureusement, à l'examen, ce scénario ne paraît pas très vraisemblable aujourd'hui. Le catastrophisme élevé au rang de science exacte qui sert d'alibi pour obtenir l'obéissance des foules, a le vent en poupe par les temps qui courent. Distillé abondamment dans tous les médias aussi bien qu'en ligne il n'éveille tout au plus qu'une vague confusion chez l'internaute-citoyen, tout affairé qu'il est à poster les photos de son dernier binge drinking sur Facebook. Bien moins en tout cas que l'interdiction de fumer dans les cafés ou que la baisse de la TVA sur le plat du jour. Il y a deux semaines encore, Vinton Cerf, l'un des vénérables pères fondateurs d'Internet, mythe vivant du réseau des réseaux, excellait dans cet exercice imposé : « Internet est incomplet, il lui manque la sécurité » proféra-t-il devant un auditoire gagné et durablement soumis. Maintenant avocat infatigable du projet de réinvention d'Internet Clean Slate (Table rase) — initiative opportunément bienvenue, très généreusement sponsorisée à Stanford par Cisco, Docomo, Deutsche Telekom, NEC, Ericsson, Xilinx et la NSF, tous grands dépositaires de la neutralité politique et industrielle que l'on imagine — Vinton Cerf est aujourd'hui employé de... Google. Capitalisme libéral 1 — Mao 0.



En attendant ces jours meilleurs, Rod A. Beckstrom vient d’être nommé Président de l’Icann (Internet Corporation for Assigned Names and Numbers), un des principaux organismes de gestion et de régulation d’Internet et notamment des grands « top level domains ». Beckstrom était précédemment cyber-patron du Department for Homeland Security, le DHS américain, puis directeur du National Cyber Security Center. Sa nomination a été saluée en termes dithyrambiques par Eric Schmidt et Vinton Cerf.



vendredi, juin 12, 2009

L'insoutenable durabilité de l'environnement : Microsoft contre le réchauffement climatique


La France qui s'était bien tardivement mise au financement privé de
ses universités avec, en particulier, la loi LRU de 2007 qui
s'inspirait pour ces partenariats public-privé des pratiques
américaines déjà anciennes, y plaçait alors de grands espoirs. (Le
trouble jeté dans les cénacles hexagonaux de l'enseignement par le
trop fameux « Classement de Shanghaï » n'y était d'ailleurs
probablement pas pour rien : notre prestigieuse et plus que
bicentenaire Ecole des Mines relevait elle-même le gant en publiant
son propre classement mondial des universités et des grandes écoles,
ne s'y octroyant elle-même — suprême élégance — que le dixième rang
!) Mais ces ambitieuses espérances furent largement tempérées par la
timidité et à tout le moins le manque d'enthousiasme constaté dans la
mise en place de ces fondations destinées à lever de l'argent privé.



Alors que la loi Pécresse visait a priori les industriels français
pour les encourager à participer au financement de l'enseignement
supérieur — une idée qui est loin d'être naturelle sous nos cieux —
c'est Microsoft qui s'était alors avancé pour se prêter au jeu. Un
premier partenariat signé en octobre 2007 avec Sciences Po comportait,
notamment, le soutien financier de deux chaires (« Humanités
scientifiques », sur le rôle de l'innovation dans la société
contemporaine, et « Régulation » sur l'innovation et les questions de
propriété intellectuelle — on voit assez bien les ficelles du
dispositif). M. Martin-Lalande, député du Loir-et-Cher organisateur du
passage éclair de l'impétueux Steve Ballmer à l'Assemblée Nationale
proféra alors cette sentence impérissable : « ce partenariat permet à
Microsoft d'acquérir de la respectabilité ». Décidément, on ne change
pas notre classe politique nationale !



Le — donc — respectable Microsoft signait ensuite un partenariat
avec l'Université de Lyon 1 sur les questions de systèmes de soins et
de gestion du dossier médical. Mais les efforts de Microsoft
culminaient avec la création en 2007 du
Laboratoire commun de recherche INRIA - Microsoft Research qui fêtait
ses deux ans d'existence et
présentait ses premiers résultats en janvier dernier à L'Ecole
polytechnique — en pleine agitation de campagne KES. La semaine
dernière, le respectable Microsoft culminait à nouveau, dans les mêmes
lieux — mais cette fois en pleine agitation préparatoire au
Point Gamma, décidément ! — pour inaugurer la nouvelle chaire
Polytechnique - CNRS - Microsoft : « Optimisation et Développement
durable ».



Fruit de deux ans d'un laborieux travail de préparation qui doit
beaucoup à la ténacité et à l'énergie d'Eric Boustouller et de ses
équipes menées notamment par Marc Jalabert et Pierre-Louis Xech,
l'initiative ne manque pas d'un certain courage dans le climat actuel
qui prévaut dans la recherche et les universités françaises. La chaire
OSD — puisqu'il faut sacrifier à l'anglais international à mon plus
grand désespoir, cette chaire de l'X et du CNRS est officiellement
baptisée Optimization for Sustainable Development, d'où OSD (ODD
serait, je le reconnais, plutôt curieux en anglais !) — est animée
par Philippe Baptiste, chercheur CNRS et directeur du Laboratoire de
recherche informatique de l'Ecole Polytechnique (unité mixte de
recherche CNRS / Ecole Polytechnique) et par Youssef Hamadi,
responsable du « Constraint Reasoning Group » à Microsoft Research
Cambridge et co-responsable du projet « Adaptative Combinatorial
Search » au sein du Centre de Recherche Commun INRIA-Microsoft
Research.



Car voilà bien le thème finalement retenu, bien dans l'air du temps :
la programmation par contraintes au secours de l'environnement.



L'idée peut sembler au premier abord fort étrange au béotien. En quoi,
ce qui dans mes souvenirs confus de la discipline alors naissante de
l'Intelligence Artificielle de la fin des années 70, début des années
80, apparaissait comme une ramification algorithmique éthérée adulée
d'une cohorte obscure de zélateurs de la cinquième génération,
d'Edimbourg et d'Alain Colmerauer pouvait-elle prétendre à lutter
contre le changement climatique et préserver l'environnement ?



En 2008, dans le cadre de la Clinton Global Initiative, l'Université
de Cornell avait alloué $50m à un nouveau centre de recherche, le
Center for a Sustainable Future destiné à encourager la recherche
multidisciplinaire pour un avenir durable pour tous. (La durabilité de
l'avenir me pose un problème presque philosophique dans ses termes,
mais passons...) Et c'est précisément en ce moment que se tient son
premier Symposium, CompSust09, pour — accrochons-nous — la
« durabilité calculatoire » (meilleur que le « comput durable » me
semble-t-il, pour essayer de tradiure computational sustainability ?).



Perplexité à nouveau.



C'est qu'en fait, en plus de vingt ans, les domaines théorique et
pratique de la programmation par contrainte se sont particulièrement
développés, défrichant de nouveaux champs d'applications et récoltant
les fruits de profondes découvertes théoriques. C'est ce qui
transparaissait dans le séminaire scientifique de l'après-midi qui
suivit l'inauguration officielle du matin, en « téléprésence » vidéo
de la Secrétaire d'Etat Nathalie Kosciusko-Morizet qui rayonnait de
voir réunis là deux de ses centres d'intérêt, écologie et numérique.




  • L'optimisation combinatoire stochastique était le premier sujet
    abordé par Pascal Van Hentenryck. On s'y pose la question
    d'optimiser tout une série de mesures (ou de contraintes) dans un
    univers de données probabilisé. C'est cette prise en compte des
    probabilités qui la distingue des techniques « dures » de la
    recherche opérationnelle et qui est particulièrement adaptée aux
    données en ligne — qui sont engendrées au vol sans distribution
    connue a priori — et aux problèmes liés à l'environnement lui-même
    incertain.


  • Une excellente introduction à la première grande problématique que
    l'on pourrait qualifier d'économique ou de bio-économique dont
    l'objet est d'optimiser l'usage des ressources naturelles sur la
    base de modèles économiques de la gestion de l'environnement.


  • La seconde grande problématique est évidemment liée à
    l'optimisation de la production d'eau et d'énergie et à
    l'optimisation de leur distribution et leur usage. Des applications
    immédiates : optimisation de la distribution et de l'usage de
    l'énergie électrique dans les usines, réduction de la consommation
    des datacenters informatiques des géants de l'Internet et du
    cloud computing, optimisation de la charge et de la décharge des
    batteries pour des applications qui vont du lecteur MP3 au moteur
    des voitures électriques...



Au passage ce dernier sujet était abordé en profondeur par Bernard
Ourghanlian à l'occasion du lancement de SIMBIOSYS, communauté
française dédiée à la simulation, qui notait qu'à « budget
transistors » égal, et pour un budget énergie que l'on veut faire
décroître, chaque coeur d'une puce multicoeurs disposait donc de moins
de watts que son cousin monocoeur. La réponse technologique à ces
nouvelles contraintes réside dans le développement de puces manycores,
plutôt que multicoeurs, constituées de plusieurs coeurs hétérogènes
aux fonctions dédiées (logique, graphique, I/O, etc.), qui se prêtent
alors à une planification et une optimisation de la dépense
énergétique en fonction des tâches allouées. Cette révolution annoncée
à l'échelle du matériel entraîne aussi son lot de bouleversements à
venir à l'échelle des logiciels systèmes et des logiciels applicatifs
reposant sur cette nouvelle architecture. Se posent non seulement les
problèmes de parallélisation des algorithmes, pour utiliser la
multiplicité des coeurs, mais la question plus pressante de
l'interopérabilité de jeux d'instruction et de langages de
programmation conceptuellement différents pour ces coeurs hétérogènes
: la programmation d'un coeur graphique NVidia, par exemple, est bien
différente de celle d'un coeur logique base X86. (Des
projets comme LLVM sont ici intéressants à suivre de ce point de vue.)



En conclusion de cette journée sur un campus inondé de soleil,
Rick Rashid en personne, le patron et fondateur de Microsoft Research,
donnait un aperçu à couper le souffle des travaux de recherche en
cours dans son organisation.




  • Réseaux de capteurs. Ici, une mention particulière pour
    l'utilisation de capteurs communicants (IEEE 802.15.4)
    autoalimentés pour surveiller la température de ses datacenters
    voici donc l'invasion des genomotes, anticipée par les Xipehuz de
    Rosny aîné ! En retour de boucle, ces données mesurées sont
    utilisées en temps réel pour modifier l'algorithme de répartition
    des travaux sur les serveurs afin de refroidir la salle. Au
    registre de la protection de l'environnement, étaient également
    présentées des applications de réseaux de capteurs en hydrologie et
    en météorologie (SensorMap).


  • Santé. Les projets tournent ici autour de la médecine personnalisée
    et l'application des technologies d'Intelligence Artificielle à la
    recherche de nouvelles molécules et de vaccins. (Clin d'oeil à mon
    complice de jadis, Alain Rappaport.) En Europe, Microsoft a créé
    avec l'Université de Trento en Italie un laboratoire joint de
    recherche sur la modélisation des systèmes biologiques de même
    nature.


  • Preuves de code. C'est le sujet théorique creusé, en particulier,
    par le laboratoire joint de recherche créé avec l'INRIA en
    France. Nous avions récemment vu comment la saisie, sans commission
    rogatoire, des travaux de recherche du laboratoire public par le
    (respectable !) géant au généreux porte-monnaie leur insufflait une
    seconde vie dans F#.


  • Education et Enseignement. Rick Rashid rappelait également les
    projets de Tablet PC pour les écoliers, l'utilisation de robots
    pour enseigner la programmation avec Microsoft Robotics Studio, la
    version moderne et in real life de la tortue virtuelle de Logo qui
    fit la joie d'une toute jeune génération affairée au
    rez-de-chaussée du Centre Mondial Informatique et Ressource Humaine
    — dans ces âges reculés pré-Internet où la mémoire titube. Il y a
    enfin l'extraordinaire WorldWide Telescope qui fait resurgir tout
    le merveilleux scientifique (Maurice Renard) de notre enfance.



Rick Rashid concluait sur une note résolument futuriste en dépeignant
Kodu un langage de programmation visuelle à l'intention des enfants
(Cocoa d'Apple avait connu un modeste début tout à fait comparable
(KidSim), fruit de l'imagination fertile de Larry Tesler ; sans parler
de Logo de Seymour Papert). Mais ici, le patron de Microsoft Research
ne s'en cache pas, son idéal serait d'apprendre aux enfants le
computational thinking, à penser, finalement, comme un
ordinateur. Outre la difficulté technique que présente cette ambition
quasi-philosophique à l'heure où l'on n'arrête pas de redéfinir les
frontières du calculatoire et le territoire de la computation — elle
va durablement sauver l'environnement et incessamment nous protéger
des pirates numériques nous dit-on — il me semble qu'on peut
légitimement se demander si c'est vraiment souhaitable...



Beaux sujets pour l'épreuve de philosophie du Bac 2009, ce 18 juin :



Est-il possible, est-il moral de penser comme un quadcore ? Vous
rédigerez votre analyse en F#, en faisant référence aux oeuvres
étudiées pendant l'année, puis la prouverez. (On rappelle que tout
usage de genomotes ou de réseaux sociaux pendant l'épreuve est strictment
interdit et donnera lieu à une riposte graduée.)
Vous avez quatre heures.



mardi, mai 26, 2009

Où est le cloud computing ?


Le 14 mai dernier certains services de Google, comme GMail, étaient
indisponibles pendant plusieurs heures (en fin d'après-midi et début
de soirée à l'heure de Paris). Twitter, quant à lui, fonctionnait à
plein régime et le curieux pouvait suivre en temps réel la progression
de la découverte de la coupure de services au fur et à mesure que les
USA se connectaient ainsi que déterminer les autres pays affectés
simplement en suivant « Google » sur Twitter. Urs Hoezle, Senior VP
Operations
à Google, s'empressait de publier un communiqué laconique
fidèle à son équanimité toute helvétique (d'origine) : à la suite
d'une erreur, laissée indéfinie, Google aurait détourné son trafic
entrant vers l'Asie, destination laissée également vaguement indéfinie
mais fleurant un exotisme suffisamment explicatif semblerait-il,
provoquant ainsi une sorte de bouchon majeur sur les autoroutes de
l'information. Ironique retour de la géographie du monde dans
l'univers virtuel que Google se propose de lui substituer !

 



Ce n'est pas la première coupure de services de Google. En
février dernier déjà, GMail avait connu quelques hoquets. En juin
2008, les utilisateurs d'Amazon avait connu une coupure générale d'une
durée de quelques heures. En 1999 et en 2002, eBay avait également
plongé ses utilisateurs dans les affres de l'incertitude sur la bonne
fin de leurs enchères. Ces événements, heureusement rares, viennent
nous rappeler que dans l'esprit du temps qui est à la virtualisation
généralisée l'ancrage réel du « *cloud computing* » reste de prime
importance.

 



Le débat actuel tourne autour de la définition du cloud computing et
du défi éventuel qu'il représenterait aux yeux des praticiens du
développement logiciel (commerciaux et Open Source, après
les prises de positions singulièrement radicales de leurs prophètes
incarnés comme rms.) Aujourd'hui déjà, nombreux sont les internautes
individuels qui ont recours à des services exécutés sur un composant
de l'architecture cloud computing (infrastructure, plateforme ou
application) : ce sont ceux-là mêmes qui furent les victimes des
coupures de services de ces dernières années — services de courrier
électronique, de gestion de photos et de vidéos, et bureautique en
ligne, etc. D'autres services cloud computing sont déjà accessibles
aux entreprises — citons Google, Amazon, Yahoo!, Salesforce,
DesktopTwo, Ultéo, Sun Secure Global Desktop, etc. Il y a également
des projets d'utilisation du cloud computing dans
l'enseignement et la formation.

 



Ce débat, pour légitime qu'il soit, occulte commodément me semble-t-il
la question plus importante suivante : où est le cloud computing ?

 



La question est est évidemment moins innocente qu'elle y paraît : elle
découle naturellement des grandes classes d'usages imaginées ou
pratiquées du cloud computing :

 




  • dans le mode Service Web, pour simplifier, le cloud héberge
    l'application du ou des utilisateurs qui y accèdent via une
    connexion à Internet.


  • dans un deuxième mode, comparable aux travaux par lots,
    l'utilisateur transfère un grand volume de données et l'application
    qui doit les traiter à un service cloud. La plateforme de cloud
    computing
    exécute ces traitements et renvoie les résultats à
    l'utilisateur. (Un exemple récent : la translitération par le New
    York Times de ses archives historiques grâce aux services combinés
    d'Amazon et de Hadoop.)


  • enfin, on voit également certaines entreprises utiliser
    temporairement des services cloud computing pour compléter leurs
    propres ressources informatiques ou bien faire face à un pic de
    trafic ou un afflux de données momentané.



Dans tous ces cas, cependant, les données et parfois les applications
mêmes de l'utilisateur résident, peut-être seulement temporairement,
dans un datacenter opéré par le fournisseur de services cloud
computing
.

 



Le premier indice que tout cela na va pas de soi, est bien dans
l'attitude contradictoire des utilisateurs individuels du cloud
computing
. Une étude du Pew Internet and American Life Project montre
en effet que malgré l'usage intensif et quotidien de tels services,
90% des internautes se défieraient de leur opérateur de cloud
computing
s'il vendait leurs données individuelles à d'autres
sociétés, 80% si elles étaient utilisées pour des campagnes de
marketing et 68% si elles étaient utilisées pour cibler des publicités
d'après leurs contenus. Or c'est exactement le business model de la
plupart de ces mêmes services, ceux que l'on pleure amèrement sur
Twitter dès qu'une coupure inopinée se produit !

 



La réponse lapidaire du technologiste, levant les yeux au ciel à la
question « où est le cloud computing », est évidemment que cela n'a
aucune importance, précisément parce que l'on s'affranchit enfin ainsi
des dernières attaches aux lourdeurs archaïques du monde réel. En
fait, c'est l'inverse : loin de représenter le zénith de la
virtualisation, le cloud computing est une (re)centralisation massive
de l'information et des ressources de calcul qui, malgré la dialectique
libératoire et New Age dont elle aime à se draper, permet un contrôle
et une surveillance — par les entreprises et les gouvernements —
d'une bien meilleure efficacité.

 



La puissance de calcul et les capacités inédites de stockage des
données du cloud computing sont le résultat des économies d'échelle
qui conduisent à la création de datacenters monumentaux. En 2008,
The Economist estimait à 7.000 le nombre de ces bunkers de l'ère
post-moderne répartis sur le territoire des Etats-Unis. Et là, la
géographie reprend ses droit, le naturel revient au galop ! Car
quelles considérations prévalent dans le choix de la localisation de
ces pyramides modernes :

 




  • suffisamment d'espace pour élever des hangars surdimensionnés — ce
    qui peut exclure certaines zones urbaines, malgré les idées
    innovantes de packaging des serveurs (Internet in a Box de Sun,
    Rackable Systems qui vient de reprendre le nom glorieux de sa
    récente acquisition, Silicon Graphics, etc.) ;


  • proximité de noeuds de connexion Internet à très haut débit ;


  • abondance de source d'énergie à bas coût pour alimenter le
    datacenter vorace et le refroidir — d'où des centres souvent au
    voisinage de centrales nucléaires ou de barrages ;


  • les lois, réglementations et le climat politique et sécuritaire de
    la région ou du pays d'implantation — point, rarement mentionné,
    mais dont on verra l'importance un peu plus loin.



Pendant la Bulle Internet, un datacenter typique consommait en moyenne
1 à 2 mégawatts. Heureuse époque ! Aujourd'hui c'est plutôt
10 fois plus et le datacenter de Microsoft près de Chicago dévore 200
mégawatts à lui seul. On estime que la consommation des 7 et quelques
milliers de datacenters aux Etats-Unis est comparable à celle d'une
ville comme Las Vegas ; à l'échelle planétaire, les datacenters auraient
consommés en 2005 environ 1% de l'électricité mondiale. On comprend
que la réglementation du prix de l'électricité et les conditions
d'accès, qui varient d'une région à l'autre du globe, puisse jouer un
rôle important.

 



Pain bénit pour les zélateurs du développement durable et les
prosélytes du Green IT, 8% à 9% de cette énergie est perdue dans le
seul transfert vers les serveurs eux-mêmes. Il y a donc largement de
quoi proposer des améliorations dans la gestion et le transport de
l'énergie et les innovations dans ce secteur seront les bienvenues.

 



La localisation vous dis-je ! Car l'autre facteur majeur du
développement du cloud computing, l'environnement réglementaire et
légal, est aussi — et pour longtemps — lié au lieu(x)
d'implantation.

 



Le législateur et les régulateurs peuvent en effet promouvoir ou, au
contraire, obérer voire interdire le développement du cloud computing
dans les secteurs sous leurs juridictions. Beaucoup de questions se
posent immédiatement, mais du point de vue des utilisateurs les
attentes d'un service cloud computing seraient :

 




  • l'accès : au gré des utilisateurs sans empêchement d'un tiers ;


  • la fiabilité : d'autant plus importante que l'opérateur du cloud
    computing
    peut, comme on l'a vu, être amené à prendre la
    responsabilité d'exécuter des traitements applicatifs et de gérer des
    données critiques des usagers ;


  • la sécurité : point n'est besoin de s'appesantir sur ce sujet,
    présent à tous les esprits par les temps qui courent ;


  • le respect de la confidentialité des données et de leur caractère
    privé : là-aussi, il y a aujourd'hui expression visible d'une
    tension entre complet laissez-faire et contrôle totalitaire avec
    des attitudes variées suivant les politiques (Patriot Act prévalent
    aux USA, « Nouvelle surveillance » en Chine et certains pays
    satellites, durcissement tout-répressif mal informé en Suède et en
    France, etc.)


  • une définition précise des risques et responsabilités des diverses
    parties contractant au service de cloud computing ;


  • le respect et la défense des droits de propriété intellectuelle et
    industrielle des utilisateurs ;


  • la propriété des données : dont les utilisateurs — en particulier
    professionnels — attendent qu'elle reste sous leur contrôle ;


  • la fongibilité des ressources : les utilisateurs, confiants dans le
    message technologique incarné par le cloud computing, s'attendent
    en conséquence à ce que leurs données puissent passer d'un
    datacenter à l'autre en fonction des besoins et des événements sans
    obstacle ni empêchement ;


  • la traçabilité et le droit d'audit : les utilisateurs,
    particulièrement les professionnels, attendent de l'opérateur
    cloud computing qu'il leur fournisse les éléments nécessaire à leur
    propre mise en conformité au droit et aux réglementations auxquels
    ils sont soumis en tant qu'usager du service ;


  • plus généralement, les considérations habituelles de droit du
    travail et de droit des entreprises, de coûts juridiques et légaux
    d'opération, d'attractivité du territoire et d'interventionnisme du
    gouvernement joueront également un rôle essentiel.



La liste est longue des lois et réglementations qui, dans chaque pays
ou région, peuvent influer sur chacun des points précédents. Aux
Etats-Unis même, l'entrelacs de l'USA Patriot Act, de HIPAA (Health
Insurance Portability and Accountability Act
), de la loi
Sarbanes-Oxley, du Stored Communications Act, des dispositions
fédérales rend déjà l'usage du cloud computing pavé de bombes à
retardement dans certains secteurs — celui de la Santé en
particulier.

 



Le maquis réglementaire américain provoque un effet de bord sensible
dans les autres pays. D'une part, les positions réglementaires et
légales des USA ont souvent valeur exemplaire — ou de repoussoir ! —
pour les autres législateurs. (En France on pousse le raffinement
jusqu'à inventer la « riposte graduée » — que le monde ne tardera
certainement pas à nous envier — et à se passer de la justice là où
RIAA et MPIAA vont encore devant les tribunaux défendre leurs
monopoles ébranlés.) Mais ces réglementations américaines peuvent,
d'autre part, être perçues comme un obstacle aux opérations d'une
entreprise étrangère : SWIFT, l'organisation bancaire internationale,
cherche à faire bâtir un datacenter sous les bienveillants auspices de
la neutralité helvétique plutôt qu'aux USA pour cette raison
précise. Il n'est que temps que le G20 se penche aussi sur les
paradis fiscaux virtuels...

 



À l'inverse peut-on faire plier un Amazon, un Yahoo!, un eBay ou un
Google lorsqu'ils hébergent des données ou offrent des services qui
tombent sous le coup d'une législation nationale différente de celle
qui s'applique dans les pays où leurs datacenters sont physiquement
implantés ? Comment juger l'attitude de ces mêmes opérateurs
lorsqu'ils se font l'instrument servile de la police en révélant les
adresses de blogueurs dissidents aux autorités de certains pays
asiatiques mais en refusant, aux Etats-Unis, de céder aux injonctions
du gouvernement au titre de la protection des droits civils ? Quelles
lois sont-elles applicables lorsque Google bâtit des datacenters dans
différents pays ? Faut-il mettre en oeuvre des incitations financières
ou des subsides pour attirer l'implantation de datacenters générateurs
de revenus et d'emplois et renforcer patriotiquement
l'attractivité de la France ? Ou alors, au contraire, faut-il taxer
les utilisateurs de services Web implantés hors du territoire, voire
les mettre en demeure (« graduellement »), sous peine de sanction —
déconnexion d'office d'Internet sans suppression de paiement de
l'abonnement ? —, de ne transmettre leurs données et applications
que sur un nuage de calcul français, ou tout au moins situé dans
l'Union européenne ?

 



Google n'a donc pas forcément versé dans la science-fiction en
déposant l'année dernière un brevet pour des datacenters flottants en
haute mer, hors des eaux territoriales — et donc des législations
nationales correspondantes — utilisant astucieusement les mouvements
de l'océan pour alimenter et refroidir ses serveurs.

 



lundi, mai 18, 2009

LLVM : les habits neufs du compilateur


Quelques bribes d'information avaient filtré durant les précédentes
éditions du WWDC (WorldWide Developers Conference) d'Apple ces
dernières années. Un nouvel acronyme, LLVM, y faisait de fréquentes
apparitions dans les présentations techniques et la communauté
bruissait des prédictions d'un avenir important dans les évolutions de
Mac OS X. LLVM, pour Low Level Virtual Machine, est à l'origine un
projet Open Source, lancé en 2000 à l'Université de l'Illinois Urbana
Champaign, par Chris Lattner. LLVM s'annonce comme une
« infrastructure pour la compilation » qui innove radicalement sur un
sujet que l'on pouvait penser complètement maîtrisé depuis des temps
immémoriaux, l'art de compiler des programmes. (À ce stade, lecture
obligatoire : Abelson, Sussman,
Structure and Interpretation of Computer Programs, et surtout le
primordial : Aho, Ullman, Principle Of Compiler Design à l'origine de
tout !)



Une fois la version 1.0 de LLVM livrée en 2003, Chris Lattner attira
l'attention d'Apple par son assiduité sur les forums de développement
Mac et l'acuité de ses questions et de ses réponses sur
Objective-C. Apple s'essaya à contribuer au projet LLVM en 2005, puis
recruta finalement Lattner pour poursuivre le projet intra muros.



En 2007, Apple livrait CLang, une implémentation de LLVM qui donnait
aux développeurs affamés un compilateur ultra-rapide et peu
consommateur de mémoire pour la famille des langages « C », un outil
de diagnostic enrichi et une architecture de bibliothèques portables,
le tout parfaitement intégré dans l'environnement de développement
XCode et sous licence Open Source BSD.



Mais l'impavide Lattner, indifférent à la menace des foudres joviennes
du démiurge de la compilation, le farouche ermite du Stata Building,
Richard M. Stallman, en venait même à ébranler la statue du Commandeur
sur son piédestal en proposant rien moins qu'un ravalement de façade
méticuleux de son trophée, Connochaetes glorieux,
le compilateur gcc. En effet, l'outil llvm-gcc substitue, horresco
referens
, l'optimisateur et le générateur de code de LLVM à celui du
vénérable outil des innombrables générations de programmeurs blanchis
sous le Makefile. Et non content de mettre à bas le mythe
alcelaphinère, llvm-gcc enrichit gcc — car prudemment compatible,
quand même — de toutes les avancées algorithmiques inventées depuis
en terme d'optimisation du code produit. Tant et si bien que l'on a du
mal à taire ce secret que tous les benchmarks oraculaires révèlent :
le code produit par llvm-gcc tournerait de 33% à 50% plus vite que
celui compilé par son ancêtre gcc...



Apple utilise également LLVM pour son stack OpenGL dans Leopard à des
fins d'optimisation sur les architectures PowerPC et x86. LLVM est
aussi employé dans les développements pour l'iPhone, mettant ainsi à
profit son architecture modulaire qui, depuis sa version 2.0, couvre
aussi d'autres processeurs comme l'ARM.



Quel est donc ce miraculeux outil sur lequel Apple même étaye ces
ambitieux développements ?



LLVM est une machine virtuelle qui, contrairement à celles auxquelles
Java puis .NET nous ont progressivement habitué, est un modèle d'une
machine de très bas niveau, un CPU, à vrai dire. Il y a longtemps que
ce niveau de détail est survolé, voire ignoré, dans le cursus actuel
du développeur « moderne ». (Ce malgré les injonctions de Jacques
Printz à renouveler l'expérience mystique en visitant avec humilité
les « cathédrales historiques » du logiciel, ces monuments souvent
oubliés aujourd'hui que sont les premiers compilateurs et systèmes
d'exploitation de naguère : Jacque Printz, Architecture logicielle. Il
ne faudra d'ailleurs envisager cette
perspective qu'avec stupeur et tremblement.)



Juste retour des choses, donc : Pourquoi donc revenir à des considérations
si primitives à l'époque contemporaine ? Parce qu'elles sont
précisément la clé des progrès attendus dans les domaines aujourd'hui
en effervescence de la programmation multicore, la programmation GPU
et le cloud computing.



En effet, l'idée de créer du code exécutable qui soit optimisé pour
des architectures aussi différentes
qu'un *quadcore* (ou bientôt 80 coeurs) d'Intel, un processeur
graphique NVidia, ou une grille mondiale de datacenters ne peut
trouver un début de réalisation sans une compréhension intime et un
banc d'essai paramétrable du fonctionnement d'un compilateur. C'est
précisément ce qu'offre LLVM, de plus avec les habits neufs de la
compilation just-in-time et de l'indépendance des langages de
programmation !



Les outils LLVM engendrent d'abord une représentation intermédiaire du
code source — quel qu'en soit le langage de programmation. C'est sur
cette représentation intermédiaire que le backend LLVM, lui aussi
entièrement paramétrable et extensible, va optimiser la génération de
code natif en fonction de l'architecture matérielle cible. Une des
innovations majeures de LLVM réside dans la définition d'API
rigoureuses pour chacune de ces étapes de traitement, tant celles de
la traduction dans la représentation intermédiaire que celles
d'optimisations et de génération de code natif qui les
suivent. Ainsi, un développeur peut expérimenter simplement de
nouvelles idées pour l'optimisation ou la génération de code : il lui
suffit d'insérer, via ces API, le traitement supplémentaire dans
l'outil LLVM lui-même. En parfait contraste avec la boîte noire que
gcc représente souvent pour les développeurs — parfois même la bête
noire
! — LLVM est une boîte transparente dont le mécanisme est non
seulement visible mais encore accessible et modifiable le cas
échéant. (J'entends d'ici certains évoquer OIL-CCG, Optimized
Intermediate Language
et Common Code Generator, précurseurs
avant-gardistes en 1976-77 pour PL/1 et Cobol...)



Qu'Apple cherche à acquérir une maîtrise la plus complète possible de
la génération et de l'optimisation de code natif n'est pas forcément
surprenant à la lumière, par exemple, de son acquisition l'an passé de
PA Semiconductor qui lui fournira des SoC spécialisés pour les
mobiles. Ainsi Apple contrôlerait toute la chaîne, du silicium
jusqu'au firmware et au code applicatif : un avantage concurrentiel
important sur les marchés fragmentés de l'embarqué.



Enfin, depuis sa création, la la liste des projets LLVM s'est notablement
allongée : API pour Python, Lua et Objective CaML, liens avec OpenJDK,
emploi pour la virtualisation (llvm-qemu), noyaux de traitement
d'images par Adobe (Hydra/Pixelbender), etc. LLVM pourrait également
jouer un rôle prépondérant dans le
développement et la généralisation de Linux aux appareils mobiles ou
embarqués. (Par exemple en compilant et optimisant au vol des
librairies Linux distribuées sous forme de représentation
intermédiaire en fonction du/des CPU/GPU disponibles.) Quant au cloud
computing
, LLVM offre la perspective d'un déploiement de code sur des
plates-formes hétérogènes en compilant just-in-time sur chaque machine
des datacenters le fragment optimisé de traitement dont elle est
chargée par un algorithme d'allocation comme Hadoop.



jeudi, avril 30, 2009

Et l'on rit dans la piraterie !


La réflexion sur les usages du Net mérite certainement mieux que les
pantalonnades pathétiques qui nous sont données en spectacle ces
derniers temps. En France, le projet de loi « Création et Internet »
dit « Hadopi », qui a été repoussé il y a peu par l’Assemblée
nationale dans des conditions rocambolesques, repassera devant la
chambre autant de fois qu'il le faut pour qu'il soit voté — le
Président et la Ministre en font un point d'honneur. En Suède, la
transcription dans le droit national de la directive européenne IPRED
(Intellectual Property Rights Enforcement Directive) est entrée en
vigueur le 1er avril — choix judicieux de date ! —
dans une implémentation particulièrement totalitaire qui rappelle les
meilleures feuilles du texte de la loi Hadopi.

 



La Suède toujours, fort opportunément pour nos députés transformistes
à vue, vient de condamner lourdement les fondateurs du site The Pirate
Bay
(TPB), LE site de téléchargement peer-to-peer démonisé par
l'industrie de l'édition musicale. Les trois fondateurs et le business
angel
qui les a financés au démarrage ont été condamnés à un an de
prison ferme et 2,7m d'euros de dommages et intérêts par la justice
suédoise, excédée, il est vrai, par les provocations répétées du site
qui se clamait très publiquement — au point de fonder un
parti politique — « le premier site de téléchargement
BitTorrent ». Voilà qui devrait faire réfléchir d'ailleurs tous les
heureux assujettis à l'impôt de solidarité sur la fortune en France
qui cherchent fébrilement ces jours-ci la rédemption fiscale et
l'onction de la loi TEPA. S'improviser business angel sur l'incitation
ferme de la puissance publique peut parfois mener insensiblement au
délit et peut-être même au pénal ! Le juge suédois a déclaré que « les
utilisateurs de TPB sont les premiers coupables » mais que les
responsables du site les ont aidés dans leurs actes de
contrefaçon. Des complices en somme ! On voit ici combien est grande
la scandinave mansuétude puisque les internautes sont déclarés
coupables mais les complices trinquent. (Curieusement, le juge, Tomas
Norstrom, a confirmé appartenir à la Swedish Copyright Association et
siéger au conseil d'administration de la Swedish Association for the
Protection of Industrial Property
, deux associations de défense des
droits d'auteur au sein desquelles il a pu côtoyer les trois membres qui
ont représenté l'industrie du divertissement au cours du procès.)

 



En tout cas pas de telle pusillanimité sous nos cieux républicains et
sourcilleux : l'autorité nouvelle, Hadopi, agira par coupure d'accès
après sommations d'usage, sur dénonciation sans preuve d'acteurs
privés travaillant dans ou pour l'industrie du divertissement et des
médias. Dans le même élan coercitif, un sous amendement glissé par
M. Kert, député UMP des Bouches-du-Rhône, dit que « la collaboration
entre une entreprise de presse et un journaliste professionnel porte
sur l’ensemble des supports du titre de presse tel que défini au
premier alinéa de l'article L. 132-35 du code de la propriété
intellectuelle, sauf stipulation contraire dans le contrat de travail
ou dans toute autre convention de collaboration ponctuelle ». Les
journalistes perdent ainsi leur droit de regard sur la republication
de leurs articles dans tous les médias, y compris électroniques, d'un
groupe de presse.

 



C'est le même principe que le Google Book Search Settlement Agreement
: avis aux auteurs, vous avez jusqu'au 5 mai pour vous précipiter sur
le site et y réclamer votre droit de regard sur vos ouvrages. Passée
cette date, c'est Google qui fera en pratique ce qu'il voudra sur
leurs publication en ligne après numérisation — même pour les auteurs
non américains du moment que leurs livres sont accessibles aux
Etats-Unis ! Et pourquoi donc Google ne subirait-il pas en retour les
foudres de l'Hadopi ? Libraires, éditeurs, bibliothèques, auteurs ont
pourtant du souci à se faire devant l'hégémonie impérialiste et
scélérate qui menace l'exception culturelle française... Ne faut-il
pas que Mme Albanel entame immédiatement la riposte graduée contre
Google en envoyant séance tenant un courrier électronique de première
sommation, elle qui recevait naguère Mats Carduner de Google à bras
ouverts pour lui demander — défense de rire sinon coupure d'IP —
« des suggestions et des recommandations » afin « d'augmenter la
visibilité du patrimoine culturel français sur Internet » ? Pour être
complet ajoutons que la justice américaine vient d'ouvrir une enquête
sur cet accord établi entre Google et les associations d'auteurs en
octobre dernier autour de Google Books Search, ledit accord violerait
les lois antitrust.

 



Peut-être serait-il plus judicieux de surveiller et punir les
internautes finalement. Suggérons de demander à NKM, dans le cadre
grandiose de France Numérique 2012, d'instaurer une taxe sur le
keyword recherché sur Google depuis une adresse IP située en
France. (Beaucoup plus simple pour remplacer la taxe professionnelle
que l'équation insoluble d'une éco-taxe carbone !) Collectée, par
exemple, par les fournisseurs d'accès qui reverseraient une soulte au
Trésor Public chaque année, l'abonnement mensuel serait majoré d'une
taxe pour chaque terme recherché sur Google. Comment cela pourrait-il
marcher ? Il suffirait pour cela de chercher l'inspiration chez nos
amis du Céleste Empire. Pour expérimenter à la maison — attention
cette petite expérience vous signalera certainement aux autorités de
censure chinoise et inscrira à n'en pas douter votre adresse IP dans
la liste noire des odieux suppôts de la piraterie :

 




  • Ouvrez un autre onglet dans le navigateur que vous êtes en train de
    consulter et pointez le vers baidu.com, le site de recherche basé
    en Chine — et leader devant les autres dans ce pays.


  • Cherchez un terme anodin comme « Internet » et obtenez une série de
    résultats d'apparence banale.


  • Cherchez maintenant « Falun Gong », le nom connu d'une secte
    religieuse dissidente poursuivie par le gouvernement chinois.


  • Le navigateur vous notifiera probablement d'une erreur technique
    (connexion interrompue, serveur inaccessible, délai d'attente
    dépassé ou autre). Essayez alors de revenir sur la page d'accueil
    de baidu.com et là-aussi : soudain problème technique pour un site
    auquel vous accédiez sans difficulté une seconde auparavant. Il vous
    faudra attendre quelque peu avant que la connexion soit finalement
    rétablie.



Une taxe Google se rapprocherait, dans l'esprit si ce n'est à la
lettre, de celle qui frappe tous les supports vierges pouvant contenir
des oeuvres culturelles vendus en France : CD et DVD inscriptibles,
par exemple, mais également iPod et autres lecteurs MP3, et même
bientôt les clés USB et disques durs externes. Depuis plus de vingt
ans, cette taxe est censée dédommager les ayants droit (artistes,
producteurs, interprètes...) pour la copie de leurs ouvres sur un
support autre que celui acquis à la base. C'est la rémunération pour
copie privée. D'ailleurs tout acheteur de media vierge ou de lecteur
MP3 et de smartphone est évidemment un délinquant en puissance
susceptible de priver Mmes et MM. Adjani, Kaas, Aznavour, Hallyday,
Voisine ou Renaud du privilège de (peu) payer leur impôt dans les
paradis fiscaux honnis de la liste noire, gris taupe, anthracite ou
gris muraille !

 



Car au-delà des ripostes techniques que les militants du Web espèrent
opposer à l'inexorabilité de la loi Hadopi (streaming, complexité
accrue du triple play, serveur d'anonymat...), au-delà des esprits de
pointillisme juridiques qui espèrent encore que
les remontrances de Bruxelles viennent contrer l'inévitable cavalier
seul français, il me semble légitime de poser plutôt la question du
nouveau régime de surveillance qui s'instaure progressivement. Passons
aussi rapidement sur la question des moyens attribués à l'éventuelle
Hadopi — si l'on en juge par l'impécuniosité chronique de la CNIL
dénoncée depuis tant d'années, il est prématuré de s'inquiéter de
l'impact réel de cette haute autorité sur les comportements réels des
internautes. Loin donc des provocations à l’égard d’un gouvernement qu’il
est maintenant de bon ton de conspuer, supposé représentatif d’une
France bien pensante et proche des préoccupations d’une industrie du
disque moribonde, ici comme ailleurs, il convient de s'interroger sur
l'analyse qui soutient le projet de texte et sur la pertinence des
« solutions » qui prévaudront au final.

 



Le constat de départ du texte, comme aux Etats-Unis, et comme l’avait
été la loi DADVSI en son temps, repose sur la volonté d'enrayer le
piratage d'oeuvres au format numérique — un sujet sur lequel nul
gouvernement ne se serait risqué sans d’insistantes pressions de
certains professionnels et industriels de ces métiers. L'origine de
l'idée de contrer le piratage est donc selon toute vraisemblance
privée. Le diagnostic d'origine privée serait le suivant : l’industrie
du disque, dont le chiffre d’affaires s’est écroulé, comme chacun
sait, ces dernières années, maintient constamment y voir le résultat
d’un piratage de masse. L’industrie du cinéma, qui regarde elle aussi
d’un mauvais oeil les échanges de fichiers peer-to-peer, seul visé
aujourd'hui, et dans une moindre mesure, l’industrie du jeu vidéo
auraient rejoint celle du disque dans ce lobbying discret mais
efficace. Il est facile de condamner les échanges illicites, car non
rémunérés, d’oeuvres protégées par le droit d’auteur. Mais tout ce qui
est simple et de bon sens n’est pas forcément juste, et encore moins
inaliénable. L’avènement du numérique a menacé une forme d’échange de
bien culturels auparavant contrôlée et source de profit — comme dans
la presse traditionnelle confrontée aux sites Web d'actualités en
ligne. Cela n’a pas eu que des aspects négatifs, donnant à toute une
génération accès à une culture auparavant inaccessible car trop chère
pour être consommée en masse ou absente des médias de grande diffusion
: c'est la théorie de la « longue traîne », d'où peuvent pourtant être
tirées de nouvelles sources de profit comme le montrent
quotidiennement les Amazon et les Google. Pour ces industriels des
médias le « retour à la raison » face à la libération explosive de la
musique et de la vidéo numérisée sur le Net consisterait à revenir au
statu quo antérieur où prévalait leur mainmise complète sur la
diffusion limitée et contrôlée du bien culturel — cet usage est celui
de la rareté, du bien précieux, de l’achat parcimonieux du CD audio,
autant d'attributs qui disparaissent une fois numérisés.

 



Au plan technique on retiendra la métaphore fondatrice du texte de loi
: celle du radar routier qui contrôle le flux de citoyens motorisés
sur le réseau routier et autoroutier. Le dispositif technique s'en
écarte néanmoins sur un certain nombre de points assez révélateurs.

 



D'abord les flux de fichiers protégés par le droit d’auteur seront
surveillés par des sociétés privées, payées par les ayants
droits. Elle ne relève donc pas, comme pour les radars autoroutiers,
de la puissance publique directement. Cependant la question de la
traçabilité effective de l'IP, objet de cette surveillance, est
problématique. Les trackers BitTorrent, par exemple, sont (sciemment
?) pollués d'adresses IP aléatoires, cryptées ou totalement
innocentes. La question est évidemment primordiale puisque sa réponse
conditionne la faisabilité du dispositif central de la loi Hadopi. En
faisant l'hypothèse qu’une IP fautive soit identifiée, la société de
surveillance se rapproche alors du FAI correspondant, et se voit
théoriquement présentée l’identité de l’abonné fautif. Les frais et
les impératifs techniques de cette étape ne sont pas totalement
négligeables, et en discussion avec les FAI. La société de
surveillance dénonce alors l’internaute fautif à l’Hadopi, laquelle se
charge d’appliquer des sanctions dans le cadre de la maintenant fameux
riposte graduée. Le plus intéressant, à mon sens, est la possibilité,
prévue dans le texte, d'imposer à l’abonné de s’équiper d’un logiciel
homologué par l’Hadopi, censé le surveiller jusqu’à lui garantir un
comportement conforme. Ce « mouchard » n'est évidemment pas défini et
n'existe pas encore : il serait payant et pas forcément compatible
avec tous les systèmes d'exploitation du marché ! (Notons que dans le
cas des bornes WiFi il paraît difficile de déléguer la sécurité à un
des mouchards des ordinateurs connectés.) Enfin, la présence d'un
mouchard est elle-même une vulnérabilité supplémentaire : l'affaire du
rootkit qui profitait du DRM imprudemment distribué à l'insu des
utilisateurs par Sony BCG a été hélas vite oubliée !

 



Le réseau de surveillance privée ainsi créé et adoubé par la puissance
publique sera, on l'imagine aisément, rapidement confronté à des
problèmes techniques, légaux — au plan du droit des données privées
et du respect de la vie privée, par exemple, nonobstant le silence
assourdissant de la CNIL sur le sujet Hadopi —, sans parler des
conflits d'intérêts inextricables. (Alors que dans le même temps on
glose sans fin sur la présomption d'intrusions informatiques du réseau
Greenpeace par des officines de barbouzes retraités commandités par
l'électricien public, signaux pourtant avant-coureurs de la Nouvelle
surveillance style Hadopi — deux poids, deux mesures.)

 



Une idée radicale serait de recourir en masse — internautes français,
réagissez ! — à l'encryption généralisée des connexions IP et des
échanges. Et ceci avant que l'Internet Nouveau promis par le
projet CleanSlate de l'Université de Stanford et soutenu par tous les
grands opérateurs monopolistiques de réseaux ne prennent les devants !
D'autant plus que les mesures technique Hadopi ne visent, pour
l'instant, exclusivement que les réseaux peer-to-peer de première
génération (à la BitTorrent) sans avoir apparemment vu le
développement rapide des réseaux P2P anonymes, des possibilités des
réseaux mobiles mesh, du streaming et des serveurs d'anonymat.

 



Après la séquestration des patrons, il est temps de passer à grande
échelle et de pratiquer la séquestration des internautes.

 



ShareThis