jeudi, février 22, 2007

Les hautes technologies facilitent la triche !

Entendez-vous cette petite musique ? Oh ! pour l'instant juste l'aigre tintinnabulement du grelot, à peine audible dans la distance.

En France, sur une chaîne du service public, au journal télévisé du soir, la présentatrice expose les conclusions du tout premier rapport du Conseil des prélèvements obligatoires - rien que le nom laisse déjà rêveur ! - et donc qui doit marquer les esprits : « 29 à 40 milliards d'euros de fraude fiscale et sociale en France ! ». Plan rapproché sur le visage de la présentatrice qui prend alors un air entendu pour asséner : « les hautes technologies facilitent la triche ». Instantanément, nouveau plan séquence sur notre sémillant ministre délégué au Budget et à la Réforme de l’État devant une forêt de micros tendus ; tirade sur l'inexcusable manque à gagner de la TVA, qui représente le gros (7,3 à 12,4 milliards d'euros) de cette « cavalerie » massive ; silence bref de componction, oeil soudain circonspect, plan à nouveau rapproché sur le ministre « et les sites Internet, en particulier à l'étranger » sont dans le collimateur. Personne ne contredit, tout le monde semble approuver cette évidence aveuglante, adjuvant commode de la pensée électoraliste, les hautes technologies, les sites Internet et surtout étrangers, ne trouvent d'usage que frauduleux, détournant les milliards d'un simple clic !

Il est vrai qu'au même moment, une partie du prix du DVD que j'achète vierge pour y archiver les documents inconséquents que j'ai moi-même bien laborieusement produits, à mon usage unique et personnel, revient via les détours labyrinthiques et bifurquants de la gestion des droits numériques à l'excellente idole des jeunes, dont je ne possède, à mon grand désarroi, aucun enregistrement, pour qu'il le mette diligentement au secret d'un coffre numéroté à Gstaad, bien à l'abri des fraudeurs dont je suis entouré !

Concussion ! Stellionat ! Quels sont donc ces comportements réprimandables et punissables que ces hautes technologies, de sulfureuse réputation, (nous vous avions pourtant mis en garde !) mettent maintenant à la portée de tous ?

Aux États-Unis le Trésor américain, rapporte le Financial Times du même jour, estime à 2 milliards de dollars le montant des taxes, aujourd'hui impayées, si les sites d'enchères en ligne comme eBay avait seulement le patriotisme de dénoncer leurs abonnés ayant à leur compte plus de 100 transactions à $5000. La mesure imposée par l'IRS (Internal Revenue Service, les Impôts outre-Atlantique) devrait avoir force de loi au 1er janvier 2008. Résistance des quatre fers à eBay, seul visé par la directive de l'administration Bush. Le porte-parole du site se plaint amèrement ; perfide il constate que l'injonction ne s'applique pas à d'autres sites comme Craiglist, les petites annonces en ligne, parce qu'il n'utilise pas d'enchères et qu'il met en oeuvre des moyens de paiement différents. Le Trésor américain est moins imaginatif que son homologue français, puisque cette mesure ne s'appliquerait qu'aux utilisateurs américains d'eBay sans relents xénophobes. Mais avec vertu d'exemple à suivre, puisque le UK Revenues and Customs s'est empressé de prescrire aux sujets imposés de sa très Gracieuse Majesté de bien indiquer les revenus engendrés par leurs ventes sur eBay dans leur déclaration, sous la menace de s'exposer à de très lourdes pénalités. On comprend toute l'impatience avec laquelle il nous faut maintenant attendre le prochain rapport du Conseil de prélèvements obligatoires : il y a une idée à creuser.

Mais le plus beau, c'est la finalement la remarque de Barbara Weltmann, conférencière, auteure à succès, invitée permanente des radios et des télévisions, insatiable défenseur des petites et moyennes entreprises américaines et incontestable spécialiste d'eBay (il faut lire son « The Complete Idiot's Guide to Starting an eBay Business »), à propos de l'établissement de cette fameuse liste : « pour eBay c'est pénible, mais faisable ».

Entendez-vous cette petite musique ?

samedi, février 10, 2007

Faut-il ou non se réjouir de l'investissement high-tech à s'en « casser la voix » ?

Fâcheusement publié alors que la campagne électorale bat son plein, le chiffre du commerce extérieur n'incite pas vraiment à la réjouissance. Passé de 8,3 milliards d'euros en 2004 à 26,4 milliards d'euros l'année suivante, le déficit se creuse encore en 2006 à plus de 29 milliards d'euros. Patrick Artus, directeur de la recherche et des études d'IXIS CIB, commente : « Notre gamme de produits est trop courte, notamment dans les produits de pointe ». Il apparaît en effet qu'en France 70 % des exportations de haute technologie relèvent du secteur de l'aéronautique, autrement dit nous dépendons bien trop des ventes d'Airbus. Sévère constat pour la high-tech nationale en général.

Plus loin, M. Artus propose une explication à cette carence, particulièrement sensible comparée à la situation de l'Allemagne : « nous possédons trois fois moins de PME de taille convenable - plus de 250 salariés - que les Allemands. Les nôtres sont trop petites pour innover et donc pour exporter. Les aides aux entreprises ont surtout profité aux grands groupes. Il n'est donc pas étonnant que nos investissements dans les PME soient dix fois moins nombreux qu'aux Pays-Bas. Si Google, créé aux Etats-Unis dans un garage par deux personnes, était né en France, dix ans plus tard, il se trouverait toujours dans un garage et toujours avec deux salariés ».

En fait de garage, Google est plutôt né sur le campus de Stanford, une des plus prestigieuses et des plus riches universités du monde, dévorant rapidement, comme le raconte John Battelle, le « biographe » officiel chargé de l'entretien du mythe, les capacités des disques serveurs et près de la moitié de la bande passante de l'université généreusement mis à la disposition des géniaux expérimentateurs, Page et Brin. Mais, passons. L'argument reste juste, les jeunes pousses de haute technologie naissent bien en France mais peu survivent au bout de quelques années. Que l'on se rappelle ici le soudain et récent engouement de tout ce que le pays compte d'incitation publique à l'innovation pour les « gazelles », ces introuvables « PME de taille convenable ». Comme les grands groupes ne donnent pas vraiment l'exemple non plus en ce moment, les licenciements annoncés cette semaine par les tout juste mariés Alcatel et Lucent n'aideront certainement pas à réconcilier la France avec ses startup aux technologies innovantes.

Comment donc s'expliquer alors la tonalité triomphante des articles récents de la presse financière portant aux nues le capital-risque français ? Les Echos annoncent l'inanité maintenant démontrée du débat sur le déclin français sur ce titre : « La France retrouve le goût du risque ». « Bilan de santé éclatant du capital-risque tricolore » claironne-t-on à la publication des statistiques collectées par Ernst and Young et Dow Jones VentureOne - on désespère d'ailleurs d'intéresser des instituts français à ces vétilles économiques. Seulement classé deuxième derrière le Royaume-Uni, noblesse oblige, le capital-risque français a enregistré une croissance annuelle de 20 % en 2006 et se situe à ses niveaux de 2002. Et, meilleure nouvelle encore, on semble revenir progressivement à des pratiques d'investissement un peu plus disciplinées. Confirmant la tendance observée depuis 2005, les investisseurs français et européens ont continué à concentrer leurs moyens sur un nombre plus restreint d'entreprises. A 2,2 millions d'euros, le montant unitaire médian d'investissement en Europe atteint ainsi son plus haut niveau depuis 1999 au moins (les statistiques ne remontant pas au-delà). Dans le secteur de la santé, il s'élève à 2,8 millions d'euros, un record. D'après le baromètre de « Capital Finance », vingt sociétés ont franchi les 10 millions d'euros collectés en 2006, contre neuf en 2005. Notons que les « gros » tours de table ont été réalisés, comme c'est la tendance depuis l'éclatement de la bulle Internet, majoritairement dans les secteurs de la biotechnologie - qui sont, légitimement, plus consommateurs de capitaux que les autres. Cette hausse des investissements masque leur concentration accrue sur un plus petit nombre de bénéficiaires, ce qui n'est pas rédhibitoire, pour peu que ce soient les « bons ». Mais le capital-risque français, ramené au produit intérieur brut, est quatre fois moins important dans l'Hexagone qu'aux Etats-Unis.

La profession est donc justement émue de ce satisfecit autodécerné. Au point que l'Association française des investisseurs en capital (AFIC) prolonge cette euphorie lors de ce que son site Web n'hésite pas à qualifier de « manifestation de référence en France », la Conférence annuelle du capital investissement. Cette « Fête » annuelle du capital investissement, comme renchérit le site, où l'on se grisera, sans nul doute, des propos d'allégresse d'intermittents comme MM. Raffarin et Théodore, sera couronnée par l'invité d'honneur, Patrick Bruel ! Probablement pour une première leçon de poker-menteur, indispensable peut-être à cette noble assemblée représentative d'une « minorité de privilégiés, actionnaires de grosses sociétés, bénéficiaires de stock options, spéculateurs financiers », suppôts des ravages du libéralisme et de la mondialisation !

Ou bien doit on trouver d'autres pistes explicatives dans la lecture du rapport d'enquête réalisé par la Cour des comptes, à la demande du Sénat, sur la gestion et la comptabilité de l'ANVAR, l'Agence nationale de valorisation de la recherche, précautionneusement fusionnée sous le nom Oséo-Innovation (toujours le lyrisme !) avec la BDPME, la Banque de développement des PME, en 2004 ? Le 9 février le communiqué de presse du Sénat, rien moins, ne laisse pas place au doute : « La commission des finances dénonce les errements de la gestion passée de l'ancien EPIC ANVAR (devenu OSEO innovation) et souhaite que ses performances soient mieux mesurées » ! Les plus grands doutes planent sur l'exécution de sa mission durant la période 1998-2004. La direction de l'époque est mise en cause, ainsi que l'Etat lui-même. Les comptes étaient « non fidèles, non réguliers et non sincères » de 1998 à 2003. Quant à ceux de 2004, ils sont « entachés d'erreurs et ne peuvent être examinés ». Rappelons quand même, que lorsqu'un entrepreneur ou un commissaire aux comptes se livre à de tels abus, il engage sa responsabilité pénale ! Rappelons également que l'ANVAR/Oséo-Innovation, telle la jalouse vestale du temple de l'incitation publique à l'innovation, est omnisciente, seule habilitée à juger du « caractère innovant » des jeunes sociétés dans lesquelles les fonds réglementés comme les FCPI sont autorisés à investir. Or, la Cour des comptes conteste avec virulence la façon dont ces incitations publiques étaient distribuées, en avances remboursables, « sans examen approfondi de la situation économique de l'entreprise, sans que le caractère innovant soit souvent démontré ni que les aspects commerciaux soient correctement pris en compte ». Et de conclure, sans rire (jaune), que « le système informatique présentait aussi des défaillances majeures ». Le comble.

Mais c'est aussi le parfait reflet de l'époque. De 1998 à 2004, le petit monde de l'investissement national a connu la plus grande fluctuation de sa jeune histoire avec la démesure de la bulle Internet suivie d'une période glaciaire dévastatrice et prolongée succédant à son éclatement. Reproduisant fidèlement, à quelques mois de retard près, le cycle américain, l'impact de ce cataclysme économique n'a épargné personne dans le fragile écosystème français. Les pratiques de naguère ont servi bien des acteurs quand il s'agissait d'essayer de « rattraper » la locomotive technologique américaine et de renforcer le « patriotisme » entrepreneurial par l'innovation à tout crin. Cela ne justifie évidemment en rien les « errements comptables » aujourd'hui dénoncés, comme le sont chez nos amis américains que l'on eut été peut-être mieux inspiré de ne pas copier béatement, les excès « inappropriés » de certains CEO aux stock-options antidatées et de banquiers d'investissement jonglant avec allocations et greenshoes. Même l'Etat est amené à résipiscence par le conseiller inquisitorial de la Cour qui critique les « coups d'accordéon » sur les crédits versés par l'Etat à cette agence, ainsi que la budgétisation d'une fraction significative de ces crédits. Mais tout finit bien, comme chez Offenbach et bientôt chez Bruel, puisqu'en réponse, le ministère de l'économie, des finances et de l'industrie a reconnu une prise de conscience tardive et progressive des désordres comptables de l'ANVAR dus, en particulier, à l'absence de contrôle interne et de « culture comptable » dans cet établissement. M. Jean-Pierre Denis, président-directeur général actuel d'OSEO, a évoqué l'ampleur du travail de redressement comptable depuis l'intégration de l'ANVAR au sein du groupe OSEO. Il a également indiqué qu'un programme d'évaluation avait été mis en place au sein de la société, qui devrait prendre effet en 2007.

Favorables auspices pour l'innovation, donc. Tiens, à propos, ou en est notre Google à nous, le fleuron de la R&D européenne lancé à grands frais l'année passée, portant fièrement au front l'honneur menacé de l'exception culturelle, sursaut salutaire de l'orgueil du pays emporté par la fougue de notre mémorialiste national Jean-Noël Jeanneney, Quaero, destiné à contrer l'odieuse domination américaine ? Est-il toujours dans le garage artusien avec deux personnes ? Les nouvelles sont mitigées. D'un côté, le principal partenaire français, Exalead, vient de lever 12 millions d'euros auprès de l'investisseur en capital Qualis SCA. De l'autre, curieusement, les allemands lâchent le projet ont-ils annoncés en décembre dernier. En effet, les entités allemandes qui constituaient ce projet de recherche autour de la recherche d'information multimédia viennent de quitter le navire pour s'embarquer sur le pont d'un autre programme, nommé Theseus, a annoncé Hendrik Luchtmeier, porte-parole du ministère de l’économie allemand. Le projet Quaero, s'il existe, devrait se résumer à la technologie d'Exalead entourée d'entreprises françaises comme Thomson (en priorité), France Télécom, Bertin Technologies, Jouve, Vecsys, Synapse Développement, LTU Technologies, etc. D'un projet européen, Quaero a vite tourné à l'affaire franco-allemande, avant donc de devenir franco-français...

vendredi, février 02, 2007

Recherches publique/privée, fondamentale/appliquée : quelle équation ?

À peine les bonnes pages du « Rapport d'enquête sur la valorisation de la recherche », rédigé par l'inspection générale des finances et celle de l'administration de l'éducation nationale et de la recherche, avaient-elles été divulguées dans les pages du Monde, qu'elles provoquaient un tollé général et une condamnation en bloc de la communauté de la recherche publique en France. Ce rapport a finalement été mis à la disposition du public pas une publication sur le Web il y a quelques jours (après, nous dit-on, de nombreuses tergiversations) : à l'URL https://www.igf.minefi.gouv.fr/sections/rapports/valorisation_de_la_r/

Pourquoi de telles hésitations et de quoi s'offusque-t-on donc dans les mandarinats des grands laboratoires nationaux de recherche ? Serait-ce parce que, une fois n'est pas coutume, on dit tout haut ce que tous ceux que concerne l'innovation et la valorisation de la recherche murmurent tout bas depuis des années ? Le rapport examine les retombées économiques de la recherche publique à travers les contrats avec les entreprises, la gestion des brevets, les « jeunes pousses » et la mobilité des chercheurs vers l'industrie. Sur l'ensemble de ces points, les performances françaises s'avèrent médiocres par comparaison avec les principaux pays de l'OCDE. De plus, elles n'ont que peu progressé depuis la loi sur l'innovation de 1999. Surprise de taille : l'esprit d'entreprise et d'innovation ne se décrète pas ! Il fallait pour le moins un inspecteur des Finances et un inspecteur de l'Education nationale pour s'en apercevoir...

Sur ce plan, l'Université de Shangaï nous le ressasse ad nauseam (http://ed.sjtu.edu.cn/rank/2006/ARWU2006_Top100.htm) depuis des années. Seules les universités anglaises de Cambridge et d'Oxford disputent leur prééminence aux universités américaines. Les universités et écoles d'ingénieurs françaises surnagent à peine au fond du classement. Il est évidemment de bon ton (dans nos longitudes) de critiquer vertement les critères retenus pour constituer ce classement qui, comme toutes ces études, reste éminemment discutable. Mais l'ignorer au motif qu'il est imparfait, lorsque d'autres le corroborent, relève de la politique de l'autruche.

Mais ce qui est intolérable aux yeux de ceux qui n'y lisent qu'une « nouvelle attaque téléguidée contre la recherche », tombant curieusement fort à propos en pleine campagne électorale pour les présidentielles, c'est que l'explication fournie par le rapport à cette médiocrité n'est pas celle qu'ils veulent. Là où ils souhaiteraient voir purement et simplement « plus d'argent, plus de moyens », le rapport le rapport met en évidence les handicaps structurels que sont la faiblesse de la R&D privée et les insuffisances de l'organisation de la recherche publique française. Au lieu d'ouvrir le porte-monnaie on enjoint de réorganiser !

Cette levée de bouclier peut néanmoins se comprendre de la part d'un organisme national comme le CNRS, dont les désaccords entre la présidence et la direction générale ont défrayé la chronique fin 2005, et, comme le rappelle Alain Mauger dans sa chronique dans Le Monde du 1er février, que « constatant la mauvaise gestion de la Direction du CNRS, l'Etat a dessaisi d'une partie de la dotation financière en la confiant à l'Agence Nationale de la Recherche (ANR) ». Le sentiment d'être un laissé pour compte de cette nouvelle économie de l'information qui se met en place dans le sillage de la mondialisation est pour le moins perceptible.

Car, dans ce modèle, l'inflation des coûts fixes de recherche et développement et l'effacement progressif des coûts de fabrication des applications de ses résultats provoque un paradoxe déjà noté par les économistes comme Daniel Cohen. Pour être efficace, la production d'idées nouvelles devrait obéir à deux règles : coopération de tous ceux qui visent à résoudre une question, puis, la solution trouvée, mise à disposition de celle-ci pour un libre usage de ses applications. Ainsi fonctionne, idéalement, la recherche universitaire ou bien les développements Open Source. Dans le cas de la recherche privée, ou de l'édition de logiciels traditionnelle, c'est exactement le contraire. Les laboratoires sont en concurrence et ne coopèrent pas : les secrets des travaux sont jalousement gardés. La découverte, une fois réalisée, reste dans le domaine privatif des firmes qui, pour amortir leurs coûts croissants de R&D, espèrent bien la transformer en bénéfices d'une rente de situation. (Ce qui veut bien dire, que les secteurs d'activité de ces firmes ne peuvent pas être purement concurrentiels.)

Cette contradiction rejaillit avec la rivalité d'aujourd'hui entre gratuit et payant. La tentation - et les problèmes qui en résultent - du téléchargement gratuit de contenus audio et vidéo, de la circulation de contrefaçons est une donnée de cette économie de l'information, du fait même qu'il coûte si peu de dupliquer la première unité d'un contenu, d'un résultat de recherche ou d'une IP une fois découvert. L'arbitrage entre les positions extrêmes du « tout gratuit » radical, qui menacerait l'innovation privée, et la restriction contraignante de la propriété intellectuelle, qui favoriserait les monopoles, est très délicat. Les atermoiements français sur la loi DADVSI, les signaux contradictoires de la Commission européenne sur les brevets logiciels, les hésitations sur le DRM des grands éditeurs de musique sur Internet, l'extension de la durée du copyright aux États-unis, le logiciel libre contre le bruit de bottes de Microsoft dans les administrations et les collectivités, pas une semaine sans que ces difficultés se rappellent à nous. C'est à la société de décider de ce réglage fin de la propriété intellectuelle. Mais ce réglage est insuffisant : la gratuité a besoin d'institutions adaptées à ses fins ainsi qu'à la production matérielle. Et c'est bien la faiblesse française sur ce plan que fustigent les rapports divers et variés récemment publiés sur le sujet.

Si l'on admet que les innovations scientifiques et techniques seront au XXIe siècle ce que l'organisation du travail industriel a été au XXe siècle, il est assez logique d'imaginer qu'une « organisation scientifique de la production du savoir » est nécessaire. Cette « Université » serait au nouveau siècle ce que la firme était à l'ancien. Les universités américaines ont aujourd'hui trouvé un point d'équilibre entre les deux contradictions qu'il faut résoudre : équilibre entre coopération et compétition, d'une part, et arbitrage entre recherche fondamentale - basic research qui a fait l'objet d'âpres débats outre-Atlantique durant les années 90 - et recherche appliquée.

Les universités américaines sont incontestablement concurrentielles : elles se disputent les meilleurs étudiants, les meilleurs enseignants et disposent d'une autonomie financière qui nourrit l'envie de beaucoup. Elles sont aussi lieux de coopération : les enseignants passent de l'une à l'autre et soumettent ensemble des projets à la NSF (National Science Foundation). Elles sont aussi suffisamment fortes pour discuter d'égal à égal avec les politiques et les industriels, là ou se joue la controverse entre recherche appliquée et recherche fondamentale. Les chercheurs français légitimement inquiets de voir leurs programmes dictés par une logique bureaucratique, ou pire, industrielle - loin de moi ce libéralisme que je ne saurais voir - font à juste titre valoir qu'on avait pas découvert l'électricité en cherchant à faire de nouvelles bougies. Mais enfin, faisons aussi remarquer que la thermodynamique a été découverte au XIXe siècle en voulant améliorer les machines à vapeur. (À ce sujet, l'histoire technologique de la France n'est pas non plus flatteuse : Sadi Carnot, génie précoce, avait découvert le second principe de la thermodynamique dans « Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance » qu'il publia à ses frais en 1824, devant le mépris et le dédain affiché de la communauté scientifique de l'époque. L'Angleterre utilisa au contraire ces résultats pour améliorer ses machines à vapeur, et lancer une véritable révolution industrielle qu'Allemagne et France mettront pratiquement un siècle à rattraper.)

La complexité des liens entre recherche appliquée et recherche fondamentale, couplée à la demande sociale qui leur est adressée, requiert des institutions fortes et autonomes dont, aujourd'hui, les universités américaines sont le modèle. Au plan européen on a bien pris conscience qu'indépendamment même des niveaux de financement l'empilement des centres de recherches nationaux n'est pas une solution. Néanmoins, les procédures d'allocation de ressources de la Communauté, très attentives au respect de l'égalité entre nations, de même que les politiques publiques d'incitation nationales - que l'on songe aux pôles de compétitivité : 66 rien qu'en France ! - n'arrive évidemment pas à faire émerger des centres d'excellences comparables à ceux déjà constitués États-unis. En revanche, il ne serait socialement pas accepté que soit accordée à Oxford, Bologne ou Grenoble la même concentration de ressources que celle que l'on observe dans la Bay Area à San Francisco ou bien autour de Boston.

Alors, au moment où l'Europe est amenée a résipiscence sur son manque de lucidité et de réalisme dans le fameux « agenda de Lisbonne » qu'elle s'était crue capable d'atteindre, où Davos conclut sans état d'âme au « changement de l'équation du pouvoir » et Jean-Paul Betbeze, économiste et Conseiller du Président et du Directeur général du Crédit Agricole, prophète annonciateur des mutations macro-économiques, pronostique à ses auditeurs lors d'une conférence récente l'ère de la « mittalisation » de l'Europe, il est grand temps de se mobiliser sur ce thème de « rupture ».

mardi, janvier 23, 2007

Hausses immobilières réelles et virtuelles : la bataille des datacenters

« Quand le bâtiment va, tout va » clamait en 1849 Martin Nadeau, ancien maçon devenu député à l'Assemblée nationale. La dernière illustration de la formule n'est pas à chercher du côté d'un autre Martin, bien contemporain, ancien maçon lui aussi, oeuvrant plutôt dans les télécoms et les médias, mais plutôt dans le télescopage fascinant du réel et du virtuel à l'heure du Web.

Ébahissons-nous, en effet, des premiers signes d'une invasion en règle du virtuel par le réel. À moins d'avoir vécu les trois dernières années en villégiature en Corée du Nord, ou au Burma (ou encore, malheureusement, dans un des pays de la liste des « ennemis d'Internet », remise à jour par Reporters sans frontières), le phénoménal succès du jeu en ligne Second Life n'aura échappé à personne. Le nombre de comptes ouverts est passé de un à deux millions en l'espace de quelques semaines à la fin de l'année dernière et on peut y trouver jusqu'à 100.000 joueurs en ligne simultanément à un moment donné. Dans ce MMORPG, comme on dit poétiquement (pour l'allitérant Massively Multiplayer Online Role Playing Game), il n'y a pas de but du jeu : on y fait vivre un « avatar », dont on définit à son gré le caractère et l'aspect, dans une économie entièrement simulée, depuis l'immobilier jusqu'aux régimes de protection de la propriété intellectuelle créée par les avatars innovants. Des entreprises virtuelles entières ont ainsi vu le jour dans ce cyberland sans limite. Michel Foucault aurait adoré ! D'ailleurs, dans le jargon vernaculaire, les avatars sont appelés « résidents », comme l'on dit aujourd'hui « résident permanent » (ce à quoi aspire en général le réfugié), « résident fiscal » (très en vogue dans notre actualité helvético-électorale), mais aussi « résidence surveillée » (voir les entrées hôpitaux psychiatriques, asile d'aliénés et institution pénitentiaire sur Wikipedia, par exemple, pour se convaincre que les perspectives de Second Life sont inouïes).

Constatant néanmoins le volume croissant de trafic et la déplorable assuétude provoquée chez ces nouveaux marionnettistes d'avatars, les annonceurs, d'abord timidement puis dans une ruée indisciplinée, se sont engouffrés en masse, happés par ces nouveaux espaces publicitaires sans horizon qui s'ouvraient à leur appétit de conquête. Les marques procèdent à un envahissement systématique de Second Life : la banque Wells Fargo y a acheté une île pour achalander l'avatar moins impécunieux, Toyota livre des voitures virtuelles aux fous virtuels du volant, L'Oréal y lance des campagnes de publicité (« parce que votre avatar le vaut bien » ?), Adidas y chausse les avatars, etc. Mieux encore, notre patriotique élection présidentielle y établit aussi ses quartiers virtuels : le Parti Socialiste et Ségolène Royal viennent d'ouvrir une permanence dans Second Life. Comme le FN y a déjà des avatars colleurs d'affiche, il y de la « castagne » virtuelle en prévision ! C'est donc la grande pollution du virtuel par le réel. On attend vraiment un Nicolas-vatar Hulot pour entraîner des alter-secondmondialistes dans la défense de l'environnement virtuel contre l'intolérable agression du libéralisme réel : qui proposera un cyberpacte écologique contre la seconde-mondialisation ?

Cette intéressante osmose entre monde réel et mondes virtuels - il y a bien d'autres MMORPG disponibles ou exercer ses talents ou ses déviances - pourrait être un formidable outil de recherche pour les sciences sociales, économiques et politiques. À l'heure même où les grands de ce monde s'interrogent sur son avenir à Davos, on pourrait tester des centaines de milliers de Davos virtuels dans Second Life et en analyser les résultats. La simulation de milliers d'économies virtuelles permettrait peut-être de trancher le débat incessamment renouvelé entre économistes et politiciens sur les vices et les vertus de l'économie de marché. On se prend à rêver. Ceci dit, dur rappel à la réalité, enfin plutôt à la virtualité dans le cas présent, une visite même rapide à Second Life montre vite que l'on est encore bien loin du compte...

En juste retour des choses, ne voit-on pas également le virtuel prendre racine dans le réel ? Dans Google Earth, Davos c'est :

⟨?xml version="1.0" encoding="UTF-8"?⟩
⟨kml xmlns="http://earth.google.com/kml/2.0"⟩
⟨Document⟩
⟨Placemark⟩
⟨name⟩Davos⟨/name⟩
⟨styleUrl⟩#15566⟨/styleUrl⟩
⟨Point⟩
⟨coordinates⟩9.823536999999991,46.794738,0⟨/coordinates⟩
⟨/Point⟩
⟨/Placemark⟩
⟨/Document⟩
⟨/kml⟩

Mais Google Earth n'est-il pas déjà une forme de « Second Earth », quand Google tarde à répondre de la suspicion d'avoir, dans la plus pure tradition des propagandes stalinienne et maoïste, gommé de ses photos aériennes de l’Irak, de l’Iran et même des USA certains détails « inappropriés » au regard d'autorités perfidement laissées anonymes ?

En tout cas la guerre de l’immobilier, bien concrète et dans le monde bien réel cette fois, est ouvertement déclarée entre Google et Microsoft. Google vient d'annoncer un nouveau datacenter monumental, à Lenoir, en Caroline du nord :

⟨?xml version="1.0" encoding="UTF-8"?⟩
⟨kml xmlns="http://earth.google.com/kml/2.0"⟩
⟨Placemark⟩
⟨address⟩Lenoir, NC⟨/address⟩
⟨LookAt⟩
⟨longitude⟩-81.53916700000001⟨/longitude⟩
⟨latitude⟩35.913889⟨/latitude⟩
⟨range⟩25622.882812⟨/range⟩
⟨tilt⟩0⟨/tilt⟩
⟨heading⟩0⟨/heading⟩
⟨/LookAt⟩
⟨Point⟩
⟨coordinates⟩-81.53916700000001,35.913889,0⟨/coordinates⟩
⟨/Point⟩
⟨/Placemark⟩
⟨/kml⟩

Sensible aux incitations locales et régionales à la sauvegarde des emplois, Google va investir plus de 600 millions de dollars pour construire un bâtiment ultra-moderne sur cette friche industrielle en déshérence. Il y bâtira une « ferme de serveurs » (c'est comme ça qu'on dit dans le jargon, ça ne s'invente pas !), modèle de la ruralité Web du XXIe siècle ! L'année dernière, le géant avait défrayé la chronique avec un premier datacenter pharaonique, lové dans un méandre de la rivière Columbia, à proximité immédiate d'un barrage hydroélectrique lui assurant une électricité bon marché, à The Dalles dans l'Oregon :


⟨?xml version="1.0" encoding="UTF-8"?⟩
⟨kml xmlns="http://earth.google.com/kml/2.0"⟩
⟨Document⟩
⟨Placemark⟩
⟨name⟩The Dalles, Oregon⟨/name⟩
⟨styleUrl⟩#20257⟨/styleUrl⟩
⟨Point⟩
⟨coordinates⟩-121.182774,45.60121799999999,0⟨/coordinates⟩
⟨/Point⟩
⟨/Placemark⟩
⟨/Document⟩
⟨/kml⟩

Deux autres datacenters sont apparemment prévus par Google, tous deux en Caroline du Sud, pour un investissement total de 950 millions de dollars au moins. Le premier, en plein marécage, à Goose Creek :

⟨?xml version="1.0" encoding="UTF-8"?⟩
⟨kml xmlns="http://earth.google.com/kml/2.0"⟩
⟨Placemark⟩
⟨address⟩Goose Creek, SC 29445⟨/address⟩
⟨name⟩goose creek, south carolina⟨/name⟩
⟨LookAt⟩
⟨longitude⟩-80.03277799999999⟨/longitude⟩
⟨latitude⟩32.980833⟨/latitude⟩
⟨range⟩25622.507812⟨/range⟩
⟨tilt⟩0⟨/tilt⟩
⟨heading⟩0⟨/heading⟩
⟨/LookAt⟩
⟨open⟩1⟨/open⟩
⟨styleUrl⟩root://styleMaps#default+nicon=0x304+hicon=0x314⟨/styleUrl⟩
⟨Point⟩
⟨coordinates⟩-80.03277799999999,32.980833,0⟨/coordinates⟩
⟨/Point⟩
⟨/Placemark⟩
⟨/kml⟩

l'autre à Blythewood :

⟨?xml version="1.0" encoding="UTF-8"?⟩
⟨kml xmlns="http://earth.google.com/kml/2.0"⟩
⟨Placemark⟩
⟨address⟩Blythewood, SC 29016⟨/address⟩
⟨name⟩blythewood, south carolina⟨/name⟩
⟨LookAt⟩
⟨longitude⟩-80.97416699999999⟨/longitude⟩
⟨latitude⟩34.214167⟨/latitude⟩
⟨range⟩25622.640625⟨/range⟩
⟨tilt⟩0⟨/tilt⟩
⟨heading⟩0⟨/heading⟩
⟨/LookAt⟩
⟨open⟩1⟨/open⟩
⟨styleUrl⟩root://styleMaps#default+nicon=0x304+hicon=0x314⟨/styleUrl⟩
⟨Point⟩
⟨coordinates⟩-80.97416699999999,34.214167,0⟨/coordinates⟩
⟨/Point⟩
⟨/Placemark⟩
⟨/kml⟩

Cette frénésie immobilière n'a pas manqué de provoquer d'intenses spéculations de la part de Robert X Cringely, un observateur de longue date de l'industrie et résidant lui-même (pas d'avatar ici, s’il vous plaît) en Caroline du Sud. L'avisé commentateur n'y voit rien moins que la confirmation des visées impérialistes du moteur de recherches. Google mettrait, selon lui, la main sur d'immenses étendues de terrains industriels :

- à bas prix,
- proches de vastes sources d'électricité bon marché (barrage aux Dalles, centrales électrique et nucléaire en Caroline),
- à proximité immédiate de rivières et de cours d'eaux indispensables au refroidissement des salles blanches (une ferme de serveurs pollue-t-elle plus qu'une ferme traditionnelle ? Comment comparer les 20 litres quotidiens de méthane des flatulences bovines d'un ruminant à celles d'un serveur lame ?),

pour y construire des mega-datacenters sans réel rapport avec la densité de population locale qu'il seraient supposés servir. (Il y a là, en tout cas, une idée à creuser pour nos communes rurales françaises.) 100.000 serveurs pour 4 millions d'utilisateurs potentiels en Caroline du Sud, soit 40 utilisateurs par serveur, calcule-t-il ; un luxe par trop dispendieux, juge-t-il. Sauf, poursuit Cringely, à supposer que l'ambition du géant du Web tourne au complot secrètement ourdi contre les autres opérateurs de réseaux historiques (téléphone, télévision, câble).

En investissant lourdement dans ces datacenters et dans les accès à très haut débit correspondants, Google en viendrait à déséquilibrer en sa faveur le délicat équilibre économique de ces opérateurs. Aux États-unis, les fournisseurs et les opérateurs sont tenus de respecter - pour le moment en tout cas ; le législateur s'y est montré explicitement favorable mais les débats ne sont pas terminés - la « Net Neutrality », c'est-à-dire la garantie de la même qualité d'accès au débit pour tous. La plupart, n'ayant plus les moyens de s'équiper a novo ou de se lancer dans des travaux coûteux d'ingénierie après l'éclatement de la bulle, tirent leurs profits de leur capacité à partager entre le plus grand nombre d’équipements et de points d'accès installés et amortis depuis longtemps. Or, d'un côté, celui du marteau mettons, Google fait tout pour propulser la demande en débit à des hauteurs stratosphériques : téléchargement de vidéos (YouTube, 1,65 milliard de dollars, voilà ce que j'appelle un sérieux sponsoring de la demande !), déploiement incessant d’applications et de services hébergés, collecte croissante de photos et de medias audio, enregistrement orwellien de données privées et du trafic de navigation sur les sites - sans compter le volume proprement incroyable du trafic « gris » : BitTorrent = 50% du trafic global sur Internet, principalement de la vidéo ! De l'autre côté, inéluctablement celui de l’enclume, Google multiplie les datacenters régionaux surdimensionnés. Devant la marée montante annoncée de la demande, vers qui donc les opérateurs, exsangues, saturés, en pénurie totale de capacité, pourront-ils bien se retourner pour louer les ressources indispensables au service de leur population locale ? « Do No Evil » proclame fièrement le slogan de Google (« Just paving the way... » imaginent les mauvais esprits).

Ceci dit, on pourrait tout aussi bien prêter les mêmes intentions aux autres géants de l'Internet dont l'intention n'est certes pas de laisser à Google ce(s) terrain(s) ! Direction San Antonio, au Texas :

⟨?xml version="1.0" encoding="UTF-8"?⟩
⟨kml xmlns="http://earth.google.com/kml/2.0"⟩
⟨Placemark⟩
⟨name⟩Microsoft datacenter⟨/name⟩
⟨LookAt⟩
⟨longitude⟩-98.6926702708751⟨/longitude⟩
⟨latitude⟩29.48062989476047⟨/latitude⟩
⟨range⟩4055.849577650904⟨/range⟩
⟨tilt⟩3.16308093814195e-011⟨/tilt⟩
⟨heading⟩-3.480575237021882⟨/heading⟩
⟨/LookAt⟩
⟨styleUrl⟩root://styleMaps#default+nicon=0x307+hicon=0x317⟨/styleUrl⟩
⟨Point⟩
⟨coordinates⟩-98.69267027087511,29.48062989476047,0⟨/coordinates⟩
⟨/Point⟩
⟨/Placemark⟩
⟨/kml⟩

À cet endroit, Microsoft a annoncé 550 millions de dollars d'investissement dans du BTP tout ce qu’il y a de plus concret pour un nouveau datacenter. « Ce n'est pas un cadeau à Microsoft », déclare, lyrique, le maire Phil Hardberger à propos de cette parcelle inculte, « c'est un cadeau pour nous » - même état d'esprit que le président de l'Inria à la Ferme du Moulon il y a quinze jours ! Microsoft et Yahoo, voisins pour l’occasion, avaient déjà érigés deux de ces pyramides des temps modernes à Quincy, dans l'état de Washington, près du barrage de Grand Coulee sur la rivière Columbia (celle-là même qui refroidira aussi le datacenter concurrent de Google aux Dalles : peut-être ont-ils lus Manon des Sources et s'inspireront-ils avec espièglerie du roman de Pagnol ?)

Jusqu'où donc ira cette confrontation immobilière du réel et du virtuel ? Combien de datacenters titanesques faudra-t-il bâtir dans les campagnes réelles pour satisfaire l'appétit d'espace virtuel de celles, publicitaires, des marques et institutions dans le cyberespace ? Quelle prolifération prodigieuse d'univers virtuels éclora-t-elle dans les datacenters de ces incubateurs hypermodernes, chacun exigeant à leur tour d'être peuplé et nourri d'avatars toujours plus avides de publicité en ligne ?

vendredi, janvier 12, 2007

L'INRIA à Microsoft : passez par Le Guichet !

C'est dans le grand amphi de Supelec, par cette pluvieuse après-midi sur le plateau du Moulon, que l'INRIA et Microsoft recevaient pour la cérémonie d'inauguration de leur laboratoire commun de recherche Microsoft Research - INRIA. Fruit d'un accord signé par Gilles Kahn, Président Directeur général de l'INRIA, et par Steve Ballmer puis confirmé par un protocole d'investissement de Microsoft signé par Bill Gates à l'occasion de son passage à Paris en octobre 2005, le laboratoire commun regroupe aujourd'hui douze chercheurs. Mais avec des ambitions « ouvertes sur le monde » rappelait Michel Cosnard, nommé à la tête de l'INRIA après le décès de Gilles Kahn début 2006.

Les orateurs de cette demi-journée firent, comme il convient, assaut de déférence et de courtoisie dans leurs discours inauguraux, chacun, néanmoins, n'hésitant pas à rappeler le rôle et la vocation des institutions qu'ils représentaient. Eric Boustouller de Microsoft France s'enorgueillissait du premier partenariat privé-public de recherche fondamentale ; Michel Cosnard, hilare, se réjouissait du montant du chèque de Microsoft - dont ni l'un ni l'autre n'ont révélé le chiffre exact : « de quoi soutenir trente chercheurs » est la seule indication qui nous a été donnée - et de la rapidité avec laquelle il avait été établi par le géant de Redmond - « ce qui tranche de la puissance publique » crut-il bon de préciser ; Rick Rashid, le président de Microsoft Research s'était déplacé, venu de Seattle pour expliquer que Microsoft Research n'est pas Microsoft, mais bien une organisation de recherche fondamentale (« basic research ») ouverte, qui publie ses résultats, au même titre qu'une université américaine (700 personnes, 5 laboratoires dans le monde entier à Redmond, Mountain View, Cambridge en Angleterre, Pékin et Bangalore) ; Andrew Herbert, patron du laboratoire Microsoft Research de Cambridge, britannique dans l'âme, rappelait que le laboratoire commun dépendait bien de son propre institut et n'était qu'une illustration des partenariats que Microsoft Research entendait, sous sa houlette, nouer avec d'autres laboratoires en Europe comme l'INRIA et l'Université de Trente en Italie, dans le cadre de l'European Science Initiative ; enfin, Jean-Jacques Lévy, récemment nommé à la tête du laboratoire commun français, n'avait plus qu'à dévoiler les deux sujets de travail initiaux : les preuves formelles de logiciel, et l'informatique au service des scientifiques.

Mais derrière le « politiquement correct » qui sied à ce type d'événement, certains esprits chagrins ne voulaient pas se laisser séduire par les bulles du champagne et les petits fours (pourtant excellents : Microsoft, Research ou autre, sait recevoir !). De quoi soutenir trente chercheurs, certes, grinçait mon voisin, Professeur des universités et Directeur de recherche, mais « salaires français ou salaires Microsoft ? » Bernard Lang, un des pères de XML - le spécialiste XML de Microsoft, Jean Paoli, a d'ailleurs été formé par son équipe aime-t-il à rappeler - apôtre du logiciel libre, cocréateur de l'AFUL, se devait de jouer le rôle de poil à gratter dans ce bel agencement. Sous l'oeil progressivement de plus en plus inquiet du modérateur, Bernard Lang s'emparait du micro et posait quelques questions sur les raisons de la confidentialité absolue de l'accord entre l'INRIA et Microsoft Research, sur l'attitude beaucoup moins déférente et amicale de Microsoft vis-à-vis du Référentiel général d'interopérabilité de la Direction Générale de la Modernisation de l'Etat, au sein du Ministère de l'économie, des finances et de l'industrie, qui fait la part belle au format OpenDocument (en confrontation directe avec ceux de MS Office), et sur l'avantage conféré à Microsoft par une mainmise sur la propriété intellectuelle et sur d'éventuels recrutements de chercheurs issus des travaux de la recherche publique, censés servir les intérêts nationaux.

En tout cas, sur la propriété intellectuelle la réponse est claire. L'INRIA ne dérogera pas à ses choix, qui sont de protéger les résultats de ses travaux et d'en verser régulièrement les fruits éventuels aux chercheurs. Dans le cas du laboratoire commun Microsoft Research et l'INRIA seront tous deux propriétaires et pourront commercialiser cette propriété intellectuelle partagée, d'un commun accord, suivant leurs politiques habituelles : via des produits Microsoft ou via l'exploitation de licences industrielle comme l'INRIA l'a fait par le passé. Bernard Lang avait d'ailleurs été un moteur dans le débat contre la brevetabilité du logiciel en Europe. Ici les résultats seront « communs et protégés », circulez, il n'y a rien à voir, assénait Michel Cosnard.

Et pourquoi pas ? Des douze chercheurs, sept sont permanents, quatre de l'INRIA et trois de Microsoft Research - en fait un groupe de français (nostalgiques ?) jusque là exilé à Cambridge dans l'East Anglia, à une minute à peine d'aviron du King's College sur la rivière Cam. S'agit-il là d'une prise de pouvoir de l'éditeur ?

Microsoft Research a déjà annoncé vouloir s'en tenir pour les logiciels à la fameuse licence CeCILL-B, une licence libre de droit français, à la sauce CEA-CNRS-INRIA, dans l'esprit de et compatible avec GNU GPL, inspirée, pour cette variation, de BSD (cf. http://www.cecill.info/licences/Licence_CeCILL-B_V1-fr.txt). Voilà qui n'est pas abusif, surtout si l'on met en regard la politique de publication de Microsoft Research, au plan international et aux USA, qui est comparable à celle de tous les centres académiques de recherche.

Avec, certes, un avantage historique à nos amis américains pour la recherche privée fondée par les entreprises : IBM a fondé le Watson Laboratory en 1945 ! son laboratoire de Zurich compte des chercheurs couronnés de prix Nobel en 1973, en 1986, et en 1987 ! on y invente le disque dur, FORTRAN, le modèle relationnel des bases de données, les fractales (de Benoît Mandelbrot, passé par Polytechnique en France avant de travailler pour Big Blue, sans « drame national » du patriotisme économique), l'architecture RISC et bien d'autres avancées qui ont largement bénéficié à toute l'industrie. Et que dire de ATT et des Bell Labs ? L'initiative lancée en 1991 par Rick Rashid chez Microsoft est donc tout à fait dans le contexte business des hautes technologies aux USA, où il est considéré comme normal que les géants industriels établissent des fondations ou des laboratoires de recherche fondamentale dont l'intérêt dépasse les seuls besoins d'innovation à vocation commerciale de ces grands groupes. Microsoft Research ne travaille d'ailleurs pas que dans le domaine de l'informatique. Certaines de ses équipes, dont quelques unes au laboratoire commun avec l'INRIA, s'intéressent aux sciences sociales, à la biologie, à la santé, aux réseaux de toutes sortes... N'insistons pas, en Europe et en France c'est là où le bât blesse : une interminable litanie de rapports, livrés avec insistance ces dernières années, concluent systématiquement que la France connaît un des plus faibles taux de recherche privée en proportion de son investissement total en R&D ; il faut promouvoir par tous les moyens son développement, geint-on de toutes parts ; pour cela, les grands groupes industriels et de service doivent être incités à effectuer leur recherche en France, déclare-t-on dans les cercles qui nous gouvernent ! Aujourd'hui, même Microsoft fait de la recherche en France, si ce n'est pas une « victoire pour l'INRIA » comme le disait son président ?

Oublions donc un instant notre habitude nationale d'autodénigrement et voyons plutôt l'opportunité de faire avancer des sujets scientifiques importants. Leslie Lamport, plus connu pour la création de Latex, le système de mise en page de documents scientifiques que tout chercheur et étudiant à au moins une fois utilisé dans sa vie, est l'inventeur de langages de preuves formelles de logiciels assurant la validité et la sécurité des matériels et logiciels qui nous entourent. Il a rejoint le laboratoire commun pour y diriger une équipe. Le second axe est tourné vers l'exploration de domaines plus originaux et moins étudiés à l'heure actuelle que l'on appelle « eSciences ». Il s'agit de concevoir et développer des environnements indispensables à tous les scientifiques à la fois dans l'interaction avec les données qui peuvent leur être utiles (visualisation, manipulation) et dans la gestion de bases de données spécialisées (encyclopédies dynamiques, mise à jour).

On attend avec impatience les premières publications !

dimanche, janvier 07, 2007

La stéganographie pour tous !

Creative Commons, dont le slogan est « Some Rights Reserved » (quelques droits réservés par opposition au « tous droits réservés » classique) a pour mission de créer un système de copyright « raisonnable ». Fondé en 2001 sur le constat de l'avocat vedette Lawrence Lessig - il a joué un rôle important dans les premières phases du procès antitrust contre Microsoft en 1998 - que le système du copyright américain était aujourd'hui totalement déséquilibré au détriment de l'intérêt public, Creative Commons vient de se doter d'un nouveau « Chairman », Joichi Ito. Les licences mises au point par Creative Commons se distinguent des autres par la possibilité donnée aux auteurs d'offrir quelques droits aux consommateurs, dans des conditions particulières qu'ils sont eux-mêmes capables de spécifier. Ces licences ont beaucoup gagné en popularité en 2006 avec un service dédié de Google permettant de rechercher des contenus sous licence Creative Commons, et avec un plug-in de Microsoft permettant d'intégrer ces licences aux documents créés avec Office.

Mais la vision de Joichi Ito, exprimée la semaine dernière, à l'occasion de sa nomination est bien plus ambitieuse : « Ce que nous voulons c'est que lorsque vous allumez votre caméra numérique, elle demande sous quelle licence Creative Commons sera la vidéo d'aujourd'hui ? ». Joichi Ito décrit un monde futuriste dans lequel tout équipement producteur de contenu numérique (texte, audio, vidéo...) embarque un dispositif de tatouage de licence Creative Commons ! L'industrie des média erre, jusqu'à aujourd'hui en tout cas, plutôt dans l'excès inverse. Les manoeuvres défensives, en imposant des systèmes de DRM de plus en plus sophistiqués et coûteux, et les manoeuvres offensives, comme les nombreuses poursuites en justice d'internautes individuels, se sont multipliées aux USA ces dernières années et sont jugées par une classe croissante d'observateurs comme extrémistes. En France, le Conseil constitutionnel a adopté la loi DADVSI en juillet 2006 dans un débat confus et houleux qui laisse beaucoup d'insatisfaits.

La vision de Joichi Ito laisse plus que songeur. Au plan technique, on y est presque. En une dizaine d'années, la recherche scientifique dans le domaine du tatouage électronique (watermarking) s'est considérablement développée, poussée par électroniqueles applications commerciales et la généralisation des formats numériques. Si la cryptographie traite aussi de la protection de l'information, elle permet d'assurer la confidentialité, l'intégrité ou l'authentification de documents multimedia. Avec le tatouage on a simplement l'objectif de cacher un message utile - une licence Creative Commons et ses droits, par exemple - dans un message de couverture - la vidéo produite par la caméra, la photo prise par l'appareil, etc. On distingue en général : la stéganographie, l'art de la dissimulation, qui rend impossible de distinguer si le message de couverture contient ou non le message utile ; le tatouage proprement dit, où le message utile est lié à l'identité de l'ayant-droit du message de couverture (et doit donc rester présent même si ce dernier subit des modifications) ; le « fingerprint », enfin, dans lequel lorsqu'un document est cédé à un nouvel agent, il est préalablement marqué d'un nouveau message utile (ce qui permet de tracer les fraudes). Les méthodes de tatouage habituelles sont dites symétriques : le message utile est « incrusté » grâce à une clé secrète dans le message de couverture et le détecteur emploie la même clé secrète pour trier le contenu marqué du contenu non marqué. Généralisé, ce système pose un problème de sécurité si la clé secrète doit se trouver embarquée dans un très grands nombres de récepteurs (des caméras ou des appareils de photo numériques, par exemple). D'où des travaux de recherche très actifs, qui débouchent aujourd'hui sur des méthodes concrètes, sur les méthodes dites « asymétriques » dans lesquelles la clé de détection est différente de la clé d'incrustation. Ces dispositifs fournissent des niveaux de sécurité bien supérieurs aux précédents.

Il suffit d'imaginer une puce stéganographique utilisée comme coprocesseur avec tous les microprocesseurs et micro-contrôleurs du marché et le tour est joué ! Mais serions nous bien dans le meilleur des mondes promis par Creative Commons ? Que faire d'un appareil photo qui insiste pour marquer les photos avant de fonctionner ? Que penser d'une télévision qui s'éteint si le contenu diffusé n'est pas tatoué Creative Commons ? Est-ce vraiment différent des systèmes de DRM qui ont défrayé la chronique, comme l'infâme rootkit de Sony-BMG ? Ou encore du verrouillage iPod/iTunes, dont la technique de gestion des droits numérique, FairPlay, vient d'être « craquée » par le hacker Jon Johansen (« DVD Jon »). À partir du moment où Creative Commons se doterait des moyens de contrôle qui se généraliseraient aux équipements de production, ne rend-on pas la situation encore plus compliquée. Ce système, issu du monde du copyright anglo-américain est-il compatible avec le droit d’auteur français ou continental ? En système de copyright, il n’existe pas formellement de droit moral (respect du nom de l’auteur, intangibilité de son oeuvre). En système de droit d’auteur, ce droit existe et est inaliénable ; l’auteur ne peut donc rien en céder. Or les Creative commons envisagent certaines renonciations à des droits moraux.

Les nouveaux réseaux de surveillance électroniques ont de beaux jours devant eux en 2007 !

vendredi, décembre 08, 2006

Google s'intéresse à votre santé

Adam Bosworth, transfuge de BEA après avoir été un grand apôtre de XML chez Microsoft, avait rejoint Google en 2004, laissant planer un épais mystère sur les activités qu'il allait développer chez le grand rival de Microsoft. Dans une opération de communication qui semble aussi soigneusement planifiée que le lancement d'un film hollywoodien, quelques pièces du puzzle sont aujourd'hui savamment distillées à la presse, dans les blogs informés et dans des conférences spécialisées.

John Battelle, l'auteur du livre officiel sur l'avènement et la grandeur de Google (« The Search: How Google and Its Rivals Rewrote the Rules of Business and Transformed Our Culture », la recherche/la quête: comment Google et ses rivaux ont récrit les règles du business et transformé notre culture, rien que ça...), l'a repéré le premier. Après une interruption soudaine, aussi longue qu'inexplicable de son blog, Adam Bosworth vient d'y republier un unique billet la semaine dernière dont le contenu soulève quelques interrogations. Dans une page au titre on ne peut plus explicite (Official Google Blog), Adam Bosworth qui s'y exprime donc bien au titre de la société dont il est Vice-Président lève un coin du voile : « [pour les malades] il est incroyablement difficile d'accéder à la bonne information et d'obtenir l'assistance dont ils ont besoin pour prendre les bonnes décisions. Le système de santé n'est pas particulièrement bien organisé pour répondre à ces questions. Je crois que notre industrie peut aider à résoudre ces problèmes et améliorer la situation. ».

Nicholas Carr, auteur quant à lui du fameux « Does IT Matter ? » (L'informatique importe-t-elle vraiment ?), vient de dénicher un nouvel indice : une conférence, organisée par la fondation Markle, qui oeuvre à l'encouragement de l'emploi de l'informatique pour améliorer la vie publique (santé et sécurité publiques en particulier), sous le titre « Connecting Americans to their Health Care ». Dans un « keynote », le même Adam Bosworth y déplore que chaque individu n'ait pas aujourd'hui un dossier personnel lui donnant accès à toute l'information relative à sa propre santé. À l'heure où « l'information file à la vitesse de la lumière sur le Web et Google peut retrouver les réponses pertinentes à n'importe quelle question en moins d'un tiers de seconde » Adam Bosworth fustige un système de santé où le médecin de famille doit attendre le fax ou le document papier avec les résultats du laboratoire d'analyse.

Quoi ? Comment ? Où sont donc les contre-feux français, vaillants remparts des Lumières et défenseurs des exceptions culturelles et autres ? Alerte générale. Comment pourrait-on laisser passer une telle conduite attentatoire au rang du pays qui va consacrer 260 millions d'euros à construire Quaero, le moteur de recherche qui relève le défi de la défense du patrimoine culturel de l'Europe face au Google mondialisant et mercantile ? Car enfin, on lit sur www.sante.gouv.fr (l'URL est claire !) depuis 2004 : « Il n’existe actuellement aucun dispositif permettant aux professionnels de santé de partager l’information médicale d’un patient. Une des grandes mesures de la réforme pour l’Assurance maladie est de favoriser une coordination des soins effective en créant le dossier médical personnel qui permettra un parcours de soins optimal pour toute personne, dans toute la France, pour n'importe quelle situation et à tout moment ». Du Bosworth dans le texte, sauf que lui parle deux ans plus tard ! Et que propose-t-il donc ?

Il s'agirait d'un nouveau service de Google qui associerait à chaque patient (mais « tout bien portant est un malade qui s'ignore » dirait le Dr Knock) une « URL Santé » (Health URL), centralisant sur les serveurs du moteur de recherche toutes les informations du dossier médical du patient. Fondé sur une abondante utilisation de XML pour rendre compatibles et inter-opérables données et fichiers des médecins, des laboratoires d'analyse, des hôpitaux et des cliniques, l'URL Santé individuelle agira également comme portail personnalisé à toutes les informations de santé ramenées par le moteur de recherche, redonnant contrôle d'abord au patient et aux personnes engagées dans les soins à lui porter. L'ordre des priorités est énoncé de manière différente mais les objectifs du DMP et de l'URL Santé sont partagés : optimiser l'économie du système des professionnels de la santé (comprendre : réduire les coûts) et optimiser le parcours de soins aux patients (améliorer la qualité individuelle des soins).

Dans la directive française : « Les données seront centralisées et les dossiers seront hébergés en toute sécurité auprès d'un tiers, un " hébergeur de données de santé à caractère personnel ". Les hébergeurs seront désignés au terme d'un appel d'offres pour leur fiabilité, notamment pour les garanties apportées en matière de confidentialité des données. Ils devront être agréés " hébergeur de données de santé " aux termes du décret correspondant. Vous serez ensuite libre de choisir l'hébergeur de votre choix et pourrez changer d'hébergeur si vous le souhaitez ». Verra-t-on Google demander l'agrément « hébergeur de données de santé » ? Au vu de la tempête déchaînée l'année dernière par Google Print/Google Book Search qui provoqua l'éruption de notre Jeanneney national et catalysa le lancement dudit Quaero, cela n'en prend pas la direction...

À ce sujet une incidente grinçante que je ne peux m'empêcher de faire. On lit dans la presse quotidienne d'hier que lentement mais sûrement, la filiale française du géant américain Amazon numérise des milliers de livres en français pour permettre aux internautes de consulter des extraits d'ouvrages. Elle convainc les éditeurs sans faire de bruit, contrairement à son concurrent Google et vient de franchir un nouveau cap avec les éditeurs français. Amazon.fr a convaincu cinq nouvelles maisons - Les Éditions Eyrolles et de l'Organisation, l'École des Loisirs, Michel Lafon et les Presses de Science Po - de permettre aux internautes d'effectuer des recherches dans le corps même du livre. Comme dit avec tact l'article dans un politiquement correct de rigueur : « Amazon a accepté de coopérer avec les éditeurs français ».

Mais imaginons le scénario de l'URL Santé, après GMail et Office 2.0 vous voilà donc personnellement, authentiquement et confidentiellement logué sur GHealth, Ajax et XML à tous les étages. Combien de temps peut-on imaginer que Google résiste avant de glisser un discret bandeau AdWords et AdSense dans la page d'accueil ? Avez-vous, par exemple, remarqué dans GMail le bandeau supérieur affiché en permanence au-dessus des messages : « Extrait du Web » certes mais aussi « Lien Commercial » ? Ce qu'on accepte dans le courrier électronique serait-il imaginable dans ce GHealth hypothétique ?

Voilà de quoi occuper quelques comités et hautes autorités. Ceci dit, ces révélations organisées peuvent laisser imaginer bien d'autres supputations. Peut-être Adam Bosworth est il simplement en mission commandée de défrichage, chargé de tester les marchés et provoquer une réaction des industriels de la santé qui pourraient s'intéresser à des contrats de partenariats avec Google plutôt que de le voir débarquer sur leurs plates-bandes. C'est ce qui vient de se passer dans le domaine, en pleine controverse politico-médiatique aujourd'hui, de la vidéo en ligne. Google vient de signer un partenariat avec BSkyB en Angleterre aux termes duquel le moteur de recherches met à disposition les outils techniques de gestion et de montage vidéo, hérités de l'acquisition de YouTube, pour le développement de nouveaux services haut-débit sous la marque BSkyB, qui pourrait d'ailleurs concurrencer à terme YouTube. Et ce n'est que le premier d'une série de partenariats avec l'industrie des médias confie Eric Schmidt, le CEO de Google. L'URL Santé comme premier pas vers des partenariats de Google dans l'industrie pharmaceutique ou avec les gestionnaires de la santé publique et autres acteurs privés ?

En tout cas Google ne recule devant aucune ambition !

ShareThis