mardi, janvier 23, 2007

Hausses immobilières réelles et virtuelles : la bataille des datacenters

« Quand le bâtiment va, tout va » clamait en 1849 Martin Nadeau, ancien maçon devenu député à l'Assemblée nationale. La dernière illustration de la formule n'est pas à chercher du côté d'un autre Martin, bien contemporain, ancien maçon lui aussi, oeuvrant plutôt dans les télécoms et les médias, mais plutôt dans le télescopage fascinant du réel et du virtuel à l'heure du Web.

Ébahissons-nous, en effet, des premiers signes d'une invasion en règle du virtuel par le réel. À moins d'avoir vécu les trois dernières années en villégiature en Corée du Nord, ou au Burma (ou encore, malheureusement, dans un des pays de la liste des « ennemis d'Internet », remise à jour par Reporters sans frontières), le phénoménal succès du jeu en ligne Second Life n'aura échappé à personne. Le nombre de comptes ouverts est passé de un à deux millions en l'espace de quelques semaines à la fin de l'année dernière et on peut y trouver jusqu'à 100.000 joueurs en ligne simultanément à un moment donné. Dans ce MMORPG, comme on dit poétiquement (pour l'allitérant Massively Multiplayer Online Role Playing Game), il n'y a pas de but du jeu : on y fait vivre un « avatar », dont on définit à son gré le caractère et l'aspect, dans une économie entièrement simulée, depuis l'immobilier jusqu'aux régimes de protection de la propriété intellectuelle créée par les avatars innovants. Des entreprises virtuelles entières ont ainsi vu le jour dans ce cyberland sans limite. Michel Foucault aurait adoré ! D'ailleurs, dans le jargon vernaculaire, les avatars sont appelés « résidents », comme l'on dit aujourd'hui « résident permanent » (ce à quoi aspire en général le réfugié), « résident fiscal » (très en vogue dans notre actualité helvético-électorale), mais aussi « résidence surveillée » (voir les entrées hôpitaux psychiatriques, asile d'aliénés et institution pénitentiaire sur Wikipedia, par exemple, pour se convaincre que les perspectives de Second Life sont inouïes).

Constatant néanmoins le volume croissant de trafic et la déplorable assuétude provoquée chez ces nouveaux marionnettistes d'avatars, les annonceurs, d'abord timidement puis dans une ruée indisciplinée, se sont engouffrés en masse, happés par ces nouveaux espaces publicitaires sans horizon qui s'ouvraient à leur appétit de conquête. Les marques procèdent à un envahissement systématique de Second Life : la banque Wells Fargo y a acheté une île pour achalander l'avatar moins impécunieux, Toyota livre des voitures virtuelles aux fous virtuels du volant, L'Oréal y lance des campagnes de publicité (« parce que votre avatar le vaut bien » ?), Adidas y chausse les avatars, etc. Mieux encore, notre patriotique élection présidentielle y établit aussi ses quartiers virtuels : le Parti Socialiste et Ségolène Royal viennent d'ouvrir une permanence dans Second Life. Comme le FN y a déjà des avatars colleurs d'affiche, il y de la « castagne » virtuelle en prévision ! C'est donc la grande pollution du virtuel par le réel. On attend vraiment un Nicolas-vatar Hulot pour entraîner des alter-secondmondialistes dans la défense de l'environnement virtuel contre l'intolérable agression du libéralisme réel : qui proposera un cyberpacte écologique contre la seconde-mondialisation ?

Cette intéressante osmose entre monde réel et mondes virtuels - il y a bien d'autres MMORPG disponibles ou exercer ses talents ou ses déviances - pourrait être un formidable outil de recherche pour les sciences sociales, économiques et politiques. À l'heure même où les grands de ce monde s'interrogent sur son avenir à Davos, on pourrait tester des centaines de milliers de Davos virtuels dans Second Life et en analyser les résultats. La simulation de milliers d'économies virtuelles permettrait peut-être de trancher le débat incessamment renouvelé entre économistes et politiciens sur les vices et les vertus de l'économie de marché. On se prend à rêver. Ceci dit, dur rappel à la réalité, enfin plutôt à la virtualité dans le cas présent, une visite même rapide à Second Life montre vite que l'on est encore bien loin du compte...

En juste retour des choses, ne voit-on pas également le virtuel prendre racine dans le réel ? Dans Google Earth, Davos c'est :

⟨?xml version="1.0" encoding="UTF-8"?⟩
⟨kml xmlns="http://earth.google.com/kml/2.0"⟩
⟨Document⟩
⟨Placemark⟩
⟨name⟩Davos⟨/name⟩
⟨styleUrl⟩#15566⟨/styleUrl⟩
⟨Point⟩
⟨coordinates⟩9.823536999999991,46.794738,0⟨/coordinates⟩
⟨/Point⟩
⟨/Placemark⟩
⟨/Document⟩
⟨/kml⟩

Mais Google Earth n'est-il pas déjà une forme de « Second Earth », quand Google tarde à répondre de la suspicion d'avoir, dans la plus pure tradition des propagandes stalinienne et maoïste, gommé de ses photos aériennes de l’Irak, de l’Iran et même des USA certains détails « inappropriés » au regard d'autorités perfidement laissées anonymes ?

En tout cas la guerre de l’immobilier, bien concrète et dans le monde bien réel cette fois, est ouvertement déclarée entre Google et Microsoft. Google vient d'annoncer un nouveau datacenter monumental, à Lenoir, en Caroline du nord :

⟨?xml version="1.0" encoding="UTF-8"?⟩
⟨kml xmlns="http://earth.google.com/kml/2.0"⟩
⟨Placemark⟩
⟨address⟩Lenoir, NC⟨/address⟩
⟨LookAt⟩
⟨longitude⟩-81.53916700000001⟨/longitude⟩
⟨latitude⟩35.913889⟨/latitude⟩
⟨range⟩25622.882812⟨/range⟩
⟨tilt⟩0⟨/tilt⟩
⟨heading⟩0⟨/heading⟩
⟨/LookAt⟩
⟨Point⟩
⟨coordinates⟩-81.53916700000001,35.913889,0⟨/coordinates⟩
⟨/Point⟩
⟨/Placemark⟩
⟨/kml⟩

Sensible aux incitations locales et régionales à la sauvegarde des emplois, Google va investir plus de 600 millions de dollars pour construire un bâtiment ultra-moderne sur cette friche industrielle en déshérence. Il y bâtira une « ferme de serveurs » (c'est comme ça qu'on dit dans le jargon, ça ne s'invente pas !), modèle de la ruralité Web du XXIe siècle ! L'année dernière, le géant avait défrayé la chronique avec un premier datacenter pharaonique, lové dans un méandre de la rivière Columbia, à proximité immédiate d'un barrage hydroélectrique lui assurant une électricité bon marché, à The Dalles dans l'Oregon :


⟨?xml version="1.0" encoding="UTF-8"?⟩
⟨kml xmlns="http://earth.google.com/kml/2.0"⟩
⟨Document⟩
⟨Placemark⟩
⟨name⟩The Dalles, Oregon⟨/name⟩
⟨styleUrl⟩#20257⟨/styleUrl⟩
⟨Point⟩
⟨coordinates⟩-121.182774,45.60121799999999,0⟨/coordinates⟩
⟨/Point⟩
⟨/Placemark⟩
⟨/Document⟩
⟨/kml⟩

Deux autres datacenters sont apparemment prévus par Google, tous deux en Caroline du Sud, pour un investissement total de 950 millions de dollars au moins. Le premier, en plein marécage, à Goose Creek :

⟨?xml version="1.0" encoding="UTF-8"?⟩
⟨kml xmlns="http://earth.google.com/kml/2.0"⟩
⟨Placemark⟩
⟨address⟩Goose Creek, SC 29445⟨/address⟩
⟨name⟩goose creek, south carolina⟨/name⟩
⟨LookAt⟩
⟨longitude⟩-80.03277799999999⟨/longitude⟩
⟨latitude⟩32.980833⟨/latitude⟩
⟨range⟩25622.507812⟨/range⟩
⟨tilt⟩0⟨/tilt⟩
⟨heading⟩0⟨/heading⟩
⟨/LookAt⟩
⟨open⟩1⟨/open⟩
⟨styleUrl⟩root://styleMaps#default+nicon=0x304+hicon=0x314⟨/styleUrl⟩
⟨Point⟩
⟨coordinates⟩-80.03277799999999,32.980833,0⟨/coordinates⟩
⟨/Point⟩
⟨/Placemark⟩
⟨/kml⟩

l'autre à Blythewood :

⟨?xml version="1.0" encoding="UTF-8"?⟩
⟨kml xmlns="http://earth.google.com/kml/2.0"⟩
⟨Placemark⟩
⟨address⟩Blythewood, SC 29016⟨/address⟩
⟨name⟩blythewood, south carolina⟨/name⟩
⟨LookAt⟩
⟨longitude⟩-80.97416699999999⟨/longitude⟩
⟨latitude⟩34.214167⟨/latitude⟩
⟨range⟩25622.640625⟨/range⟩
⟨tilt⟩0⟨/tilt⟩
⟨heading⟩0⟨/heading⟩
⟨/LookAt⟩
⟨open⟩1⟨/open⟩
⟨styleUrl⟩root://styleMaps#default+nicon=0x304+hicon=0x314⟨/styleUrl⟩
⟨Point⟩
⟨coordinates⟩-80.97416699999999,34.214167,0⟨/coordinates⟩
⟨/Point⟩
⟨/Placemark⟩
⟨/kml⟩

Cette frénésie immobilière n'a pas manqué de provoquer d'intenses spéculations de la part de Robert X Cringely, un observateur de longue date de l'industrie et résidant lui-même (pas d'avatar ici, s’il vous plaît) en Caroline du Sud. L'avisé commentateur n'y voit rien moins que la confirmation des visées impérialistes du moteur de recherches. Google mettrait, selon lui, la main sur d'immenses étendues de terrains industriels :

- à bas prix,
- proches de vastes sources d'électricité bon marché (barrage aux Dalles, centrales électrique et nucléaire en Caroline),
- à proximité immédiate de rivières et de cours d'eaux indispensables au refroidissement des salles blanches (une ferme de serveurs pollue-t-elle plus qu'une ferme traditionnelle ? Comment comparer les 20 litres quotidiens de méthane des flatulences bovines d'un ruminant à celles d'un serveur lame ?),

pour y construire des mega-datacenters sans réel rapport avec la densité de population locale qu'il seraient supposés servir. (Il y a là, en tout cas, une idée à creuser pour nos communes rurales françaises.) 100.000 serveurs pour 4 millions d'utilisateurs potentiels en Caroline du Sud, soit 40 utilisateurs par serveur, calcule-t-il ; un luxe par trop dispendieux, juge-t-il. Sauf, poursuit Cringely, à supposer que l'ambition du géant du Web tourne au complot secrètement ourdi contre les autres opérateurs de réseaux historiques (téléphone, télévision, câble).

En investissant lourdement dans ces datacenters et dans les accès à très haut débit correspondants, Google en viendrait à déséquilibrer en sa faveur le délicat équilibre économique de ces opérateurs. Aux États-unis, les fournisseurs et les opérateurs sont tenus de respecter - pour le moment en tout cas ; le législateur s'y est montré explicitement favorable mais les débats ne sont pas terminés - la « Net Neutrality », c'est-à-dire la garantie de la même qualité d'accès au débit pour tous. La plupart, n'ayant plus les moyens de s'équiper a novo ou de se lancer dans des travaux coûteux d'ingénierie après l'éclatement de la bulle, tirent leurs profits de leur capacité à partager entre le plus grand nombre d’équipements et de points d'accès installés et amortis depuis longtemps. Or, d'un côté, celui du marteau mettons, Google fait tout pour propulser la demande en débit à des hauteurs stratosphériques : téléchargement de vidéos (YouTube, 1,65 milliard de dollars, voilà ce que j'appelle un sérieux sponsoring de la demande !), déploiement incessant d’applications et de services hébergés, collecte croissante de photos et de medias audio, enregistrement orwellien de données privées et du trafic de navigation sur les sites - sans compter le volume proprement incroyable du trafic « gris » : BitTorrent = 50% du trafic global sur Internet, principalement de la vidéo ! De l'autre côté, inéluctablement celui de l’enclume, Google multiplie les datacenters régionaux surdimensionnés. Devant la marée montante annoncée de la demande, vers qui donc les opérateurs, exsangues, saturés, en pénurie totale de capacité, pourront-ils bien se retourner pour louer les ressources indispensables au service de leur population locale ? « Do No Evil » proclame fièrement le slogan de Google (« Just paving the way... » imaginent les mauvais esprits).

Ceci dit, on pourrait tout aussi bien prêter les mêmes intentions aux autres géants de l'Internet dont l'intention n'est certes pas de laisser à Google ce(s) terrain(s) ! Direction San Antonio, au Texas :

⟨?xml version="1.0" encoding="UTF-8"?⟩
⟨kml xmlns="http://earth.google.com/kml/2.0"⟩
⟨Placemark⟩
⟨name⟩Microsoft datacenter⟨/name⟩
⟨LookAt⟩
⟨longitude⟩-98.6926702708751⟨/longitude⟩
⟨latitude⟩29.48062989476047⟨/latitude⟩
⟨range⟩4055.849577650904⟨/range⟩
⟨tilt⟩3.16308093814195e-011⟨/tilt⟩
⟨heading⟩-3.480575237021882⟨/heading⟩
⟨/LookAt⟩
⟨styleUrl⟩root://styleMaps#default+nicon=0x307+hicon=0x317⟨/styleUrl⟩
⟨Point⟩
⟨coordinates⟩-98.69267027087511,29.48062989476047,0⟨/coordinates⟩
⟨/Point⟩
⟨/Placemark⟩
⟨/kml⟩

À cet endroit, Microsoft a annoncé 550 millions de dollars d'investissement dans du BTP tout ce qu’il y a de plus concret pour un nouveau datacenter. « Ce n'est pas un cadeau à Microsoft », déclare, lyrique, le maire Phil Hardberger à propos de cette parcelle inculte, « c'est un cadeau pour nous » - même état d'esprit que le président de l'Inria à la Ferme du Moulon il y a quinze jours ! Microsoft et Yahoo, voisins pour l’occasion, avaient déjà érigés deux de ces pyramides des temps modernes à Quincy, dans l'état de Washington, près du barrage de Grand Coulee sur la rivière Columbia (celle-là même qui refroidira aussi le datacenter concurrent de Google aux Dalles : peut-être ont-ils lus Manon des Sources et s'inspireront-ils avec espièglerie du roman de Pagnol ?)

Jusqu'où donc ira cette confrontation immobilière du réel et du virtuel ? Combien de datacenters titanesques faudra-t-il bâtir dans les campagnes réelles pour satisfaire l'appétit d'espace virtuel de celles, publicitaires, des marques et institutions dans le cyberespace ? Quelle prolifération prodigieuse d'univers virtuels éclora-t-elle dans les datacenters de ces incubateurs hypermodernes, chacun exigeant à leur tour d'être peuplé et nourri d'avatars toujours plus avides de publicité en ligne ?

vendredi, janvier 12, 2007

L'INRIA à Microsoft : passez par Le Guichet !

C'est dans le grand amphi de Supelec, par cette pluvieuse après-midi sur le plateau du Moulon, que l'INRIA et Microsoft recevaient pour la cérémonie d'inauguration de leur laboratoire commun de recherche Microsoft Research - INRIA. Fruit d'un accord signé par Gilles Kahn, Président Directeur général de l'INRIA, et par Steve Ballmer puis confirmé par un protocole d'investissement de Microsoft signé par Bill Gates à l'occasion de son passage à Paris en octobre 2005, le laboratoire commun regroupe aujourd'hui douze chercheurs. Mais avec des ambitions « ouvertes sur le monde » rappelait Michel Cosnard, nommé à la tête de l'INRIA après le décès de Gilles Kahn début 2006.

Les orateurs de cette demi-journée firent, comme il convient, assaut de déférence et de courtoisie dans leurs discours inauguraux, chacun, néanmoins, n'hésitant pas à rappeler le rôle et la vocation des institutions qu'ils représentaient. Eric Boustouller de Microsoft France s'enorgueillissait du premier partenariat privé-public de recherche fondamentale ; Michel Cosnard, hilare, se réjouissait du montant du chèque de Microsoft - dont ni l'un ni l'autre n'ont révélé le chiffre exact : « de quoi soutenir trente chercheurs » est la seule indication qui nous a été donnée - et de la rapidité avec laquelle il avait été établi par le géant de Redmond - « ce qui tranche de la puissance publique » crut-il bon de préciser ; Rick Rashid, le président de Microsoft Research s'était déplacé, venu de Seattle pour expliquer que Microsoft Research n'est pas Microsoft, mais bien une organisation de recherche fondamentale (« basic research ») ouverte, qui publie ses résultats, au même titre qu'une université américaine (700 personnes, 5 laboratoires dans le monde entier à Redmond, Mountain View, Cambridge en Angleterre, Pékin et Bangalore) ; Andrew Herbert, patron du laboratoire Microsoft Research de Cambridge, britannique dans l'âme, rappelait que le laboratoire commun dépendait bien de son propre institut et n'était qu'une illustration des partenariats que Microsoft Research entendait, sous sa houlette, nouer avec d'autres laboratoires en Europe comme l'INRIA et l'Université de Trente en Italie, dans le cadre de l'European Science Initiative ; enfin, Jean-Jacques Lévy, récemment nommé à la tête du laboratoire commun français, n'avait plus qu'à dévoiler les deux sujets de travail initiaux : les preuves formelles de logiciel, et l'informatique au service des scientifiques.

Mais derrière le « politiquement correct » qui sied à ce type d'événement, certains esprits chagrins ne voulaient pas se laisser séduire par les bulles du champagne et les petits fours (pourtant excellents : Microsoft, Research ou autre, sait recevoir !). De quoi soutenir trente chercheurs, certes, grinçait mon voisin, Professeur des universités et Directeur de recherche, mais « salaires français ou salaires Microsoft ? » Bernard Lang, un des pères de XML - le spécialiste XML de Microsoft, Jean Paoli, a d'ailleurs été formé par son équipe aime-t-il à rappeler - apôtre du logiciel libre, cocréateur de l'AFUL, se devait de jouer le rôle de poil à gratter dans ce bel agencement. Sous l'oeil progressivement de plus en plus inquiet du modérateur, Bernard Lang s'emparait du micro et posait quelques questions sur les raisons de la confidentialité absolue de l'accord entre l'INRIA et Microsoft Research, sur l'attitude beaucoup moins déférente et amicale de Microsoft vis-à-vis du Référentiel général d'interopérabilité de la Direction Générale de la Modernisation de l'Etat, au sein du Ministère de l'économie, des finances et de l'industrie, qui fait la part belle au format OpenDocument (en confrontation directe avec ceux de MS Office), et sur l'avantage conféré à Microsoft par une mainmise sur la propriété intellectuelle et sur d'éventuels recrutements de chercheurs issus des travaux de la recherche publique, censés servir les intérêts nationaux.

En tout cas, sur la propriété intellectuelle la réponse est claire. L'INRIA ne dérogera pas à ses choix, qui sont de protéger les résultats de ses travaux et d'en verser régulièrement les fruits éventuels aux chercheurs. Dans le cas du laboratoire commun Microsoft Research et l'INRIA seront tous deux propriétaires et pourront commercialiser cette propriété intellectuelle partagée, d'un commun accord, suivant leurs politiques habituelles : via des produits Microsoft ou via l'exploitation de licences industrielle comme l'INRIA l'a fait par le passé. Bernard Lang avait d'ailleurs été un moteur dans le débat contre la brevetabilité du logiciel en Europe. Ici les résultats seront « communs et protégés », circulez, il n'y a rien à voir, assénait Michel Cosnard.

Et pourquoi pas ? Des douze chercheurs, sept sont permanents, quatre de l'INRIA et trois de Microsoft Research - en fait un groupe de français (nostalgiques ?) jusque là exilé à Cambridge dans l'East Anglia, à une minute à peine d'aviron du King's College sur la rivière Cam. S'agit-il là d'une prise de pouvoir de l'éditeur ?

Microsoft Research a déjà annoncé vouloir s'en tenir pour les logiciels à la fameuse licence CeCILL-B, une licence libre de droit français, à la sauce CEA-CNRS-INRIA, dans l'esprit de et compatible avec GNU GPL, inspirée, pour cette variation, de BSD (cf. http://www.cecill.info/licences/Licence_CeCILL-B_V1-fr.txt). Voilà qui n'est pas abusif, surtout si l'on met en regard la politique de publication de Microsoft Research, au plan international et aux USA, qui est comparable à celle de tous les centres académiques de recherche.

Avec, certes, un avantage historique à nos amis américains pour la recherche privée fondée par les entreprises : IBM a fondé le Watson Laboratory en 1945 ! son laboratoire de Zurich compte des chercheurs couronnés de prix Nobel en 1973, en 1986, et en 1987 ! on y invente le disque dur, FORTRAN, le modèle relationnel des bases de données, les fractales (de Benoît Mandelbrot, passé par Polytechnique en France avant de travailler pour Big Blue, sans « drame national » du patriotisme économique), l'architecture RISC et bien d'autres avancées qui ont largement bénéficié à toute l'industrie. Et que dire de ATT et des Bell Labs ? L'initiative lancée en 1991 par Rick Rashid chez Microsoft est donc tout à fait dans le contexte business des hautes technologies aux USA, où il est considéré comme normal que les géants industriels établissent des fondations ou des laboratoires de recherche fondamentale dont l'intérêt dépasse les seuls besoins d'innovation à vocation commerciale de ces grands groupes. Microsoft Research ne travaille d'ailleurs pas que dans le domaine de l'informatique. Certaines de ses équipes, dont quelques unes au laboratoire commun avec l'INRIA, s'intéressent aux sciences sociales, à la biologie, à la santé, aux réseaux de toutes sortes... N'insistons pas, en Europe et en France c'est là où le bât blesse : une interminable litanie de rapports, livrés avec insistance ces dernières années, concluent systématiquement que la France connaît un des plus faibles taux de recherche privée en proportion de son investissement total en R&D ; il faut promouvoir par tous les moyens son développement, geint-on de toutes parts ; pour cela, les grands groupes industriels et de service doivent être incités à effectuer leur recherche en France, déclare-t-on dans les cercles qui nous gouvernent ! Aujourd'hui, même Microsoft fait de la recherche en France, si ce n'est pas une « victoire pour l'INRIA » comme le disait son président ?

Oublions donc un instant notre habitude nationale d'autodénigrement et voyons plutôt l'opportunité de faire avancer des sujets scientifiques importants. Leslie Lamport, plus connu pour la création de Latex, le système de mise en page de documents scientifiques que tout chercheur et étudiant à au moins une fois utilisé dans sa vie, est l'inventeur de langages de preuves formelles de logiciels assurant la validité et la sécurité des matériels et logiciels qui nous entourent. Il a rejoint le laboratoire commun pour y diriger une équipe. Le second axe est tourné vers l'exploration de domaines plus originaux et moins étudiés à l'heure actuelle que l'on appelle « eSciences ». Il s'agit de concevoir et développer des environnements indispensables à tous les scientifiques à la fois dans l'interaction avec les données qui peuvent leur être utiles (visualisation, manipulation) et dans la gestion de bases de données spécialisées (encyclopédies dynamiques, mise à jour).

On attend avec impatience les premières publications !

dimanche, janvier 07, 2007

La stéganographie pour tous !

Creative Commons, dont le slogan est « Some Rights Reserved » (quelques droits réservés par opposition au « tous droits réservés » classique) a pour mission de créer un système de copyright « raisonnable ». Fondé en 2001 sur le constat de l'avocat vedette Lawrence Lessig - il a joué un rôle important dans les premières phases du procès antitrust contre Microsoft en 1998 - que le système du copyright américain était aujourd'hui totalement déséquilibré au détriment de l'intérêt public, Creative Commons vient de se doter d'un nouveau « Chairman », Joichi Ito. Les licences mises au point par Creative Commons se distinguent des autres par la possibilité donnée aux auteurs d'offrir quelques droits aux consommateurs, dans des conditions particulières qu'ils sont eux-mêmes capables de spécifier. Ces licences ont beaucoup gagné en popularité en 2006 avec un service dédié de Google permettant de rechercher des contenus sous licence Creative Commons, et avec un plug-in de Microsoft permettant d'intégrer ces licences aux documents créés avec Office.

Mais la vision de Joichi Ito, exprimée la semaine dernière, à l'occasion de sa nomination est bien plus ambitieuse : « Ce que nous voulons c'est que lorsque vous allumez votre caméra numérique, elle demande sous quelle licence Creative Commons sera la vidéo d'aujourd'hui ? ». Joichi Ito décrit un monde futuriste dans lequel tout équipement producteur de contenu numérique (texte, audio, vidéo...) embarque un dispositif de tatouage de licence Creative Commons ! L'industrie des média erre, jusqu'à aujourd'hui en tout cas, plutôt dans l'excès inverse. Les manoeuvres défensives, en imposant des systèmes de DRM de plus en plus sophistiqués et coûteux, et les manoeuvres offensives, comme les nombreuses poursuites en justice d'internautes individuels, se sont multipliées aux USA ces dernières années et sont jugées par une classe croissante d'observateurs comme extrémistes. En France, le Conseil constitutionnel a adopté la loi DADVSI en juillet 2006 dans un débat confus et houleux qui laisse beaucoup d'insatisfaits.

La vision de Joichi Ito laisse plus que songeur. Au plan technique, on y est presque. En une dizaine d'années, la recherche scientifique dans le domaine du tatouage électronique (watermarking) s'est considérablement développée, poussée par électroniqueles applications commerciales et la généralisation des formats numériques. Si la cryptographie traite aussi de la protection de l'information, elle permet d'assurer la confidentialité, l'intégrité ou l'authentification de documents multimedia. Avec le tatouage on a simplement l'objectif de cacher un message utile - une licence Creative Commons et ses droits, par exemple - dans un message de couverture - la vidéo produite par la caméra, la photo prise par l'appareil, etc. On distingue en général : la stéganographie, l'art de la dissimulation, qui rend impossible de distinguer si le message de couverture contient ou non le message utile ; le tatouage proprement dit, où le message utile est lié à l'identité de l'ayant-droit du message de couverture (et doit donc rester présent même si ce dernier subit des modifications) ; le « fingerprint », enfin, dans lequel lorsqu'un document est cédé à un nouvel agent, il est préalablement marqué d'un nouveau message utile (ce qui permet de tracer les fraudes). Les méthodes de tatouage habituelles sont dites symétriques : le message utile est « incrusté » grâce à une clé secrète dans le message de couverture et le détecteur emploie la même clé secrète pour trier le contenu marqué du contenu non marqué. Généralisé, ce système pose un problème de sécurité si la clé secrète doit se trouver embarquée dans un très grands nombres de récepteurs (des caméras ou des appareils de photo numériques, par exemple). D'où des travaux de recherche très actifs, qui débouchent aujourd'hui sur des méthodes concrètes, sur les méthodes dites « asymétriques » dans lesquelles la clé de détection est différente de la clé d'incrustation. Ces dispositifs fournissent des niveaux de sécurité bien supérieurs aux précédents.

Il suffit d'imaginer une puce stéganographique utilisée comme coprocesseur avec tous les microprocesseurs et micro-contrôleurs du marché et le tour est joué ! Mais serions nous bien dans le meilleur des mondes promis par Creative Commons ? Que faire d'un appareil photo qui insiste pour marquer les photos avant de fonctionner ? Que penser d'une télévision qui s'éteint si le contenu diffusé n'est pas tatoué Creative Commons ? Est-ce vraiment différent des systèmes de DRM qui ont défrayé la chronique, comme l'infâme rootkit de Sony-BMG ? Ou encore du verrouillage iPod/iTunes, dont la technique de gestion des droits numérique, FairPlay, vient d'être « craquée » par le hacker Jon Johansen (« DVD Jon »). À partir du moment où Creative Commons se doterait des moyens de contrôle qui se généraliseraient aux équipements de production, ne rend-on pas la situation encore plus compliquée. Ce système, issu du monde du copyright anglo-américain est-il compatible avec le droit d’auteur français ou continental ? En système de copyright, il n’existe pas formellement de droit moral (respect du nom de l’auteur, intangibilité de son oeuvre). En système de droit d’auteur, ce droit existe et est inaliénable ; l’auteur ne peut donc rien en céder. Or les Creative commons envisagent certaines renonciations à des droits moraux.

Les nouveaux réseaux de surveillance électroniques ont de beaux jours devant eux en 2007 !

ShareThis