vendredi, septembre 29, 2006

Quelles voies alternatives aux menaces du brevet logiciel ?

Andrew White, analyste au Gartner Group, tire la sonnette d'alarme. Selon lui, la généralisation de la Service Oriented Architecture (SOA) pourrait donner lieu à une recrudescence de procès en brevets, copyright et propriété intellectuelle. La SOA s'appuie en effet sur une plus large, et souvent plus profonde, exposition des services métier qui étaient auparavant intégrés dans des applications informatiques spécifiques et monolithiques. Le réflexe naturel des grands éditeurs devant la menace d'une application SOA composite qui reproduirait de trop près la fonctionnalité de leur progiciel propriétaire pourrait être de lancer des hordes d'avocats en propriété actuelle à la défense des brevets logiciels qu'ils assureraient être bafoués. Cette évolution vers une meilleure définition des fonctions est au coeur de la SOA ; elle est même formalisée par des langages dérivés de XML qui les décrivent en détail (WSDL, lié à SOAP). Elle conduit à l'abstraction progressive de ces fonctions dans la « plate-forme » SOA de même que des fonction originellement de haut niveau se coulent progressivement dans les systèmes d'exploitation (sécurité et intégrité des données, middleware et connectivité, virtualisation aujourd'hui). Pour répondre à ce nouveau défi, une tactique éprouvée des grands éditeurs, qui en ont les moyens, est de faire le plein de brevets logiciels comme munitions dans la bataille positionnelle qui s'annonce pour la défense de leurs parts de marché.

Et cette bataille est d'autant plus difficile que sur son flanc arrière l'armée des éditeurs commerciaux de logiciels est sérieusement à la lutte avec les tenants et les champions de l'Open Source. Le thème des brevets logiciels a fait et continue de faire, on va le voir, l'objet d'intenses débats en Europe à l'occasion de la valse-hésitation de l'adoption des nouvelles directives par la Commission européenne. En juillet 2005, au soulagement de la communauté Open Source, elle avait voté contre les brevets logiciels après de nombreux retournements et coups de théâtre. Par contre, il apparaît que l'Office européen des brevets (OEB) a néanmoins poursuivi l'attribution de brevets logiciels qui, du coup, se trouvent systématiquement dénoncés en justice. À une question écrite sur ce comportement jugé abusif directement posée à la Commission européenne, elle a répondu en se défaussant, préférant rappeler que l'OEB n'est pas un organe de la Communauté et reste dès lors souverain. Plus insidieux encore, s'ouvre en octobre le débat sur European Patent Litigation Agreement (EPLA), un accord sur le règlement des litiges en matière de brevet européen. Aux termes de l'EPLA, les juges des chambres de recours techniques de l'OEB pourraient être amenés à siéger aux Cours européennes de justice. Les mêmes experts techniques de l'OEB, qui auraient accordé une brevetabilité à une invention logicielle, seraient alors juges de la validité de cette attribution à la Cour de justice où ces mêmes brevets sont systématiquement dénoncés : juge et partie ! La situation est pour le moins confuse.

Dans le même temps, Microsoft, rendu prudent par des années de pratique du contentieux devant les tribunaux de toutes sortes, annonce des délais probables dans la livraison de Vista, la prochaine version de Windows, en Europe. Le géant de Redmond craint en effet une énième investigation de la Commission européenne au titre de la réglementation antitrust. De l'autre côté de l'Atlantique, l'office américain des brevets (USPTO) erre dans l'excès inverse semble-t-il. 2006 s'annonce comme sa « meilleure » année en nombre de brevets logiciels accordés, plus de 30.232 au 20 septembre dernier et une estimation de 40.000 pour toute l'année : un record. Comme le dépôt et l'examen du « prior art » ne sont évidemment pas gratuits, on imagine aisément comment la tactique d'accumulation des portefeuilles de brevets des grands éditeurs s'aligne aussi sur les intérêts bien compris de l'USPTO. Et donc tous s'en servent. Derniers exemples en date : i2, l'éditeur de progiciels de logistique, attaque SAP sur des techniques de modélisation et d'optimisation de la chaîne logistique (qu'aucun des deux éditeurs n'a d'ailleurs inventé mais dont ils proposent des implémentations concurrentes) ; ou encore Research in Motion, le fabricant canadien du fameux Blackberry, qui vient de transiger pour $612.5m avec NTP, un « patent troll » c'est-à-dire une société holding dont l'objet est uniquement de détenir des brevets pour ensuite attaquer en violation de propriété intellectuelle les grandes sociétés dont certains produits peuvent reposer sur ces techniques logiciel (pour lesquelles aucun brevet n'aurait du être accordé pour commencer).

Afin de désamorcer cet effet pervers du système, on voit depuis peu les grands acteurs de l'industrie du logiciel, qui d'un côté gonflent leur portefeuille de brevets, en relâcher de l'autre la pression croissante en livrant des pans entiers à la communauté Open Source. Ils font ainsi d'une pierre deux coups : ils prêtent moins le flanc aux attaques éventuelles des patents trolls en se débarrassant de certains brevets (jugés peu utiles ou susceptibles de poursuites) et ils donnent des gages de bonne conduite à la communauté Open Source, bien positionnée aujourd'hui pour éroder leur position dominante sur certains marchés. Ainsi IBM a fait une « donation » de plus de 500 brevets à la communauté Open Source en 2005. Microsoft, lui même, près avoir annoncé, en juillet dernier, vouloir assurer l'interopérabilité entre les formats d'échange de documents Open XML et ODF, a dévoilé mercredi 13 septembre son initiative « Open Specification Promise », pour la SOA et les services Web. L'OSP offre la possibilité à ceux, particuliers et entreprises, qui utilisent des logiciels commerciaux ou open source d'utiliser des brevets Microsoft pour mettre en oeuvre, gratuitement, 35 spécifications de services Web élaborées par l'éditeur et ses partenaires. Triple réponse donc de Microsoft : on peut accéder à ses technologies bien sûr par les licences commerciales (brevets, code source, protocoles, accords sur la propriété intellectuelle), mais aussi par les licences communautaires (projets sous licence Shared Source sur SourceForge, GotDotNet, Codeplex, etc.) ou encore via l'Open Specification Promise.

Il en est même une quatrième toute récente au premier exercice de laquelle j'ai eu l'honneur d'être invité à Cambridge, à deux pas du vénérable King's College noyé dans la verdure des berges de la rivière Cam, au laboratoire de Microsoft Research en Europe. Organisé par Microsoft IP Ventures, une toute nouvelle division de l'éditeur, le séminaire était consacré à la présentation d'un panel de nouvelles technologies dévelopées par Microsoft Research que l'éditeur cherche à essaimer hors de ses laboratoires. Microsoft IP Ventures, qui agit comme une agence interne de valorisation de l'innovation, cherche ainsi à réunir équipes entrepreneuriales, investisseurs et spécialistes de marketing autour de technologies mûries dans ses labos. Les accords sont discutés au cas par cas avec des licences d'exploitation exclusives ou non exclusives et des conditions financières variant d'une indépendance totale à une prise éventuelle de participation au capital des startup essaimées. Le jour même du séminaire Wallop, une jeune pousse américaine parmi les premières bénéficiaires de ce système, mettait en ligne son site offrant des services comparables à MySpace mais sans le modèle publicitaire qui fait aujourd'hui l'admiration béate des observateurs. Skinkers, européenne quant à elle, qui a récupéré des travaux de Microsoft Research sur les middleware de messagerie instantanée, était également présente pour témoigner du coup d'accélérateur que représentait cet adoubement de Microsoft pour une très jeune société.

Face à la menace d'engorgement du système actuel de protection et de diffusion de la propriété intellectuelle logiciel qui est confronté à la montée en puissance des nouvelles architectures et des nouveaux usages liés au Web, les solutions créatives des acteurs de l'industrie se multiplient.

mardi, septembre 19, 2006

La France de l'innovation : 11 secteur protégés, 67 pôles de compétitivité et 83 technologies clés.

Le Ministère en charge de l'industrie, au sein du Ministère de l'Economie, des Finances et de l'Industrie, vient de ressortir de ses tiroirs le document « Cartographie des compétences relatives aux technologies clés 2010 » par lequel il décrète que 83 technologies ­ pas une de plus, pas une de moins ­ sont qualifiées de « clés » pour la France de 2010. Lancé en novembre 2004 (voir le site http://www.tc-2010.fr/), le projet a abouti, après de nombreuses réunions d'experts et de « spécialistes de la DGE » (entendre la Direction générale des entreprises au MINEFI), à cet inventaire dont il est précisé dans le cahier des charges initial qu'il doit impérativement faire l'objet d'une « présentation ergonomique, compréhensible par un public non spécialiste en 5 exemplaires papier ». On est rassuré.

Ce recensement des technologies est « destiné à aider les décideurs territoriaux à construire une une stratégie de développement technologie à partir des technologies jugées essentielles pour la compétitivité et l'attractivité de la France à l'horizon 2010 ». Laissons de côté la tentation « déclinologue » et passons outre l'admonition récente de Daniel Bouton dans un grand quotidien du soir qui rappelle que sans union en Europe, le PIB de la France à la même époque ne sera au mieux qu'un peu inférieur à celui d'une province chinoise, et considérons un instant cette liste pour ce qu'elle est : la production d'un collège d'experts, d'industriels et de chercheurs interrogés par la puissance publique dans des groupes de travail thématiques organisés par le Ministère.

Qu'y trouve-t-on ? Avant tout, et par construction même de l'étude, un ratissage très large des grands secteurs d'innovation et d'investissement actuel : n°5, par exemple, outils et méthodes pour le développement de système d'information. À priori, tout le secteur industriel des SSII tombe peu ou prou sous cette rubrique. Plus bas, n°15, modélisation, simulation et calcul ; n°7, composants logiciels ; n°2, stockage de l'information numérique. On vient de rajouter à peu près 60 % du NASDAQ. Mais lisons encore : n°25, textiles techniques et fonctionnels ; n°29, gestion de l'eau dans le bâtiment ; n°32, système éoliens avec stockage intégrés ; n°21, biotechnologies industrielles ; n°77, micro et nanocomposants. Ici, il me semble déceler une forte composante « aménagement du territoire » et satisfaction des demandes d'édiles régionaux. Ailleurs : n°34, réacteur nucléaires de troisième génération, à mettre en regard du n°53, alimentation pour le bien-être et la santé. Mais il est vrai que le n°43, traitement des odeurs non confinées ou le n°41, traitement automatique des déchets, voisine bien avec les N°27 et 33, matériaux composite pour la construction (toujours le BTP !) à base de biomasse, et carburants de synthèse issus de la biomasse. Puisqu'on parle de carburants, la sacro-sainte voiture n'est pas oubliée : n°58, infrastructures routières intelligentes (et celles que l'on a maintenant, que sont-elles donc ?), n°59, sécurité active des véhicules, n°64, acoustique des véhicules, n°65 et 66, architectures électrique et électronique des véhicules, n°67, gestion de l'énergie à bords des véhicules - bref plus de 14 technologies clés ! Pour survivre à ces technologies là, d'autres technologies : du n°44, transgénèse, et n° 45, thérapie cellulaire au n°52, vaccins recombinants seront également « clés » en 2010. Difficile de résister à conclure sur trois technologies clés pour la France de 2010 qui laissent, au moins dans leur énoncé, assez perplexe : n°83, transfert de technologie ; n°57, travaux d'infrastructure furtifs et n°62, moteurs à pistons.

Les plus chafouins se demanderont comment faire le lien entre ces 83 technologies clés et les 67 récents pôles de compétitivité que la caravane itinérante du Ministère en charge de l'Industrie ne cesse de vanter (pour Paris-Île de France, tréteaux et estrades seront installés à Bercy, le 26 septembre dès 8h30). D'érudits occultistes, certainement versés dans l'herméneutique et l'exégèse de la prose administrative ont cru relever que 8 des 83 technologies clés ne figurent pas dans celles attribuées aux 67 pôles. Des hermétistes pencheraient pour 13. Avec les 11 secteurs économiques protégés, décrétés par Dominique de Villepin il y a exactement un an puis passés au Journal Officiel en décembre dernier, le seul lien entre ces recensions tenant lieu de réflexion me semble être le nombre premier de leurs objets. Je prédis donc à brève échéance la liste des 107 domaines d'intérêt national...

Pris en tenaille entre les souhaits intéressés des collectivités locales et des administrations régionales, d'une part, et la véritable tétanisation française à propos de la « mondialisation », qui voit le sujet de l'attractivité de la France devenir progressivement un objet législatif et juridique sous l'autorité de l'Etat (comme on a inscrit naguère le « principe de précaution » dans la Constitution), il est facile de faire apparaître en transparence dans ce récolement des techniques traditionnelles de nos terroirs, certes sous leurs habits neufs de la technologie, le « mal-être » de toute une population scientifique et technique à la fois en perte de considération de la part du grand public et de moins en moins en prise avec le lien entre modernités technologique et économique. Qui a inventé le mécanisme magnétique des têtes de lecture que l'on trouve dans les milliers de disques durs qui peuplent notre vie courante ? Quel joueur, n°10, de l'équipe de France de football a terminé sa carrière professionnelle sur un coup (de boule) d'éclat lors de la finale 2006 de la Coupe de monde de football ? (Interdiction d'utiliser Google !) Pour être cynique, on pourrait compléter la première question de l'indication suivante : et dont l'exploitation commerciale n'a évidemment pas fait la fortune de son inventeur mais bien celle des géants américains et asiatiques de HP à Dell, d'IBM à Fujitsu, d'Acer à Apple. Il vaut mieux être joueur de football que scientifique !

La confusion règne dans les esprits.

Le 15 juin dernier, l'INSEE, dont on ne saurait évidemment mettre en doute la neutralité, sortait un dossier « Innovation et niveau technologiques des entreprises industrielles françaises » (lire http://medias.lemonde.fr/mmpub/edt/doc/20060615/783679_inseeinnovation.pdf) dans les Comptes et dossiers 2006, Rapport sur les comptes de la Nation 2005. La Nation donc, selon le dossier, se trouve à la croisée des chemins. « L’économie française était dans l’après-guerre une économie « de rattrapage », dont les gains de productivité étaient fondés sur l’imitation des technologies issues des pays « leaders » (les États-Unis). Elle aurait aujourd’hui rejoint cette frontière technologique mondiale. Ayant épuisé le précédent gisement de gains de productivité, il lui faut maintenant innover pour continuer à croître. » Bilan mitigé pour la Nation : les entreprises innovantes sont le moteur le plus régulier de la croissance mais la capacité à breveter est insuffisante. Conclusions prudentes et éludant les sujets de fâcherie : « D’une part, l’intensité des activités de R&D et le niveau technologique général semblent être des facteurs cruciaux pour innover. D’autre part, les entreprises innovantes semblent être à l’origine d’une part importante de la croissance sur la période récente, et surtout en être devenues l’un des moteurs les plus stables. Ces entreprises innovantes, « de pointe », jouent bien le rôle que l’on attend d’elles dans un régime de croissance fondé sur le savoir et la compétitivité hors prix. Mais la contribution de ce moteur resterait néanmoins en deçà des pays les plus performants et le positionnement de la France à la frontière technologique resterait donc fragile, fragilité dont témoignerait également le fléchissement des dépenses de R&D ».

Début septembre, alors que la Nation, en vacances et aux abonnés absents depuis mi-juin, se remettait lentement des torpeurs caniculaires et estivales en calculant les RTT d'ici à l'élection présidentielle, Forrester Research - sortant de son domaine de prédilection habituel - publiait un rapport d'un ton bien différent du précédent, mettant au contraire en avant les capacités et les modèles d'innovation en France, pour une fois cités en exemple. Un hapax !

Navi Radjou, VP du groupe américain, n'hésitait pas à titrer : A French Revolution in Innovation is Unfolding (http://www.forrester.com/Research/Document/Excerpt/0,7211,40105,00.html). (Juste une note lexicographique, pour nos amis américains il y a peu de substantifs que l'on peut accoler, sans déchoir, à l'adjectif « french » : « kiss », « fries », « toast », « letter », « leave » qui est plutôt anglais, « bean » et bien sûr « Revolution » ce qui donne une nouvelle idée de l'attractivité de la France.) M. Radjou a interrogé LASER, Renault-Nissan, Air Liquide, France Telecom, Société Générale, CNP Assurances, Banque de France, L'ATelier (à BNP Paribas) et Ilog. Curieusement, toujours au plan de l'attractivité de la France bien sûr, parce que France Telecom a placé 9 de ses 17 centres de recherche et développement hors de France, l'analyste de Forrester salue la capacité de l'opérateur à puiser dans les viviers de compétences hors de ses frontières. On frise le politiquement incorrect. Dans le même esprit, il souligne l'importance de structures comme l'Atelier de BNP Paribas ou Laser auprès du groupe Galeries Lafayette pour d'abord anticiper et diffuser les bonnes pratiques en matière d'innovation, et plancher ensuite sur les usages qui peuvent en découler. D'ailleurs, selon une enquête menée cette année par IBM au niveau mondial auprès de 765 PDG de grands comptes (Global CEO Study 2006), ceux-ci se reposent en priorité sur leurs salariés pour apporter des innovations. Les départements R&D, eux, n'obtiennent que la huitième place. C'est donc en se tournant vers elles-mêmes que les entreprises trouveraient les ressources de leur développement à venir. Tous ne jugent pas l'entreprise France capable d'y parvenir. Ainsi l'Insead et le World Economic Forum de Davos placent-ils notre pays en vingt-deuxième position, avant l'Estonie et la Malaisie, dans le palmarès (Global Information Technology Report 2006) des nations et des communautés à même de participer et de bénéficier des développements des technologies de l'information. Sans parler du classement académique des universités mondiales par l'université Jiao Tong de Shanghai, bien connu maintenant, dans lequel le premier français, Paris VI, arrive en quarante-cinquième place (45 n'est pas premier, c'est 3*3*5).

Alors on ne sait plus qui croire. Sur le site de Forrester Research, on note quand même dans la biographie de M. Radjou : « Navi holds undergraduate degrees in computer science from the University of Paris and CNAM-Paris and an M.S. in information systems from Ecole Centrale Paris. Navi also attended the Yale School of Management ». Au moins n'a-t-il pas « used all his french » (autre curiosité lexicographique que je laisse à la sagacité du lecteur) dans la rédaction du rapport et lui a-t-il donné une touche optimiste qui tranche avec le discours ambiant.

Il n'en fallait pas plus pour se sentir pousser des ailes. L'Ambassade de France aux États-Unis a lancé un vaste programme de recrutement de jeunes entrepreneurs américains (http://www.france-science.org/innovation/yei/home.html) les incitant à créer et développer leur entreprise en France. Bien sûr, mais pourquoi n'y a-t-on pas pensé plus tôt !

mercredi, septembre 13, 2006

Microsoft dans l'arène, face à Ajax

Dans l'Iliade, Homère rapporte qu'il y avait Ajax fils de Télamon, dit le grand Ajax, et Ajax, fils d'Oîlée, dit Ajax le petit. Durant le long siège de Troie, Ajax le Grand fut tiré au sort pour combattre au nom des Achéens (les Grecs) Hector, le formidable champion des Troyens. « Ils parlèrent ainsi, et Ajax s'armait de l'airain éclatant. Et après qu'il eut couvert son corps de ses armes, il marcha en avant, pareil au monstrueux Arès que le Kroniôn envoie au milieu des guerriers qu'il pousse à combattre, le coeur plein de fureur. Ainsi marchait le grand Ajax, rempart des Akhaiens, avec un sourire terrible, à grands pas, et brandissant sa longue pique. Et les Argiens se réjouissaient en le regardant, et un tremblement saisit les membres des Troiens, et le coeur de Hektôr lui-même palpita dans sa poitrine » traduit Leconte de Lisle, histoire de poser le personnage.

La relecture d'Homère peut donc conduire à s'interroger sur les choix de Microsoft pour le nom de son « framework Ajax » maison. Rappelons d'abord, pour ceux qui viendraient d'être libérés de leurs salles blanches étanchéifiées en prévision du bug de l'an 2000, qu'Ajax, plébiscité par la clameur des programmeurs se réclamant de l'Open Source et du Web 2.0, est le nec plus ultra de la mode pour le développement d'applications Web. Visant à donner aux utilisateurs du navigateur Web la même richesse d'interaction graphique que celle à laquelle les postes clients, dits riches, sous-entendus Windows, les ont habitués, Ajax est un mélange astucieux de code Javascript et de requêtes asynchrones vers les services Web. Comme le code Javascript contenu dans la page Web est exécuté sur le poste client, le serveur n'est pas surchargé et son rôle de fournisseur de services mieux identifié. Comme les requêtes vers ces services sont asynchrones, elle n'apparaissent pas ralentir l'affichage de la page Web pour l'utilisateur.

La banalisation de XML, abondamment utilisé dans cette communication asynchrone avec les services Web, et l'inclusion d'un interpréteur Javascript dans la plupart des navigateurs Web ont conjointement permis le développement véritablement proliférant d'Ajax. La saveur « communautaire » d'Ajax s'est teintée d'un arrière goût anti Microsoft avec le ralliement de Google à cette technologie, utilisée dans ses offres applicatives grand public comme GMail, et son alliance dans Open Ajax avec IBM. (Les autres membres du projet sont BEA, Borland, the Dojo Foundation, Eclipse Foundation, Laszlo Systems, Mozilla Corporation, Novell, Openwave Systems, Oracle, Red Hat, Yahoo, Zend et Zimbra. Microsoft n'en fait donc pas partie.) OpenAjax travaille à un environnement de développement Ajax ouvert et à la promotion d'Ajax en général.

L'émergence d'une solution de développement d'applications Web, promettant la richesse de Windows sans ses lourdeurs (supposées ou réelles) ne pouvait donc laisser Microsoft de marbre. Son framework maison, annoncé rapidement l'année dernière, vient de prendre consistance plus épaisse avec l'annonce et la publication d'une feuille de route pour la livraison de la version 1.0. L'histoire des noms n'est pas anodine. Si, lecteurs d'Homère, nos VP Marketing de Microsoft avaient choisi de nommer leur framework « Hector », on aurait tout de suite compris des intentions belliqueuses. (D'ailleurs inexactes, puisque dans l'épopée les dieux arrêtent les combattants à la tombée de la nuit sans qu'ils n'aient été départagés : de force égale les deux héros antiques deviennent les meilleurs copains du monde, échangent leurs baudriers et leurs épées, avant d'aller respectivement fêter l'événement dans leurs camps !) Non, Microsoft a choisi Atlas, géant de la mythologie grecque pétrifié et transformé en montagne pour avoir offensé Persée, comme nom de code. Interprétation : Atlas, déplaçant des montagnes soutient le monde sur ses épaules !

Dans la valse récente des virages techniques (abandon de WinFS), des reports de dates de livraison (Windows Vista), voire des changements à la tête du management (Bill Gates laissant à terme sa place à Ray Ozzie), Microsoft annonce aujourd'hui la livraison avancée de la version 1.0 d'Atlas fin 2006 et... un changement de nom. La bibliothèque Javascript client d'Atlas devient « Microsoft AJAX Library » et s'annonce compatible avec tous les navigateurs Web. Sur le serveur, l'intégration d'Atlas avec ASP.NET devient « ASP.NET 2.0 AJAX » et le Control Toolkit devient « ASP.NET Ajax Control Toolkit ». Atlas disparaît et devient (se pétrifie ?) ASP.NET. L'interprétation est du coup assez claire : réintégration dans la plate-forme ASP.NET.

Il reste à voir si ce mouvement de réintégration est offensif ou défensif, face aux tenants originaux de l'architecture Ajax. Le foisonnement des développements libres comme ceux de Google, Yahoo!, Dojo, Mochikit, Backbase, JQuery, Prototype, Script.aculo.us, etc. (cf. http://ajaxpatterns.org/Javascript_Multipurpose_Frameworks), sans oublier celui des offres propriétaires comme Bindows, Open Rico, Zimbra AjaxTk, etc. laisse à penser que le dernier mot est loin d'être dit et que la communauté des développeurs fourbit aussi ses armes.

Dans l'épopée du poète, les choses tournent rapidement au vinaigre : Hector fêté par les siens, trouve la mort en combat singulier (littéralement « homérique ») contre Achille malgré la protection du dieu Apollon (Chant XXII). Plus tard, Ajax concourt à la lutte contre Ulysse, mais aucun des deux ne l'emporte décisivement sur l'autre. Après la mort d'Achille, Ulysse et Ajax se disputent l'honneur d'en recevoir les armes. Ulysse est finalement choisi par Agamemnon, ce qui rend Ajax fou de colère et le conduit à se suicider, se jetant sur l'épée même qu'Hector lui avait donnée en gage d'amitié !

Souhaitons seulement un destin moins épique à l'avatar moderne d'Ajax sur le Web 2.0...

samedi, septembre 02, 2006

Méga-alliances sur le Web : tous complémentaires !

Aucune arrière pensée, tous complémentaires, nous assure-t-on ! Les annonces de partenariats et d'alliances entre les géants du Web se multiplient ces derniers temps. Alors qu'on les sait arc-boutés dans des confrontations concurrentielles aux enjeux financiers devenus astronomiques, le ton de leurs communiqués de presse reste d'une courtoisie diplomatique qui fleure bon la Realpolitik.

D'ailleurs à la lecture de la prose de leurs services de relations publiques respectifs, on tendrait à conclure que les déclarations de Meg Whitman d'eBay, d'Eric Schmidt de Google, Ross Levinsohn de Fox/MySpace, Steve Berkowitz VP des services en ligne chez Microsoft, Owen van Natta de Facebook, Dick Parsons de Time Warner AOL, Terry Semel de Yahoo et Steve Ballmer de Microsoft sont parfaitement interchangeables. Voyons les domaines où s'est récemment manifestée cette franche camaraderie :

12 octobre 2005 : Microsoft et Yahoo s'allient autour de la messagerie instantanée ;

20 décembre 2005 : Google et AOL renforcent leur partenariat stratégique, AOL fournit son contenu au moteur de recherche et Google prend 5% du capital d'AOL pour 1 milliard de dollars ;

25 mai 2006 : eBay et Yahoo s'allient pour mutualiser leurs régies publicitaires aux États-Unis ainsi que leurs systèmes de paiement en ligne et leurs « barres d'outils » respectives. Cet accord concerne également la voix sur IP puisqu'il prévoit la mise en commun du service « click to call » avec Skype, racheté par eBay au début de l'année.

10 août 2006 : Google et MySpace (racheté naguère par News/Fox, le groupe de communication de Rupert Murdoch) signent un partenariat. Pour $900m Google devient le moteur de recherche de MySpace, au détriment de Microsoft et de Yahoo également candidats, et MySpace utilise exclusivement AdSense de Google ;

22 août 2006 : Microsoft et Facebook annoncent un partenariat sur la publicité en ligne, aux termes duquel Microsoft est le fournisseur de bandeaux publicitaires et de liens sponsorisés pour Facebook ;


28 août 2006 : eBay et Google signent un partenariat en tout point comparable à celui de mai dernier, mais cette fois pour les territoires hors États-Unis : mise en commun des régies publicitaires et des services Skype et Google Talk. Les systèmes de paiement seraient également rendus inter-opérables dans un proche avenir.

En fait, tout ce qui concerne la rentabilisation du trafic Web y passe : régies publicitaires, voix sur IP, paiement en ligne, etc. Cette précipitation à se regrouper au sein d'alliances conduit parfois à des situations paradoxales : eBay est allié avec Yahoo sur le territoire américain mais avec Google, pour les mêmes services, partout ailleurs. Yahoo et Microsoft se trouvent alliés sur la messagerie instantanée, mais opposants, tous deux évincés, pour répondre à News/MySpace.

En tout cas ces bizarreries n'affectent apparemment pas le jugement que portent les CEO des géants de l'Internet sur ces méga-alliances. Employant pratiquement le même vocabulaire, les communiqués de presse insistent systématiquement sur la complémentarité de ces partenariats : « I think it plays to the complementary strengths of both companies » déclarait Meg Whitman (eBay) à propos de l'accord avec Yahoo en mai dernier ; « It draws on the two companies' complementary strengths » dit-elle aujourd'hui, à propos de Google. « I don't think there's much overlap at all », renchérit, sans rire, Eric Schmidt (Google).

Même Google prétend imperturbablement que les nouvelles applications bureautique hébergées qu'il vient de dévoiler sont complémentaires à celles de Microsoft. Le comble !

Tous complémentaires donc, tout le monde est d'accord là dessus. Cependant, l'autre point commun de ces déclarations d'entente cordiale est, qu'à l'exception des démonstrations de force des investissements de Google, aucune d'entre elles ne mentionne le montant des transactions financières auxquelles ces alliances donnent lieu. Secret. Confidentiel. Comme dans Les Tontons Flingueurs, on « cache les sujets de fâcherie ». En revanche on est disert, prolixe, bref intarissable sur les aspects techniques, sur les implémentations, sur les technologies et sur l'intégration des API, avec force détail et calendrier de mise en service en Beta. Transparence technique et opacité financière sont les nouvelles règles de communication à l'heure où se forgent les infrastructures politico-économiques de l'Internet de demain.

Tiens, au passage, Eric Schmidt de Google vient d'accepter de siéger au conseil d'administration d'Apple Computer. Une alliance dans la musique en ligne en vue ?

vendredi, septembre 01, 2006

La censure des Wikimaniaques

Mercredi 30 août 2006
Wikimania, la réunion très justement nommée des éditeurs de l'encyclopédie en ligne Wikipedia, s'est tenue à la Law School de Harvard au début du mois. Plus de 400 personnes ont ainsi réglé, pour la première fois à l'occasion de cette seconde édition, des frais d'admission à la conférence maintenant sponsorisée par Amazon, Nokia et Coca Cola et annoncée comme annuelle. Récupération commerciale du projet brillamment imaginé par Jimmy Wales et Larry Sanger en janvier 2001 ?

L'une des interrogations peut-être les plus intéressantes de Wikimania porte sur le rôle de Wikipedia. Le simple énoncé des chiffres peut donner le tournis : le site affiche 11 langues aujourd'hui et plus de 1 300 000 articles pour la seule version anglaise (la version en ligne de l'Encyclopedia Britannica, la référence dans le domaine, contient un peu plus de 118 000 articles).

La croissance prodigieuse de ce volume entraîne déjà une conséquence insidieuse : avez-vous noté comme récemment l'article de Wikipedia sur vos mots clés arrive maintenant dans les premiers résultats de vos recherches sur Google ? Les articles de Wikipedia font habituellement très fréquemment référence les uns aux autres. Cette densité des connexions est, par ailleurs, au coeur de l'algorithme PageRank que Google utilise pour classer les résultats des recherches. (De plus, Google recompose cette classification grâce à d'autres critères complémentaires dont le géant de Mountain View garde jalousement la recette... qu'il change d'ailleurs régulièrement). Les articles de Wikipedia remontent donc mécaniquement dans les jeux de résultats des recherches de Google. Dans un cyberespace où Google se présente de plus en plus comme la source universelle d'information à une génération d'internautes peut-être moins avertie des biais historiques et culturels, ainsi que des conflits d'intérêts sur la Toile, voir Wikipedia devenir la référence plus ou moins unique pourrait être préoccupant.

Car la qualité est une préoccupation réelle des nouveaux encyclopédistes du siècle. N'en déplaise à Yochai Benkler dont le dernier livre, The Wealth of Networks, qui drape de toutes les vertus les nouveaux modes de coopération massive qu'illustrent, chacun dans leur genre, les développements Open Source et Wikipedia, l'explosion de Wikipedia commence à poser de sérieuses questions de gouvernance.

Une étude récente du journal scientifique Nature visait à comparer l'exactitude des articles de Wikipedia à celle de ceux de l'Encyclopedia Britannica. Sur un sous-ensemble, forcément de taille réduite, Britannica affiche 2,92 erreurs par article contre 3,86 pour Wikipedia. Le taux d'erreur pour chaque encyclopédie n'est donc pas négligeable. Cela prouve qu'une relecture de validation des articles est nécessaire. Y compris pour Britannica, qui n'est pas infaillible, contrairement à l'idée générale. Il est important que le public sache qu'il y a des erreurs partout, même dans les sources de référence.


Mais une difficulté se présente, peut-être plus problématique encore. Qui valide les articles dans Wikipedia ? À l'origine chacun est libre de modifier un article et de le récrire, l'historique des modifications est enregistré et chaque article a une page pour un forum ouvert sur le sujet en question. Ce système collaboratif est évidemment ouvert aux dérives. J'en prends comme exemple une anecdote sans conséquence heureusement, contrairement à l'incident dont John Seigenthalter a été victime en décembre dernier. Un grand industriel français s'inquiétait récemment de trouver dans sa biographie sur Wikipedia une présentation pour le moins partisane de certains propos qu'il avait pu tenir, présentés hors contexte, les seuls mis en avant de sa longue carrière de capitaine d'industrie (Dans la version française seulement ; la version anglaise était plus simplement factuelle).

Acceptant de jouer le jeu, il fait donc supprimer le paragraphe au ton injustement partial avec éditeur, pseudo, mot de passe, etc. comme un vrai Wikimaniaque. Le lendemain, surprise, le paragraphe est à nouveau présent sur la page, remodifiée pendant la nuit (comme le montre l'historique). Qu'à cela ne tienne, on re-supprime. Et la nuit suivante, le paragraphe réapparaît. Le petit jeu se répète matin et soir pendant un mois, chacun persistant à vouloir modifier le point de vue de la page Wikipedia. Jusqu'au jour où Wikipedia refuse brutalement la connexion dans le navigateur Web.

Un coup d'oeil à l'historique révèle alors que les éditeurs de Wikipedia, sous un anonymat bien de circonstance, avait purement et simplement bloqué l'accès à toutes les adresses IP du siège social du groupe industriel en question au motif que la répétition quotidienne d'une même modification n'était pas acceptable à leurs yeux. Mais par pour le ou les autres Wikimaniaques anonymes qui rétablissaient nuitamment la même version antérieure de cette page ! Un joli paradoxe, l'intéressé lui-même n'est pas une référence assez solide sur sa propre existence d'après Wikipedia ! Quis custodiet ipsos custodes ?

Cet incident, au fait sans importance, et d'autres commencent à se produire assez souvent sur Wikipedia. En conséquence une équipe éditoriale s'est progressivement mise en place pour policer le site et arbitrer les conflits que certains articles peuvent poser. Au gré des incidents cependant, la politique éditoriale fluctue et change aussi souvent que les règles d'embarquement des compagnies aériennes. On est maintenant bien loin des vues idéalistes de Wales et Sanger, théorisées par Benkler.

Wikipedia devrait être embarqué dans l'ordinateur à moins de 100$, l'un des projets phares du MIT, pour être distribué aux enfants de la planète. La Wikiplanète ?

Kiko qui pleure, Netvibes qui rit !

Mardi 22 août 2006

Alors que de ce côté de l’Atlantique on s’émerveille de la récente levée de fonds de Netvibes – un deuxième tour de €12m piloté par les prestigieux Accel Partners et Index Ventures –, de l’autre on se perd en conjectures sur la disparition de Kiko, une autre startup exemplaire de la génération 2.0.

Kiko, une jeune pousse de Cambridge au Massachusetts, avait tout pour plaire en ces temps de Web 2.0. Qu’on en juge. Voilà un calendrier en ligne, hébergé, gratuit, à l’interface graphique abondamment récurée à l’AJAX et au DHTML, au nombre de comptes utilisateurs en croissance exponentielle, aux revues élogieuses sur les blogs « qui comptent » aujourd’hui comme TechCrunch, Under the Radar, et eHub, affichant plus de 50.000 « hits » sur Technorati, bref la route vers la gloire parsemée de pétales de rose. Coup de théâtre : le même jour, où presque, que l’annonce du déversement de la manne capital-risquée sur Netvibes, les fondateurs de Kiko, Emmett Shear et Justin Kan, jeunes diplômés de Yale, en panne sèche de stratégie de développement pour leur startup annonçaient écoeurés sa mise aux enchères sur le site eBay ! (On peut à ce jour s’en porter acquéreur pour $50.000, ce qui est quand même bien meilleur marché que Netvibes, non ? cf. http://cgi.ebay.com/ws/eBayISAPI.dll?ViewItem&item=120021374185)

Certains commentateurs y lisent les signes avant-coureurs de la fin du Web2.0. D’autres, comme Paul Graham, y éprouvent un sentiment de déjà vu. La chute de la startup Kiko, rappelle-t-il, intervient au lendemain de la mise en ligne de Google Calendar, une application Web supplémentaire dans la suite que le géant de Mountain View construit patiemment, et un calendrier en ligne parfaitement intégré au courrier électronique GMail et aux autres services Web du moteur de recherche protéiforme. C’est donc Google qui tire aujourd’hui avantage d’un effet « Microsoft Office » qui, il y a quelques années, avait permis à Microsoft d’éliminer ses concurrents sur chacun des marchés individuels du traitement de texte, du tableur, etc. Pour rester concurrentiel face à l’envahissant Google, une startup sur le thème du calendrier en ligne devrait donc aussi être capable d’offrir un « webmail » intégré (et les autres services) de qualité comparable à celle de Google, si ce n’est meilleure. Une tâche aux proportions devenues herculéennes en quelques années.

De notre côté, en revanche, joie, joie, pleurs de joie sur tous les blogs ! Netvibes, une jeune pousse parisienne, a tout pour plaire en ces temps de Web2.0. Qu’on en juge. Voilà un agrégateur de flux RSS hébergé, gratuit, ultra-rapide, à l’interface graphique abondamment récurée à l’AJAX et au DHTML, au nombre de comptes utilisateurs en croissance exponentielle, aux revues élogieuses sur les blogs « qui comptent » aujourd’hui comme TechCrunch, Under the Radar, et eHub (aux USA, mazette !), au berceau de laquelle des fées inouïes se sont penchées (Index Ventures, Skype si vous vous en souvenez ; Marc Andreessen, le héros de Netscape ; Pierre Chappaz, notre entrepreneur sériel français à nous – Kelkoo et maintenant Wikio, faut-il le rappeler – prudemment installé en Suisse néanmoins ; Martin Varsavksy, un autre sérieux sériel avec Jazztel, Ya.com et maintenant Fon, montré comme exemplaire, entre autres…), affichant quand même 16.000 « hits » sur Technorati (excellent pour un « frenchie »), bref la recette parfaite du « succès de la startup Web2.0 européenne ».

Voire. Les nouveaux investisseurs sont brutalement américains : Index Ventures est installé en Suisse, juridiquement hors Europe, et Accel Partners, un vétéran de la Silicon Valley dont les médailles d’honneur s’épèlent Actuate, MacroMedia, RealNetworks, Veritas ou UUNet, est un fonds américain avec un bureau à Londres pour couvrir l’Europe (sans avoir à se mêler aux indigènes du continent). Tariq Krim et Freddy Mini, fondateurs managers de Netvibes, se mettent à beaucoup parler d’expatriation aux environs de San Francisco, en dépit du plan « patriotisme économique » renforcé en vigueur dans notre pays depuis près d’un an.

Au passage, on peut également se demander pourquoi aucun investisseur français n’a rejoint ce tour de table, à l’heure où l’on se couvre la tête de cendres en se lamentant au motif que les business angels, anémiés par un régime fiscal sévère, ne s’ingénient pas à transformer des jeunes pousses en gazelles. (Une bien curieuse évolution génétique !) Netvibes me semble, au contraire, un parfait exemple : un actionnariat comptant un fonds de venture international et des « investisseurs providentiels » (en français réglementaire), de surcroît eux-mêmes entrepreneurs en série. Alors, il faut souhaiter très bonne chance à Netvibes et l’encourager dans cette internationalisation de toute manière indispensable.

Et tant pis pour PageFlakes. Et pour Zoozio, Favoor, Eskobo, Goowy et Protopage… Et, ah oui ! Microsoft avec Windows Live (http://www.live.com/) et Google (http://www.google.com/ig) alors ?

Pendant longtemps l’antienne du chant psalmodique des investisseurs en capital risque a été : « ne pas se mettre en travers du chemin de Microsoft ». Voit-on aujourd’hui s’écrire « ne pas se mettre en travers du chemin de Google » aux nouveaux versets de la liturgie Web2.0 ?

La débâcle de l'attribution des noms de domaine .eu

Mardi 15 août 2006
Comme beaucoup – le suffixe « .eu » est rapidement devenu le huitième plus populaire sur le Web – harcelé de courriers électroniques alarmistes rappelant la proximité de l’ouverture de la « sunrise period », je me suis naïvement précipité le 7 décembre dernier pour réserver l’extension .eu du nom de domaine (en .com) que nous utilisons déjà pour nos activités professionnelles.

Las ! Dans quoi m’engagé-je !

Première mauvaise surprise : renseignement pris auprès de notre hébergeur, la demande et la réservation du convoité nom de domaine en .eu nous coûte, pour un an, 97 Euros : près de dix fois plus que notre hébergement « .com » ! Motif (discutable) : frais que l’hébergeur engage pour notre compte pour se conformer à la procédure alambiquée imaginée par Eurid (http://www.eurid.eu/en/general/), basé en Belgique, pour l’attribution de ces noms de domaine.

Une fois réglé d’avance, il faut alors attendre patiemment qu’Eurid veuille bien enregistrer notre demande. Eurid est un organisme à but non lucratif mis en place par la Commission européenne, basé à Bruxelles et disposant de bureaux de représentation en Suède, en Italie et en République tchèque. Pendant la période dite « sunrise » les ayant droits légitimes (sociétés, institutions, détenteurs de marques etc.) ont l’opportunité de déposer leur demande. Au 7 avril 2006, s’est ouverte une seconde période dite poétiquement de « land rush » - on voir bien, hélas, l’analogie – ouverte à tous, premier arrivé, premier servi.

Deux mois plus tard, délesté donc de cette centaine d’euros, en vérifiant, une fois n’est pas coutume, la corbeille électronique du filtre anti-spam, quelle n’est pas ma surprise d’y découvrir un message isolé en provenance de Price Waterhouse Coopers, au nom de l’Eurid. Deuxième surprise, il contient une injonction comminatoire à envoyer dans le délai le plus bref, quelque part en Belgique, un KBis complet de la société et tout autre document asseyant la légitimité de l’entité juridique et légale mandant le domaine .eu. L’auditeur a été choisi comme « agent de validation » pour s’assurer de la bonne foi des quêteurs – pour des honoraires qui, n’en doutons pas, sont substantiels et leur permettant, au passage, de se constituer la plus complète et la plus actualisée des bases sur les sociétés européennes dont je ne doute pas un instant qu’ils trouveront des moyens « créatifs » de nous vendre ultérieurement l’accès et la consultation.

Suit alors une deuxième crise de furieuses activités sur les sites Infogreffe pour commander d’urgence le KBis à jour (5,50 Euros), d’attente dans la frustration alors que s’égrène le bref délai généreusement accordé par l’auditeur belge, d’expédition internationale par courrier des dits documents revêtus des nombreux tampons officiels (9 Euros environ), suivie d’un feu nourri de courriers électroniques, qui resteront sans réponse, pour obtenir au moins une forme d’accusé de réception.

Début août, soit après quand même six mois de silence radio absolu – au point même d’imaginer que toute cette procédure est un vaste canular – message électronique soudain de l’hébergeur :

« La demande pour votre nom de domaine .EU a bien été envoyée à l’Eurid et vos documents ont bien été reçus par Price Water House Coopers (Agent de Validation) le 20 février 2006 concernant votre demande pour le nom de domaine .EU.

L'Eurid a pris du retard sur le traitement des demandes reçues, il est cependant évident que dès que votre demande aura été examinée par les services de Price Water House Coopers vous serez notifié(e) de leur décision de refus ou acceptation par l'Eurid. »

Encourageantes nouvelles ! Est particulièrement apprécié le commentaire « il est cependant évident que dès que votre demande aura été examinée par les services de Price Water House Coopers vous serez notifié(e) de leur décision de refus ou acceptation par l'Eurid. »
On croit rêver ! Rien de moins évident, bien au contraire, comme on va le voir.

Quelques jours plus tard, comme si notre gesticulation agitée avait vaguement éveillé un souvenir diffus chez l’institution d’outre-Quiévrain, second message de notre hébergeur, d’un ton autrement triomphant, qu’on en juge :

« La demande pour votre nom de domaine .EU a bien été envoyée à l’Eurid.
Votre demande a été acceptée par l'Eurid. Votre domaine sera activé à expiration d’un délai de 45 jours suivant la réception du présent message.

Ce délai de 45 jours est fixé par l'Eurid afin de permettre à des tiers d'initier une procédure "ADR" contestant leur décision. »

Extraordinaire ! Après près de 8 mois et une somme d’argent – au montant faible mais considérable au regard de ce qui se fait pour l’obtention des noms de domaine – on nous annonce, sans recours possible, que l’attribution est enfin, dans la grande sagesse « euridienne », accordée – encore heureux ! – mais que, néanmoins, on laisse à tout le monde la possibilité de la contester pendant six semaines ! Je n’ose imaginer les arcanes des éventuelles procédures de résolution de contestation que les brillants et kafkaïens esprits d’Eurid ont certainement eu grand loisir de mettre au point. (Lire à ce sujet le sérieusement inquiétant http://domaine.blogspot.com/)

Histoire de nous rassurer, sans doute, la page d’accueil du site Web d’Eurid annonce simultanément :

« 24 Jul 2006
EURid, the non profit organisation operating the Internet top level domain .eu, has suspended 74 000 .eu domain names and has sued 400 registrars for breach of contract. This move was prompted by abusive behavior from a syndicate of registrars who have systematically acquired domain names with the obvious intent of selling them. In the domain name business this is called warehousing and is not permitted. »

Plus de 74.000 noms de domaine, nous avoue-t-on piteusement, ont été récupérés par des sociétés écran ou ad-hoc afin d’alimenter un marché noir de trafiquants qui les revendent à leur profit. John McCormac, qui dirige un annuaire de noms de domaine pour l’Irlande, rend compte, semaine après semaine, sur son blog de la débâcle complète de la procédure d’attribution. Il fut le premier à démontrer que ces fameux 74.000 noms étaient en réalité accordés à 400 boîtes postales hâtivement mises en vitrine par trois sociétés (Ovidio, Fausto, et Gabino – on se croirait à l’opéra) basées à Chypre, pour récupérer des termes d’usage fréquent – et donc très demandés comme nom de domaine. Sur d’autres sites, des blogs expliquent comment masquer une adresse américaine ou canadienne pour demander et obtenir un nom de domaine européen. Diane Wallis, membre du Parlement européen, sous-entendant ce que tout le monde soupçonne ouvertement maintenant, a exigé que soit mandatée une enquête sur l’attribution des noms de domaine en .eu, au motif de la présomption de fraude massive. La Commission va découvrir les finesses du stellionat, version Web !

Une fois de plus, l’Europe, si prompte à se draper de toutes les vertus quand il s’agit de taxer Microsoft, de critiquer la mainmise des Etats-Unis sur le contrôle de l’Internet au dernier Sommet de l’information, et à invoquer Les Lumières pour défendre l’Open Source contre l’impérialisme inacceptable de la mondialisation libérale, fait la parfaite démonstration de son bureaucratisme inapte à prendre la mesure des questions auxquelles elle est confrontée…

Quant à nous, on attend ! Il est maintenant plus que probable que la date d’expiration de la réservation de ma demande initiale du 7 décembre dernier soit concomitante à celle de l’activation tant attendue du nom de domaine – s’il n’est pas contesté par d’honorables américains « offshore » établis aux Îles Cayman, se prétendant chypriotes de mémoire ancestrale. Il faut nous préparer à certainement repayer pour finalement, je l’espère, mettre en œuvre le domaine.

La confusion règne, surfez tranquilles !

Le nouveau sésame de la publicité en ligne : « user generated content »

Mardi 08 août 2006
Le retour en force du modèle de la publicité en ligne n’a pas fini de bouleverser la donne dans l’industrie des médias. Google, poursuivant ses visées impérialistes sur le Web, vient de signer un méga-contrat avec Fox, acceptant de débourser $900m sur 3 ans pour remplacer Overture (Yahoo!) comme moteur de recherche sur les sites du géant des médias et, en particulier, sur MySpace – le joyau (en ligne) de la couronne de l’insatiable Rupert Murdoch. (Google avait signé récemment avec MTV un contrat de distribution des programmes vidéo et des clips de la chaîne musicale sur sa boutique en ligne et sur des sites et des blogs partenaires.)

Bien loin de ces alliances de géants, mais également attirés par le « boom » de la publicité en ligne, des startups n’hésitent pas à se lancer à l’assaut des prétendument imprenables réseaux de publicité en ligne déjà établis. Dopés par le succès grandissant des blogs et des wikis et convaincus, sans doute par le livre de Chris Anderson « The Long Tail » tout juste sorti des presses et abondamment commenté en ligne depuis la parution de l’article original dans Wired, que l’avenir est à la multiplication des réseaux de niche face aux grands portails de très jeunes sociétés lancent leurs propres réseaux publicitaires.

Adify, par exemple, fondé par les créateurs de Flycast Networks, déjà l’un des premiers réseaux de publicité en ligne du « Web 1.0 », acquis en fanfare par CMGI au plus haut de la bulle Internet, s’est lancé dans cette nouvelle aventure en 2005. En novembre dernier, Feedburner, un des grands « agrégateurs » de flux RSS lançait également son propre réseau de publicité en ligne sur ces flux. Federated Media créé par John Battelle, l’ancien co-fondateur de Wired et du défunt, mais à l’époque iconique, The Industry Standard, auteur célébré du best-seller « The Search » sur la naissance de Google, vient, en mars dernier, de lever un premier tour de financement auprès de JP Morgan après un tour initial l’année dernière financé par le New York Times et un groupe de business angels prestigieux. Les plus de 16 milliards de dollars investis en publicité en ligne attirent donc les velléités des petits comme des grands.

Y aura-t-il assez de commerciaux et de « super vendeurs » pour assurer le développement de ces nouveaux entrants dans un secteur où tout le succès réside réellement dans la vente ? La chasse aux talents est ouverte. Mais, il est certain que la vague de fond est bien là – AOL vient de jeter aux orties son modèle propriétaire jalousement défendu depuis plus de dix ans en faveur du modèle publicitaire en ligne ; et même Microsoft s’y intéresse plus que superficiellement.

Faudra-t-il bientôt renommer la SOA, Service Oriented Architecture, SOA, Supported Over Ad-networks ?

AOL, la fin d'une époque

Dimanche 06 août 2006
Time Warner, dont la fusion avec AOL début 2001 se révélera le signe avant-coureur de l’explosion de la « bulle Internet », subit aujourd’hui de plein fouet l’impact du tsunami de la banalisation du haut débit. Hier, Time Warner annonçait que les services et les logiciels d’AOL devenaient gratuits pour les abonnés (américains) haut débit. En prime, le courrier électronique, la messagerie instantanée, de la VoIP et une capacité de stockage jusqu’à 5Go sont désormais offerts à l’internaute, dans l’espoir de raviver une base installée en voie de décrépitude depuis quelques années.

Ce virage stratégique peut réellement être qualifié de phénoménal pour la société dont le « business model », inaltéré depuis sa création au début des années 1980, repose sur le « tout propriétaire » (« the walled garden » dit-on poétiquement dans les commentaires de la presse américaine). Bill von Meister, disparu en 1995, avait fondé The Source en 1979, le tout premier service en ligne, précurseur des bouleversements à venir ; après avoir frôlé la faillite un nombre de fois incalculable, The Source sera vendu en 1989 à Compuserve (lui-même créé en 1969). Sans se décourager, von Meister crée, en 1982, Control Video Corporation qui commercialise une console de jeux pour le tout nouvel Atari. La console permet de télécharger un jeu après paiement par carte de crédit : une nouveauté inédite à l’époque. Bell South contacte alors CVC pour développer une version hébergée pour les machines Apple et Commodore 64, qui viennent de sortir. Devant l’échec relatif du projet, la société change de nom, devient Quantum Computer Services, et ne retient du son « business model » que l’idée de services en ligne propriétaires qu’elle relance en 1985 sous le nom Q-link. Steve Case, qui a rejoint CVC en 1983, lance AppleLink pour le compte d’Apple Computer, puis PC-Link pour les détenteurs de l’IBM PC. En 1989, les services sont renommés America OnLine et Case devient CEO de la société en 1991, change à nouveau le nom de la société Quantum qui devient AOL et réussit son IPO sur le NASDAQ. Jusqu’à l’arrivée des premiers ISP en 1994, AOL fait la promotion des services en ligne face à GEnie de GE et Prodigy (une curieuse alliance entre CBS, IBM et Sears Roebuck un géant de la grande distribution) ; depuis 1992 et l’échec de négociations entre Microsoft et AOL, le géant de Redmond travaille à son offre propriétaire de services en ligne : MSN. De 1994 à 2000, AOL multiplie les acquisitions et les partenariats pour défendre sa position devant la déferlante des ISP et la concurrence de Microsoft. En particulier, AOL rachète en 1997 le réseau de Compuserve à Worldcom qui vient lui-même de racheter le vétéran des services en ligne, puis Netscape et ICQ en 1998. En janvier 2001, c’est l’apothéose : Time Warner et AOL fusionnent dans une transaction de 106 milliards de dollars.

Après avoir survécu avec un panache certain à la révolution des ISP et à la concurrence de Microsoft dans les années 1990, AOL souffrait depuis quelques années, bien sûr de l’indigestion financière de Time Warner après l’explosion de la bull qui suivit rapidement le rachat démentiel de janvier 2001, mais aussi, et surtout, de la diffusion du haut débit (ADSL) aux Etats-Unis. Cette banalisation précarise encore plus, s’il en était besoin, le modèle de services propriétaires qui fit les beaux jours de la société. Le déplacement du modèle économique de l’abonnement par celui des liens sponsorisés et des revenus publicitaires mettait dès lors AOL en panne de croissance là où YouTube, MySpace et Google « passaient le turbo ». En jetant l’éponge, Time Warner reconnaît que toute l’industrie des média et ses acteurs, quelles que soient leurs tailles, sont touchées par la révolution Internet et la réorientation massive des canaux de publicité vers le Web.

En France et en Europe certaines activités d’AOL seront cédées à 9 Telecom. Aujourd’hui, Time Warner annonce le licenciement de 5000 personnes dans cette restructuration massive qui clôt toute une époque dans l’histoire d’AOL. Steve Case lui-même avait appelé de ses vœux en décembre dernier la séparation d’AOL de Time Warner, témoignant du « loupé » dans la migration vers le haut débit que la société annonce aujourd’hui à son corps défendant. Il y a six mois, Case imaginait encore un avenir pour un AOL retrouvant son indépendance comme spécialiste de la voix sur IP (et l’enrichissant considérablement au passage comme nous avions tenté de le comprendre en détaillant le montage financier dans un précédent billet).

Time Warner se réveille-t-il trop tard ? Case arrivera-t-il à ses fins et relancera-t-il son rêve d’un AOL différent pour un siècle différent ? Ted Leonsis, président de la division AOL Audience Business, défend vigoureusement le choix de Time Warner dans son blog : « The strategy is right. Now we just have to execute. » dit-il…

L'innovation est-elle « plate » ?

Jeudi 03 août 2006

Dans un billet récent, posté sur son éminemment recommandable blog « Réussir ses Services d’information Web 2.0 », Louis Naugès livre une réflexion très intéressante à partir de la session « Does America Still Have a Lock on Innovation? » de la conférence annuelle AlwaysOn, tenue à Stanford la semaine dernière. Son commentaire sur le contraste entre les comportements prévalant en France et ceux entourant l’innovation, en particulier dans les technologies de l’information, est saisissant et pétri de bon sens. (Lire http://nauges.typepad.com/my_weblog/2006/08/innovation_quel.html)

Dans ce débat américain, deux grandes idées émergent. La première, illustrée par la présentation à Xtech2006 de Paul Graham (1), programmeur LISP émérite et fondateur de la startup ViaWeb revendue à Yahoo en 1998, analyse pourquoi les USA sont et promettent de rester encore longtemps la terre d’élection des entrepreneurs. Les ingrédients de cette « recette » sont d’après lui :
(i) permettre l’immigration ;
(ii) être un pays riche ;
(iii) ne pas être un état policier ;
(iv) conserver les meilleures universités ;
(v) permettre de licencier ;
(vi) ne pas nécessairement identifier travail et emploi ;
(vii) une réglementation souple ;
(viii) un grand marché intérieur ;
(ix) des sources de capitaux pour les premières phases du développement des entreprises (« business angels » et capital risque, ce qui dépend, bien sûr, de tous les autres points y compris de celui-ci !) ; et
(x) un moindre attachement à la notion de « faire carrière ».

En dehors de l’aspect évidemment polémique et des circonstances de cette présentation – qui s’est déroulée à Amsterdam, en Europe précisément, au printemps dernier – ce « programme » se lit clairement comme l’antithèse des initiatives et autres directives promues par l’Union européenne. Sur presque tous les points, cette position prend le contre-pied des grands principes édictés par la Commission européenne dans ses recommandations politiques de développement.

Cette analyse est habituellement confrontée à celle, variante « constructive » de la mondialisation qui fait tant horreur sous nos cieux, abondamment illustrée dans le succès de librairie – que note Naugès – « The World Is Flat » de Thomas Friedman. Selon cette contre-analyse, aucun pays ou région n’a plus le monopole de l’innovation, les progrès des communications et de l’éducation permettent à une innovation, où qu’elle soit mise au point, de diffuser rapidement et au plus grand nombre, l’immigration est essentielle, et la Chine doit être considérée comme la plus grande menace à l’avance américaine dans les secteurs innovants.

Comme il se doit, un sondage réalisé en séance à AlwaysOn demandant quels étaient à l’avenir les pays perçus comme les plus susceptibles de contester aux USA sa place actuelle de leader technologique donnait le résultat suivant : Chine (33%), Inde (14%), Israël (9%), Europe (5%) – tous derrière les Etats-Unis (39%) quand même qui gardent la confiance du public de la conférence. (Notons que nos amis d’outre-Atlantique considère l’Europe groupée. À mon avis il faut imaginer qu’ils ont plutôt en tête le Royaume-Uni majoritaire, et l’Europe continentale réduite à quia !)

Et en effet, parmi les « business plans » que j’ai eu l’occasion de lire à titre professionnel j’ai récemment vu un projet de développement de logiciel d’authentification porté par des français installés à New York, sur la base d’un brevet suisse, et entièrement codé par des programmeurs indiens à Trivandrum. Dans tel autre projet de services aux mobiles, deux français installés à Londres font développer en Slovénie un progiciel hébergé pour les opérateurs télécoms européens ; dans un autre encore, deux (serial) entrepreneurs russes commercialisent aux Etats-Unis un équipement de communication dont le firmware provient directement d’une « usine de programmation » à Moscou et le hardware d’une équipe de conception basée à Taïwan. Le monde semblerait donc effectivement « s’aplatir » à vue d’œil…

Il est cependant bon de rappeler que les Etats-Unis traversent régulièrement ces « crises de conscience » surtout dans le domaine des technologies de l’information, qui comme d’autres industries, et, de ce point de vue, comme en Europe, courent toujours le risque de leur échapper. Il suffit de jeter un coup d’œil à l’industrie automobile américaine ou à la sidérurgie pour comprendre que nul n’est à l’abri de transferts massifs et planétaires de compétences et de moyens de production.

Le livre d’Ed Yourdon, « Decline and Fall of the American Programmer », paru en 1992, avait naguère provoqué une intense commotion, appelant aux armes devant le manque de productivité, qualifié de tragique, des programmeurs américains. Jadis encore, Edward Feigenbaum et Pamela McCorduck avaient commis en 1983 un livre au ton alarmiste, « The Fifth Generation », fustigeant les USA pour leur apathie devant la menace que le MITI japonais était supposé faire peser sur l’industrie informatique américaine florissante en développant l’intelligence artificielle pour la plus grande gloire d’un Japon, qui devait rapidement « pouvoir dire non » pour reprendre un autre titre d’Akio Morita, alors patron de Sony, qui défraya la chronique. Le Japon d’alors était peut-être leur Chine d’aujourd’hui…

Notons aussi que, tout comme en Europe, certaines mesures prises par le gouvernement américain – qui font débat là-bas, mais sont néanmoins peu retransmises et commentées de ce côté ci de l’Atlantique – peuvent tout aussi bien mettre en danger cette position de leadership. Le sujet de l’immigration a déjà été évoqué : après les événements de 2001, les quotas d’immigration d’étudiants étrangers ont été drastiquement revus à la baisse, privant ainsi les entreprises et les universités américaines de nombreux talents.

Dans le secteur tout aussi stratégique des télécommunications, la juriste Susan Crawford, commentatrice avertie des questions de « gouvernance » de l’Internet, remarque que les extensions visant à renforcer CALEA (Communications Assistance for Law Enforcement Act de 1994), demandées par le gouvernement, visent à imposer que tout équipement électronique de communication aux USA – tout équipement ! – soit doté d’une « boîte noire » dont les enregistrements soient destinés aux écoutes gouvernementales. Quel meilleur encouragement conclut-elle pour les entreprises technologiques des télécommunications à aller innover ailleurs qu’aux Etats-Unis ? (Et où donc ? demanderont les plus chagrins d’entre nous, la « nouvelle surveillance » devenant une façon de voir de plus en plus répandue.)

Sur un autre sujet lié à l’innovation, le président Bush vient pour la première fois de faire usage de son droit de veto en bloquant une proposition de loi qui allégeait les interdictions d’affecter des fonds fédéraux à la recherche sur les cellules souches. Cette interdiction, imposée en 2001 par le président Bush lui-même, est considérée comme un frein à la R&D en biotechnologie aux Etats-Unis. À l’inverse, en 2003, Bush avait fait des nano-technologies une « top » priorité nationale et avait débloqué un budget de plusieurs milliards de dollars pour une « National Nanotechnology Initiative ».

Alors l’innovation technologique, après ces considérations, reste un équilibre fragile résultant tant d’efforts de planification concertée que d’opportunités et d’effets de bord parfois imprévisible. C’est une cible mouvante, sa définition variant au gré des forces de marché, des cycles économiques et des repères culturels. N’est-il pas plus important d’essayer d’en comprendre les mouvements et l’importance plutôt que de vouloir à tout prix la « capturer » ?

(1) Paul Graham : http://www.paulgraham.com/index.html
(2) Louis Naugès : http://nauges.typepad.com/my_weblog/
(3) Susan Crawford : http://scrawford.blogware.com/blog
(4) Thomas Friedmann : http://www.nytimes.com/top/opinion/editorialsandoped/oped/columnists/thomaslfriedman/

Open Source et logiciel libre continuent à faire débat

Mardi 01 août 2006
Comme le mettaient en avant les présentations à OSCON, la conférence O'Reilly annuelle sur l'Open Source, tenue la semaine dernière à Portland, les secteurs de l’Open Source et du logiciel libre sont récemment revenus au centre de stratégies actives de fusion-acquisition déployées par les grands éditeurs de logiciels d’entreprise. En avril dernier, par exemple, Red Hat achetait JBoss – éditeur du serveur d’applications Open Source éponyme – pour un montant d’environ $420m. Les manœuvres prédatrices d’Oracle autour de l’éditeur de bases de données Open Source MySQL, entamées avec l’acquisition du finlandais Innobase, qui fournissait un moteur de base de données au suédois MySQL, renforcent l’opinion généralement répandue que MySQL est la prochaine cible dans ce phénomène « d’endiguement » de l’Open Source par le secteur historique de l’informatique d’entreprise.

Il faut également évoquer l’hésitation de Microsoft, sensible depuis dix huit mois, entre attitude franchement hostile à l’Open Source et au logiciel libre – Steve Ballmer se déplace en personne en Europe, par exemple, pour défendre pied à pied les logiciels de Redmond contre le zèle croissant des gouvernements et des administrations européennes à se convertir au logiciel libre – et ouverture mesurée (avec Shared Source Initiative). Notons également les concessions accordées par Microsoft à la communauté avec le soutien du bout des lèvres au format Open Document Format. Ces décisions et ces repentirs du géant du logiciel d’entreprise sont d’autant plus intéressants que, comme ceux d’un Oracle ou d’un BEA, ils témoignent d’une recherche sincère d’un modèle économique du logiciel, et des applications d’entreprise en particulier, pour une industrie cisaillée entre les effets rémanents de l’indigestion de progiciels des années 1990, qui a entraîné une réduction et une fragmentation drastique des budgets informatiques des entreprises, et le formidable bouleversement provoqué par le Web et l’Internet dans toute l’économie du développement et du déploiement des logiciels.

L’économiste Yochai Benkler, que nous avons déjà abondamment cité dans cette tribune, tente de théoriser cette évolution dans son dernier ouvrage, The Wealth of Networks. D’après lui, le phénomène Open Source annonce la mise en place de grands systèmes de « production sociale » décentralisés mais, contrairement aux systèmes traditionnels et historiques, ne dépendant pas d’un mécanisme de prix ou d’une structure de management pour leur coordination. Une forme inédite, intermédiaire entre marché et entreprise, que l’auteur nomme « commons-based peer production » (production communautaire d’égal à égal). Laissant de côté le débat sur le fond, qui verrait dans cette proposition une tentative d’importation d’idées socialistes et marxistes de la fin du XIXe siècle dans l’analyse économique de l’industrie informatique d’aujourd’hui, certains observateurs réagissent à l’esquisse théorique de Benkler en contestant précisément la pérennité de cette place intermédiaire qu’occuperait l’Open Source.

Nicholas Carr, par exemple, l’auteur du très polémique Does IT Matter? (« À quoi servent les technologies de l’information ? », livre dans lequel l’auteur conteste les bénéfices économiques supposés de l’informatique d’entreprise), est prompt à faire remarquer que, d’une part, des considérations salariales commencent à voir le jour dans de nombreux projets Open Source et que, d’autre part, beaucoup de projets libres affichent, parfois même dès leur création, des structures de management qui n’ont rien à envier à celles des entreprises à proprement parler. Carr illustre ses remarques de l’exemple de Weblogs, une des premières sociétés à avoir mis en place une rémunération de ses bloggers et acquise depuis par AOL. Carr pointe aussi du doigt les contorsions de la politique éditoriale de Wikipedia depuis que les abus de son site ont été rendus publics et largement commentés, avec maintenant une politique de gestion plus stricte. Et, de fait, pourquoi des grands acteurs du secteur traditionnel se bousculent-ils pour racheter ces projets Open Source et logiciel libre, si ce n’est parce qu’éduqués par une existence entièrement vécue dans un système de marché ils pensent pouvoir précisément pallier un gouvernement d’entreprise inexistant ou à peine frémissant dans ces communautés.

Lorsque l’argent, du capital-risque ou de l’acquéreur industriel, se met à couler à flots sur les communautés Open Source et logiciel libre, celui-ci n’est-il pas le catalyseur d’une dénaturation profonde du projet et, au fond, la cause même de sa disparition annoncée ? Le débat théorique reste ouvert et l’industrie est actuellement son meilleur champ d’expérience !

Google, eBay : bataille autour du paiement en ligne

Lundi 10 juillet 2006
L’annonce du départ de Jeff Jordan, le président de PayPal, devenu après l’acquisition par eBay en 2002, Senior VP et General Manager des opérations US du site de ventes aux enchères, a précipité cette semaine le titre dans une chute de 5 % au NASDAQ – on parle quand même de presque 2 milliards de dollars évaporés – et entraîné, dans son sillage, un repli des valeurs technologiques. Première réaction, sans doute, à l’annonce du 29 juin de « Google Checkout », le système de paiement en ligne concurrent du géant des moteurs de recherche !

Simultanément, eBay vient de rajouter Google Checkout à la liste des moyens de paiement non acceptés par le site, sur la base que ce service était « neuf et pas encore éprouvé » d’après le porte-parole du site d’enchères. Est-ce que Google va interdire PayPal sur Froogle ? Ce verrouillage ne fait qu’ajouter à la schizophrénie qui caractérise les relations entre Google et eBay.

Google et eBay représentent chacun l’archétype le plus abouti des « business models » gagnants du Web. D’un côté la fonctionnalité de recherche et les revenus de publicité et de liens sponsorisés, de l’autre la fonctionnalité de transactions individuelles et les revenus de commissions et d’hébergement de services. Une monnaie d’échange partagée : le trafic sur le site et sur les réseaux de franchisés. Recherche, échange, les deux géants de l’Internet ont beaucoup en commun.

De fait, eBay est évidemment un des plus gros consommateurs – si ce n’est le plus gros – d’AdWords, le service de Google. Néanmoins, les sujets de fâcheries se sont multipliés au cours des années de croissance des deux grands de l’Internet. Google a lancé Froogle et Google Base que l’on peut considérer comme empiétant sur les plates-bandes d’eBay ; mi-juin eBay a annoncé sotto voce AdContext, un service comparable à AdWords de Google. (Plus spécifique, cependant, dans la mesure où les revenus des clics sont uniquement liés au montant d’une vente éventuelle sur le site eBay.)

Il faut s’attendre à une confrontation de plus en plus directe entre les deux enfants prodiges du Web 1.0. Pour un vendeur, le choix est entre payer Google pour que ma publicité apparaisse sur la page des résultats de recherche, ou bien mettre en vente sur le site eBay, moyennant un « listing fee » et une commission sur le prix de vente final. Chacun des deux sites contrôle aujourd’hui un tel trafic que ces alternatives doivent être examinées au centième de dollar près pour optimiser les budgets de marketing et de promotion en ligne. Au fur et à mesure que ces méga-audiences se construisent, les tarifications de Google et d’eBay vont en s’affinant, proposant des dispositifs optionnels de plus en plus sophistiqués aux annonceurs et aux vendeurs. (Une industrie complète est née autour de l’optimisation des campagnes « pay –per-click » sur Google AdSense et AdWords, par exemple.) Il y a, de plus, un argument économique de rendement d’échelle à loger sous le même toit des services de recherche sur le Web et de marketing en ligne. Tous les géants de l’Internet cherchent à appliquer cette stratégie : Amazon a lancé A9, un moteur de recherche sous sa marque, Yahoo!, MSN et Google se disputent la position de leader, etc.
De là à imaginer des consolidations majeures entre géants…

EMC : un géant s'éveille

Dimanche 02 juillet 2006
EMC vient tranquillement de débourser un peu plus de 2 milliards de dollars pour acquérir le spécialiste de la sécurité RSA. Dans les deux derniers mois, EMC a également acquis les sociétés Interlink Group, une des grandes SSII spécialisées sur les produits de Microsoft, Kashya, une startup israélienne dans le secteur de la réplication des données, et sa compatriote nLayers, spécialiste de la gestion de configuration (CMDB pour Configuration Management Database) puis ProActivity, un des leaders dans le domaine émergent du BPM (pour Business Process Management). Et ce ne sont que les effets récents de la boulimie de l’éditeur : on se rappelle du tiercé d’acquisitions réalisées en 2003 : Legato, Documentum et VMWare, ou bien encore de celle de Smarts, fin 2004.

Sous la direction énergique de Joe Tucci, qui, dans le passé, avait sorti Wang de la banqueroute et l’avait redressé, transformant le constructeur vétéran en société de services avant de le vendre avec profit à Getronics, EMC applique avec panache une stratégie sans faille de conquête de marché. Le nouvel acronyme symbolisant ce nouvel accès d’impérialisme sur les services informatiques des entreprises est ILM pour Information Lifecycle Management – la gestion du cycle de vie de l’information. Plongeant ses racines dans les systèmes et les logiciels de stockage et d’archivage de données, l’ILM cherche à étendre son emprise sur les flux de données, si possible depuis leur création même. D’où, pour EMC, la pertinence de rachats de spécialistes de la gestion de contenus (Documentum), de gestion de configuration (nLayers), de BPM (ProActivity) au-delà de ceux dans son secteur d’origine (Legato, Kashya, etc.). La sécurité et l’authentification dont l’importance est critique à chacune des étapes de la création et de la circulation de l’information deviennent alors des « briques » technologiques indispensables à EMC. Sans barguigner – l’éditeur paie un premium de 40% sur le prix de son acquisition – EMC s’empare donc du leader du secteur.

Dans les années qui viennent, le poids de l’ILM devrait croître dans les budgets des DSI. Il suffit de constater la charge croissante de la réglementation du monde des affaires, tant au plan juridique que financier – les contextes politique et économique encourageant cette tendance – de Bâle II à Sarbanes-Oxley, pour réaliser que l’ILM promet de devenir indispensable pour assurer développement et compétitivité dans un écosystème plus strict. Par exemple, lorsqu’une société est prise dans une tourmente légale, comme il s’en produit de plus en plus souvent aux Etats-Unis, il lui faut livrer immédiatement fichiers, archives, courriers électroniques, pages Web, etc. à la première injonction. Tous ces documents numériques constituent de plus en plus des preuves et leur destruction devient progressivement un délit. (C’est par des échanges de courriers électroniques indélicats qu’a éclaté l’affaire Frank Quattrone à CSFB. Et que dire de nos excellents « listings » nationaux chez Clearstream, où l’ILM se pratique encore au stylo et au « typex » !)

EMC a bien l’intention de se hisser au panthéon actuel des géants des applications d’entreprise. Aux Etats-Unis, ce type de mouvement de fond est de plus en plus l’objet de l’attention pointilleuse des autorités légales, qui soupçonnent inévitablement trust, monopole et cartel derrière les stratégies des grands éditeurs : Microsoft entretient un budget légal et juridique comparable à celui d’un petit pays et Oracle est un habitué des fusions hostiles débattues devant un juge. Il est à espérer qu’EMC pratique ce qu’il promeut et dispose d’un ILM parfaitement affûté. Peut-être en aura-t-il besoin à l’avenir !

Géo Trouvetou : l'IGN (presque) en ligne

Dimanche 25 juin 2006

Après plusieurs tentatives infructueuses de connexion sur le site de l’IGN ce vendredi 23 juin, s’affiche dans le navigateur le message suivant :

« Vous êtes incroyablement nombreux à vous connecter sur ign.fr, le site de l’Institut Géographique National. En raison de cette affluence, le site est actuellement saturé. Nos équipes mettent tout en œuvre pour vous permettre d’y accéder à nouveau dans des conditions de navigation satisfaisantes et vous remercient de l’intérêt que vous portez à l’IGN. »

C’est en effet aujourd’hui que l’IGN ouvre au grand public son géoportail, qui promet, au travers d’une politique de communication et de médiatisation apparemment méticuleusement mûrie et préparée, de faire « mieux que Google Earth » ! En ce premier jour, c’est plutôt l’inverse : Google Earth, lui, marche...

Curieux, d'ailleurs, cette manie des services publics ouvrant leur accès au grand public via le Web d’être toujours pris par surprise par l’affluence et le trafic sur le site : la Direction générale des impôts avait joué le même scénario pour les télédéclarations, de même que l’INA avec une mise en ligne d’une partie de ses archives audio-visuelles. Quand l’IGN aura calibré ses serveurs à l’aune de l’intérêt qu’il suscite bien légitimement, on s’attend, en revanche, à voir des merveilles : cartes du territoire français avec des détails à 50 cm (deux fois mieux, en effet, que Google Earth), mix de cartes 2D et 3D, positionnement des services et des commerces, etc. En attendant, les curieux se rabattront sur l’excellent blog de Jean-Michel Billaut – une indispensable lecture – qui avait eu la chance d’obtenir une démonstration en avant première en avril dernier (http://billaut.typepad.com/jm/2006/04/connaissezvous__2.html).

En revanche, dans cette campagne médiatique plus un mot sur Zoomorama, la jeune pousse novatrice fondée par Franklin Servan-Schreiber, spécialiste des interfaces graphiques et du multimedia, passé par de prestigieuses universités américaines puis par la direction des laboratoires de recherche de Sony aux Etats-Unis, qui avait pourtant fourni la technologie de zoom et de navigation à l’IGN pour ses premières réalisations au Salon des maires en 2005 (http://www.ign.fr/telechargement/P.I/ActusAgenda/Presse/2005/CP_salonmaires.pdf). Peu après le lancement de Google Earth par la Némésis attitrée de nos édiles – on se rappelle le tollé dans le microcosme qu’avait provoqué l’annonce de Google Print – c’est pourtant bien la rencontre entre Zoomorama et les dirigeants de l’IGN qui avait servi ce catalyseur à ce projet de géoportail à base de cartes aériennes (et non uniquement de cartes satellite comme chez Google).

Tout ceci ne tombe pas par hasard dans le fil d’actualités. Google Earth a mis en ligne le 15 juin dernier une mise à jour majeure de son logiciel d’exploration et de navigation géographique. Avec, en particulier, un grand tiers du monde en résolution submétrique, i.e. équivalente à celle offerte sur le géoportail de l’IGN, et l’intégration à venir avec le service Google Maps (déjà le plus utilisé dans l’univers Web 2.0 des « mashups »). Sur les talons de son concurrent, Microsoft avait aussi lancé au printemps 2005 MSN Virtual Earth ; l’éditeur vient de racheter Vexcel Corp., spécialiste des photos aériennes et radars ; sans nul doute pour muscler son offre. Poussé par l’orgueil national, déjà passablement écorné par les temps qui courent, les patriotes économiques se devaient donc de réagir à tout prix.

Oublions donc le ton inutilement tonitruant et les rodomontades faciles (« mieux que Google Earth ») de la médiatisation du projet : l’enjeu n’est pas une simple rivalité atlantique, mais bien de simplifier l’accès et la diffusion d’informations géographiques aux citoyens et aux professionnels : par exemple pour visualiser d’une façon sommaire mais réaliste le tissu urbain, informer, simuler des risques (inondations), etc. comme le rappelle sereinement l’initiateur du projet Patrick Leboeuf.

Alors, vite ! Rajoutez des baies de serveurs

Microsoft à Bruxelles pour défendre l'innovation en Europe !

Nouvelle offensive de charme de Microsoft la semaine passée, qui conviait la communauté du capital risque européen à un VC Summit, tenu concomitamment à un événement dirigé vers les PME européennes également organisé par l’éditeur de Redmond à Bruxelles sur le thème de « l’innovation ». Fine mouche, Microsoft a choisi la capitale de la politique européenne pour inaugurer un nouvel « Executive Briefing Center », installé en grande pompe, à quelques pas des bâtiments de la Commission qui, depuis quelques mois, poursuit l’éditeur américain d’une vindicte renouvelée.

On ne sait si c’est pour se racheter une conduite vis-à-vis de la Commission mais Microsoft a parfaitement su choisir le thème de l’innovation, placé au centre des débats actuels sur les politiques nationales et européenne de valorisation de la recherche et de développement de l’industrie des hautes technologies. Les interventions de représentants de la « SME Union » au nom des PME européennes, de membres des diverses commissions de l’administration européenne et des managers de Microsoft fournissaient une occasion unique de mettre en perspective des stratégies variées d’accompagnement de la valorisation de l’innovation.

Tant Microsoft que les éminents représentants des divers comités et lobbys européens partagent au départ la même profession de foi – même si le contexte dans lequel elle s’est confirmée est bien différent entre cette rive de l’Atlantique et l’autre. En quelques mots : le monde économique entre dans une phase diversement nommée « société de l’information » ou « économie de la connaissance » dans laquelle l’invention, l’innovation et les savoir-faire sont les moteurs du développement. Pour simplifier abusivement une analyse des idiosyncrasies des deux systèmes aujourd’hui bien établis : du côté américain « la pensée libérale » imagine que les marchés et la libre entreprise fondée sur un rôle prépondérant des capitaux privés sont les dispositifs les plus adaptés à encourager cette indispensable innovation ; du côté européen, on maintient – pas nécessairement en contradiction avec la position précédente, c’est une question de degré – que l’Etat ou les états ont un rôle décisif à jouer qui va de l’encadrement réglementaire à l’accompagnement économique.

Le contraste entre les deux démarches, partant pourtant du même constat, n’en était que plus vif, à entendre les présentations des orateurs au VC Summit.

Le représentant de l’union européenne des PME, par exemple, reprenant ce refrain non seulement usé jusqu’à la corde mais, de plus, complètement surfait et inexact, n’a su trouver qu’à fustiger « les difficultés d’accès au capital » des jeunes entreprises et l’absence de « business angels » en Europe – considérés, avec justesse, comme une des niches de l’écosystème du capital privé intéressé à l’innovation. La pathétique rengaine d’une Europe ou la recherche et l’invention se porteraient bien mais l’innovation ne trouverait jamais à se concrétiser, faute d’accès aux capitaux, resservie réchauffée à un parterre d’investisseurs en capital-risque qui plus est, démontrait au mieux un manque de discernement pitoyable. Impression renforcée par l’intervention cataleptique de Maive Rute de la Commission européenne qui présentait comme critique et essentielle la proposition européenne visant à permettre la création d’une entreprise en moins d’une semaine dans les pays de l’Union à l’horizon 2009, reprenait à son compte les insipides déblatérations sur les « gazelles », et présentait les « stock options » permettant d’attirer et de retenir des managers expérimentés dans les startups comme si elle les avait découvert hier matin ! Pas un mot sur la fiscalité – et ô grand jamais l’évocation même voilée de son lien possible avec l’anémie des réseaux de business angels européens -, pas un mot sur les réglementations byzantines du droit du travail dans les pays de l’Union, rien sur les politiques de protection des brevets et de la propriété intellectuelle… L’Europe ainsi maquillée n’est pas près de s’imposer au plan international en dépit des gesticulations politiques qui agitent ses cénacles !

L’impression qu’on retiendra, en revanche, du représentant de l’autre bord à cette occasion, Microsoft dans le rôle du podestat bienveillant, concerné et responsable, est tout autre : le pragmatisme y domine. Microsoft a opportunément rappelé que sa politique d’acquisition de jeunes entreprises de technologies est déjà ancienne. Les douze derniers mois ont vu le nombre de ces acquisitions doubler par rapport à l’année antérieure et tripler en valeur : le géant du logiciel ne sous-paye pas la propriété intellectuelle qu’il acquiert.

Concession peut-être à l’Europe, Microsoft annonçait le jour même de nouvelles transactions avec des jeunes pousses basées en Angleterre (Skinkers) et en Irlande (Vimio). Et c’est à l’Europe que Microsoft réservait la primeur d’un nouveau genre d’opération : pas d’acquisition cette fois, comme ce fut le cas en février dernier pour MotionBridge basé à Paris, mais une vraie opération d’accompagnement. Dans le cas de Skinkers, le laboratoire de Microsoft Research établi en Angleterre, à Cambridge, accorde une licence d’exploitation de sa technologie peer-to-peer (Pastry) à la startup en échange d’une participation à son capital et un siège d’observateur au conseil d’administration de la société. Dans le cas de Vimio il s’agit d’une licence d’exploitation de technologies d’optimisation des flux vidéo. Ce sont les premières réalisations du programme Microsoft IP Ventures destiné à valoriser les travaux de ses laboratoires de recherche (2 aux USA, Cambridge, Pékin et Bangalore). Tout comme les grandes institutions de recherches nationales en Europe type CEA et Fraunhofer Institut !

Mais ce n’est pas tout. Au travers du programme IDEES en France, mené tambour battant par Julien Codorniou, et d’une initiative similaire en Allemagne, Microsoft cherche à travailler en bonne intelligence avec la communauté du capital risque en haute technologie – même réduite à quia après l’explosion de la bulle Internet qui a provoqué une transhumance massive des capitaux privés vers les vallées d’apparence plus vertes des méga-fonds de LBO, menaçant là aussi d’un désherbage imminent. Au travers de la communication régulière de ses centres d’intérêt, de la mise en place de programmes de co-marketing et de partenariats commerciaux, Microsoft promet de soutenir efficacement les jeunes sociétés de high-tech européennes. Nul doute que ces initiatives, aux arrières pensées tactiques affichées mais acceptées, soient plus intéressantes aux yeux des entrepreneurs que les perspectives bureaucratiques avancées par les administrations européennes !

Alors, si l’on met à part les manifestations de gratitude fort convenues des entrepreneurs appelés sur scène par Microsoft pour témoigner de la vie rêvée en collaboration avec l’éditeur, et la sortie proprement fascinante d’un des « évangélistes » de Microsoft se vantant d’avoir enfin utilisé un Macintosh puisque BootCamp lui permettait de booter sous Windows (!), il restera que le géant de Redmond a amplement réussi, sous le patronage de Jean-Philippe Courtois, Président de Microsoft International, son immigration « choisie » en Europe.

Minatec Crossroads : à la croisée des chemins

Lundi 05 juin 2006
« Run ! » crie le Directeur de la Stratégie et Fellow d’Intel en bondissant hors du car.

Zigzaguant à sa suite pour éviter le bombardement d’œufs auquel est soudain soumis la délégation qui assiste à la conférence, je ne peux m’empêcher – entre deux halètements, il y a longtemps que j’ai perdu l’entraînement ! – de me faire la réflexion qu’en France on ne rate jamais une occasion de faire la preuve éclatante d’un misonéisme archaïque, surtout devant les rares étrangers qui nous font l’honneur de s’intéresser encore aux réalisations technologiques nationales.

Je rejoins enfin, miraculeusement indemne, le hall du Musée de Grenoble où se tient, à l’invitation du maire Michel Destot, lui-même ingénieur et entrepreneur-fondateur de société de high-tech après son passage au CEA, le cocktail d’inauguration des rencontres Minatec-Crossroads, trois jours fort denses de conférences technologiques tenues juste avant l’inauguration officielle du Minatec ce vendredi 2 juin. Dehors, le directeur de l’INPG, un des initiateurs du programme Minatec, relève le Senior VP R&D de TSMC, le plus gros fondeur mondial, touché en pleine course par les ovoïdes projectiles balancés avec fureur par des manifestants qui vocifèrent contre le « Minatec : désastre écologique ». Le directeur du LETI tente de rassurer le petit groupe de rescapés essayant de retrouver leurs esprits : une escarmouche de plus des « anti-nanos », probablement une simple répétition avant jeudi ou vendredi lors des événements publics et officiels.

Nous fuyons à l’étage.

Et pourtant, le Minatec est une formidable réalisation. Aboutissant aujourd’hui après un travail herculéen de lobby de Jean Therme, directeur du CEA, et de Paul Jacquet, directeur de l’INPG (Institut National Polytechnique de Grenoble, l'un des viviers actif d’excellence en ingénierie et technologie en France), entamé dès 1999 auprès de la ville, du département, de la région et de l’Etat, le centre pour les micro et les nanotechnologies inauguré aujourd’hui nous replace au niveau des États-unis (Nanotech d’Albany, dans l’état de New York) et du Japon (Selete). Regroupant 6000 chercheurs sur 44km2 de campus, à proximité immédiate de son parent, le LETI, dans des buildings neufs regroupant toutes les technologies de pointe pour la recherche dans le domaine de l’infiniment petit, le Minatec est un instrument unique d’exploration et de résolution des nouveaux défis posés par la miniaturisation dans l’industrie des semiconducteurs.

Quelques Cassandre, et non des moindres, nous ont mis en garde : Bill Joy, un des pères spirituels d’Unix, fondateur de Sun Microsystems, prophétise la destruction de la biosphère par des « nano-robots » échappés des laboratoires et devenus cinglés ; ce dont l’inépuisable Michael Crichton a tiré un thriller apocalyptique, Prey, instantanément élevé au rang de best-seller. Les « nécrotechnologies » fustigées par l’amicale josébovine de Grenoble avec laquelle nous eûmes à en découdre seraient donc en gestation entre le Drac et l’Isère, n’attendant qu’un écart au très constitutionnel « principe de précaution » pour se muer en fléau planétaire. Illustration parfaite de la fin de l’idée de progrès abondamment commentée par Pierre-André Taguieff...

Or de quoi fut-il question pendant la conférence Minatec Crossroads ? De catastrophe pour le vivant ? Non point, mais de nouveaux vecteurs pour les médicaments, d’imagerie médicale avancée, d’approfondissement des sciences de la vie et de la santé ! D’anéantissement de l’écosystème ? Non point, mais de nouveaux capteurs plus sensibles pour prévenir toutes sortes de dangers, d'amélioration de la traçabilité, de sécurité environnementale des équipements électroniques, de dispositifs à faible et très faible consommation d’énergie, de nouveaux matériaux « neutres » ! D’asservissement de l’homme à la machine, devenue infiniment petite et distribuée ? Non point, mais d’avancées dans les télécommunications numériques, de nouveaux téléphones/téléviseurs/PDA personnels à très faible consommation, de très hauts débits et de chips mémoire aux capacités borgésiennes (Funès ou la mémoire, in Fictions).

Les technologies émergents dont le Minatec est d’ores et déjà le spécialiste sont celles qui entraîneront le prochain cycle de croissance de l’industrie électronique et, partant, de pans entiers de l’industrie manufacturière mondiale à moyen terme. D'ailleurs, au fur et à mesure que la taille caractéristique de ces technologies diminue – aujourd’hui l’échelle dans l’industrie des semiconducteurs est de 0,13 ou 0,09 microns (millionième de mètre), mais au Minatec les présentations portaient déjà sur les technologies allant de 65 nanomètres (milliardième de mètre) à 22 nanomètres – leur impact économique met en jeu des équilibres mondiaux à des échelles de plus en plus grandes – Asie, Europe, Etats-Unis.

La société de l’information et la culture de l’innovation – toutes deux tant de fois appelés de leurs vœux par les champions des contre-feux aux « déclinologues » qui accapareraient aujourd’hui les lumières vacillantes de l’intellectualisme français – passent inexorablement aujourd’hui (pour demain) par la maîtrise de ces objets incroyablement complexes que sont les substrats avancés, les FinFET, les « quantum dots », les nano-cristaux que l’on cherche à manipuler individuellement pour construire littéralement de toutes pièces de délicates sculptures invisibles, les interconnexions optiques, les nano-tubes de carbone dont l’usage promet de révolutionner les mémoires puis les unités logiques de traitement, la simulation numérique (maths et logiciels) au niveau atomique, etc.

Alors souhaitons que les résultats scientifiques et technologiques soient à la hauteur des attentes qu’ils suscitent !

Le Java libre

À JavaOne, la grand-messe de la communauté Java organisée par Sun à San Francisco (dernier jour ce vendredi 19 mai !), Geir Magnusson de la fondation Apache a annoncé la mise à disposition des bibliothèques de programmation SWING/AWT dans le projet Open Source Harmony.

Cette annonce s’est évidemment un peu perdue dans le bruit des annonces « Ajax », particulièrement audible lors de cette édition de la conférence annuelle. Sun démontrait, par exemple, de la génération de code Ajax dans son environnement de développement Studio Creator, tandis que Google défendait une approche complètement originale de traduction de code Java en code Javascript (les excursions exploratoires des géants de l’Internet sur les nouveaux territoires Ajax feront l’objet d’une prochaine chronique plus technique). Or la disponibilité d’une implémentation de SWING/AWT dans le projet Apache/Harmony dynamite peut-être le dernier verrou à une implémentation Open Source de Java.

De quoi s’agit-il ? AWT (Abstract Window Toolkit) est une bibliothèque graphique Java pour les interfaces utilisateur. Elle date de la première version du langage publiée dès 1995 – les exégètes de l’histoire du GUI (Graphical User Interface) diront, avec quelque raison, que son « look and feel » est très daté. Elle sert néanmoins de fondation à une bibliothèque bien plus riche, appelée SWING, qui s’est substituée à elle depuis la livraison de Java 2 en 1997. AWT et SWING, qui sont instrumentaux dans le succès du langage Java et surtout de la plate-forme Java (Java SE et ses déclinaisons), a été développé par Sun qui en garde jalousement le secret de fabrication.

Par ailleurs, les relations de Sun avec la communauté Open Source ont toujours été délicates, variant sans cesse de l’entente cordiale à l’orageux et au délétère. Depuis 1999 le débat interne chez Sun entre les partisans de l’Open Source et ses détracteurs ne fait que gronder, loin des feux de la publicité et des grandes conférences publiques. Ayant vu ses résultats financiers passablement écornés par le succès croissant de Linux et des plates-formes Intel sous Linux, concurrençant frontalement ses serveurs d'entrée de gamme, on comprend évidemment que Sun y regarde à deux (ou plus) fois avant de se rallier au libre.

D’où (comme Microsoft) une approche prudente, que certains jugent timorée, sur ce nouveau terrain. Le site SunSource.net, par exemple, regroupe les projets que Sun a progressivement versés au domaine des logiciels libres et Open Source (JINI/JXTA, etc.). En 2005, dans un mouvement plus audacieux dont Jonathan Schwartz était l’inspirateur, c’est son système d’exploitation tout entier, Solaris, que Sun versait au domaine du logiciel libre. Ce même Schwartz avait été nommé COO de la société concomitamment au règlement du procès Sun-Microsoft d’avril 2004 qui voyait Microsoft verser $700m à Sun pour éteindre le procès anti-trust, puis $900m pour les arrêter les poursuites pour exploitation illégale de brevets (sur 10 ans tout de même !). En échange les sociétés s’engageaient à se payer réciproquement les royalties sur les technologies de l’un employées chez l’autre. Et quel était le sujet de cette « collaboration » forcée : la machine virtuelle Java et la plate-forme Java dans l’univers Windows, bien sûr.

Aujourd’hui, Jonathan Schwartz a remplacé Scott McNealy au poste de CEO de Sun. (McNealy lui a laissé sa place fin avril 2006.) Depuis la rumeur d’une « libération » de Java circule avec insistance dans la blogosphère et les cercles éthérés des cognoscenti. Les règles de compatibilité Java, édictées par Sun, et qui doivent impérativement être respectées pour obtenir le label « compatible », comportent depuis le début une clause échappatoire pour le constructeur.

Pour être compatible, les implémentations tierces doivent fournir une bibliothèque de GUI SWING/AWT, mais les tests de compatibilité ne sont pas définis. En conséquence les exploitants de la licence Java sont, pour être compatibles, dans l’obligation d’utiliser la seule implémentation légitime : le code développé par Sun, et donc propriétaire. Sun a accepté de faire une exception dans le cas de l’intégration de Java dans l’interface Aqua de Macintosh OS X d’Apple – probablement sur la base que le marché d’OS X était trop petit pour être si regardant. À l’inverse, IBM dont les premières livraisons de l’atelier libre Eclipse ne comportait pas SWING/AWT a bien été conduit à en passer par ces fourches caudines sous le poids de la demande des développeurs Java utilisateurs d’Eclipse.

Le projet Harmony d’Apache (http://incubator.apache.org/harmony/), comme le projet Kaffe de la fondation GNU (http://www.kaffe.org/) sont des projets d’implémentation libres de la machine virtuelle et de la plate-forme Java – il y en a d’autres à des états divers d’avancement, les deux précités sont les plus actifs. L’attitude officielle de Sun est de ne pas considérer ces projets comme des menaces directes arguant que le manque d’organisation de ce type de développement se prêtait mal à l’ambition affichée. Et il est vrai que ce n’est pas une mince affaire que de (re)développer toutes les bibliothèques de la plate-forme Java. De plus, Sun avait également transigé avec la fondation Apache sur le projet de serveur d’applications de la fondation, en acceptant de le certifier « compatible ». La certification, annoncée en octobre 2005, venait à point nommé dans l’imbroglio juridico-légal qui opposait la fondation Apache et JBoss – racheté depuis par Red Hat, tout se tient ! – sur la propriété du code « souche » des deux serveurs d’applications concurrents.

Aujourd’hui, Sun apparaît donc comme pris de vitesse. Le projet Harmony livre sa propre implémentation du chaînon manquant avec SWING/AWT contournant le verrou de procédure laissé par Sun dans la certification. Comme le disent les bloggers, il faudra probablement peu de temps à telle ou telle distribution Linux pour intégrer Harmony (tout en laissant la version non libre de Sun dans son répertoire avec tous les caveat qui s’y attachent) et fassent le lit du Java libre.

ShareThis